
法学前沿
Frontiers of Law
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-7101(P)
- ISSN:3080-0684(O)
- 期刊分类:人文社科
- 出版周期:月刊
- 投稿量:0
- 浏览量:240
相关文章
暂无数据
人工智能体法律地位的法理学研究
Legal Jurisprudence Research on the Legal Status of Artificial Intelligence Agents
引言
要研究人工智能体法律主体地位,首先得从人工智能的发展历程入手,这可以回溯到20世纪50年代。1956年,在达特茅斯会议上提出了人工智能(简称AI)这个概念,并开始了这一领域的研究;而后英国数学家约翰·冯·诺依曼发表了第一篇关于人工智能的论文,提出了人工智能可以解决复杂问题,让机器有能力去模仿人类的思维活动的概念。随着一系列概念的提出,在20世纪60年代到70年代的十年时间里,人工智能有了很大的创新,如机器定理证明、跳棋程序等。但是,事物的发展总是螺旋上升的,在之后的二十年时间里人工智能的发展遇到了瓶颈,人们开始意识到要实现人工智能的广泛应用并不现实,遭受了一定的质疑。然而,时代的发展是向前推进的,随着计算机技术的发展,网页时代来临,人工智能研究重新焕发了活力,迈向了实用化的新征程。人工智能在新时代衍生出了各式各样的新鲜事物,人工智能技术发展研究取得重大的突破,譬如人工智能体(以下简称AI Agent)。比如从2016年AlphaGo打败人类围棋选手李世石,再到2020年世界人工智能峰会发布全球首支人工智能合唱MV,由四位虚拟歌手合唱人工智能编写的歌曲《智联家园》。从以上实例可以看出,人工智能的智能水平已经达到了能与人类进行互相交流的境地。目前,人工智能在现实生活中已经能为人类带来视听享受与生活便利,同时这也意味着人工智能在社会生活中扮演着愈发重要的角色。基于人工智能的地位变化,循着人工智能的历史沿革,首先需要回答的法律问题是“机器人是机器还是人”的法律主体性问题。虽然现代技术的迅猛发展给人类带来了巨大的福祉,但也带来了诸多“世界性难题”,比如在人工智能发生具体侵权纠纷时,如何认定人工智能责任,这是当前AI领域值得探讨的问题。
一、研究综述
目前,国内关于研究人工智能体法律主体学说主要包括肯定说、折中说、否定说等。这些大学说下面又分为不同专家学者的细致观点。这些学说为我们更为明确地认识人工智能法律主体问题提供了参考价值和研究方向。
(一)肯定说
肯定说的态度在于赞同主体说,主张赋予人工智能法律主体地位,该说认为随着人工智能技术的不断进步发展,其行为也会日益趋向于以人为主体的活动。例如在法律主体发展进程中,法律主体也从原来的自然人过渡到自然人、法人和非法人组织,从法律上赋予这三类主体以法律权利义务。肯定说的观点如下:
1.电子人格说
AI的“电子人”法律主体地位概念出自欧盟议会法律事务委员会他们认为其具备担责资格。在这一概念提出之后,我国学者郭少飞率先赞同该学说,它通过思考人工智能之间的关系,从而重新诠释了“电子人”的含义,并从法理和司法模拟中认为人工智能法律主体地位具有可行性。主要做法就是:长期以来我们都着手于AI法律地位的确立,目前已经可以较为完整诠释“电子人”的地位,让其代替人类承担相应的侵权损害的责任,然后不断把“电子人格”推广于那些需要机器人独立决断的案件。
2.电子代理人说
“电子代理人”的概念由来已久,最早见于美国99年施行的《统一电子交易法》。从美国法律可以得知,电子代理人名为电子,实为人类在电子合同交易中的代言人,即为代理人,按照人类的想法行事,具有独立人格和排他性,这是新型代理关系。
3. 法律拟制主体说
学者杨清望、张磊见坚持主张主体拟制说。他们认为,当前适应时代要求,需要明确AI法律主体地位。不过由于AI的法律特殊性,需要明确其以何种身份承担责任,于是进行了一个合理的拟定,认为AI可以被拟制为法律主体地位,即拟定的法律主体。他们认为,AI具备了人类的思维能力,已经超过了传统概念上的“物”的范畴,但毕竟AI摆脱不了作为人类的附庸,目前的方案是,可以像设立法人一样,依法设立一个新的主体,赋予其与法人一样的法律地位。另外还有学者指出,同自然人主体相比,在已经实现了对这种主体的拟制的基础上,虽然之后伴随着一些权利上的限制,但AI拥有拟制人格,有自己的权利和义务,可以独立担责。
(二)否定说
否定说又被认为是法律客体说,该说的态度在于:反对过度神话人工智能,人工智能本质上是生产生活工具,只不过人类把劳动工具从主观性转化为客观性而已,实际上其作为实践的客体存在,从这一点上否定其作为法律主体地位的现实基础。支持否定说的学者还认为,基于当前法律框架内的法律主体已经成型,赋予人工智能法律主体地位会导致法律主体的无序和紊乱。支持否定说的言论主要是工具说,他们认为人工智能算法的产物,其任务和目的很明确:就是为了人类和社会的进步而服务,归根到底是物。它不具有人的思维方式,也不具有人的理性、情感、道德,终究落后于人类。因此,否定说支持人工智能作为法律客体地位。
(三)折中说
“折中说”在认定人工智能的法律主体地位的问题上持中间态度,该说首倡“第三种物质说”,顾名思义,人工智能就是这第三种物质,他们认为人工智能是一种区别于人和物的物质,在人和物的中间位置,这种物质又分为弱人工智能和强人工智能,强的是主体,弱的是客体。该学说经过整合,主要理论基础是拟制主体说,它既吸收了拟制主体说中有益成分,又规避其糟粕,即前者的理论缺陷。该学说认为人工智能具有独立、认知、学习能力,在能力体现上再进行划分为强、弱人工智能,不能单纯认定其为法律客体。故而折中说认为强人工智能为法律主体地位,而弱人工智能为法律客体。
(四)辨析人工智能法律地位学说
从以上观点中不难看出,关于人工智能法律地位的学说没有形成一个统一的观点,但总而言之,不外乎从人工智能作为法律主体地位的特性、人工智能客体地位优势,以及人工智能享有权利义务等方面展开推理和思考。以上观点和看法都是人类对于人工智能相关法律制度的先前探索和想象,其目的都是为了解决人工智能带来的发展难题,以便更好地推进人类的发展。但是,经过缜密分析,本文认为上述观点仍存在需要加强的地方。
首先,肯定说的“电子人格”和“电子代理人”都主张把人工智能拟制为有个性的人。但是,目前关于明确人工智能法律主体地位的学说仍存在较大的疑惑。疑惑在于:即使欧盟率先认定了人工智能拥有人格,即“电子人格”,但是当时或者如今相关的制度规范还没有形成,比如,关于人工智能法律主体的认定标准和申请认定的事实主体还未确立;我国“电子人格说”认为人工智能法律主体资格的产生也需要一定的法律流程,并不是一产生就自动生成的,而是要进行认定,比如要有关单位赋予资质证书,从而形成法人资格,但申请该资格的申请者是谁仍不明晰。
折中说局限性在于:虽然该说不存在过于激进的问题,但是其认为有第三种物质存在,然后便要制定区别于人、财之外的第三种法律,否则对第三种物质的调整将无从谈起。这种学说认为人工智能的本质是工具,并不能具备主体资格地位,同时作为客体地位时要考虑是否具有智能化水平,这种学说事实上属于肯定说的边缘范畴。因此,其观点的原理限制了人工智能作为法律主体的权利同时又不与法律客体地位相融,将人工智能法律地位置于中间两难,实际上在一定程度上削弱了其法律主体地位,这将导致人工智能与人类在法律关系中处于不清楚和不平等地位,特别是在人工智能的权利义务处于模糊状态下,需要充分考虑主体数量和双方平等的民事法律关系,这种有限人格与自然人的关系将造成很大的民事矛盾。因此该学说忽略了人工智能在法律上相较于自然人、法人、非法人组织的法律主体地位,其法律主体地位该何去何从,是否考虑在立法上对其进行认定,即法律认定自然人、法人、非法人组织拥有共同的法律地位?若在不同的情况下,侵权发生时,如何分配责任?何时情况下才是特殊的主客体转化的情况?这一系列问题也在逐渐打击该学说的说服力。
否定说认为现阶段没有必要赋予AI以法律主体地位,因为产品责任制度规制,譬如《侵权责任法》对AI侵权行为仍有很强的适用性和规制性。在现实生活中,AI主要遵循的是危险责任或者无过错责任的归责原则,这些原则在很大程度上都能指导AI的案例的有效裁决。例如在无人驾驶汽车致人损害时,无论从产品责任还是交通事故责任上看,都可以用侵权责任法律制度中的无过错责任进行推定,即使出现较为复杂疑难的个案,法律仍具有灵活性、适用性。同时,在司法实践中,法律工作者通过法律原则、法律解释、参照适用等合理的方式加以化解,因此AI的法律属性应以客体加以规制。目前,我们所处的人工智能时代还没有达到任由AI左右的程度,客体说在日常生产生活中的确适用。人工智能主体否定说的理论基础符合客观实际,该说认为人工智能自主思考意识缺失、理性思维能力不足,并且与当前人工智能的实际状况相结合得出的结论。因此,他们主张要明确AI客体法律地位,分析AI与法人、非法人组织、自然人的关联性和差异性,以期对AI进行更为准确的界定。
综上所述,本文赞成否定说。毕竟AI为人类所谋所想所用,其行为在本质上是受自身算法驱动的产物,并不具备人本主义思想,没有自己做主的独立意识和能力,怎么能贸然将其认定为法律主体呢?万一AI对人类财物造成了伤害,如何运用其法律主体资格承担罪责?面临种种扑面而来的疑难问题时,我们的法律思维要从基本逻辑和理论建构的起点开始构思,从AI本体、作为主体的实际意义等层面进行研究,不能武断认为其具有主体法律资格的特征。
二、确立人工智能法律地位的必要性
首先,赋予AI Agent法律地位是现实和历史的必然选择。目前AI Agent是人类发明的产物,为人类生产生活的便捷进行服务的,在这服务过程中,难免会产生一些民事或者刑事关系上的纠纷,这些纠纷如果处理不当,往往会导致严重的社会矛盾,阻碍人类先进科技的发展进步,因而这层法律关系是界定在人类之间还是AI Agent之间或者AI Agent与人类之间,这需要深刻考量。针对当前AI Agent的处境,本文从责任承担、立法两个方面探讨确立AI Agent法律地位的必要性。
(一)责任承担方面
AI技术已经覆盖了我们日常生产生活的各个方面,在农业现代化灌溉、线上教育平台、医疗遥控远程手术、军事人工智能等各个领域都有涉猎。在这些年,在智能技术发展相对成熟的西方,很多发达国家对AI的实用性进行很多积极的研究,比如牛津大学人类未来研究所的安德斯·桑德伯格研究员提出一个疑惑,即“科林格里奇困境”,这个困境的含义是:“在这项技术早期没有办法预料到它会造成的社会后果,它将成为改变社会的普遍技术”。因此思考如何为AI造成的后果进行一个法律上的追究,是为AI定性的一个必须回答的问题。
1. 隐私泄露严重
基于大数据时代杀熟的现象,我们的隐私逐渐暴露在大街小巷的监控里和卫星遥感技术下的地图中,隐私泄露问题已经司空见惯。更有甚者,一部分企业为了收集用户信息,提高商业效益,不断侵犯客户的隐私,使得互联网用户在网络上处于“赤裸裸”的状态。随着AI技术的普及,隐私泄露的风险也在增加。例如AI通过大数据带来的资料,对摄像头里的影像资料进行精准采集,然后进行影像扫描和分析,可以精确识别到一个自然人的实时动态,并能查找到他的行动轨迹;还有,通过AI换脸技术模仿他人然后对被模仿者的朋友或者家人进行钱财诈骗等。总而言之,目前大部分人的隐私都已经精准暴露在公共视野中,因此重视隐私权的保护是未来AI在收集分析用户信息时需要考虑的一个问题,特别是隐私方面的安全问题。
2. 劳动竞争激烈
AI的出现导致了工作格局的更迭,现在机器劳动也在不断侵蚀着人们的工作岗位,很多工人为此失去了工作机会。目前AI在创造大量管理岗的时候,都会伴随着职工下岗和部分流水线被取代,其实它们本质上也是一种在工作层次方面取代人类的物体,而不像从前只是冷冰冰的劳动机器。从现代经济活动运行的各个流程中分析,从原材料到技术加工,再到通过智慧集成创造出的产品和服务,AI技术研发出的机器设备的身影已经遍布经济活动的各个流程,甚至是在智囊团和管理层极其重要的体系中。譬如人脸识别或者轨迹识别可以识别员工动向,方便管理层进行公司管理;多名医生专家进行远程协同手术等。基于此,AI已经拥有了一定的工作能力,它们能够快速投入并取代很多之前必须由人类工作的岗位,但这也会产生更严重的物质分配问题,如果处理不当会造成贫富差距不断扩大,从而造成社会不稳定和不公平。
3.伦理冲突加剧
随着大量的智能机器设备进入到社会的各个角落,人类面临着一系列对自我价值和人类与机器之间的关系问题的否定思考。其中的伦理和价值问题影响着每个人之间的基本相处关系和基本权益。众所周知,研发人工智能的初心在于创造出具有高智商和高情商的工作载体,并按照人类的相貌和法律属性,给予人工智能相似的权利,这事实上已经在把人工智能往拟制人类上进行发展,这无形中对人类的伦理性问题产生了冲突。试想到那个时候,AI摆脱人类的束缚和管理,对各个生产生活领域能按照自己的想法进行行事,不断提升自己的价值和能力,成为一个全新的比人类优秀的种群,并潜移默化地从人类的附庸逐渐蜕变成“人”,与人类一样拥有劳动权、生命权等基本权益,那时候人类把握历史发展的主动权可能就会逐渐遗失。因此,要把伦理性问题与AI的定性问题关联,明确AI所担负的道德责任与义务。
(二)立法方面
1. 人工智能对著作权法的挑战
现如今,AI创作逐渐成为常态,AI作品是否应被赋予著作权以及归属于谁,将决定文化产业发展新格局,同时也影响着现行法律的修订和调整。在现行著作权法框架下,无论是大陆法系还是英美法系,著作权法都特别强调“人”的独创性,认为AI创作作品暂且不受到著作权保护。但是,在AI时代,知识产权的主客体法律关系将面临革新洗牌的命运。近期,随着ChatGPT、Deepseek的问世,AI创作作品呈现出繁荣的局面,同时也引发了关于AI创作作品著作权问题的热议。2018年,美国版权局对一位作者使用智能绘画工具Midjourney创作的插画案件进行裁定,认定该作品不是人类制品,而是由机器自动生成,所以该插画不受著作权保护。与美国裁判结果相反,2020年,深圳市南山区人民法院就裁决了我国首例人工智能生成文章著作权侵权案件,该案的内容是:腾讯公司诉网贷之家网站所转载的一篇由腾讯公司机器人Dreamwriter文章作品,法院最终裁定AI具有著作权,被告侵害了原告信息网络传播权。
从以上案例可以看出,国内外关于AI是否具有著作权这个问题还没有形成统一的观点,但是从客观角度分析,我国著作权法对AI的未来发展具有包容性和适用性,所以人工智能当前的创作水平,尚不足以撼动著作权法的基本框架,但是生成的作品的独创性、权利归属和使用范围问题是要解决的。2020年新修订的《著作权法》第三条对人工智能创作成果的保护提供了空间。综上所述,应对著作权法所面临的挑战,需要解决人工智能作品的独创性问题、著作权归属问题,在此基础上通过完善现有法律,进一步思考对人工智能创作的成果法律保护的必要性。
2. 人工智能对劳动法的挑战
人工智能成为劳动力以来,不仅丰富了劳动的内容与形式,还在一定程度上增加了人类财富。但是,人工智能对劳动的取代意义是双面的。从取代程度来看,人工智能技术奇点到来时,人工智能可以在短时间内实现行业领域全覆盖,这种取代将是颠覆性的。随着取代过程的逐步进行,整体人类的工作时间会不断减少,给部分劳动人民带来了就业压力。
还有,人工智能的推广会影响到工资和福利。在传统的劳动关系中,工资和福利通常是根据工作量和劳动者的技能来确定的。然而,在人工智能普及的情况下,工作的自动化可能会改变这一点。因此,劳动法应当规定相应的制度,确保劳动者的工资和福利能够得到保障。
综上所述,为了应对这些挑战,我们需要对劳动法进行相关修改和调整,通过加强社会制度建设,保障劳动者的基本权益,确保社会和谐稳定发展。
三、基于马克思主义人本思想评价人工智能法律地位
马克思认为:人是社会的主体,强化人的本质,发展人类本身与人类社会,推动历史进程。因此以下对人工智能法律主体地位进行深入剖析,探索其是否具有主体地位的潜在价值。
(一)从人的本质角度评价
目前我们对于人工智能的恐慌源于对其定位问题不明晰。回应这种恐慌的关键在于如何正确理解人的本质和特征。
首先,人的本质是社会关系的总和。马克思认为“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”在人类诞生之初,为了解决生存问题,人们选择了劳动,在劳动过程中,人们相互帮助,产生了各种生产联系和其他社会关系。因此,人的本质不是抽象物,而是一种类存在物,是一定社会关系的总和。人工智能技术的诞生,是生产力发展的结果,它既是一种生产实践活动,又是一种实践工具和手段。一方面,人工智能技术本身就可以作为一种媒介,搭建人们之间的社会联系,增强人的本质属性。另一方面,它由人创造,人居于主体性;它又反作用于人,突出表现为客体性的辅助作用,这在本质上否认了其作为主体地位的论断。
其次,人的本质是劳动与实践。实践是人类和人类社会存在的基本方式,创造和发展了人的一切社会关系,而生产力是人们劳动实践的结果,最终也会成为社会发展的决定力量。人工智能本质上是一种使人的劳动对象化的活动,它是使人掌握这一劳动工具,并对劳动对象采取行动的过程,即劳动客体化的过程。同时在此过程中,人类的实践活动不断丰富,社会关系不断复杂。因此,人工智能要朝着认识和掌握人的实践本质方向迈进,明确其作为人的实践客体的理论基础。
(二)从人的特征角度评价
马克思认为,人的本质决定了人的特征。
首先,人具有意向性。德国现象学哲学家E.Husser认为,人类进行实践活动时,意识总是有方向性地指向实践对象,并以其为目标和目的。在实践中,人类可以有实践目的性,机器没有生命,没有独立的意志,机器的行为甚至是不具有持续性的,通电的时候就会运转,关机的时候就会停止。最重要的是,机器不具备学习和知识生成能力,只能依靠人类灌输知识。因此机器无法在没有意识的基础上,向世人呈现自己的个性。
其次,人具有社会实践性。马克思认为,人本身是在劳动实践中产生和发展的。基于以上论断,我们深知虽然人工智能是由人类智能创造的,但它永远无法取代人类智能。人工智能的载体是一种机器,它受限于自己的载体、资源和工作条件,不具备社会实践性,虽然具有自己独特的算法,但这些都不能和人的自然智能属性相提并论。
再者,人具有主观能动性。在现实生活中,意识具有鲜明的鼓舞意义,通过思维、想法、感情等指导人们进行物质活动。恩格斯指出“我们对整个自然界的统治,是在于我们比其他一切动物都要强,能够认识和运用自然规律。”今天看来,这更是人区别于机器的根本标志。人类智能与人工智能不同,人类不仅是信息接收和处理器,更具有鲜明的文化烙印,具有文化自信力,是一种高级的运动形式。人工智能不具备对事物的判别和推理的能力,也没有人的主观能力,是一种低级的运动形式。
综上所述,本文认为人工智能技术来源于人类,正是因为人有意识目的性的实践活动,才创造出了人工智能,并且人工智能目前仍没有拥有人的社会意识。基于此,笼统用法律框架定义人工智能主体地位不符合马克思主义人本思想的发展趋势。与此同时,人工智能作为一种工具,是推进社会进步的物质力量。因此,从人类发展的本质和特征出发,剖析人工智能是否具有法律主体地位的人本性,可以进一步奠定人的主体地位,稳固人工智能作为法律客体的理论基础,促进人与人,人与人工智能之间的良性发展。
(三)定义人工智能的法律主体地位存在的问题
自诞生之日起,人工智能技术就在一步步地改变人类生产生活格局,在科技创新上彰显了突出的价值。然而,事物都具有两面性,这决定了人工智能技术具备正向价值的同时也会存在逆向价值。由于人类对新兴事物的理解不够,对人工智能过于滥用,导致人工智能技术出现异化,由此产生的逆向价值也对人类的生产生活产生不小的影响。基于此,如果断然定义人工智能法律主体地位可能会颠覆人类对自我价值和理想信念的认知,阻碍社会的和谐发展。
一百多年前,马克思对这种苗头做了精妙的比方:“随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身卑劣行为的奴隶,甚至科学的纯洁光辉仿佛也只能在最愚昧无知的黑暗背景上闪耀。”人工智能大规模量化生产,会造成人类精神被蚕食和占领,如若把人工智能作为独立人格对待,人类的精神空间可能会发生颠覆性改变。试想,人类将与一个冷冰冰的“物种”相处于同一个世界里,在法律上享受相同的权利和履行相同的义务,具有一样的法律地位,到时候这个世界遍地都在被冷冰冰的机械支配,人类的精神和现实被不断地侵害。
(四)人工智能作为法律客体的现实基础研究
首先,经过上述分析得知人工智能是人类实践的产物,是人类实践的客观工具,是实践客体,通俗而言就是实践对象。根据现有研究,人工智能的功能支撑仅包括算法、大数据,其产业主要在专用领域推广。可见,人类对人工智能的研究仍处于初级阶段。换言之,目前其知识库完全来自于人类的知识储备和学习能力,然后进行数据输入,这些数据被人类掌控且被应用于符合社会发展需求的专用领域,被人类掌控,其行为在现行法律范畴内,因此目前不具备动摇法律主体制度的现实基础。
其次,从实践表现看,当人类面临重大灾难时,人工智能仍是一种人工辅助工具。但是在重大灾难面前,决定社会发展走向的时候,人类才是实践的主体。相比之下,人工智能的作用在于提供信息服务,做到协调人类工作之间的联系,帮助政府做到智能化管理,起到实践辅助作用。
再者,从法律规范看,法律的客体就是权利义务指向的对象。从法律上说,人工智能不具备担责性,与法人相比,它没有独立的财产和意思自治机关;与自然人相比,它没有情感和理性的思维方式。虽然随着时代发展,法律也在与时俱进,但是法律客体也就归结于有形物和无形的智力成果、人格利益、行为等。因此,人工智能尚且被包容于法律框架内,理所应当以法律客体地位作为定位。
因此,倘若强行将法人拟制为法律主体,如同将股票、债券拟制为物,这种拟制并不符合客观实际和不利于社会和谐发展。
四、规范人工智能法律地位的举措
前文已经对人工智能不具备法律主体地位的理由进行了阐述,也解释了人工智能作为法律客体的优势,因此下文基于人工智能法律客体地位进行研究。
(一) 加强人工智能的立法研究
我们正处于飞速发展的新时代,社会的各个方面都在日新月异,法律此时也在不断适应时代要求,但是难免会存在滞后性。但是不能让滞后性影响到社会生产力的发展,所以必须在时机成熟之时,在立法工作中可以适当把眼光超前放一些,在制定相关法律和规章过程中考虑对人工智能的法律地位实行登记制度,采用编码形式对其身份信息加以甄别,这样可以明确各方的权利义务关系,为立法提供保障。
同时,在立法研究的基础上,充分把握人工智能伦理道德与法律制度制定中的二者平衡问题,坚持以人为本的立法理念,把人类的人格权与人格尊严摆在首位,实现人工智能伦理道德和法律同方向和谐发展,制定出与人工智能相配套的相关法律制定,促进社会的良性、健康发展。在实践操作中,构建人工智能伦理规范机制体制,由政府相关部门进行监督管控,以防社会秩序紊乱,出现严重的伦理道德问题。道德与法律的平衡的目的是让AI推动社会前进发展。
(二) 完善人工智能的技术保障
人工智能在给我们带来很大便利的同时,自身也产生了一些痛点。比如在进行AI识别图片时,曾出现这样的一个案例,谷歌的智能软件将大猩猩照片识别为黑人照片,这归根于自身的算法错误;微软同样也产生过这样的错误,AI识别人种时,因为受到人类的干预和左右,出现了严重的性别歧视,导致整体的算法规则变乱。因此,人工智能在技术层面上要革新,规范专业研究的流程,争取研究的透明化和公正化,也要进行研发的产品监督和预审,制定相应的市场准入机制体制,规范人工智能的技术发展。在具体实践上,要注重软件开发和设计时的网络端口问题,防止被不法分子进行恶意切入,所以专业技术人员要对网络端口进行限制加密处理,及时进行审查工作。
(三)试行人工智能法律监督委员会
人工智能在发展中难免会出现技术或者伦理与法律问题,不能时时依赖司法部进行调查监督。因此,在这种情况下,建立一个专门监督人工智能发展进程的部门显得尤为重要。建立这样一个部门的意义在于,能够制定出符合人工智能发展的方针政策和相应的法规、统一监督管理人工智能的生产活动,防止一系列侵权行为的发生。
在进行人工智能管理主体的界定问题上,我们可以参照发达国家的做法,建立相应的主体注册制度,把这一切都下放到生产公司和相关组织,方便人工智能法律监督委员对监督管理主体进行审核和统一管理,同时可以在侵权行为发生时,方便查找相关责任主体,及时高效地进行追责。建立主体注册制度的意义在于:一是对人工智能研究、生产、应用过程起到科学监督、规范指导作用;二是能够利用监控等,让法律监督部门进行不间断的跟踪调查。在部门人员分工问题上,可以设立多个分支机构,实现分工协作,然后建立一个统一的指挥部门,方便各个分支部门将相关情况及时汇总,最后有效地得出具体人工智能产业的改进方案。在实际操作中,可以定点在医疗、金融、智能汽车等领域进行精准分工合作。综上,当前可以试行这一监督委员会,在实践中不断完善人工智能产生的社会问题。
五、结语
基于上述研究,笔者认为人类是情感、思维、实践的复合体,人类大脑的运作有复杂的机制,这个机制是人工智能不能模拟推演为人类的客观因素。而以人类为规制中心的法律经过了长期实践发展,天然不适用于人工智能。在现有的法律主客体格局和法律框架中,人工智能带来的法律问题也在不断在司法裁决中得到有效解决,部分案件也纳入到指导案例,因此目前没有将人工智能拟制为法律主体的合适时机和必要性,如若非要拟制,那可能会导致人的自我价值和理想信念降低层次,以及物对人的异化,应加以规避。因此,把人工智能作为法律客体来适用比较妥当,这既不违背人类的伦理道德,又能在法律框架内促进社会的和谐发展。目前对人工智能法律地位定性问题的争论和研究还在继续,未来需要更多的学者和专家进行长期的科学实证和探讨。未来,人工智能作为法律主体的研究仍需在社会和人工智能技术的进步发展中进行实证,以便进一步夯实其法律地位的法理学基础。
参考文献:
- [1] 岳彩申,侯东德,张建文. 人工智能法学研究[M]. 北京: 社会科学文献出版社,2019.
- [2] 孙建伟,袁曾,袁苇鸣. AI智能法学简论[M]. 北京: 知识产权出版社,2019.
- [3] 中共中央马克思恩格斯列宁斯大林著作编译局. 马克思恩格斯全集:第12卷[M]. 北京: 人民出版社,2012.
- [4] 郭少飞. “电子人”法律主体论[J]. 东方法学,2018(03):40.
- [5] 袁曾. 人工智能有限法律人格审视[J]. 东方法学,2017(05):8.
- [6] 杨清望,张磊.论人工智能的拟制法律人格[J]. 湖南科技大学学报(社会科学版),2018(06):93.
