华南理工大学学报(社会科学版)   2020, Vol. 22 Issue (5): 21-29  DOI:10.19366/j.cnki.1009-055X.2020.05.003
0

引用本文 

卢宇, 邓文迪. 人工智能刑事责任主体否定——基于资格、行为、刑罚的检视[J]. 华南理工大学学报(社会科学版), 2020, 22(5): 21-29. DOI: 10.19366/j.cnki.1009-055X.2020.05.003.
LU Yu, DENG Wen-di. Negation of Artificial Intelligence Subject of Criminal Responsibility—Based on the Inspection of Qualification, Behavior and Penalty[J]. Journal of South China University of Technology (Social Science Edition), 2020, 22(5): 21-29. DOI: 10.19366/j.cnki.1009-055X.2020.05.003. #esle

基金项目

江西省2019年度研究生创新专项资金项目"人工智能体刑事责任问题理论与实践研究"(YC2019-S268)

作者简介

卢宇(1971-), 女, 博士, 副教授, 硕士生导师, 主要研究方向为刑法学;
邓文迪(1995-), 男, 硕士研究生, 主要研究方向为刑法学

文章历史

收稿日期:2019-12-18
人工智能刑事责任主体否定——基于资格、行为、刑罚的检视
卢宇, 邓文迪    
华东交通大学 人文与社会科学学院, 江西 南昌 330013
摘要:人工智能刑事责任问题避不开对主体资格的讨论,在无法满足犯罪主体概念确定的法律主体资格、危害行为、刑事责任三要件的前提下,难以承认人工智能刑事责任主体地位。首先,人工智能缺乏权利诉求的主观基础以及人类中心主义法治发展背景下的客观障碍使得其法律主体资格无法被赋予。其次,人工智能行为虽然满足有害性以及有体性的特征,却因为自由意志无法由技术手段获得而缺乏行为有意性特征,导致其无法被规范评价为刑法意义上的危害行为。最后,在肯定刑罚反制主体资格的前提下,对人工智能施加刑罚难以实现刑罚预防犯罪的目的,并且人工智能因为情感功能的缺失也无法体会刑罚之苦以及刑罚之仁,无法补足刑罚的社会功能,因而抑制刑事责任的承担。
关键词人工智能    刑事责任主体    主体权利    有意性    刑罚    
Negation of Artificial Intelligence Subject of Criminal Responsibility—Based on the Inspection of Qualification, Behavior and Penalty
LU Yu, DENG Wen-di    
School of Humanities and Social Ssciences, East China Jiaotong University, Nanchang 330013, Jiangxi, China
Abstract: The problem of criminal liability of artificial intelligence cannot be avoided from the discussion of subject qualification. It is difficult to recognize the status of subject of criminal liability of artificial intelligence on the premise that it cannot meet the three elements of legal subject qualification, harmful behavior and criminal liability determined by the concept of criminal subject. First of all, due to the lack of subjective basis for the claim of rights and the objective obstacles under the development background of human-centered rule of law, the legal subject qualification cannot be granted. Secondly, although the behavior of artificial intelligence meets the characteristics of harmfulness and physicality, it lacks the characteristics of intentional behavior because free will cannot be acquired by technical means, which leads to the fact that it cannot be standardized and evaluated as a harmful behavior in the sense of criminal law. Finally, on the premise of affirming the subject qualification of penalty counteraction, it is difficult to achieve the purpose of crime prevention by applying penalty to artificial intelligence, and because of the lack of emotional function of artificial intelligence, it is unable to experience the pain of penalty and the benevolence of penalty, and cannot make up for the social function of penalty, thus restraining the bearing of criminal responsibility.
Keywords: artificial intelligence    criminal responsibility subject    right    ntentional    penalty    
一、问题的缘由

“人工智能”这一概念最早是于1956年在美国举办的一次学术研讨会上提出的。而当时也仅仅是从解放人类劳动力方面提出的思考——如何让人类轻松地支配另一物体帮助自己实施某些行为,因此而演变出人工智能最初的定义,即通过技术改造使得某一物体具有像人类一样思考的大脑,可以控制类似于人类的身体帮助人类完成一定的工作。随着人工智能技术的不断发展,从各个方面对人工智能的研究同步进行,也就出现了人工智能定义的多样性。人工智能可以从两个维度和四个途径来定义,两个维度是指思维和行动,四个途径则是指图灵测试、认知建模、思维法则和合理行动[1],这也是在各科研人员以自己的方式对人工智能研究而得出的建构人工智能的方式。正因为人工智能研究的多样性,当人工智能技术真正步入社科领域时,便会影响到社会学、经济学以及法学等人文学科的发展以及走向。2015年大众机器人“杀人事件”、2016年Twitter聊天机器人“言论侮辱事件”以及2016年特斯拉自动驾驶汽车车祸致死事件,这些人工智能事故的发生无不牵动着民众的心向。2019年5月16日,第三届世界智能大会发布《关于“人工智能发展与法治保障”的天津共识》,会议对人工智能立法、司法等问题进行了深入探讨,人工智能问题在法学领域引发激烈讨论。

①   参见百度百科:https://0x9.me/Q2XM0

②   2015年6月29日,德国汽车制造商大众公司称,该公司位于德国的一家工厂内,一个机器人杀死了一名外包员工。死者22岁,在安装静止的机器人时,被机器人抓住,挤向了一块金属板。参见:http://jd.zol.com.cn/631/6312184.html

③   微软开发的Twitter人工智能聊天机器人Tay上线首日就出现了问题,不但辱骂用户,还发表了种族歧视和性别歧视言论。参见:http://www.smartlifein.com/robot/201603/5655.html

④   2016年1月20日,因事故死亡的车辆驾驶人——23岁的高雅宁,驾驶一辆特斯拉汽车在京港澳高速邯郸段行驶时,与前方的道路清扫车发生追尾事故身亡。经交警认定,事故中,驾驶特斯拉的司机高雅宁负主要责任。参见:https://www.sohu.com/a/228965384_451144

刑法领域的众位学者一展前瞻性法治理念,积极在刑法领域内关注人工智能致害事件的刑法问题,如自动驾驶汽车发生交通事故责任认定问题。有学者在否定人工智能法律主体资格的前提下,主张由自动驾驶汽车的设计者、制造者、销售者、监管者、所有者或使用者分配刑事致害责任[2]。另有学者在肯定强人工智能具有刑事法律主体资格的前提下,为了解决自动驾驶汽车致害的责任分配问题,主张由自动驾驶汽车独立承担责任[3]

从上述实际问题的研究路径来看,无论人工智能致害事件的刑事研究进展如何,人工智能刑事责任主体问题都是基础性、不可避免要触及的壁垒。在人工智能刑事责任主体问题研究中,以刘宪权教授为代表的人工智能刑事责任主体肯定论者支持将人工智能作为刑事责任主体,认为强人工智能具有与人类相当的辨认能力和控制能力,当其在程序设置之外独立实施危害行为时,应当承担刑事责任[4]。但是否定的声音也不绝于耳,代表观点由叶良芳教授提出,其认为即使人工智能技术发展到强人工智能水平,人工智能主体地位也无法被赋予[1]。对人工智能刑事责任主体地位的争议无非是肯定与否定,本文赞同否定人工智能刑事责任地位的观点,但是逻辑角度可能与众学者不同。犯罪主体与刑事责任主体几乎属于同一概念,因为承担刑事责任是犯罪的必然后果,犯罪是承担刑事责任的前提。而犯罪主体的传统概念为“实施危害社会的行为、依法应当负刑事责任的自然人和单位”[5]91。从概念中我们可以得出犯罪主体成立的三个条件:实施具有刑法意义上的危害行为、应当负刑事责任以及具有法律主体资格。因此本文从犯罪概念的角度,从三个方面加以否定,即只要人工智能不具有法律主体资格、实施的行为不属于刑法意义上的危害行为并且无法承担刑事责任,那么就应当否认其刑事责任主体地位。

二、否定前提:人工智能法律主体资格 (一) 主体资格肯定论之批判

刘宪权教授在论证人工智能为何可以成为刑事责任主体时认为,既然单位可以成为刑事责任主体,那么生命特征便不是成为刑事责任主体的必备条件,而应当将刑事责任能力作为成为刑事责任主体的充要条件,只要人工智能具有辨认能力和控制能力,那么人工智能就具有成为刑事责任主体的可能[6]。也即,单位法律主体资格的确定并不是建立在生命个体这一特征之上,只要人工智能这一非生命物体具有辨认能力以及控制能力,就应当也具有刑事法律主体的资格。

但笔者认为,虽然在讨论人类是否具有刑事法律主体资格的时候可以通过辨认能力与控制能力来确定,但是对人工智能这一人造物来说却不适用。例如,倘若只要主体对某一事项可以断定具有辨认能力和控制能力就可以认为其可以对这一法律事项承担刑事责任,那么经过训练的宠物也属此列。主人的一声令下便会使宠物狗懂得“不能咬人,咬人要受到惩罚”这种生活化的规范,并且这种生活化的规范正是民众普遍遵守的规范。“日常生活中我们主要受生活规范调整,不可能主要通过学习《中华人民共和国刑法》(以下简称《刑法》)和刑事政策来展开生活。”[7]20没有文化的人即使不懂得《刑法》规定了故意伤害罪,其也同样懂得“不能打人,打人要受到惩罚”类似的生活化规范内容。若懂得此类生活化规范内容的宠物狗——也可以规范化解释为在对伤害存在认识能力的前提下——发生了咬人事件,是否可以让其承担刑事责任呢?按照刘宪权教授的观点,既然宠物狗经过训练具有了认识伤害行为的能力,并且宠物是具有生命的个体,可以依照认识而控制身体实施伤害行为,便可以得出宠物狗也是刑事责任主体的结论。但是这一结论并不能被大众所接受,原因就在于宠物狗与人类存在本质的区别——宠物狗不是人。“在一个国家中,什么样的人或组织能够成为法律关系的主体,取决于该国的法律规定”[8]155,所以宠物狗不能成为刑事法律主体。那么对于人工智能来说,既然经过人类训练的宠物狗不能成为刑事法律主体,那么经过人类研发的具有认识能力和控制能力的人工智能因为不是人,同样也不能成为刑事法律主体。所以刘宪权教授将辨认能力和控制能力作为刑事法律主体充要条件的说法并不准确。

(二) 权利要素缺乏阻却主体资格成立

从正向逻辑推演可以得出人工智能无法成为刑事法律主体,从刑事法律关系主体也应当是权利主体这一逆推角度,同样可以得人工智能不能成为刑事法律主体的论断。

1.无权利则无主体

众学者在讨论人工智能刑事责任主体地位时,关键点一直放在如何让人工智能承担刑事责任上,却忽视了在刑事法律关系中,作为法律资格主体的人工智能不仅能作为法律关系一方的义务主体,还应当享受法律主体所应当具有的权利。“有限人格论”者承认人工智能具有有限人格,可以更好地解决责任分配问题[9]。又有论者,虽然承认人工智能具有刑事责任主体地位,却提出在科技社会防卫论下应当以“技术危险消除措施”来处罚人工智能从而保护人类[10],显然仅仅把人工智能当作义务主体来看待。

仅赋予人工智能责任承担的义务而不赋予其权利,不符合法律关系主体的基本原理。一方面,违背权利义务统一的法律关系基本原理。法律权利和法律义务具有对立统一性,一方的权利对应另一方的义务,并且在同一主体上,权利与义务都应当有所体现,不存在只有义务而没有权利的主体[11]172-173。在权利本位的指导思想下,法律意义上的适格主体不能仅承担刑事责任的义务而没有对应的权利。另一方面,宪法要求的在法律面前人人平等的原则也无法实现。“平等权可以说不是一种具有具体内容的权利,而是一种实现权利的原则”[12]149,既然要求人工智能与自然人平等地属于刑事责任主体,那么应有之义也应当是人工智能也平等地与人类一样享有刑事法律主体的权利,也就相当于将“在法律面前人人平等”的“人”解释为“可以适用法律的主体”。若赋予主体地位却没有权利,则无法体现“主体平等”的观念。而如果人工智能权利无法被赋予,也就意味着人工智能不能被赋予法律主体资格。

2.人工智能权利基础缺乏

人类生存演化历经千万年,而人工智能仅仅是人类科技发展至今的创造物,想当然地赋予其权利,非但没有权利赋予的主观基础,而且人类中心主义的社会客观基础也不允许。

第一,人工智能主观的权利诉求无法提出。权利不是创造出来的,而是源于人们的发现。法律权利的根源也是道德权利,道德被法律意志拟制化后便成为法律。因此虽说人生而就有权利,也即从应然的层面上看,权利是人生而相伴的;但是从实然的角度,法律赋予的权利才是可以真正行使的权利。而权利的获得无一不是人类以诉求的方式实现的。“生物学也没有‘权利’这种事,只有各种器官、能力和特征。”[13]107权利是人类为了合作而构建起来的想象秩序,因此权利的获得需要主观的诉求。在古希腊盛行“天赋特权”的时代,奴隶被认为是一个人生来就有的本性,人天生为奴隶是正当的,是对社会有利的。在人权追逐的道路上,人权天赋思想是以还奴隶以正常人身份而萌生的,其认为人没有高低贵贱之分,“没有任何一个人生来就是奴隶, 人们应该把奴隶看成是‘终生受雇的劳动者’”[14]46为人类的普遍权利的诉求跨越出第一步。而后在文艺复兴以及启蒙运动之后,系统的“天赋人权”理论被提出。人权属于自然权利的范畴,自然权利是人生来就有的,受到自然法保护,而人类带着自然权利进入国家,把一部分权利让渡给国家,因此国家必须基于契约赋予人民权利[15]。至此,可以说人类权利的获取是在历史演进中通过各位代表人民的思想家争取而来的,也是历史演进的必然趋势。

因此,从权利获得的主观诉求中可以认为,权利获得的主观基础便是诉求者抱有一种合理期望,主体不仅对相关利益的拥有有要求,而且必须亲自提出诉求[16],这是权利获得的意志基础。若人类仅仅凭借着想象的可能性,甚至是一种被科幻所影响的可能性,在“人工智能”没有明确表达其权利诉求之前强加给其权利,在一定程度上有违权利获得的意志基础。“从人工智能目前的发展方向看,无论它再怎么‘自动学习’‘自我改善’,都不会有‘征服’的意志,不会有‘利益’诉求和‘权利’意识。”[17]所以,“在人工智能尚未‘为权利而斗争’的当下,法律需保持应有的谦抑”[18]

第二,现代人类中心主义的客观障碍使得人工智能无法被赋予权利。人类中心主义在法治社会下的体现便是以人为本、依法治国,具有人格以及自主意识的人才是法律赋权以及保护的对象,为人工智能这一非人类客体赋权违背了以人为本的法治理念。

所以说,权利获得仍然需要满足客观的基础条件,即主体的诉求可以得到赋予者的认可,并且赋予者可以为其权利的获得而承担相对应的义务[15]。义务主体的责任便是满足权利主体应当享有的利益,人类作为权利的赋予者相应地就有满足人工智能利益的义务。而人类创造人工智能的初衷是解放人类的劳动力,满足人类的生活需要,却在法律伦理上被要求满足人工智能的需要,似乎已然忘却“初心”,在人类作为主体的世界中,也不会允许人类之外的物体为自己设置义务。即使是我们为人工智能增设权利之后,在没有表明人类需要以此承担义务之前,可能民众对此毫无感觉,但是只要宣布人类的义务,众多反对之声便会马上不绝于耳。若真说有所谓的权利,可能也仅仅局限在需要定期为智能系统清理垃圾的事项上,但其目的也是更好地服务人类。

可能有人提出动物、植物、矿物等非人类客体也是法律保护的对象,人类有义务去满足这类非人类客体存在的“权利”,而后得出人工智能也可以被赋予权利的结论[19],但其实两者之间存在本质上的区别。“人类中心主义”这一概念起始于“绝对人类中心主义”,即人与自然是相互分离的,区别在于只有人具有理性,所以一切活动都应当把人类的发展当作最终目的。在人类与环境的交互中,有学者提出“弱式人类中心主义”,其认为破坏环境带来的生态问题已经让人类受到了应有的报应,在此需要建立一种环境伦理学来抑制人类对生态的破坏[20],为动物、植物、非生物赋予一种“无义务的权利”,让人类来遵守,达到保护生态、可持续发展的目的。在弱式人类中心主义的雏形理论下,有学者提出了“生态中心主义”,认为人与自然应当合二为一,实现自然生态的和谐就是实现了自我,这是一种“大自我”的实现[19]。但不管是绝对的人类中心主义还是生态中心主义,都逃不出人类中心主义在价值观念上的一致性,即以人类的整体利益为出发点,以人类的生存和发展为最终目的。所以看似通过法律赋予了动物、植物、矿物等非人类客体以权利,其实是将整个生态系统看作一种拟制的主体,人类的一切是整个生态赋予的,那么人类也应当自觉保护生态,其本质上是为人类提供一个可以持续生存的环境,是从长远的角度上更多地赋予了人类生存的权利。而人工智能一方面不存在于整个生态环境中,人造物的属性突出,难以与“生态”发生密切联系;另一方面,赋予人工智能权利也将冲击人类的生存权利。具有自主意识的强人工智能“奇点”被科学家预言为机器人代替人类支配世界的时刻,而赋予人工智能权利,让人类先于所谓的“奇点”时刻“臣服于”机器人,更是加快了人工智能支配世界这一时刻的到来。人类不可能将主宰世界的权力交付于人工智能,所以人工智能也就不可能像动物、植物一样被人类赋予“需要保护”的权利。

因此在人工智能权利获得无果的情况下单独赋予人工智能承担责任的义务,从而使其成为刑事法律关系的主体,未免不切实际。所以,从权利赋予难以实现的角度,也无法赋予人工智能刑事法律主体资格。

三、实施难题:人工智能危害行为否定

犯罪是侵犯法益的行为,没有行为就没有犯罪,“犯罪行为是刑事责任的客观基础,也是犯罪构成的客观要件”[21]208。若人工智能实施的“行为”并不符合刑法意义上行为概念的要件,即只要不属于行为,那么便没有讨论人工智能刑事责任的现实意义,直接排除犯罪并不存在任何障碍。

(一) 行为理论下的危害行为三特征

行为理论的发展从李斯特最早提出的自然行为论[22]177到日本刑法学者团藤重光提出的人格行为论[23]911,在不断的激烈争论中演进而来。行为概念中有意性特征的设置,目的在于区别无意识状态下实施的因果行为因果行为论包括自然因果行为论(自然行为论)和有意因果行为论(有意行为论)。。自然行为论认为,行为是外部世界的任何举止,属于纯肉体的外部动作,这一举止对外部世界或多或少具有法律意义上的影响力,并都以一定结果结束[24]。自然行为说仅仅强调行为的有体性,行为属于作用于外界的任何举止,那么单纯的神经反射动作、睡梦中的梦游行为以及智力发育不全的儿童实施的行为等在无意识无意志情况下作出的行为都属于自然行为理论中的行为。当然,将无意志下的行为纳入行为规制范围毫无意义,因此有人提出有意行为说,即行为是在行为主体基于自由意志而实施的表现于外部的现象[25]141。有意行为说继承了自然行为说有体性的观点,发展出了行为有意性这一特征,弥补了自然行为说将毫无意义的无意识行为纳入刑法的弊端。但是行为不仅仅只是一种基于自由意志而随意发生的因果事件,目的行为论认为,人的行为是基于一定的目的而实施的,这种目的区别于单纯的控制身体的意志,是按照行为与结果之间的因果关系进程,基于自己需要达到的目标而有计划地朝着这个目标发展的[26]1。人的一切行为都是有目的的,因此也就可以通过奖惩来左右行为人的行为,指导其实施适法行为。目的行为论是行为特征有意性的进一步改进,可以用“目的性”一词替换行为的有意性,也即“人的行为不仅仅是因果关系的整个过程,更是目的活动的整个过程”[25]142。但是,目的行为论仍然只是在“有意性”的基础上提出“目的性”,没有明确目的的内容,并不是任何目的行为都是刑法上的行为,因此社会行为论在综合考虑了因果行为论以及目的行为论的优劣之后,认为“行为是人之意志所支配的社会重要的举止”[27]51。社会行为论将具有刑法判断意义上的行为纳入刑法规制范围,也即在刑法的价值判断上具有重要意义的行为,引出了行为判断的有害性特性。有害性是行为意志的内容,若没有法益侵害或者危险,则不是刑法评价的行为。随着行为理论进一步的发展,日本刑法学者团藤重光在人格责任论的理论基础上提出人格行为论[23]91,但是人格行为论立足于行为人先天的人格,具有法律人格的主体才是行为的主体,而人工智能法律人格前述已经将其否定,也就不具有进一步判断行为特征的必要。但是其他行为理论却是按照传统三要素为内容展开的,也即刑法上的行为必须具备有害性、有体性及有意性。

按照传统行为特征的表述,在忽视主体为人这一前提之下,人工智能实体可以轻易满足行为的有体性特征。人工智能实体具有强大的控制能力。比如自动驾驶汽车时可以准确地预测自己的速度而在精确的时间点启动以及停车,这种有体性特征表现得往往比人类更加明显。而行为的有害性特征则更加突出。比如智能机器人的全身往往是由聚合金属制造,可以耐高温、防严寒,抵御强烈的攻击,更有甚者,部分机器人可以发动威力十足的进攻,对人类身体健康的危害比一般人类可实施行为的危害程度更高。如果忽视人这一主体前提,那么机器人的行为则更应当适用刑法进行预防。最重要的是行为有意性的体现,人工智能行为若不具有有意性特征就仍然无法被评价为刑法意义上的危害行为。

(二) 人工智能危害行为缺乏有意性

有意性行为是指行为人实施的行为是在自己的意志控制之下实施的。有意性反映行为人的自由意志,若行为并非在行为人意志自由的情况下实施的,则不能归属为行为人。例如,通说认为的现阶段人工智能只能基于程序设置而实施行为,因此其缺乏行为的有意性,只能认为是人类意志的延伸,不能成为刑事责任主体。那么人工智能是否会产生自由意志呢?

刘宪权等学者认为,人工智能技术发展到强人工智能时代便会具有自由意志,基于深度学习能力可以超出程序设定而自主实施行为。“科技的发展是呈爆炸式的,人工智能技术的发展也必将日新月异、一日千里”,“智能机器人的‘智能’一旦全面达到甚至超过自然人的智能,其具有自由意志似乎就是一个不言而喻的结论”,“强智能机器人的出现不一定(甚至一定不会)遥遥无期,我们对强智能机器人主体地位的探讨实际上并非建立在想象之上的‘科幻小说’”[6]。另有学者将人特有的自由意志抽象表述为理性,但是在论证人工智能产生理性的原因时,认为“随着互联网、大数据、人工智能技术的突飞猛进发展,智能机器人极有可能具有超越人类的理性智慧,甚至具备情感或心志”[28],也即仍然将论证的关键点——产生自由意志的原因——付诸未来的可能性假设,无法提出更有力的论证缘由。

与此相对,否认人工智能具有自由意志的论证也非常多。有科学家在人工智能意志问题上提出过人脑仿真、机器学习以及机脑对接等解决方案,但是都无法合理解决人工智能意志问题。首先,人脑仿真方案要着眼于对人类大脑的充分认知,在此基础上模仿人类大脑的构造来复制出一个同样可以思考的机脑。然而人类对人脑的认知程度极低,对这一领域的研究将成为21世纪乃至22世纪最重要的生命科学研究[29]。即使可以复制出同样的大脑,也仅仅属于被复制者的大脑,要将人脑的意识功能储存下来成为一项技术加以应用则更是难上加难的事。其次,机器学习方案之所以不能解决人类意识问题,是因为人类学习的基础在于童年时候的好奇心,在好奇心的刺激之下认知陌生世界,逐步形成的学习能力[1]。而机器学习仅仅是在被植入大量数据的前提下,应用已有的分析技术进行的暴力算法,跟人类的学习功能无法比拟。最后,机脑对接方案主要是将人脑的一部分活体取下,在满足其存活的条件下供养,然后使神经末梢对接到机器末端,实现人脑控制机身。但是其弊端仍然显而易见,大脑控制机身的结果是人类神经脉冲进入电脑,也依然是人类意志的体现。相对于人工智能而言,着眼点应当在加强大脑本身而不是人机对接。

所以,人工智能的意志问题在技术上很难得到解决。人工智能实体可以快速收集信息,并进行一系列的高速运算分析信息,最终得出一个指令由实体实施。虽然看似经过了类似大脑皮层的思考,但本质上仍然只是机械地作出反应。认知能力可以通过程序技术加入人工智能中,而意识、意志这类需要真正思考的功能却无法通过程序写入。科技发展至今日,仍然没有实验制造出可以模拟人脑意志功能的实体,而且即使是可以制造出这一想象实体,将碳基实体植入硅基的人工智能,技术上的障碍仍然存在。如前述预言,人工智能意识功能的实现必定是人类生活方式发生重大改变的时刻,就像从采集时代进入农耕时代的古人需要历经千年去演化。所以说,在人工智能行为有意性上,如果人工智能并非基于自由意志实施行为,而仅仅是依照程序的暴力算法在应对数据分析时的自然反应,类似于动物的本能,则难以认为是刑法规范意义上的危害行为。

人工智能致人损害的现有案例也无法体现其具有自由意志。例如,自动驾驶汽车的电子识别系统没有明辨出孩子衣服上与地面相似的花纹,将其认为是路面而碾压;扫地机器人的电子眼并没有识别出女主人的褐色头发,将其视为垃圾吸入吸尘器,造成女主人身体伤害[30]。这一系列的事件都表明,人工智能程序作出的行为仅仅是一种类似于人类膝跳反射的动作,人工智能也是一种类似于动物本能的信息输入以及信息输出程序,没有经过真正的思考进行识别。可能有人会质疑,像AIpha-GO能战胜围棋世界冠军难道没有真正思考?当然,我们在这讨论的是刑法意义上的行为的有意性,如果将AIpha-GO这一程序实体化,会不会因为一个人带着黑白棋子似的帽子而将别人的帽子摘下?“如果没有真实的思维,即使是拥有密密麻麻、精巧细致、梳理整齐、带有反馈环路和稳态平衡器的交换电路网络,也无法成为一个有意识的实体。”[31]262

如果要认定人工智能行为在刑法上具有规范意义,就必须讨论人工智能行为的有意性问题,只有在突破这一瓶颈之后,才有将人工智能行为归责的前提条件。

四、功效检视:人工智能刑事责任否定 (一) 刑罚功效制约主体资格论之肯定

“没有责任就没有刑罚”是近代刑法学的一个基本原理,对犯罪人施加刑罚的前提是行为人具有刑事责任,刑法定罪量刑的最终目的便是以刑罚的方式使对法益造成侵害或者危险的行为人承担刑事责任。刘宪权教授认为承担刑事责任与具有辨认控制能力互为充要条件,并立足于未来的人工智能会被创造出自由意志的观点来论证人工智能具有辨认控制能力[6]。由于这一求证于未来的理论观点难以被反驳,有学者便从刑罚功效的倒推视角来否认人工智能刑事责任主体地位的获得:“人工智能在应然层面刑事主体地位的判断同样可以通过检视刑罚目的实现与否进行验证。”[32]但是刘宪权教授依然对此观点予以否认,其认为不能因为刑罚无法适用于人工智能就倒推出人工智能不具有刑事责任主体地位,“以现行刑法体系中的刑罚无法适用于智能机器人作为否定智能机器人刑事责任主体地位的理由,显然属于因果倒置,陷入了依果推因的逻辑怪圈”[6],即因为不能处罚所以否定刑事责任主体地位的理由站不住脚。

但是《刑法》正是以“不能处罚所以不能成为刑事责任主体”的逻辑来看待未达到法定年龄而不能成为刑事责任主体的自然人的。法律规定未满14周岁的自然人不负刑事责任,并不意味着13周岁的自然人就一定没有刑事责任能力。“从刑事政策的观点来看,对未满14岁的人科处刑罚会对少年的健康成长造成恶劣影响,所以,一律否定其责任能力。”[33]201刑事责任的目的要求刑罚的实施具有必要性,若没有处罚必要性,也就没有必要肯定其刑事责任主体的地位。正因为对未满14周岁的自然人施加刑罚无法达到刑罚的所应有的社会效果,所以否定其刑事责任主体地位,只将具有处罚必要性的年满16周岁或者年满14周岁而有法定8种犯罪行为的自然人列为刑事责任主体。同样的,具体到人工智能刑事责任主体地位,因为不具有处罚人工智能的必要性,所以否定其刑事责任主体地位符合逻辑。

因此,若对人工智能施加刑罚无法实现刑罚设置应有的社会效果,则无法赋予人工智能刑事责任主体地位。

(二) 人工智能刑罚社会效果检视

“权力首先是一种社会现象,刑罚权也不例外。因此,刑罚权首先产生于一定的社会条件。”[34]342刑罚的实施应当满足其应有的社会效果,刑罚的社会效果通说是刑罚的目的以及功能,但是对人工智能实施刑罚却无法实现其目的与功能。

1.人工智能刑罚无益于实现刑罚目的

刑罚种类的设置都是服务于刑罚目的的,刑罚的目的包括一般预防以及特殊预防。将人工智能作为刑事责任主体并对其施加刑罚确实可以达到“特殊预防”的效果。例如修改程序或者直接销毁的方式,可以使得这一特定的人工智能实体无法继续实施违反人类社会规范的行为。但是相对于一般预防而言,能否使其他人工智能实体感受到刑法的威慑,并且感受到刑法的妥当性,进而更加信赖刑法,更加遵守刑法呢?“智能代理不能真正感受到刑罚,现阶段也就无法对其科处刑罚。人类可以将捣毁机器人理解为对其错误行为的责难惩罚,然而这一层意思并不能传达给机器人。”[35]即可能并不是人工智能实体受到刑罚一般预防的效果,而是人工智能程序的设计者和研发者会更加仔细认真地设计和研发人工智能系统;或者是人工智能实体实际使用人更加谨慎地使用可能会造成社会危害的功能。因此对人工智能特殊预防效果实现后,只是对人工智能这一刑事责任主体之外的人类主体产生了一般预防的效果,就类似于惩罚人类的犯罪行为没有对其他人类产生威慑,而是使得人类主体之外的不明物体受到刑罚的威慑,这显然是违背自然规律的。无论是刘宪权教授提出的人工智能刑罚梯度,即删除数据、修改程序以及永久销毁[4],还是其他学者提出的三类刑罚措施,如第一类是将严重危害社会的人工智能实体报废,第二类是对实施轻微危害行为的人工智能实体实施罚金刑,第三类是一般情况下对人工智能实体进行回收改造[36];对无法意识到行为性质的人工智能来说,都很难实现预防目的,对人工智能进行惩罚实际上只是对实际控制人财产的处分,使得人类主体的财产受到了损失[37]

2.人工智能刑罚无益于发挥刑罚功能

刑罚的功能是国家设置刑罚所希望达到的社会效果,那么对人工智能施加刑罚能否实现刑罚的功能呢?首先,惩罚犯罪人是刑罚功能的首要体现,刑罚的本质是对犯罪人施加痛苦,包括有形的肉体之苦,比如自由财产剥夺之苦、生活不能满足之苦、强迫劳动之苦等;还有无形的心理痛苦,比如精神压抑之苦、名誉受损之苦、道德谴责之苦等[38]163-165。刑罚之苦是基于人具有的感受痛苦的生理结构而设置的,那么对人工智能的惩罚,是否可以让人工智能感受到刑罚之苦呢?若要使得人工智能感受刑罚之苦从而达到预防犯罪的目的,那么人工智能就应当具有只有人类才能感受到的压力。其次,犯罪人在刑罚执行过程中积极接收教育改造,便获得奖赏,法律对其宽大处理以瓦解其犯罪意志,起到对犯罪人攻心的作用,这便是刑罚的感化功能。犯罪人感受到对其宽大的一面,并且接受了减免刑罚的奖赏,更进一步体会到刑罚的人性化。刑罚是恶有恶报、善有善报公平的处置方式,激励犯罪人信仰法律,遵纪守法,改恶从善重新做人[36]。刑罚的感化功能依然源自人类内心对道德、对人心、对情感的感受,当且仅当人工智能具有人类情感功能时,才能感受到刑罚所包含的人性化功能。

高端技术可以使得人工智能产生触感,但是严厉的权利剥夺刑罚,并不会像古代鞭刑那样来得直接,权利剥夺主要在于内心的感受而并非触感,而人工智能的情感基础难以实现。有人认为人工智能若只有智力却没有情感,则不属于人工智能[39]5,于是通过模拟人类的情感,设计智能情感计算系统为人工智能提供一点类似人类的温情。但是人类的情感并不是通过机器模拟衍生之物,而是通过后天的复杂的社会经历,一点一点对复杂人际关系处理而慢慢演化而来,非机器智能模拟可得。人工智能虽然具有强大的信息收集以及信息处理功能,但是仍然是细化到“0”“1”代码的形式化感官,无法在处理代码时产生人类宏观的规范感受。人工智能只能模仿人类左脑的智商,无法模仿人类右脑的情商,所以机器人体现的仅仅是一种演绎智慧,智能地对形式化的符号进行“冷若冰霜”地加工处理,无论其具有多么高超的自主学习能力,也无法理解符号背后的规范含义[15]。例如,“监狱”这一客观物体,在人工智能海量分析下,呈现的仅仅是铁门以及囚禁功能,却无法通过刑罚的一般预防功能联想到被囚禁之人应有的内心煎熬。而相较于人类,孩童不识字时,对汉字的识别只能是字的形状,但是随着儿童的生长,当可以认识到字所表达的规范含义之时,人便可以从字与字组成的语句中体会到其表达的感情。那时人看到的就不仅仅是微观的单个汉字,而是更加宏观的感情表达,也即从语句上升到情感判断。人工智能无论对知识的识别、行为的认知还是规范情感的判断,仍然是局限于极其微观的认知侧面,是在特定模拟场景下作出的特定活动,具有反射性、自然性;并非像人类一样可以作出不同社会性行为的应变性。因此,刑罚所具有的惩罚以及教育感化功能在应对冰冷的机器时,难以以其温情柔化智能的属性[1]。所以,刑罚的功能不会实现,那么施加刑罚也就没有任何意义。

五、总结:历史变迁的审视

人类从7万年前的智人物种发展到如今唯一人种,经历了几次翻天覆地的革命。7万年前,人类生活以采集为主,虽然学会了使用简单的狩猎工具,却也改变不了一直迁徙的不稳定采集生活。直到5万年之后,人类才进入农耕时代,将水稻、小麦等农作物以及鸡、鸭、牛、猪等牲畜驯化,开始了不同于迁徙生活的定居时代,依靠着自己动手丰衣足食的思想,生活了2万年。而直到17世纪,工业革命的爆发才使得人类文明进一步发展到机械化时代。从工业革命开始到科技革命,继而发展到互联网时代以及人工智能时代,这一切发展成果仍然是工业革命的衍生物,只是在一定程度上解放人类的劳动力。但是如今讨论的强人工智能与以往革命的本质区别在于不仅仅是机械化地解放劳动力,而是进一步将机械触手伸及人类的思想,希望用机械的算法模仿人类意志。人类从采集生活步入农耕时代演化了5万年,从农耕时代步入工业时代发展了2万年,而如今距离科技革命开始的时间不足400年,从1956年提出人工智能发展策略至今更是不过64年。然而,机械化的弱人工智能水平可以在时代不断发展进步中得到有效提升,但触及强人工智能人类意志问题的研发仍然举步维艰。科技界所强调的强人工智能不仅仅涉及技术上的问题,更是一种认知难题,人类意志为何产生、如何产生,又如何去控制?这恐怕是短时间内难以回答的。但不论如何,人工智能的机械意识与人类的生命意识存在差别,这一差别足以阻碍人工智能获得法律主体资格。

参考文献
[1]
叶良芳. 人工智能是适格的刑事责任主体吗?[J]. 环球法律评论, 2019, 41(4): 67-82.
[2]
侯帅. 自动驾驶技术背景下道路交通犯罪刑事责任认定新问题研究[J]. 中国应用法学, 2019, 6(4): 92-106.
[3]
龙敏. 自动驾驶交通肇事刑事责任的认定与分配[J]. 华东政法大学学报, 2018, 21(6): 77-82.
[4]
刘宪权. 人工智能时代的"内忧""外患"与刑事责任[J]. 东方法学, 2018, 6(1): 134-142.
[5]
高铭暄, 马克昌. 刑法学[M]. 2版. 北京: 北京大学出版社、高等教育出版社, 2010.
[6]
刘宪权. 对强智能机器人刑事责任主体地位否定说的回应[J]. 法学评论, 2019, 37(5): 113-121.
[7]
张鹏. 中止犯自动性研究[M]. 北京: 法律出版社, 2013.
[8]
张文显. 法理学[M]. 北京: 高等教育出版社, 2018.
[9]
许中缘. 论智能机器人的工具性人格[J]. 法学评论, 2018, 36(5): 153-164.
[10]
黄云波. 论人工智能时代的刑事责任主体:误区、立场与类型[J]. 中国应用法学, 2019, 3(2): 163-175.
[11]
陈金钊. 法理学[M]. 北京: 北京大学出版社, 2010.
[12]
秦前红. 宪法[M]. 武汉: 武汉大学出版社, 2009.
[13]
赫拉利.人类简史[M].林俊宏, 译.北京: 中信出版社, 2017.
[14]
罗玉中. 人权与法制[M]. 北京: 北京大学出版社, 2001.
[15]
陈林林. 从自然法到自然权利——历史视野中的西方人权[J]. 浙江大学学报(人文社会科学版), 2003, 49(2): 82-88.
[16]
甘绍平. 机器人怎么可能拥有权利[J]. 伦理学研究, 2017, 16(3): 126-130.
[17]
翟振明, 彭晓芸. "强人工智能"将如何改变世界——人工智能的技术飞跃与应用伦理前瞻[J]. 人民论坛·学术前沿, 2016, 5(7): 22-33.
[18]
韩旭至. 人工智能法律主体批判[J]. 安徽大学学报(哲学社会科学版), 2019, 43(4): 75-85.
[19]
余成峰. 从老鼠审判到人工智能之法[J]. 读书, 2017, 39(7): 74-83.
[20]
单桦. 从人类中心主义到生态中心主义的权利观转变[J]. 理论前沿, 2006, 20(9): 19-20.
[21]
陈兴良. 刑法适用总论(上)[M]. 3版. 北京: 中国人民大学出版社, 2016.
[22]
李斯特.德国刑法教科书[M].徐久生, 译.北京: 法律出版社, 2006.
[23]
团藤重光. 刑法纲要总论[M]. 东京: 创文社, 1980.
[24]
刘宪权, 胡荷佳. 论人工智能时代智能机器人的刑事责任能力[J]. 法学, 2018, 62(1): 40-47.
[25]
张明楷. 刑法学(上)[M]. 4版. 北京: 法律出版社, 2016.
[26]
威尔策尔.目的行为论导论: 刑法理论的新图景[M].陈璇, 译, 北京: 中国人民大学出版社, 2015.
[27]
黄荣坚. 基础刑法学(上)[M]. 中国台湾: 台湾元照出版有限公司, 2012.
[28]
朱静洁. 智能机器人的刑事责任主体论[J]. 电子政务, 2019, 16(4): 93-100.
[29]
孙涛, 李信晓. 脑科学研究——生命科学最大的挑战[J]. 宁夏医科大学学报, 2019, 41(1): 1-6.
[30]
李婕. 智能风险与人工智能刑事责任之构建[J]. 当代法学, 2019, 33(3): 27-36.
[31]
吉尔德.知识与权力[M].蒋宗强, 译, 北京: 中信出版社, 2016.
[32]
时方. 人工智能刑事主体地位之否定[J]. 法律科学(西北政法大学学报), 2018, 36(6): 67-75.
[33]
张明楷. 外国刑法纲要[M]. 2版. 北京: 清华大学出版社, 2007.
[34]
刘艳红. 刑法学(上)[M]. 2版. 北京: 北京大学出版社, 2016.
[35]
陈泽宪. 刑事法前沿(第十卷)[M]. 北京: 社会科学文献出版社, 2017.
[36]
蔡婷婷. 人工智能环境下刑法的完善及适用——以智能机器人和无人驾驶汽车为切入点[J]. 犯罪研究, 2018, 38(2): 21-26, 48.
[37]
周铭川. 强人工智能刑事责任之否定[J]. 上海政法学院学报(法治论丛), 2019, 34(2): 118-126.
[38]
邱兴隆. 刑罚的哲理与法理[M]. 北京: 法律出版社, 2003.
[39]
明斯基.情感机器: 人工智能与人类思维的未来[M].王文革, 程玉婷, 李小刚, 译, 浙江: 浙江人民出版社, 2016.