福建警察学院学报
JOURNALOFFUJIANPOLICECOLLEGE
(总第173期)
SerialNo173
No.1,2020
法学论坛
刍议强人工智能的刑事主体地位
王元勋
()四川师范大学法学院,四川成都610068
摘 要:人工智能技术给传统刑法理论带来巨大挑战,学界对强人工智能能否成为刑事
责任主体存在颇多争议.强人工智能的辨认和控制能力与刑法意义上的辨认和控制能力并不相同,因此难以认定强人工智能具有刑事责任能力;强人工智能本质为程序,以程序作为刑事责任主体并不恰当;同时,难以设计合理有效的刑罚体系对强人工智能进行适用.强人工智能的价值是服务人类,将其视为附属于人类的“活的工具”似乎更为合理,使用一般技术手段对强人工智能实施的侵害行为进行规制更符合刑法的谦抑性要求.
关键词:刑事责任;人工智能;主体地位;刑罚功能;谦抑性
)0中图分类号:D914 文献标志码:A 文章编号:16744853(20201008708
人工智能被定义为一种方法、理论、技术及应用系统,它是以数字计算机或者数字计算机控制的机器为工具,通过模拟、效仿人的智能并对其延展和扩张,感知环境、获取知识并使用知识获得最佳结果.人工智能作为人类社会的伟大发明,其同时也有可能引发巨大的社
[1]会风险,给当下的法律规则和法律秩序带来一场前所未有的挑战.在刑法学研究领域,越
来越多的学者就人工智能对传统刑法理论的挑战进行讨论,提出了很多有益的观点.其中,对人工智能能否作为刑事责任主体并科处刑罚存在较大争议.笔者讨论的主要内容即强人工智能能否作为刑事责任主体的问题.
一、问题的提出
[2]
在之后半个多世纪的发展 在1956年的达特茅斯会议上,人工智能的概念被首次提出.
历程中,人工智能技术取得了令人瞩目的巨大进步.社会经济结构因人工智能的发展发生了
收稿日期:20190111 修回日期:20191024
作者简介:王元勋,男,四川师范大学法学院硕士研究生,研究方向:刑法学.
87
福建警察学院学报 2020年第1期
重大变革,越来越多人从枯燥的劳动中解放出来,简单、重复、危险的任务越来越多地交由人工智能完成.人工智能运用于生产劳动中,在减少人力投入、提高工作效率、节约生产成本的同时,还能够比人类做得更快、更好.
根据人工智能是否具有自我控制能力以及是否具有自我意识,人工智能可分为弱人工智
[3]135能和强人工智能.弱人工智能是指不能自我控制、不具备自我意识、无法真正实现推理和
解决问题的智能机器.目前,现有的人工智能都还是实现专门目的的专用智能,而不像人类智能那样能够根据新环境庞杂且复杂的情形进行调整适应,因此都还是弱人工智能.强人工智能是指具有自控性、产生了自我意识、真正能思维的智能机器.这样的人工智能是有知觉的,能够自适应地应对外界环境,依靠自主意识应对挑战.
弱人工智能机器人,在本质上只是人类处理某一类具体事务的辅助工具,在特定领域人
[4]69类无法实现将一件事务全部交由人工智能独立处理.因此,当前学界普遍认为,弱人工智
能并不具有刑事责任能力,不能成为刑事责任主体.但就强人工智能能否成为刑事责任主体,仍然存在较大争议.
持肯定态度的学者认为,强人工智能能够成为刑事责任主体.刘宪权等认为,在程序外基于自我意识和意志实施行为的强人工智能,具有独立的辨认能力和控制能力,因而能够成
[5]为刑事责任主体.卢勤忠等认为,强人工智能与人类的差别仅在于物质载体和辨认、控制[6]119能力产生的基础,这两方面的差别并不能否定强人工智能能够成为刑事责任主体.一些学
者从刑罚适用入手,认为随着科技进步,可以赋予强人工智能身体上的疼痛机制和主观上的感觉,进而使对其适用刑罚变得可行,以此佐证强人工智能成为刑事责任主体的可能性. 持否定态度的学者认为,强人工智能不能成为刑事责任主体.时方认为,人工智能的行褚陈城认为,在人工智能被评价为和人类完全无差异之前,尽管人工智能具备“控制和辨
[7]认”能力,也无法被评价为具有自由意识.在刑罚的适用上,持否定态度的学者认为,对[4]71为在认识和控制要素上缺乏刑法评价意义的自主性,欠缺作为刑事责任主体的本质要素.
人工智能施加刑罚不具备可行性.
当前学界对强人工智能刑事主体地位的分歧,主要集中在3个方面:一是强人工智能是否具有刑法意义上的辨认和控制能力,即刑事责任能力;二是作为非人类的强人工智能在具备刑事责任能力后,是否能够成为刑事责任主体;三是对强人工智能施加刑罚是否具备可行性.要解决强人工智能的刑事主体地位问题,有必要厘清上述问题.
二、强人工智能刑事主体地位分析
论及强人工智能的刑事主体地位,需要厘清刑事责任主体的法理依据.刑事责任主体作为犯罪行为实施者与刑事责任的承担者,在法理的基调下需要具有严格意义上刑事责任主体
88
王元勋:刍议强人工智能的刑事主体地位
资格,才能依法被判定为触犯刑法并施以刑罚.一)强人工智能不具备刑事责任能力 (
我国刑法通说认为,刑事责任能力,即刑法意义上辨认和控制自己行为的能力.刑法依进而认定行为人是否具有刑事责任能力.这种刑法意义上的辨认和控制能力,被认为是人类所独有的.如大象会因为受到长期虐待而发怒,杀害自己的饲养员,这是某种辨认和控制的能力,但并非刑法意义上的辨认和控制能力,不能以此认定大象具有刑事责任能力,进而用刑法规制大象的行为.回顾人类刑法发展的历史,曾经存在过对非人类的物或者动物进行裁判的刑事法律制度,然而此种非完全以人类为中心主义的刑事法律制度,已在理性时代到来之后消失.
有学者提出,强人工智能机器人拥有在设计和编制的程序范围外自主决断、实施行为的
[3]139
能力,其具有辨认能力和控制能力,所以应当认为此类智能机器人具有刑事责任能力.笔
据行为人的年龄、精神状况、身体状态来判断行为人是否具有辨认和控制自己行为的能力,
者认为,这种观点是不妥的,智能机器人或许会拥有辨认能力和控制能力,正如大象的报复行为一样,这种辨认能力和控制能力并非刑法意义上的辨认和控制能力,因而不能以此认为机器人具有刑事责任能力.原因主要有以下几点.
1人类的辨认和控制能力形成的基础是人类特有的生理构造.人类通过视觉、听觉、嗅觉、触觉等感知外界信息,运用大脑进行处理,形成认知.人类辨认和控制能力形成的客观条件正是人类这种特有的生理构造.诚然,强人工智能时代到来后,机器人装备了视觉、听觉、触觉等感官受体,这些接收器将接收到的数据信息传送到分析数据的中央处理器,其分析过程类似于人类理解.但是,机体构造的不同决定了信息处理结果的不同.自然界中,包括人类在内的大多数生物的信息接收处理模式是相同的,黑猩猩与人类的生理结构就十分接近,基因相似度更是高达96%以上,但只有人类具有真正意义的辨认和控制能力.有学者提出,尽管人工智能以机器如何实现人的智能为研究对象,但这并不意味着机器人需要具有与人类相同的运作功能才能实现“强”智能;尽管人的智能以意识、思维、感觉和知觉等为基础条件,但智能机器人实现分析判断、推理等能力并不一定需要具有和人一样的主客观条
[6]116G124件,其意识以及意志自由的表现形式也可能与人类有所差异.对于这种观点,笔者认
为,既然强人工智能辨认和控制能力形成的基础及其表现形式与人类不同,那么自然没有必要使用规制人类的法律对其进行规制,否则不免有些牵强附会、生拉硬扯.
2强人工智能的辨认和控制能力难以被认识.由于个体的差异,刑法无法穷尽每个人甚至每类人的辨认和控制能力,因此在判断自然人是否具有刑事责任能力时,通常以年龄为依据.质言之,人类仍无法完全认识自身的辨认和控制能力,遑论其他生物.如与人类最亲密的猫狗,人类仍然无法理解其行为.而对于人工智能,同样缺乏衡量其辨认和控制能力的标准和依据.无法用衡量人类刑事责任能力的刑法规则去衡量人工智能的刑事责任能力,当然也不能用规制人类的刑法去评价人工智能的行为.
89
福建警察学院学报 2020年第1期
笔者并不怀疑强人工智能的辨认和控制能力可以赶超人类.相反,笔者认为,未来强人工智能的辨认和控制能力可能赶超人类,而这种赶超将使得人类无法完全认识强人工智能的行为.如智能远超人类的强人工智能,可通过超强感官和超强运算分析,判断一架满载旅客的飞机将在5分钟后发生引擎故障并坠落在人口密集区,于是,强人工智能做出将损失降为——立刻击毁客机.强人工智能的这一紧急避险行为,远超于人类的辨认和控制最低的操作—
能力.人类因自身的智能水平低于强人工智能,因而可能无法理解、认识强人工智能的这一避险行为.在人类的认识里,通常只看到一架正常飞行的客机被“疯狂的强人工智能”无故击落.显然,这种情况下,使用规制人类的法律规制强人工智能并对其行为进行评价,恐怕是不妥当、不公平的.
二)强人工智能不具备成为刑事责任主体的实体基础 (
人造人”来看待,而忽略了人工 当前,学界存在一种误区,即将强人工智能作为一种“
智能的本质.人工智能的本质是程序,是经过深度学习具有一定智能性的程序.强人工智能,即在程序设定之外,产生了自主意识和意志的程序.所谓的机器人,只是人工智能的有,还称不上形实体,离开程序软件系统的智能嵌入,那些有形实体或许是一堆“废铜烂铁”
[8]严格意义的人工智能.强人工智能的物理载体无论是何种形态的,它的本质仅仅是程序.
能让无人机、无人汽车、机器狗、机器人发挥功能的核心是程序.失去程序,载体犹如没有灵魂的空壳一般.
程序可复制、可转移、可善意修改,也可恶意篡改,一个程序可以同时控制多个躯体,不同的躯体可以程序互换,甚至人工智能也可以没有躯体,仅仅藏身于云端服务器之中.正»中的电子女友乔伊,男主把乔伊的数据下载到手持移动终端后,乔如电影«银翼杀手2049伊的意识同时存储在两个介质中.如果进行类比,强人工智能的程序即相当于人类的思想或意识,存储程序的介质相当于人类的大脑,人工智能的载体相当于人类的身躯.显然,一种思想或意识被作为刑事责任的主体是不恰当的.
三、对强人工智能适用刑罚的价值分析
法律上的惩罚作为否定性评价,是强加给违法者的一种不利后果,这一不利后果的意义在于通常应当使违法者感受到明显的痛苦.法律的制度设计正是通过对违法者施加痛苦,迫使其对自身违法行为产生合乎法律价值取向的正确认知,从而使其对自身的违法行为产生悔
[9]82G87过之意.同时,法律上的惩罚还能对社会其他成员起到威慑和教育作用.因强人工智能
与人类的差异,刑罚中固有的措施并不能适用于强人工智能.
生命”很 当强人工智能作为行为主体,适用刑罚对其评价时,剥夺其自由、财产或者“难说会使强人工智能产生精神或躯体的痛苦,那么上述刑罚措施对强人工智能来说,就失去
90
王元勋:刍议强人工智能的刑事主体地位
了不利后果的意义.因此,有学者提出将“删除程序、修改程序和永久毁灭”三种措施作为
[10]51强人工智能机器人犯罪的刑罚措施.笔者认为,对强人工智能适用刑罚仍然有待商榷,下
文试分析之.
一)当前学界对人工智能犯罪所作的刑罚设计 (
如前文所言,人工智能的本质是程序,这造成人工智能实体无受刑能力以及刑罚体系设——拘役+修改程序(,死刑+永久销毁;附加刑———设计:有学者提议按照主刑—删除数据)
[11]罚金.有学者认为,编程之于智能机器人犹如生命之于自然人,可以通过对智能机器人的
计上的困难.目前,主张人工智能能够作为刑事责任主体的学者,对刑罚体系主要有以下几种
编程进行调整来对其进行定罪处罚,设计采用删除数据、修改编程、永久销毁作为刑罚措
[10]51施.有学者认为,以人工智能犯罪情节轻重为标准,采取彻底报废、回收改造、罚金[12]刑.有学者提出,以现代社会中人们熟知的既有刑罚措施为基础,根据人工智能的特性,
对死刑、监禁刑、社区服务以及罚金刑等传统刑罚措施进行选择和调整,制定出对人工智能
[13]行之有效的惩罚手段.笔者认为,以上刑罚措施可以总结为3类:一是针对程序的操作,
、格式化(;二是针对实体的操作,如自由刑、劳役、如修改、删除(局部删除)彻底删除)销毁;三是财产刑.毫无疑问,使用技术手段对程序进行调整,可以影响甚至消灭人工智能,但这种技术手段有无必要刑罚化仍值得商榷.非生命体的人工智能没有寿命和疲劳限制,对其科处自由刑或劳役(社区服务)显然意义不大.而罚金归根结底来源于人工智能的生产、设计、销售或者拥有者,所谓对人工智能的财产刑,最终仍转嫁于人类自身.二)对强人工智能适用刑罚缺乏必要性 (
刑罚的目的在于预防犯罪,其具有特殊预防和一般预防两种功能.刑罚的特殊预防功能指的是,通过对犯罪人适用刑罚而产生积极的社会作用,具体表现为个别教育功能和改造功能、个别威慑功能、剥夺或限制犯罪人再犯能力功能.刑罚的一般预防功能指的是,通过对犯罪人适用刑罚而对犯罪人以外的其他人可能产生的积极的社会作用,具体表现为一般教育功能,一般威慑功能,安抚、补偿受害人及其亲属功能.
1特殊预防方面.对失范强人工智能在程序上进行删除或修改的操作,当然可以剔除其实行不法行为的因素,剥夺其再犯能力;换言之,即使不进行刑法上的评价,仅进行技术评价,采取技术手段也可以达到剥夺再犯能力的目的.刑法具有谦抑性,应作为干预社会的最后手段,既然使用其他手段可以达到调整目的,那么此时刑法的介入和刑罚的适用显然是毫无必要的.否则,刑罚就有可能沦为为了惩罚而惩罚的工具.同样,从社会效益的角度来看,基于司法资源的稀缺有限,即使不通过刑法的否定性评价,一样可以通过社会通常意义的物理性手段对人工智能进行处置与毁灭,无需浪费宝贵的司法资源做无用之功,造成刑法
[4]73规范评判上的多此一举,致使刑罚惩治目的与规制效果的落空.有学者认为,对强人工智
91
福建警察学院学报 2020年第1期
能机器人适用刑罚能够实现刑罚的威慑功能,因为随着医学对人体结构的认知加深,赋予强
[6]122人工智能机器人身体上的疼痛机制及主观上的感觉判断并非天方夜谭.笔者认为,姑且不
谈科技能否达到赋予强人工智能人类层次疼痛感知的水平,仅就机器人存在的价值而言,“钢筋铁骨”一直是机器人相对于人类的优势所在,这使机器人能够执行人类难以执行或危险程度高的任务,远如火星探测、深海探测等,近如火场救援、排除炸弹等.机器人能够在人类难以忍受的温度、气压、氧含量环境下正常作业.如此说来,赋予强人工智能机器人疼痛感,使其“肉身”变得如人类一般敏感的积极意义何在?同时,由于从人工智能体的数据端输出的数据结果,是在途经“黑箱”之后得到的,技术人员完全没有办法掌握经过深度学习之后的人工智能体会自主产生何种输出端数据.在此种情形下,人类当然难以辨别人工智能体对于惩罚是否存在痛苦的感受,或者存在何种其他的感受,进而我们甚至无法证明其是
[9]85否有感受.
删除、修改” 2一般预防方面.将一个程序的行为用刑法评价为犯罪,对该程序执行“的操作,这种刑罚措施能否使受害人得到慰藉、安抚,笔者认为有待商榷.强人工智能有着不同于人类的学习方式.以预防强人工智能杀人为例,显然在算法层面提前写入“机器人不能伤害人类”等行为规则是最有效方式.同时,可以辅以深度学习使强人工智能掌握人类法律和伦理,了解可为与不可为.诚然,对于未来可能产生自主意识的强人工智能而言,这种先天教育也可能是无济于事的,但这并不能证明后天的刑罚威慑学习效果强于先天的规则学习效果.
为了适应人工智能的特点,当前刑罚措施的设计是从实用主义角度出发的.不谈罪行轻重,只看适用效果.也即,当科以删除、修改程序能使强人工智能回归社会,便没必要永久销毁,只有冥顽不灵的机器才会被处以极刑.这种罪责刑不相适应的刑种设计,能否起到威慑功能值得怀疑.至于以犯罪情节轻重设计刑罚措施的方案,看似合理,却忽略了人工智能——机械套用.的特点—
有学者提出,对具有自主意识的强人工智能科处刑罚,不仅可以起到威慑其他具有自我,还可以通过明确犯罪行为的性质,使一些具意识的强人工智能的作用,让其“悬崖勒马”有自我意识但不知法的强人工智能自觉控制自己的行为,从而对强人工智能犯罪起到“防患
[10]50
于未然”的作用.笔者认为,强人工智能这种不知法的行为,是由设计者、制造者的过失
造成的,在认定责任时应当对其进行追责,并非对强人工智能追责.
四、对强人工智能非刑事手段规制的构想
当前学界急于赋予强人工智能刑事主体地位,是因为人工智能发展到强智能阶段后,产
92
王元勋:刍议强人工智能的刑事主体地位
生自我意识的强人工智能具有“自主”犯罪的风险,对此类人工智能主动实施的违法犯罪行
[14]为,如何进行规制和处罚,是人工智能刑事立法必须面对的问题.笔者认为,这种面对新
事物、新挑战优先适用刑法的思维,是“刑法万能论”的体现,夸大并美化了刑法的功能.诚然,刑法能发挥积极的作用,但是刑法消极作用的客观存在也是不容置疑的.换言之,刑法的实际运作在对社会产生为人们所希望的积极影响与作用的同时,也可能产生违背人们意
[15]愿的消极影响和作用,或者不产生任何效应.对于产生自我意识的强人工智能的失范行为,
倘若采取非刑事手段进行规制便能调整,则并无必要牵扯刑法.
人工智能由人类设计,为人类服务,以实现人类利益为终极目标,强人工智能并不例,而将其视为牲畜看待是否更为恰当?牛、马、驴等牲畜在几千不将强人工智能视为“人”年前相继被人类驯化,延续至今一直作为工具役用;雪橇犬、牧羊犬等工作犬种则仍在某些.地方发挥工具的作用.强人工智能的定位理应与它们相同,即应视之为“活的工具” 牲畜伤人,主人会根据事件的起因自主决断如何处置:或原谅,或惩戒,或丢弃,或处死.同样,强人工智能出于自主意识,侵害他人法益时,其主人应当拥有类似于处置牲畜的权利.当然,可以设计“机器人管理法”等相关法规,规范主人的处置行为,如不得随意遗弃,而应该送至政府指定的机构进行详细登记后统一处理等.出于自主意识,造成重大法益侵害的人工智能行为,如故意杀人,同样可以比照动物致人死亡事件进行处理.在肯定强人工智能类似牲畜地位的同时,根据其特征,制定处置强人工智能失范行为的措施,包括删除、修改、格式化程序,改造肢体,销毁报废等.相关措施的性质为技术手段或社会通用物理手段,并非刑罚措施.
当人工智能不以服务人类为存在价值,不以人类利益为优先,不以牲畜的地位,而是平等地以“人”的身份与人类相处时,人工智能的发展将会失去控制,并且很可能导致奇点来临,人类被人工智能所颠覆、灭亡.此时,再谈人工智能的刑法规制,则更无意义.
外.拥有自主意识的强人工智能必须附属于人类,必须以人类利益为优先.以此为大前提,
五、结 语
强人工智能作为一种科技产品,当产品缺陷引发危险行为时,由其设计者、制造者承担
[16]责任较为合适.当使用者恶意利用强人工智能时,则可对使用者进行直接归责.另一种情
况是,在不久的将来,强人工智能极有可能独立决断、自主实施某种行为.一旦强人工智能产生了自主意识,其行事原则与在制造和设计过程中所确立原则可能具有某些差异,此时人类就失去对强人工智能行为的控制.强人工智能在行事过程中所造成的法益侵害结果,似乎毫无疑问应当由其自身承担.但是这种后果的承担是否有必要使用刑法进行规制?笔者认
93
福建警察学院学报 2020年第1期
为,抛却主体是否适格和是否可罚的问题,刑法对先端技术,应该秉持谦抑的态度,不应该过于积极地介入.应优先适用其他法律或者技术规则,防止先端技术因刑法的介入而产生发
[17]展萎缩的危害结果.
参考文献:
[]]():吴汉东.人工智能时代的制度安排与法律规制[法律科学,1J.20175128136.[]]():沈寅飞.当法律遇上人工智能[方圆,2J20171424.
[]“]()刘宪权.人工智能时代的“内忧”外患”与刑事责任[东方法学,3J20181.[]]()时方.人工智能刑事主体地位之否定[法律科学,4J.20186.
[]]():刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[法学,5J201814047.[]()褚陈城.人工智能可否成为刑事责任主体[检察日报,7N].201804193.[]]()张镭.人工智能体可罚性辩疑[南京社会科学,9J.201811.
[]],()卢勤忠,何鑫.强人工智能时代的刑事责任与刑罚理论[华南师范大学学报(社会科学版)6J.20186.[]],():马治国,田小楚.论人工智能体刑法适用之可能性[华中科技大学学报(社会科学版)8J.20182108115.[]]()刘宪权,朱彦.人工智能时代对传统刑法理论的挑战[上海政法学院学报,10J.20182.
[]],():王耀彬.类人型人工智能实体的刑事责任主体资格审视[西安交通大学学报(社会科学版)11J.201919.
():22126,48.
[]——以智能机器人和无人驾驶汽车为切入点[]蔡婷婷.人工智能环境下刑法的完善及适用—犯罪研究,12J.2018[]]:李兴臣.人工智能机器人刑事责任的追究与刑罚的执行[中共青岛市委党校青岛行政学院学报,13J.2018(4)[]],():李振林.人工智能刑事立法图景[华南师范大学学报(社会科学版)14J.20186125133.[]]():关福金,杨书文.论刑法的功能[中国刑事杂志,15J.200132531.[]()孙道萃.人工智能对传统刑法的挑战[检察日报,16N].201710223.
112116.
[]——以过失的归责间隙为中心的讨论[]():褚陈城.人工智能时代刑法归责的走向—东方法学,17J.201832737.
(责任编辑:周茂雄)
94
因篇幅问题不能全部显示,请点此查看更多更全内容