內(nèi)容摘要
隨著各種無(wú)人操作技術(shù)的發(fā)展以及互聯(lián)網(wǎng)的升級(jí),人工智能已經(jīng)成為這個(gè)時(shí)代的一個(gè)鮮明主題,盡管人工智能技術(shù)發(fā)展到多么精湛,在當(dāng)代社會(huì)中也不能脫離法治的軌道。目前在司法實(shí)踐以及理論中仍沒(méi)有一套統(tǒng)一的責(zé)任歸責(zé)機(jī)制。分析人工智能特產(chǎn)品的特性、犯罪因素以及當(dāng)前理論界上關(guān)于人工智能法律地位的兩大學(xué)說(shuō)(輔助工具說(shuō)與法律人格說(shuō)),結(jié)合當(dāng)前“弱人工智能”的時(shí)代背景,分析其歸責(zé)原理并且提出關(guān)于人工智能產(chǎn)品對(duì)被害人造成致傷致死類犯罪的刑事責(zé)任歸責(zé)思路。提出從源頭預(yù)防人工智能產(chǎn)品犯罪的幾點(diǎn)建議,以更好應(yīng)對(duì)人工智能產(chǎn)品實(shí)施犯罪行為時(shí)出現(xiàn)“責(zé)任空缺”的情形。
關(guān)鍵詞:人工智能? 責(zé)任歸屬? 輔助工具說(shuō)? 法律人格說(shuō)? 擬人心理

一、人工智能產(chǎn)品特性及犯罪因素
人工智能概念自上個(gè)世紀(jì)五十年代在達(dá)特茅斯會(huì)議上被提出以來(lái),人類對(duì)人工智能就開(kāi)始各方面的研究,至今人類對(duì)人工智能已經(jīng)不再陌生,如電影《流浪地球》中空間站上的“莫斯”正是對(duì)人工智能的典型刻畫(huà),又如現(xiàn)實(shí)生活中的無(wú)人駕駛汽車、手機(jī)智能語(yǔ)音助手以及智能生產(chǎn)車間等。人工智能具有三大特性,第一,自主意志性,即能憑借自身意志(主要指算法和程序)獨(dú)立實(shí)施行為;第二,自主學(xué)習(xí)性,雖然人工智能實(shí)施行為的前提是預(yù)先設(shè)定好的程序,但程序在運(yùn)用的過(guò)程中可根據(jù)數(shù)據(jù)變化以及使用范圍的擴(kuò)大等具體情況自動(dòng)升級(jí)或更新系統(tǒng)以便適應(yīng)使用需求;第三,社會(huì)性,當(dāng)今時(shí)代下人工智能已經(jīng)廣泛運(yùn)用到人類社會(huì)的生活生產(chǎn)中,甚至成為社會(huì)勞動(dòng)力的主要力量,而人工智能產(chǎn)品則是人工智能技術(shù)的客觀物質(zhì)載體(通常稱為“機(jī)器人”),以上人工智能三大特性也為人工智能產(chǎn)品實(shí)施犯罪行為提供了理論依據(jù)。
所謂人工智能產(chǎn)品致傷致死類犯罪即人工智能產(chǎn)品對(duì)被害人的身體健康權(quán)與生命權(quán)實(shí)施侵害行為并且達(dá)到刑事法律所規(guī)制的危害結(jié)果的人工智能犯罪,在人工智能的運(yùn)用與研究的幾十年里,人工智能產(chǎn)品關(guān)于此類的犯罪逐漸出現(xiàn)在人類社會(huì)生活中,從1987年日本切割機(jī)器人“轉(zhuǎn)身”將工人抓住切割致死(世界上第一宗機(jī)器人殺人事件),到1989年轟動(dòng)全球的人工智能機(jī)器人落敗于蘇聯(lián)國(guó)際象棋冠軍釋放強(qiáng)大電流致冠軍死亡事件,再到當(dāng)代社會(huì)中無(wú)人駕駛汽車交通事故等,越來(lái)越多關(guān)于人工智能產(chǎn)品致傷、致死以及損壞財(cái)產(chǎn)等事件見(jiàn)諸于媒體,不禁讓人引起反思。
人工智能產(chǎn)品犯罪與自然人犯罪的最大區(qū)別及難點(diǎn)在于人工智能犯罪的主觀意志難以得到評(píng)價(jià),在排除人工智能產(chǎn)品的“主觀意志”因素的條件下,人工智能產(chǎn)品犯罪的原因大致可歸為以下幾點(diǎn):
第一,人工智能產(chǎn)品自身缺陷的因素,人工智能產(chǎn)品在作為一件流通于社會(huì)的產(chǎn)品而言,在生產(chǎn)銷售及使用過(guò)程中,難免會(huì)出現(xiàn)產(chǎn)品質(zhì)量瑕疵的問(wèn)題,而對(duì)于要求具有及高精確度的人工智能技術(shù)而言,稍有瑕疵則可能引起嚴(yán)重的系統(tǒng)錯(cuò)誤從而導(dǎo)致產(chǎn)品實(shí)施其他非程序設(shè)定范圍內(nèi)的行為。
第二,網(wǎng)絡(luò)病毒入侵影響,人工智能技術(shù)與互聯(lián)網(wǎng)具有緊密的銜接性,因此互聯(lián)網(wǎng)也時(shí)刻影響著人工智能產(chǎn)品的工作與運(yùn)行,但互聯(lián)網(wǎng)世界并非是一個(gè)穩(wěn)定、“干凈”的環(huán)境,惡意病毒無(wú)處不在,若人工智能產(chǎn)品系統(tǒng)“防火墻”被攻破則將導(dǎo)致病毒入侵從而影響甚至控制人工智能產(chǎn)品實(shí)施行為。
第三,電路或其他硬件設(shè)施干擾,人工智能產(chǎn)品作為高精確度的客體存在于復(fù)雜的電路系統(tǒng)與磁場(chǎng)電波的環(huán)境中,不免會(huì)受到影響,如2007年某餐廳炒菜機(jī)器人對(duì)老板及其妻子各打了一耳光,經(jīng)查明炒菜機(jī)器人的“打人”行為系受到廚房附近的高頻電磁波干擾而導(dǎo)致機(jī)器人“失手”打人。第四,人為因素,主要指自然人把人工智能產(chǎn)品視為自己的犯罪工具,在人工智能產(chǎn)品程序中設(shè)定某種犯罪指令使人工智能產(chǎn)品實(shí)施設(shè)定中的犯罪行為(行為人包括設(shè)計(jì)生產(chǎn)者、使用者以及網(wǎng)絡(luò)黑客等)。
二、人工智能產(chǎn)品犯罪刑事責(zé)任歸責(zé)
原理分析
通常情況下自然人犯罪的責(zé)任歸責(zé)主要考量的要素包括主觀要素、認(rèn)識(shí)錯(cuò)誤、刑事責(zé)任能力、不可抗力、人身危險(xiǎn)性等,但人工智能產(chǎn)品并沒(méi)有自然人一樣的主觀心理狀態(tài),因此也就沒(méi)有必要按照自然人犯罪的責(zé)任歸責(zé)模式來(lái)對(duì)人工智能產(chǎn)品犯罪進(jìn)行歸責(zé),關(guān)于人工智能產(chǎn)品犯罪的責(zé)任歸責(zé)所需要考量的因素更應(yīng)多注重客觀方面的要素。
第一,基于人工智能產(chǎn)品實(shí)施犯罪行為的原因進(jìn)行考量,如上文所述,人工智能產(chǎn)品實(shí)施犯罪行為的主要原因在于受外界干擾所致(包括磁場(chǎng)、電流等干擾與網(wǎng)絡(luò)病毒入侵),其中可分為兩個(gè)方面進(jìn)行分析,一方面,責(zé)任歸責(zé)于發(fā)出干擾的一方,若能認(rèn)定干擾人工智能產(chǎn)品正常工作的源頭系行為人故意向人工智能產(chǎn)品發(fā)出干擾訊號(hào)則可將責(zé)任直接歸責(zé)于該行為人,另一方面,若不能證明有人故意實(shí)施干擾行為,則可認(rèn)定人工智能產(chǎn)品系統(tǒng)管理者或操作者承擔(dān)責(zé)任。
第二,基于產(chǎn)品質(zhì)量問(wèn)題而產(chǎn)生的責(zé)任,就目前人工智能發(fā)展水平而言,人工智能產(chǎn)品在沒(méi)有確定有無(wú)法律主體資格之前,暫時(shí)將其默認(rèn)為具有商品屬性的社會(huì)生產(chǎn)結(jié)果,若從民事法律的角度對(duì)產(chǎn)品質(zhì)量責(zé)任進(jìn)行分析,其中的責(zé)任主體可以是生產(chǎn)者或者銷售者,就責(zé)任承擔(dān)而言可承擔(dān)連帶責(zé)任,但刑法具有較高的嚴(yán)謹(jǐn)性,并無(wú)“連帶刑事責(zé)任”之說(shuō),那么如果基于產(chǎn)品質(zhì)量問(wèn)題產(chǎn)生刑事責(zé)任應(yīng)當(dāng)如何歸責(zé),筆者認(rèn)為應(yīng)歸責(zé)于研發(fā)生產(chǎn)者,人工智能產(chǎn)品從研發(fā)到投入市場(chǎng)應(yīng)當(dāng)是經(jīng)過(guò)非常嚴(yán)格的程序以及檢測(cè),產(chǎn)品質(zhì)量通常不會(huì)因銷售者產(chǎn)生,因此基于產(chǎn)品質(zhì)量問(wèn)題而產(chǎn)生的刑事責(zé)任應(yīng)由研發(fā)生產(chǎn)者承擔(dān)較為妥當(dāng)。
第三,需判斷被害人是否存在過(guò)錯(cuò),人工智能產(chǎn)品犯罪中的被害人過(guò)錯(cuò)是指由于被害人的過(guò)錯(cuò)原因?qū)е氯斯ぶ悄墚a(chǎn)品對(duì)自己實(shí)施致傷致死的行為,此時(shí)被害人應(yīng)屬于自陷風(fēng)險(xiǎn)或者以意外事故處理,而對(duì)于人工智能產(chǎn)品的使用(管理)者不應(yīng)承擔(dān)刑事責(zé)任,但應(yīng)對(duì)被害人予以適當(dāng)賠償。除此之外,還應(yīng)考慮其他客觀要素,比如人工智能產(chǎn)品是否定期進(jìn)行檢測(cè)、產(chǎn)品的使用方式與維護(hù)是否正確、產(chǎn)品是否已經(jīng)達(dá)到使用年限仍在使用等因素,在無(wú)法判斷人工智能犯罪的主觀意志的時(shí)候,只有通過(guò)綜合分析其客觀因素才能更準(zhǔn)確將刑事責(zé)任進(jìn)行歸責(zé)認(rèn)定。
三、刑事責(zé)任歸屬認(rèn)定的意義及思路
多年來(lái)人工智能產(chǎn)品對(duì)自然人致傷、致死的事件頻發(fā)不斷,因此人工智能產(chǎn)品也必然被列入刑事法治軌道,若不能將人工智能產(chǎn)品犯罪的刑事責(zé)任歸屬予以相對(duì)準(zhǔn)確的認(rèn)定,則刑事法律關(guān)于人工智能的規(guī)制將毫無(wú)意義所言。在對(duì)人工智能進(jìn)行法律規(guī)制的問(wèn)題上,我們應(yīng)立足于當(dāng)前的立法現(xiàn)狀對(duì)人工智能犯罪問(wèn)題進(jìn)行審視,沒(méi)有必要超前地對(duì)人工智能進(jìn)行單獨(dú)立法或者另設(shè)新罪,并且應(yīng)當(dāng)結(jié)合當(dāng)今“弱人工智能”的時(shí)代背景以及現(xiàn)實(shí)最可能發(fā)生的人工智能致傷致死犯罪事件進(jìn)行探討。由于人工智能的特殊技術(shù)要求以及人工智能產(chǎn)品的行為特性,給人工智能產(chǎn)品致傷致死類犯罪的刑事責(zé)任歸屬認(rèn)定帶來(lái)了挑戰(zhàn),在此問(wèn)題上,學(xué)界目前存在著兩大爭(zhēng)辯理論:輔助工具說(shuō)與法律人格說(shuō)。
(一)刑事責(zé)任歸屬的確定是人工智能法治化的需要
刑事法治建設(shè)需要不斷克服和超越實(shí)踐中出現(xiàn)的特殊問(wèn)題和困難,在關(guān)于人工智能產(chǎn)品致傷致死類犯罪的刑事責(zé)任歸屬問(wèn)題上無(wú)疑是給刑事法治建設(shè)帶來(lái)了挑戰(zhàn),解決刑事責(zé)任歸屬問(wèn)題也將成為法治建設(shè)的重要任務(wù)之一。人工智能產(chǎn)品致傷致死類犯罪在責(zé)任歸屬上的主要問(wèn)題在于無(wú)法確定其責(zé)任主體,在沒(méi)有責(zé)任主體的情況下就會(huì)造成犯罪行為“責(zé)任空缺”的現(xiàn)象,從而導(dǎo)致犯罪行為無(wú)法被刑法所規(guī)制,往更嚴(yán)重的發(fā)展則可能導(dǎo)致更多的新型犯罪的出現(xiàn)。人工智能產(chǎn)品的出現(xiàn)同時(shí)也預(yù)示著其必須列入法治的軌道,也就意味著人工智能產(chǎn)品犯罪必須由刑事法律予以規(guī)制,其中刑事責(zé)任歸屬是刑法規(guī)制中一個(gè)必不可少的程序,若因此出現(xiàn)了“責(zé)任空缺”的現(xiàn)象,則將可能違背“違法必究”的依法治國(guó)理念,因此在刑事法律中關(guān)于人工智能產(chǎn)品犯罪的責(zé)任歸屬問(wèn)題,需要一套相對(duì)確定的責(zé)任歸責(zé)方法以適應(yīng)法治化建設(shè)的需要。
(二)輔助工具說(shuō)是責(zé)任歸責(zé)的主要理論依據(jù)
要確定人工智能產(chǎn)品致傷致死類犯罪的刑事責(zé)任歸屬,則必須確定人工智能產(chǎn)品本身是否能成為責(zé)任主體,關(guān)于此問(wèn)題,學(xué)界上對(duì)于人工智能產(chǎn)品法律人格理論存在著支持與反對(duì)兩大對(duì)立觀點(diǎn),支持的觀點(diǎn)認(rèn)為(即法律人格說(shuō)),人工智能產(chǎn)品是責(zé)任主體,人工智能的研發(fā)、生產(chǎn)單位和使用者均無(wú)法預(yù)料和控制具有自主意識(shí)的人工智能的“意識(shí)”和“行為”,同時(shí),我國(guó)也有學(xué)者認(rèn)為“在機(jī)器人社會(huì)化應(yīng)用不可避免的情況下,我國(guó)(乃至世界各國(guó))應(yīng)當(dāng)肯定機(jī)器人的法律主體地位,賦予機(jī)器人必要的權(quán)利”“人工智能具有獨(dú)立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)義務(wù),人工智能應(yīng)當(dāng)具有法律人格”。
但是此類看法及觀點(diǎn)過(guò)于片面,我們不能一味地追求簡(jiǎn)單快捷的方法來(lái)解決人工智能產(chǎn)品所帶來(lái)的各種法律問(wèn)題,從而直接將人工智能產(chǎn)品視為法律主體,而更應(yīng)該考慮的是賦予人工智能產(chǎn)品法律人格之后對(duì)整個(gè)法律體系、社會(huì)關(guān)系以及所有法律主體的影響與問(wèn)題,賦予其法律人格即意味著人工智能產(chǎn)品與自然人在法律上具有相對(duì)同等的地位,因此在法律關(guān)系主體中就會(huì)出現(xiàn)一類全新的主體,傳統(tǒng)法律的調(diào)整對(duì)象也將發(fā)生改變。
若賦予人工智能產(chǎn)品以法律主體地位,可能會(huì)出現(xiàn)以下問(wèn)題:
第一,造成社會(huì)關(guān)系混亂,若人工智能產(chǎn)品具有法律主體地位則在法律所調(diào)整的社會(huì)關(guān)系中將出現(xiàn)一種新的社會(huì)關(guān)系:人工智能產(chǎn)品與自然人之間的社會(huì)關(guān)系,同時(shí)也意味著人工智能產(chǎn)品依靠程序進(jìn)行的各種民事活動(dòng)也因此合法有效。
第二,增加社會(huì)風(fēng)險(xiǎn),無(wú)論是當(dāng)前的“弱人工智能”時(shí)代還是未來(lái)的“強(qiáng)人工智能”時(shí)代,人工智能產(chǎn)品通常脫離人類控制而獨(dú)立實(shí)施行為,并且在技術(shù)上并未達(dá)到最優(yōu)狀態(tài),因此人工智能本身就是一個(gè)并非絕對(duì)穩(wěn)定的產(chǎn)物,若賦予其法律主體地位對(duì)于社會(huì)而言猶如一枚定時(shí)炸彈,存在各種社會(huì)風(fēng)險(xiǎn)。
回到責(zé)任歸責(zé)問(wèn)題,若站在法律人格說(shuō)的立場(chǎng)上讓人工智能產(chǎn)品獨(dú)自承擔(dān)刑事責(zé)任并且成為刑罰執(zhí)行對(duì)象是否可取?有學(xué)者提出觀點(diǎn):“人工智能可以像人類一樣直接承擔(dān)刑事責(zé)任,甚至原本只能適用于人類的傳統(tǒng)刑罰,如死刑、自由行、緩刑、社區(qū)服務(wù)、罰金等手段,經(jīng)過(guò)適當(dāng)調(diào)整同樣適用于人工智能。
再者,未來(lái)的強(qiáng)人工智能時(shí)代里,強(qiáng)人工智能產(chǎn)品將具有辨認(rèn)能力和控制能力,刑法上應(yīng)當(dāng)承認(rèn)其具有獨(dú)立的人格和刑事能力,并且可以對(duì)其使用刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰手段”。
筆者認(rèn)為并不可取,首先,人工智能產(chǎn)品犯罪基礎(chǔ)與自然人犯罪基礎(chǔ)存在較大差別,正如上文所述,人工智能產(chǎn)品犯罪原因主要為外界因素的干擾導(dǎo)致系統(tǒng)錯(cuò)誤(網(wǎng)絡(luò)病毒、電磁波干擾等),而自然人犯罪以一定的主觀目的為前提;其次,刑法的目的在于預(yù)防犯罪,要達(dá)到預(yù)防犯罪的目的需要在刑罰方面體現(xiàn)出威懾性,則需要在對(duì)人工智能產(chǎn)品實(shí)施刑罰的時(shí)候?qū)ζ渌腥斯ぶ悄墚a(chǎn)品公開(kāi)警示,但人工智能產(chǎn)品并沒(méi)有像自然人一樣的被強(qiáng)制力所震懾的畏懼心理,所以對(duì)人工智能產(chǎn)品認(rèn)定刑事責(zé)任且執(zhí)行刑罰毫無(wú)意義;最后,沒(méi)有準(zhǔn)確的法律規(guī)定予以適用,法律總存在滯后性,若要將人工智能主體視為法律主體,需要重新制定新法或者在現(xiàn)行生效的刑事法律中增設(shè)新的罪名并且在適用過(guò)程中仍需不停修改法律以適應(yīng)人工智能技術(shù)的發(fā)展,這樣一來(lái)法律的穩(wěn)定性將沒(méi)有保障。
綜上所述,關(guān)于人工智能產(chǎn)品致傷致死類犯罪的責(zé)任歸責(zé)問(wèn)題不能簡(jiǎn)單地賦予人工智能產(chǎn)品法律主體地位進(jìn)而使其承擔(dān)法律責(zé)任,而更應(yīng)該通過(guò)重新審視刑法與刑罰的目的與原理進(jìn)行考究,因此,在刑事責(zé)任歸責(zé)的認(rèn)定問(wèn)題上,不宜以法律人格說(shuō)作為其理論基礎(chǔ)。
另一方面,持反對(duì)人工智能法律人格論(輔助工具說(shuō))的一方觀點(diǎn)認(rèn)為,“人工智能的‘意志’并非來(lái)源于天賦人權(quán),而是來(lái)源于預(yù)設(shè)的程序以及指令,人工智能產(chǎn)品根據(jù)其預(yù)設(shè)的程序和指令自行實(shí)施一定的行動(dòng)”,具體來(lái)說(shuō),人工智能產(chǎn)品盡管能脫離人類的操作控制即可主動(dòng)實(shí)施行為,但其本身并不具備“人格”的基礎(chǔ)以及特性,人工智能產(chǎn)品與自然人的“工具性”關(guān)系大致可以認(rèn)為是:若自然人的意志來(lái)源于天賦人權(quán),則人工智能產(chǎn)品的“意志”則應(yīng)來(lái)源于“人賦”,因此從該立場(chǎng)出發(fā),人工智能產(chǎn)品只能是自然人賦予其程序和指令的輔助工具。
將人工智能產(chǎn)品始終視為為人類生活生產(chǎn)提供便利的輔助工具,也就意味著人工智能產(chǎn)品犯罪的刑事責(zé)任也應(yīng)始終歸責(zé)于自然人,此類自然人責(zé)任主體包括研發(fā)、生產(chǎn)銷售者與使用(管理)者。
此外,在責(zé)任形式方面,我國(guó)學(xué)者認(rèn)為,“人工智能產(chǎn)品的責(zé)任形式可分為兩個(gè)主要階段:一、生產(chǎn)階段:研發(fā)者、生產(chǎn)者的保障產(chǎn)品安全義務(wù)與故意責(zé)任;二、流通階段:生產(chǎn)者的召回義務(wù)、所有者(使用者)的安全管理義務(wù)與過(guò)失責(zé)任”。
站在輔助工具說(shuō)的立場(chǎng)上,看似已形成完美的責(zé)任鏈條,其實(shí)仍有新的問(wèn)題存在并非一帆風(fēng)順,我們需要考慮到,人工智能產(chǎn)品與自然人在法律上的關(guān)系僅僅是民事關(guān)系中對(duì)物的所屬關(guān)系,并無(wú)其他人身關(guān)系,并且考慮到人工智能產(chǎn)品的行為特性,即人工智能產(chǎn)品在實(shí)施行為時(shí)作為自然人的第三者對(duì)其行為可以說(shuō)是毫無(wú)知情,那么在人工智能產(chǎn)品實(shí)施犯罪行為后,將責(zé)任歸責(zé)于自然人并且對(duì)其實(shí)施刑罰是否公平妥當(dāng)?比如人工智能產(chǎn)品實(shí)施了致人死亡的行為,是否可以對(duì)其使用者(或其他自然人責(zé)任主體)直接適用故意殺人罪或者其他罪名并且對(duì)其處罰?又如蘇聯(lián)人工智能機(jī)器人比賽落敗后釋放強(qiáng)電流“電擊”殺害國(guó)際象棋冠軍事件,假設(shè)人工智能產(chǎn)品出現(xiàn)“擬人心理”(在肯定輔助工具說(shuō)的前提下),是否可以認(rèn)為當(dāng)時(shí)人工智能機(jī)器人落敗冠軍后導(dǎo)致“心情不悅”或者“惱羞成怒”進(jìn)而將冠軍殺害,若人工智能“擬人心理”確實(shí)出現(xiàn)在當(dāng)今社會(huì),直接將其物權(quán)所有人或者使用(管理)者套用罪名處罰是否公平?
筆者認(rèn)為可以通過(guò)出臺(tái)相應(yīng)的法律解釋以及司法審判上的變通來(lái)解決這些問(wèn)題,首先,可通過(guò)法律解釋,在無(wú)需增設(shè)新罪名的前提下對(duì)刑事法律中部分罪名針對(duì)人工智能犯罪的特殊情況予以解釋,從中可直接規(guī)定其生產(chǎn)銷售者、使用(管理)者的權(quán)利義務(wù),從而規(guī)定對(duì)應(yīng)的刑事責(zé)任,如在故意殺人罪的規(guī)定中,可將人工智能產(chǎn)品實(shí)施殺人行為的情形列入解釋中,規(guī)定其使用者承擔(dān)安全管理責(zé)任或者過(guò)失責(zé)任,對(duì)使用的處罰應(yīng)從輕處理,根據(jù)危害結(jié)果的嚴(yán)重性可調(diào)整刑罰程度。
其次,司法審判過(guò)程中在關(guān)于人工智能產(chǎn)品犯罪的范圍內(nèi)可適當(dāng)擴(kuò)大法官的自由裁量權(quán),法官可根據(jù)具體情況對(duì)責(zé)任主體作出適當(dāng)判決,如根據(jù)責(zé)任主體(自然人)的知情程度以及是否存在對(duì)人工智能產(chǎn)品犯罪積極補(bǔ)救行為的情形等多方面進(jìn)行考量。
最后,刑罰以財(cái)產(chǎn)刑為主,慎用或不用自由刑與死刑,考慮到人工智能產(chǎn)品犯罪的特性、責(zé)任主體的不知情以及人工智能產(chǎn)品的“擬人心理”與保障被告人合法權(quán)益等多方面情形,作為責(zé)任主體的自然人在人工智能犯罪的責(zé)任形式主要為過(guò)失責(zé)任,并且不是致傷致死犯罪行為的直接實(shí)施者(且不考慮犯罪行為人直接輸入犯罪指令使人工智能產(chǎn)品實(shí)施犯罪的情形),因此在刑罰處罰上不宜判處過(guò)重的刑罰,若造成相對(duì)嚴(yán)重的后果也可通過(guò)高額罰金或賠償予以調(diào)節(jié)。
綜上所述,無(wú)論是在當(dāng)前的“弱人工智能”時(shí)代還是在未來(lái)的“強(qiáng)人工智能”時(shí)代,在理論上與實(shí)踐中都不足以支持給予人工智能法律主體地位,盡管人工智能技術(shù)在不斷革新并且不斷趨于完美,甚至可能取代自然人進(jìn)行社會(huì)工作,同時(shí)也將面臨各種未知的法律風(fēng)險(xiǎn)與挑戰(zhàn),但可以肯定的是,人工智能機(jī)器人絕不可能獲得完全的不受限制、與自然人平等的主體地位,因此筆者認(rèn)為關(guān)于人工智能產(chǎn)品致傷致死犯罪的責(zé)任歸責(zé)應(yīng)采用輔助工具說(shuō)將自然人確定為責(zé)任主體更為合適。
四、將人工智能產(chǎn)品犯罪扼殺于搖籃之中
為了減少人工智能產(chǎn)品致傷致死犯罪的出現(xiàn),須從源頭開(kāi)始進(jìn)行預(yù)防,在人工智能產(chǎn)品生產(chǎn)之前可對(duì)其研發(fā)生產(chǎn)者進(jìn)行應(yīng)有的義務(wù)規(guī)定,既然人工智能產(chǎn)品被視為商品或工具而存在,則研發(fā)生產(chǎn)者應(yīng)承擔(dān)產(chǎn)品質(zhì)量擔(dān)保義務(wù),如果研發(fā)生產(chǎn)者對(duì)自己所研發(fā)生產(chǎn)的人工智能產(chǎn)品中的質(zhì)量瑕疵等問(wèn)題明知而不告知且導(dǎo)致嚴(yán)重后果的,其研發(fā)生產(chǎn)者可直接構(gòu)成故意犯罪。
另一方面,人工智能產(chǎn)品應(yīng)作為特殊產(chǎn)品對(duì)待,人工智能產(chǎn)品生產(chǎn)者或者生產(chǎn)單位應(yīng)當(dāng)具備相對(duì)嚴(yán)格的生產(chǎn)資質(zhì),在研發(fā)生產(chǎn)人工智能產(chǎn)品前應(yīng)當(dāng)獲得相應(yīng)機(jī)關(guān)部門(mén)的生產(chǎn)許可,并且由政府機(jī)關(guān)部門(mén)對(duì)人工智能的研發(fā)生產(chǎn)工作通過(guò)行政手段進(jìn)行監(jiān)督。盡管人工智能產(chǎn)品不能等同于人類,但有著“擬人”的學(xué)習(xí)能力,因此在研發(fā)生產(chǎn)過(guò)程中應(yīng)當(dāng)將部分或者全部法律法規(guī)輸入人工智能系統(tǒng)(應(yīng)作為人工智能產(chǎn)品生產(chǎn)環(huán)節(jié)的強(qiáng)制性要求),并且在法律法規(guī)出現(xiàn)修改時(shí)也能通過(guò)互聯(lián)網(wǎng)實(shí)時(shí)更新,雖不能完全杜絕人工智能產(chǎn)品致傷致死等犯罪行為,但可極大程度降低犯罪風(fēng)險(xiǎn)。
人工智能時(shí)代的到來(lái)已成定局,但人類是否能應(yīng)對(duì)人工智能時(shí)代帶來(lái)的風(fēng)險(xiǎn)仍沒(méi)有定數(shù),著名物理學(xué)家史蒂芬.霍金生前表示:“人工智能的出現(xiàn)可能是人類文明史上最糟糕的事情,”面對(duì)未來(lái)諸多不可預(yù)知的風(fēng)險(xiǎn),霍金解釋說(shuō):“人工智能的創(chuàng)造者需要采用最佳實(shí)踐和有效管理”??傊?,人工智能時(shí)代的發(fā)展離不開(kāi)法律對(duì)人工智能的規(guī)范,只有首先應(yīng)對(duì)和解決人工智能給法律帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)才能給人工智能的發(fā)展?fàn)I造良好的法律環(huán)境。