如何追究AI犯罪的民事責(zé)任?
試想,2023年自動(dòng)駕駛車(chē)穿梭于大街小巷。若不幸發(fā)生了交通事故,行人被撞身亡,媒體將爭(zhēng)相報(bào)道。這場(chǎng)官司必將引發(fā)廣泛關(guān)注,但究竟該如何審判,依據(jù)是什么?
如今,英國(guó)布萊頓大學(xué)的John Kingston給出了一個(gè)答案,但有些差強(qiáng)人意,他提出了AI領(lǐng)域的刑事責(zé)任理論,并指出自動(dòng)化、計(jì)算機(jī)和法律領(lǐng)域需改變態(tài)度,謹(jǐn)慎應(yīng)對(duì)等關(guān)鍵問(wèn)題。
爭(zhēng)論的核心在于人工智能系統(tǒng)能否自行承擔(dān)刑事責(zé)任。Kingston稱(chēng),以色列奧濃科學(xué)院的Gabriel Hallevy對(duì)此問(wèn)題進(jìn)行了深入研究。
構(gòu)成刑事責(zé)任通常需要明確其行為和意圖(法律術(shù)語(yǔ)為actus rea 和 mens rea)。Kingston稱(chēng)Hallevy描繪了AI系統(tǒng)可能涉及的三種刑事犯罪情況。
第一種情況為間接犯罪,肇事者為存在精神缺陷的人或動(dòng)物,此類(lèi)肇事者無(wú)需承擔(dān)法律責(zé)任。但任何操縱精神病患者或動(dòng)物實(shí)施犯罪的人均需承擔(dān)相應(yīng)刑事責(zé)任。例如,狗主人命令狗襲擊他人。
再比如,智能機(jī)器的設(shè)計(jì)者及使用者。Kingston表示:“AI項(xiàng)目可能被當(dāng)作無(wú)辜的工具,而利用它實(shí)施犯罪的軟件編程師或用戶(hù)則為間接犯罪的主謀。”
第二種情況為不可抗力與意外事件,即指因不當(dāng)使用AI系統(tǒng)導(dǎo)致的犯罪。Kingston以日本摩托車(chē)工廠智能機(jī)器人殺人案件為例,解釋道:“機(jī)器人將工人誤認(rèn)為危險(xiǎn)對(duì)象,采取消除威脅的最有效方式,揮動(dòng)力大無(wú)窮的液壓懸臂,將毫無(wú)防備的工人推入機(jī)器,迅速結(jié)束了他的生命,然后繼續(xù)執(zhí)行工作任務(wù)。”
此案例的關(guān)鍵問(wèn)題在于該機(jī)器的編程師是否已知此類(lèi)機(jī)器的功能缺陷及可能帶來(lái)的后果。
第三種情況為行為與意圖兼具的直接犯罪,如果AI系統(tǒng)的作為或疏忽不作為構(gòu)成犯罪,則可直接證明其犯罪事實(shí)。
Kingston認(rèn)為,犯罪意圖雖然難以界定,但仍具參考價(jià)值,他表示:“超速屬?lài)?yán)格責(zé)任犯罪。因此根據(jù)Hallevy的說(shuō)法,自動(dòng)駕駛汽車(chē)如果超速行駛,法律上有充分理由追究驅(qū)動(dòng)該汽車(chē)AI技術(shù)團(tuán)隊(duì)的刑事責(zé)任。”如此看來(lái),車(chē)主無(wú)需擔(dān)責(zé)。
接下來(lái),涉及刑事辯護(hù)。被追究刑事責(zé)任的AI系統(tǒng)將如何辯護(hù)?Kingston列舉了幾種可能:AI程序是否可效仿精神病患者,以系統(tǒng)故障為由進(jìn)行辯護(hù)?或效仿人類(lèi)被迫或醉酒犯罪,將受電腦病毒襲擊作為辯護(hù)理由?
這幾種辯護(hù)情況并非憑空設(shè)想,Kingston分享了英國(guó)的一些案例,有計(jì)算機(jī)犯罪的相關(guān)責(zé)任人就以機(jī)器感染惡意軟件為由,進(jìn)行過(guò)成功辯護(hù),并稱(chēng)惡意軟件該負(fù)責(zé)。
某案例中,一名被控發(fā)起拒絕服務(wù)攻擊的青少年黑客辯稱(chēng),木馬程序發(fā)動(dòng)了此次攻擊,該程序還在警方介入前清除了作案痕跡。
最后,涉及刑罰類(lèi)型。既然AI系統(tǒng)是犯罪行為的直接責(zé)任方,那么應(yīng)由誰(shuí)來(lái)接受何種刑罰?這些問(wèn)題尚不得而知。
但若AI系統(tǒng)觸犯的是民法,就不應(yīng)再追究其刑事責(zé)任。接著問(wèn)題來(lái)了,AI系統(tǒng)究竟屬于服務(wù)還是產(chǎn)品?
如果將AI系統(tǒng)視作產(chǎn)品,應(yīng)根據(jù)產(chǎn)品保修證所提供的信息,運(yùn)用產(chǎn)品設(shè)計(jì)法規(guī)處理案例。
如果將其視作服務(wù),則存在過(guò)失侵權(quán)。這種情況下,原告通常需提供構(gòu)成過(guò)失侵權(quán)的三要素。其一,需證明被告有看管義務(wù)。Kingston表示,盡管AI案件中沒(méi)有明確界定看管標(biāo)準(zhǔn),通??芍苯幼C明。
其二,需證明被告存在失職。最后,還需證明該失職對(duì)原告造成了傷害。
然而,比這些條文更復(fù)雜的是,隨著AI系統(tǒng)的能力愈發(fā)接近人類(lèi),甚至超越人類(lèi),其法律地位也將改變。
有一件事是肯定的:未來(lái)幾年內(nèi),律師(或是替代他們的AI系統(tǒng))會(huì)卷入越來(lái)越多的新奇案例糾紛中。





