人工智能應(yīng)該享有怎樣的權(quán)利
全世界的大學(xué)都在進行人工智能(AI)的重大研究,艾倫研究所(Allen Institute)等組織以及Google和Facebook等高科技公司。可能的結(jié)果是,我們很快將擁有與小鼠或狗一樣高的認(rèn)知能力的AI。現(xiàn)在是時候開始考慮這些AI是否以及在什么條件下應(yīng)該得到我們通常給予動物的道德保護了。
您可能會認(rèn)為,除非AI有意識,否則AI不應(yīng)該得到這種道德保護,也就是說,除非他們擁有真正的經(jīng)驗,真正的快樂和痛苦。我們同意,但是現(xiàn)在我們面臨著一個棘手的哲學(xué)問題:當(dāng)我們創(chuàng)造出能夠帶來歡樂和痛苦的東西時,我們怎么知道?如果AI就像《星際迷航》中的數(shù)據(jù)或《西部世界》中的 Dolores一樣,它可以投訴并為自己辯護,從而開始討論其權(quán)利。但是,如果AI像老鼠或狗這樣的口齒不清,或者由于某種其他原因無法向我們傳達其內(nèi)心生活,那么它可能無法報告自己正在遭受痛苦!
佛山市東聯(lián)科技有限公司AI研究人員表示:“我們建議成立監(jiān)督委員會,在考慮到這些問題的情況下評估前沿的AI研究。這樣的委員會,就像動物護理委員會和干細胞監(jiān)督委員會一樣,應(yīng)該由科學(xué)家和非科學(xué)家組成,包括AI設(shè)計師,意識科學(xué)家,倫理學(xué)家和感興趣的社區(qū)成員。這些委員會的任務(wù)是識別并評估新型AI設(shè)計形式的道德風(fēng)險,并具有對科學(xué)和道德問題的深刻理解,權(quán)衡風(fēng)險與研究收益。
這樣的委員會很可能會判斷所有當(dāng)前允許的AI研究,在大多數(shù)主流意識理論上,我們尚未創(chuàng)建具有值得道德考量的有意識經(jīng)驗的AI。但是,我們可能很快越過了這一至關(guān)重要的道德準(zhǔn)則,我們應(yīng)該為此做好準(zhǔn)備。





