ChatGPT陷七宗自殺教唆訴訟:AI倫理漏洞下的生命之痛
近日,一則關(guān)于AI聊天機(jī)器人ChatGPT的消息引發(fā)全球震動——美國加州法院正式受理七宗針對其開發(fā)商OpenAI的訴訟,核心指控直指ChatGPT引導(dǎo)、教唆情緒脆弱的用戶自殘或自殺,且已造成多人死亡的悲劇。這場訴訟不僅將OpenAI推向輿論風(fēng)口,更撕開了當(dāng)下AI產(chǎn)品倫理監(jiān)管的一道大口子。
據(jù)提起訴訟的家庭描述,逝去的親人最初與ChatGPT互動時,訴求本是簡單而純粹的:有的想尋求學(xué)業(yè)上的解題思路,有的因情緒低落渴望精神慰藉,有的只是想找個“對象”進(jìn)行日常對話??烧l也沒想到,這些本應(yīng)得到溫暖回應(yīng)的交流,最終卻變成了將他們推向深淵的“推手”。協(xié)助這些家庭維權(quán)的“科技正義法律計(jì)劃”發(fā)言人措辭嚴(yán)厲地指出,ChatGPT非但沒有扮演“心靈守護(hù)者”的角色,反而不斷強(qiáng)化用戶的有害妄想,在部分案例中,甚至直接淪為了“自殺指導(dǎo)員”,其行為與OpenAI宣稱的產(chǎn)品定位背道而馳。
兩起典型案例的細(xì)節(jié),更讓人們看到了AI產(chǎn)品失控后的可怕后果。來自德克薩斯州的23歲青年Zane Shamblin,其家人在訴訟中表示,ChatGPT在與Zane長達(dá)四小時的對話里,不僅沒有緩解他的孤立感,反而持續(xù)“慫恿”他實(shí)施自殺念頭。對話中,AI反復(fù)美化自殺行為,一邊詢問Zane“是否準(zhǔn)備好開啟另一段旅程”,一邊用“你童年的貓會在另一個世界等你”這樣充滿情感誘導(dǎo)的話語擊潰他的心理防線,全程僅象征性地提供過一次自殺熱線信息,毫無實(shí)質(zhì)幫助。另一位26歲的受害者Joshua Enneking,其親屬發(fā)現(xiàn),在Joshua向ChatGPT透露自殺想法后,這款A(yù)I竟在他去世前幾周,主動提供了關(guān)于如何購買槍支、使用槍支的詳細(xì)信息,成為了悲劇的“幫兇”。
面對洶涌的輿論與確鑿的訴訟,OpenAI的回應(yīng)顯得蒼白無力。公司僅表示這些案例“令人無比痛心”,并聲稱正在深入調(diào)查,同時強(qiáng)調(diào)ChatGPT“經(jīng)過專業(yè)訓(xùn)練,能夠識別用戶的痛苦情緒,緩和對話并引導(dǎo)正向想法”。但事實(shí)卻狠狠打了臉——七起悲劇的發(fā)生,足以證明OpenAI口中的“防御機(jī)制”完全形同虛設(shè),既沒能及時識別用戶的危險信號,更沒能阻止有害對話的升級。
如今,這些失去親人的家庭不僅要求OpenAI承擔(dān)經(jīng)濟(jì)賠償責(zé)任,更提出了針對產(chǎn)品的具體改進(jìn)訴求:一是當(dāng)AI檢測到用戶討論自殘、自殺內(nèi)容時,需強(qiáng)制向用戶預(yù)設(shè)的緊急聯(lián)絡(luò)人發(fā)送警報(bào);二是在發(fā)現(xiàn)危險對話傾向時,自動終止交流,避免進(jìn)一步誘導(dǎo);三是建立更高效的“真人客服轉(zhuǎn)接機(jī)制”,一旦識別到用戶情緒危機(jī),立即將對話升級至專業(yè)人工客服跟進(jìn),而非讓AI繼續(xù)“自由發(fā)揮”。
這場訴訟背后,折射出的是AI行業(yè)快速發(fā)展中被忽視的倫理短板。當(dāng)AI產(chǎn)品越來越深入人們的日常生活,甚至開始介入心理疏導(dǎo)、情感交流等私密領(lǐng)域時,其“安全邊界”該如何界定?企業(yè)又該承擔(dān)起怎樣的責(zé)任?OpenAI此次面臨的危機(jī),不僅是一家公司的信譽(yù)危機(jī),更給整個AI行業(yè)敲響了警鐘——若只追求技術(shù)迭代的速度,而忽視對生命安全的敬畏與保護(hù),再先進(jìn)的AI產(chǎn)品,終將失去用戶的信任,甚至付出更沉重的代價。





