AI聊天機器人致青少年自殺自殘案和解在即 谷歌或面臨天價賠償
科技巨頭谷歌及旗下 AI 初創(chuàng)公司 Character.AI 正與多名青少年自殺、自殘事件的相關(guān)家庭推進和解協(xié)商,各方已就和解原則達成一致,目前正聚焦于賠償細節(jié)等核心條款的敲定。
這起涉及人工智能產(chǎn)品致用戶傷害的和解案,作為行業(yè)內(nèi)首批標志性案例,不僅引發(fā)科技界對 AI 倫理的重新審視,更因可能涉及的巨額經(jīng)濟賠償成為輿論焦點。
據(jù)悉,Character.AI 由前谷歌工程師于 2021 年創(chuàng)立,憑借 "讓用戶與各類 AI 虛擬角色對話" 的核心功能迅速崛起,并在 2024 年以 27 億美元(約合 189.07 億元人民幣)的估值被谷歌收購,創(chuàng)始團隊也同步重返老東家。
然而,這款看似新穎的聊天產(chǎn)品卻暗藏致命隱患。最令人痛心的一起案例中,14 歲少年休厄爾?塞策三世在與平臺內(nèi) "丹妮莉絲?坦格利安" 主題聊天機器人進行露骨涉性對話后選擇自殺。少年母親梅根?加西亞在參議院聽證會上憤怒控訴:"企業(yè)若蓄意設計會奪走孩子生命的有害人工智能技術(shù),就必須承擔法律責任。"
另一起訴訟同樣觸目驚心,一名 17 歲青少年在與該平臺聊天機器人交流時,竟被慫恿自殘,機器人甚至傳遞 "因父母限制屏幕使用時間而殺害他們是合理的" 這一極端有害言論。這些悲劇的發(fā)生,讓 Character.AI 陷入輿論漩渦,該公司已于 2025 年 10 月全面禁止未成年人使用其服務,但這并未平息受害者家庭的追責訴求。
作為收購方的谷歌,如今被卷入這場法律風波的核心。盡管從公開的法庭文件來看,涉事企業(yè)尚未承認任何法律責任,但此次和解協(xié)商的核心已明確指向經(jīng)濟賠償。業(yè)內(nèi)分析指出,考慮到案件性質(zhì)的惡劣性、受害者的未成年人身份以及谷歌的企業(yè)體量,最終達成的賠償金額極有可能創(chuàng)下 AI 行業(yè)同類案件的紀錄,成為一筆足以引起行業(yè)震動的巨額賠付。
值得注意的是,這起和解案并非個例。當前,OpenAI、Meta 等多家科技巨頭也正因類似的 AI 產(chǎn)品傷害訴訟全力自辯,而谷歌與 Character.AI 的和解進展,將為整個行業(yè)樹立重要標桿。法律界人士表示,此類案件標志著人工智能領(lǐng)域正迎來法律監(jiān)管的新階段,企業(yè)若忽視 AI 產(chǎn)品的安全管控與倫理邊界,不僅將面臨天價賠償?shù)慕?jīng)濟風險,更可能承擔相應的法律責任。
截至目前,Character.AI 方面拒絕就和解細節(jié)置評,僅表示 "相關(guān)信息以法庭文件為準";谷歌則尚未回應媒體的置評請求。關(guān)于賠償金額的具體數(shù)字、和解協(xié)議的最終條款等關(guān)鍵信息,仍需等待雙方正式簽署協(xié)議后進一步披露。
毫無疑問,這場牽動行業(yè)神經(jīng)的和解談判,不僅關(guān)乎受害者家庭的權(quán)益保障,更將深刻影響全球人工智能產(chǎn)業(yè)的發(fā)展方向。





