2016年AI犯下的10大錯(cuò)誤 特斯拉車(chē)禍榜上有名
去年AI開(kāi)始復(fù)興,無(wú)人駕駛技術(shù)不斷進(jìn)步,語(yǔ)音識(shí)別走向完善,AI在圍棋上一展雄風(fēng),所有這些都說(shuō)明機(jī)器已經(jīng)相當(dāng)強(qiáng)大。
在AI取得成功的同時(shí),我們也要該留意它所犯的錯(cuò)誤,以及何時(shí)犯了錯(cuò),避免未來(lái)造成惡劣影響。最近,路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室(Cybersecurity Lab)主管Roman Yampolskiy發(fā)布一份報(bào)告,列出了AI歷史上出現(xiàn)的一些錯(cuò)誤,他認(rèn)為,錯(cuò)誤是AI系統(tǒng)在學(xué)習(xí)階段和執(zhí)行階段犯下的。
TechRepublic整理出2016年AI行業(yè)犯下的10大錯(cuò)誤,這些錯(cuò)誤有一些來(lái)自Roman Yampolskiy的報(bào)告,還參考了其它AI專(zhuān)家的意見(jiàn)。
1、用AI預(yù)測(cè)未來(lái)犯罪
Northpointe公司開(kāi)發(fā)了一套AI系統(tǒng),它可以預(yù)測(cè)被指控罪犯再次違法的概率。這套算法遭到指責(zé),它可能存在種族歧視,與其它種族相比,黑人未來(lái)犯罪的機(jī)率更高,威脅性更大。還有一些媒體指出,不論種族如何,Northpointe軟件在一般情況下都無(wú)法準(zhǔn)確預(yù)測(cè)。
2、在視頻游戲中,非玩家控制的角色制作武器,超出了創(chuàng)作者的設(shè)計(jì)范圍
今年6月,AI視頻游戲《Elite: Dangerous 》出現(xiàn)一些怪事,這些怪事超出了創(chuàng)作者的預(yù)料:AI可以制作超級(jí)武器,它的攻擊范圍不屬于游戲的設(shè)計(jì)范疇。游戲網(wǎng)站評(píng)論說(shuō):“玩家可能會(huì)被拖入戰(zhàn)斗,敵方的戰(zhàn)艦裝備了超級(jí)超大的武器,瞬間就可以將他們切成碎片。”后來(lái),游戲開(kāi)發(fā)者將這些強(qiáng)大的武器刪除。
3、機(jī)器人讓小孩受傷
Knightscope制作了所謂的“打擊犯罪機(jī)器人”,今年7月,機(jī)器人在硅谷商場(chǎng)撞向小孩,導(dǎo)致16個(gè)月大的小孩受傷?!堵迳即墪r(shí)報(bào)》引用該公司的話稱(chēng),這是一件“奇怪的事故”。
4、特斯拉Autopilot導(dǎo)致車(chē)主死亡
Joshua Brown駕駛特斯拉汽車(chē)在路上行駛,當(dāng)時(shí)他啟動(dòng)了Autopilot功能,結(jié)果汽車(chē)在佛羅里達(dá)高速公路與掛有拖車(chē)的卡車(chē)相撞,這是Autopilot第一次造成車(chē)主。事故發(fā)生之后,特斯拉對(duì)Autopilot進(jìn)行升級(jí),馬斯克聲稱(chēng)該軟件本來(lái)應(yīng)該可以避免碰撞。Autopilot還在中國(guó)造成傷亡事故,雖然事故與AI系統(tǒng)并無(wú)直接關(guān)系。
5、微軟聊天機(jī)器人Tay發(fā)表種族主義、性別歧視言論,侮辱同性戀
微軟曾經(jīng)在Twitter推出聊天機(jī)器人Tay.ai,本意是想與年輕用戶(hù)建立聯(lián)系。Tay是以十幾歲的女孩作為原型設(shè)計(jì)的,結(jié)果她變成了推崇希特勒、抨擊女權(quán)主義的惡魔;剛剛上線一天就變成這樣。微軟將Tay從社交媒體平臺(tái)撤下,還說(shuō)要對(duì)算法進(jìn)行調(diào)整。
AI挑選出的選美贏家
6、AI成為選美比賽的評(píng)委,結(jié)果導(dǎo)致種族歧視
在第一屆由AI擔(dān)任評(píng)委的國(guó)際選美比賽中,機(jī)器人小組對(duì)選手的臉進(jìn)行評(píng)判,算法可以精準(zhǔn)評(píng)估各項(xiàng)標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)與人類(lèi)對(duì)美、健康的感知聯(lián)系在一起。由于AI沒(méi)有經(jīng)歷過(guò)多樣化訓(xùn)練,最終比賽選出來(lái)的贏家全部是白人。Yampolskiy評(píng)價(jià)說(shuō):“美成為了模式識(shí)別器。”
7、《口袋妖怪Go》將玩家留在白人社區(qū)
7月份,《口袋妖怪Go》迅速走紅,一些用戶(hù)注意到,在主要的黑人社區(qū)缺少玩游戲的場(chǎng)所。Mint 首席數(shù)據(jù)官 Anu Tewary 認(rèn)為,之所以出現(xiàn)這樣的事情,主要是因?yàn)樗惴ㄖ谱髡邲](méi)有進(jìn)行多樣化訓(xùn)練,他們沒(méi)有在這些社區(qū)投入時(shí)間。
8、谷歌AI系統(tǒng)AlphaGo在圍棋比賽第四局輸給了李世石
2016年3月,AlphaGo在5個(gè)回合的比賽中戰(zhàn)勝了李世石,他曾經(jīng)18次成為圍棋世界冠軍。雖然AI算法贏得對(duì)決,但是李世石贏下一局意味著AI算法仍然不是完美的。
新南威爾斯大學(xué)的人工智能教授 Toby Walsh認(rèn)為:“看起來(lái)李世石找到了蒙特卡洛樹(shù)搜索(MCTS)的弱點(diǎn)。”雖然這次失利可以視為AI的缺陷,但是Yampolskiy認(rèn)為這種失誤在允許范圍之內(nèi)。
9、中國(guó)面部識(shí)別研究可以預(yù)測(cè)犯罪,但是存在種族歧視
上海交通大學(xué)的兩名研究人員發(fā)布一份報(bào)告,報(bào)告的名稱(chēng)叫作 “利用面部圖像自動(dòng)進(jìn)行犯罪推理”。Mirror報(bào)道稱(chēng),研究人員將1856個(gè)人的臉部圖像(當(dāng)中一半是暴力罪犯的臉)輸入計(jì)算機(jī),然后分析。
研究人員得出結(jié)論稱(chēng),在預(yù)測(cè)犯罪時(shí)可以找到一些能夠識(shí)別的結(jié)構(gòu)特點(diǎn),比如唇曲率、眼內(nèi)角距、口鼻角度等。行業(yè)人士對(duì)結(jié)果存在質(zhì)疑,他們還認(rèn)為該研究會(huì)與道德產(chǎn)生沖突。
10、保險(xiǎn)公司用Facebook數(shù)據(jù)預(yù)測(cè)問(wèn)題發(fā)生概率
英格蘭最大保險(xiǎn)公司Admiral Insurance利用Facebook用戶(hù)發(fā)布的帖子,查找用戶(hù)使用社交媒體與能否成為好司機(jī)之間的關(guān)系。
這次實(shí)驗(yàn)算不上是AI的失誤,它只是濫用了AI。新南威爾斯大學(xué)的人工智能教授 Toby Walsh認(rèn)為,F(xiàn)acebook封殺這一項(xiàng)目值得夸獎(jiǎng)。這個(gè)項(xiàng)目名叫“firstcarquote”,它并沒(méi)有啟動(dòng),因?yàn)镕acebook禁止公司獲以數(shù)據(jù)。
從這些案例可以看出,AI很容易就會(huì)變得偏激。用多樣化數(shù)據(jù)對(duì)機(jī)器學(xué)習(xí)算法進(jìn)行訓(xùn)練,可以有效防止偏激產(chǎn)生。隨著AI功能越變?cè)綇?qiáng)大,確保研究項(xiàng)目得到有效檢查,用多樣化數(shù)據(jù)訓(xùn)練,讓研究符合倫理標(biāo)準(zhǔn),這些都是至關(guān)重要的事。
原文來(lái)自:techrepublic





