我們采取什么措施應(yīng)對成為犯罪份子幫兇的人工智能?
科技是把雙刃劍,作為目前科技領(lǐng)域最前沿的人工智能技術(shù)同樣不能免俗,它在幫助人們生活得更美好的同時(shí),卻也有可能破壞生活原本的美好。而就在今年的315晚會上曝光的一年打出了40億騷擾電話的AI聊天機(jī)器人便是這么一個令人討厭的例子。
據(jù)央視報(bào)道,相較于傳統(tǒng)每天只能打出300到500個電話的人工外呼的營銷方法,利用AI機(jī)器人一天最多可以打5000個電話,極大地提高了電話營銷的效率,其中一家提供外呼系統(tǒng)的科技公司經(jīng)理更是告訴記者,在過去的一年多時(shí)間里,他們篩打出去的電話共達(dá)40億個,深受貸款、房地產(chǎn)、收藏品、金融、整形等三十幾個行業(yè)的營銷公司的歡迎。
然而,就在這些人因?yàn)樾侍嵘?、大把大把撈錢而興奮的同時(shí),卻是無數(shù)被電話騷擾的人的苦淚:相信每個人都有在重要時(shí)刻被推銷電話騷擾的經(jīng)歷。
實(shí)際上近些年來,AI被濫用甚至被用于犯罪的例子早已不是什么新鮮事了。
1人工智能成為犯罪份子的幫兇
熟悉互聯(lián)網(wǎng)黑色產(chǎn)業(yè)鏈的人大概都知道“撞庫攻擊”的概念。這個概念是指,很多用戶為了圖方便會在不同的網(wǎng)站使用相同的帳號密碼,因此黑客可以通過從A網(wǎng)站獲取的賬號密碼嘗試登錄B網(wǎng)址。實(shí)際上,根據(jù)CDN運(yùn)營商Akamai公司發(fā)布了2018年《互聯(lián)網(wǎng)現(xiàn)狀/安全 – 撞庫攻擊》報(bào)告顯示,從2017年11月到2018年6月短短不到一年的時(shí)間內(nèi),就出現(xiàn)了超過300億次的惡意登錄嘗試。撞庫攻擊早已成為威脅互聯(lián)網(wǎng)安全最大的威脅之一。
為此,如今越來越多的互聯(lián)網(wǎng)產(chǎn)品開始采用圖片驗(yàn)證碼來避免黑客的撞庫攻擊,即在用戶登錄網(wǎng)站、提交賬號密碼的時(shí)候,會先跳出一些圖片,讓你按要求對其進(jìn)行識別,只有識別正確才能夠登錄成功。由于這些圖片驗(yàn)證碼一般都有一個特點(diǎn),那就是很容易被人類識別,卻很難被機(jī)器識別。在這種情況下,黑客要想繼續(xù)進(jìn)行撞庫攻擊那就只剩雇傭大批人類人員,進(jìn)行手工識別這一條路可走了,而人工識別的高額成本有可能迫使黑客放棄攻擊,至少也可以降低其攻擊的速度。
然而,道高一尺魔高一丈,隨著圖像識別技術(shù)的進(jìn)步,犯罪份子卻也開始將AI訓(xùn)練成了他們的犯罪助手。
大概是在2017年9月,浙江紹興警方就公布,破獲全中國首例利用人工智能技術(shù)竊取個人資訊的案件,當(dāng)時(shí)警方成功截留10億余組公民個人信息,繳獲贓款600余萬元。但令該案件成為輿論風(fēng)口的則是犯罪嫌疑人利用一種叫“快啊”打碼平臺進(jìn)行機(jī)器快速識別驗(yàn)證碼, 該平臺不僅極大地提高了打碼效率,而且在準(zhǔn)確率甚至能達(dá)到99%以上,毫無疑問,AI成了這場犯罪的最大幫兇。
2AI換臉
這里,就要說一說大名鼎鼎的DeepFakes了。利用它的技術(shù)能夠簡單地讓人們能夠?qū)D片、視頻中的人臉換成另外一個人的臉,而且可以做到以假亂真,一般人由肉眼根本無法分辨出區(qū)別。
實(shí)際上人臉替換技術(shù)已經(jīng)存在好多年了,不過傳統(tǒng)的人臉替換需要技術(shù)嫻熟的視頻編輯和CGI專家花費(fèi)大量的時(shí)間才能實(shí)現(xiàn)不錯的效果。而現(xiàn)在,通過這項(xiàng)技術(shù),通過深度學(xué)習(xí)技術(shù),任何人只需要一個強(qiáng)大的GPU和足夠的訓(xùn)練數(shù)據(jù)就能創(chuàng)作出以假亂真的人臉替換效果。
DeepFakes技術(shù)自誕生以來,就受到了好萊塢的一些數(shù)字特效公司的關(guān)注,對于好萊塢制片方和制作公司來說,這項(xiàng)技術(shù)可以大大提高后期制作的效率,而且大量節(jié)約成本。因?yàn)榻窈竺餍强梢匀淌褂锰嫔恚笃谟萌斯ぶ悄馨涯槗Q上去就行了,這樣只需要向明星提供肖像費(fèi)就好了,而且值得一提的事,電影公司如果連這點(diǎn)肖像費(fèi)也不想給了,他甚至可以向《阿凡達(dá)》以及《阿麗塔:戰(zhàn)斗天使》一樣,直接創(chuàng)造一個虛擬主角就好了。
這是DeepFakes技術(shù)對社會積極的一面。然而,令人感到尷尬的事,DeepFakes最初被網(wǎng)友關(guān)注到卻是因?yàn)樗鼘ⅰ吧衿媾畟b”扮演者Gal Gadot的臉蛋合成到了一段AV里面,搞得好像“神奇女俠”真的轉(zhuǎn)行去拍AV了一樣,實(shí)際上,傳言稱楊冪、迪麗熱巴等眾多明星也都受到了波及。另外,也有使用者用它來捏造針對政要人士的假新聞。
可想而知,一旦該技術(shù)被壞人惡意利用,用于攻擊受害人的假視頻、假新聞必定會在網(wǎng)上泛濫,對當(dāng)事人帶來困擾和不便我想也沒有必要贅述了。實(shí)際上,deepfake之前甚至還驚動了美國五角大樓,他們通過美國國防部高級研究計(jì)劃局(DARPA)委托全美各地的專家,想方設(shè)法檢測各類視頻的真實(shí)性。而最新消息也顯示,deepfake在GitHub上也已經(jīng)遭限制訪問。
3AI變聲
想象一下,你兒子已經(jīng)整整外出兩年了,每次給他打電話,他都找各種借口不回家。然而,電話里的人或許并不是你的兒子,他只是偽裝成你兒子的聲音,你的兒子或許早已經(jīng)不在這個世上了——這是最近熱播的懸疑破案劇《冷案》里的情節(jié)。
這雖然只是一個電視劇,但利用AI變聲進(jìn)行犯罪活動離我們的真實(shí)世界其實(shí)真不遠(yuǎn)。
首先,利用AI合成的聲音已經(jīng)可以非常接近本人了。比如早在2017年蒙特利爾初創(chuàng)公司Lyrebird開發(fā)了一種語音合成技術(shù),用很少的數(shù)據(jù),訓(xùn)練一分鐘,就能復(fù)制任何人的聲音。特殊的是,這里面的模擬聲音幾乎可以以假亂真,連家人都分辨不出來。
而且值得一提的是,AI變聲早就已經(jīng)商業(yè)化應(yīng)用了,比如《創(chuàng)新中國》節(jié)目解說部分就全程運(yùn)用人工智能配音,AI模仿了已逝“配音大師”李易的聲音。
“本軟件僅供娛樂,請勿用于任何違法犯罪活動。”大部分AI變聲軟件其實(shí)都已經(jīng)意識到了自己有被犯罪份子惡意使用的可能性。
AI犯罪,誰來負(fù)責(zé)?
技術(shù)本身是不分善惡的,但要看到底是誰在運(yùn)用它,在哪些領(lǐng)域運(yùn)用它,以及如何運(yùn)用它。技術(shù)不會犯罪,讓技術(shù)犯罪的依然是人類本身(拋開強(qiáng)人工智能不說,至少在目前的弱人工智能時(shí)代這個結(jié)論是成立的)。那么,AI犯罪,到底應(yīng)該由誰來負(fù)責(zé)?是直接使用AI技術(shù)進(jìn)行犯罪的人?還是提供AI技術(shù)方案的人?
對此,我們或許能從2018年6月的一個案件判例中發(fā)現(xiàn)端倪。據(jù)悉,這也是全國范圍內(nèi)針對撞庫打碼案件的首次判例。
該案件中,葉某某編寫了用于批量登錄網(wǎng)站賬號、密碼的軟件供他人使用,并收取服務(wù)費(fèi)用。張某某為組織多名“碼工”協(xié)助葉某某在批量登錄賬號密碼時(shí),對圖片驗(yàn)證碼進(jìn)行識別(俗稱“打碼”),并從中賺取好處費(fèi)。譚某某下載使用了這款軟件后,成功獲取大量淘寶賬號、密碼,并將賬號密碼出售給他人,獲取違法所得25萬元,僅從其電腦上查獲的淘寶賬號密碼就有2萬余組。
最終,余杭區(qū)人民法院對此案作出判決,被告人譚某某因犯非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪,被判處有期徒刑三年,緩刑四年,并處罰金人民幣四萬元;被告人葉某某因犯提供入侵計(jì)算機(jī)信息系統(tǒng)程序罪,被判處有期徒刑三年,緩刑四年,并處罰金人民幣四萬元;被告人張某某因犯提供侵入計(jì)算機(jī)信息系統(tǒng)程序罪,被判處有期徒刑三年,緩刑三年,并處罰金人民幣三萬元。
由此可見,不管是直接利用技術(shù)犯罪的人,還是提供技術(shù)或者服務(wù)的人都沒能逃脫法律的制裁。
由此,我們或許也應(yīng)該得出另外一個結(jié)論:對AI犯罪鏈條上所有參入者都進(jìn)行處罰,才有可能避免AI技術(shù)的濫用。





