北京時間11月1日下午消息,隨著機器學習逐漸普及,機器人將負責處理越來越敏感和私密的數(shù)據。為了保護這些個人信息,谷歌的計算機科學家開發(fā)了幾套能夠自學信息加密的神經網絡。
谷歌旗下深度學習研究項目Google Brain的一個團隊開發(fā)了3個神經網絡,分別名為Alice、Bob和Eve,每個神經網絡都有自己的任務。Alice向Bob發(fā)送加密信息,Bob則 需要對其解密。最后,Eve則試圖在沒有其他神經網絡提供密鑰的情況下破解加密信息。
這些神經網絡都沒有學習密碼算法,所以并沒有發(fā)展出復雜的系統(tǒng)。但它們卻可以將純文本轉化成加密信息。
研究人員馬丁·阿巴蒂(MarTIn Abadi)和大衛(wèi)·安德森(David Andersen)在論文中寫道:“這一學習過程不需要指定具體的密碼算法,也不需要明確指示如何應用這些算法:只是基于訓練目標的保密規(guī)格來進行。”
經過15萬次模擬后,擁有密鑰的兩個神經網絡(Alice和Bob)能夠通過安全方式發(fā)送和解密信息。但整個過程中,Eve都未能成功破解這些加密信息。
在傳授了保護數(shù)據的算法后,研究人員還試圖回答一個問題:人工智能是否能學會哪些信息應該使用加密技術來保護。為了做到這一點,阿巴蒂和安德森開發(fā)了另外一個神經網絡:Blind Eve。
這個神經網絡只知道有信息被發(fā)送出去了,但卻無法接觸這些信息。Eve的錯誤率低于Blind Eve,但隨著時間的推移,Eve也無法重建更多有關加密內容的信息,仍然只能通過單純了解加密信息的價值分配獲取一些信息。
華盛頓大學計算機系教授佩德羅·多明戈(Pedro Domingos)表示,這項研究很有用,但并不清楚學習加密的目的何在。
“跳出這篇論文來看,對抗性學習是個很有意思的話題,因為真實世界中的學習通常都要與對手進行對抗,而且對抗模式可以帶來更好的學習效果。”他說。
谷歌研究人員表示,神經網絡可以通過訓練來保護特定信息,也可以學會攻擊。
該論文總結道:“盡管神經網絡可能不太擅長密碼分析,但它們可能在元數(shù)據和流量分析方面很有用。”(書聿)





