特斯拉機器人助手的引人注目的揭幕引發(fā)了關于人工智能安全以及如何在城市街道和工廠車間釋放自動化系統(tǒng)之前對其進行測試和驗證的持續(xù)辯論。
在第一輪 AI 夸張中的恐懼集中在惡意的、自我復制的、類似 HAL 的機器上,最終壓倒了它們的創(chuàng)造者或在戰(zhàn)場上不受控制地漫游。此后,辯論變得更加務實,對安全的關注更加尖銳和受歡迎。具體來說,我們?nèi)绾我栽试S人類操作員信任應用程序中的自主系統(tǒng)的方式促進人工智能安全,這些應用程序目前仍遠未完成關鍵任務,需要 99.999% 的可靠性?
專家指出,監(jiān)管機構采取的積極的第一步是認識到涉及使用駕駛輔助系統(tǒng)的車輛的人工智能事件是“碰撞”,而不是“事故” ?!捌囆袠I(yè)正在走向'崩潰',因為這是某人的錯或某人的錯,”朱利葉森說?!啊鹿省@個詞經(jīng)常讓人搭便車。”
在一系列關于人工智能安全的政策簡報中,喬治城大學安全與新興技術中心的研究人員試圖確定實現(xiàn)更安全人工智能系統(tǒng)的工程要求。
“今天的尖端人工智能系統(tǒng)在很多方面都很強大,但在其他方面卻非常脆弱,”作者 Zachary Arnold 和 Helen Toner 指出?!八麄兺ǔH狈ΤWR,很容易被愚弄或破壞,并以意想不到和不可預測的方式失敗。
研究人員總結說:“通常很難或不可能理解他們?yōu)槭裁磿@樣行事,”并補充說,對易出錯的人工智能系統(tǒng)的信任程度“可能會產(chǎn)生可怕的后果”。
一個核心問題是理解黑盒 AI 系統(tǒng)的功能——或者被稱為 AI 的“可解釋性”,就像數(shù)學老師要求學生“展示他們的作品”一樣。
因此,人工智能研究人員提議建立一個國家人工智能測試平臺,開始設置參數(shù),以確保基于深度學習的人工智能系統(tǒng)安全?!敖裉?,沒有普遍接受的安全人工智能定義,也沒有標準方法來測試現(xiàn)實世界人工智能系統(tǒng)的事故風險,”作者阿諾德和托納總結道。
雖然有經(jīng)過驗證的方法可以測試用于故障安全應用(如飛機自動駕駛儀)的早期專家系統(tǒng),但沒有人工智能等價物?!斑@些方法不適用于深度學習,”托納在接受采訪時強調(diào)。
“我們認為,當我們開始在錯誤或故障可能非常嚴重的地方[使用]這些系統(tǒng)時,應該投入更多的精力來開發(fā)新的方法,”她補充道?!拔覀冇修k法提前測試 [AI 系統(tǒng)],并確保我們知道它們能做什么和不能做什么,以及它們什么時候可以工作,什么時候不能工作?!?
像特斯拉這樣的先驅公司可能會接受這種觀點,即使他們用特斯拉機器人這樣的原型推動人工智能技術的發(fā)展。特斯拉首席執(zhí)行官埃隆馬斯克表示,機器人原型可能會在明年推出。
在宣傳他的特斯拉自動駕駛儀“出奇地好”的可預測性的同時,監(jiān)管機構開始質(zhì)疑這一斷言,馬斯克承認在汽車制造商最近的人工智能日活動中宣布特斯拉 Bot 會產(chǎn)生意想不到的后果。
特斯拉機器人“當然是為了友好,”馬斯克保證道?!拔覀儗⑵湓O置為——在機械層面,在物理層面——你可以逃避它,”一項引起一些笑聲的安全措施,“并且很可能壓倒它。希望這永遠不會發(fā)生,但你永遠不知道?!?
馬斯克有點避諱,他也應該這樣做。人工智能安全研究人員指出,原因之一是 Tesla Bot 和其他最近的例子代表了早期的進化步驟。
“人工智能的工程學科實際上并不存在,”喬治城人工智能中心的托納說?!皼]有技術標準,不了解我們想要達到什么性能,以及我們?nèi)绾闻袛辔覀兪欠駥崿F(xiàn)了它?!?
Toner 補充說,人工智能的發(fā)展正在達到一個拐點?!八@然對很多事情都有用,但到目前為止,我們只將它用于大多數(shù)相當?shù)偷馁€注。問題是,我們能否解決可靠性 [和] 可信賴性挑戰(zhàn),以解鎖更廣闊的高風險應用空間?





