隨著人工智能的炒作階段逐漸結束,工程師和研究人員都在發(fā)現(xiàn)我們所知道和不知道的關于人工智能的巨大但迄今為止尚未實現(xiàn)的承諾。
顯然,懷疑論者警告說,在進入以人工智能為中心的未來之前,我們需要進行觀察、測試和驗證。因此,越來越多的意識和研究集中在“人工智能安全”等新興學科,這些學科旨在識別并最終預測機器學習和其他自主系統(tǒng)中意外行為的原因。
一些早期步驟將有所幫助,包括最近的一項美國監(jiān)管命令,要求強制報告涉及 ADAS 車輛的事故。(我們注意到“崩潰”而不是“意外”,在這種情況下,這是一個令人擔憂的術語,因為它是無罪的。)
在這個 AI 特別項目中,我們研究了將機器的控制權委托給算法所面臨的工程挑戰(zhàn)和意外后果。一個結論是,我們距離在必須在 99.999% 的時間內工作的關鍵任務系統(tǒng)中使用人工智能還有很長的路要走。
要達到這樣的可靠性、安全性以及最終的信任水平,需要不懈的測試、技術標準以及喬治城大學安全與新興技術中心的研究員 Helen Toner 所說的“工程學科”。
另一個問題是隨著設計人工智能芯片的公司數(shù)量激增,稀缺工程資源的分配。最新的是特斯拉,它在最近的AI Day 活動中推出了用于訓練神經網絡的 Dojo D1 芯片。雖然加速 ADAS 應用程序的神經網絡訓練確實是一項要求,但這家垂直整合的汽車制造商的 AI 芯片似乎是出于對所有權的自豪感。
“有這么多公司在制造人工智能芯片,為什么要自己制造?” Tirias Research 首席分析師 Kevin Krewell 指出。Krewell 補充說,越來越多的公司獨立致力于將人工智能應用于自動駕駛,這相當于“驚人”數(shù)量的重復和浪費。
汽車應用正在推動人工智能技術的極限,并且可能是最先在危險環(huán)境中部署機器學習模型的應用之一。然而,在此之前,這些機器必須盡可能地接近工程師可以做到的萬無一失。
正如專家所指出的,人工智能的流行概念意味著該技術類似于人類智能。正如我們在下面討論的那樣,在工程師能夠讓機器灌輸幼兒基于現(xiàn)實世界的反復試驗所學的常識之前,人工智能仍然是一個誤稱。
因為當下很多的AI項目的價值只能體現(xiàn)在一些“點對點”的一次性的方案中。也就是說,很少有看到有AI大規(guī)模的落地。這件事情的難度在于,除了傳統(tǒng)在應用開發(fā)上會遇到的DevOps的挑戰(zhàn),在AI的項目里面還有兩個比較復雜的模塊,數(shù)據(jù)(DataOps)和模型(ModelOps)。因此AI工程化并不只是一個技術問題,更是一個管理體系方法的問題。
“美國有一家醫(yī)療機構叫‘凱撒醫(yī)療’,這家醫(yī)療機構試圖用計算機視覺的方式,來對患有皮膚病的人群進行分類,并接受遠程診療,但一開始并沒有成功。”凱撒醫(yī)療初期沒有成功的原因在于,因為隱私保護的原因,他們無法獲得足夠的真實數(shù)據(jù)進行AI建模,而是采用了教科書中的高清照片作為訓練數(shù)據(jù)。由于訓練模型的數(shù)據(jù)和真實的世界出現(xiàn)了脫節(jié),導致模型上線后效果不佳。
最后,凱撒醫(yī)療采取的辦法是讓病人對自己皮膚患處拍一個5秒鐘的視頻去上傳。我們知道,每秒鐘視頻默認情況下有30張照片,因此醫(yī)院在幾乎沒有增加成本的情況下把輸入數(shù)據(jù)增加了150倍,最終讓這個“不完美”的AI模型達到了可以接受的分類效果。
凱撒醫(yī)療的例子其實是證明,在“AI工程化”的路途中,有許多的實踐檢驗、方法、流程是需要注意的,這些方法論的形成才有可能真正地讓AI算法、已有的數(shù)據(jù)發(fā)揮價值和作用。





