李飛飛的新研究,將讓“給AI打工的人”再一次失業(yè)
你可能聽說過,在河南的農(nóng)村里,在非洲的城市中,每一個(gè)你想象不到的地方,有著大量的數(shù)據(jù)標(biāo)注員。
他們手動(dòng)在圖片里把每一只花瓶和每一輛汽車框出來,并且標(biāo)上“花瓶”和“汽車”。一段時(shí)間后,這些人把成千上萬張標(biāo)記好的圖片打包,發(fā)送給遠(yuǎn)在北京、上海甚至舊金山的AI公司。
GQ將這些人稱為《那些給人工智能打工的人》。
圖片來自G
人工智能發(fā)展迅速,大大小小的互聯(lián)網(wǎng)科技公司相繼開展研究,投入商用。然而訓(xùn)練一個(gè)可用的AI,需要大量準(zhǔn)確標(biāo)記好的圖片、視頻等資料。
正因?yàn)榇耍袌?chǎng)對(duì)數(shù)據(jù)標(biāo)注的需求如此之大,吸引“那些給AI打工的人”爭(zhēng)相加入,其中不乏原來找不到工作的閑散人員——畢竟這份工作只需要?jiǎng)觿?dòng)鼠標(biāo),用不上太多知識(shí)。
但是,恐怕不久后,這些人就將再次失業(yè)。
上周,來自約翰·霍普金斯大學(xué)、斯坦福大學(xué)和Google的專家聯(lián)合發(fā)布了一篇論文,介紹了他們使用神經(jīng)網(wǎng)絡(luò)來自動(dòng)搜索神經(jīng)網(wǎng)絡(luò),將其投入圖像分割方面的研究,并且取得的重要進(jìn)展:
研究人員采用神經(jīng)架構(gòu)搜索(NeuralArchitectureSeartch,NAS)技術(shù)設(shè)計(jì)了一個(gè)神經(jīng)架構(gòu)(A),放任它去自動(dòng)搜索/設(shè)計(jì)出新的神經(jīng)架構(gòu)(B),投入到圖像語義分割(semanticimagesegmentaTIon)的任務(wù)中。
研究人員發(fā)現(xiàn),這個(gè)被自動(dòng)搜索出來的神經(jīng)架構(gòu)B,在主流的小規(guī)模圖像數(shù)據(jù)集上,未經(jīng)訓(xùn)練就直接使用,表現(xiàn)已經(jīng)超過了現(xiàn)有人類設(shè)計(jì)的、預(yù)先訓(xùn)練好的模型。
用人話來說:
以往人們一直相信,設(shè)計(jì)AI需要大量知識(shí)和經(jīng)驗(yàn),簡(jiǎn)而言之就是需要人來設(shè)計(jì)。
但現(xiàn)在,AI設(shè)計(jì)出的AI,已經(jīng)比人設(shè)計(jì)出的AI更強(qiáng)。
論文的名字叫做《Auto-DeepLab:HierarchicalNeuralArchitectureSearchforSemanTIcImageSegmentaTIon》[2]。
研究人員將這個(gè)能夠自動(dòng)搜索(設(shè)計(jì))神經(jīng)架構(gòu)的技術(shù)命名為Auto-DeepLab。這個(gè)名字來自于DeepLab,Google人工開發(fā)的圖像語義分割技術(shù)。前面加上Auto,意思是在DeepLab的基礎(chǔ)上,新的技術(shù)可以實(shí)現(xiàn)了很大程度的自動(dòng)化。
論文署名作者當(dāng)中,兩人來自約翰·霍普金斯大學(xué),其中第一作者是ChenxiLiu,曾在Google實(shí)習(xí);有四人來自Google;剩下的一人來自斯坦福大學(xué),正是原GoogleCloud首席科學(xué)家,在計(jì)算機(jī)視覺學(xué)術(shù)和業(yè)界知名的李飛飛教授。
“本著AutoML(編者注:Google主導(dǎo)的AI計(jì)劃,將算法選擇,模型的超參數(shù)調(diào)整,迭代建模和模型評(píng)估等工作自動(dòng)化。)和人工智能普及化的精神,對(duì)于不依賴專家經(jīng)驗(yàn)知識(shí),自動(dòng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)架構(gòu),人們的興趣有了顯著提升?!闭撐淖髡咛岬?。
在“AI自動(dòng)設(shè)計(jì)AI”這件事上,Auto-DeepLab有幾個(gè)比較重要的新嘗試。
首先,神經(jīng)架構(gòu)搜索NAS技術(shù)是AI領(lǐng)域的新興物種,主要用于簡(jiǎn)單的圖片分類。而在這篇論文里,研究者首次嘗試將NAS投入到高密度的圖片預(yù)測(cè)任務(wù)上(也就是對(duì)更復(fù)雜的高分辨率圖片進(jìn)行語義分割,比如Cityscapes城市街景數(shù)據(jù)集、PASCALVOC2012和ADE20K等數(shù)據(jù)集)。
其次,在計(jì)算機(jī)視覺領(lǐng)域內(nèi)的神經(jīng)網(wǎng)絡(luò)架構(gòu),通常分為內(nèi)層、外層的兩級(jí)架構(gòu),自動(dòng)化的神經(jīng)架構(gòu)設(shè)計(jì)往往只能設(shè)計(jì)內(nèi)層,外層仍需要人來設(shè)計(jì)和手調(diào)。而Auto-DeepLab是第一個(gè)讓AI掌握外層設(shè)計(jì)和調(diào)參能力,并在圖像語義分割任務(wù)上得到優(yōu)異結(jié)果的嘗試。
“圖像語義分割”六個(gè)字聽上去有點(diǎn)拗口,其實(shí)很好理解:對(duì)于一張圖劃分幾個(gè)類別,然后將所有的像素點(diǎn)歸類。
比如下面這張圖,可以簡(jiǎn)單分為三類。圖像語義分割的任務(wù),就是判斷每一個(gè)像素點(diǎn)屬于人、自行車,還是背景。
圖片來自Jeremy Jordan :Anover view of semanTIc image segmentation
需要明確的是,圖像語義分割的任務(wù)純粹是判斷像素點(diǎn)屬于哪個(gè)類別,它不能識(shí)別和區(qū)分獨(dú)立的物體。
不過圖像語義分割仍然有很重要的意義,比如在它可以用于手機(jī)拍照的“人像模式”。采用更優(yōu)秀的圖像語義分割技術(shù),手機(jī)能夠在更高精度的照片里確認(rèn)每一個(gè)像素點(diǎn),屬于人,亦或是背景。
目前Google、小米等公司都在手機(jī)拍照上使用這一技術(shù)。理論上,未來的“人像模式”可以在毛發(fā)、衣物邊緣實(shí)現(xiàn)更好的效果。
圖片來自紅米手機(jī)廣
以及在自動(dòng)駕駛的場(chǎng)景里,神經(jīng)網(wǎng)絡(luò)需要判斷擋在前面的是車、行人還是建筑物,進(jìn)而采用不同策略進(jìn)行躲避,這同樣需要圖像語義分割來打基礎(chǔ)。
圖片來自Karol Majek:Tensorflow DeepLab v3 Xception Cityscapes
從該論文體現(xiàn)的效果來看,Auto-DeepLab還可以被轉(zhuǎn)移、泛化到其他任務(wù)上。言外之意,讓AI自動(dòng)設(shè)計(jì)AI這件事,可能還會(huì)有很大的想象空間。
比如作者在論文最后提到,在目前的研究框架內(nèi),他們可以繼續(xù)在物體識(shí)別的方向進(jìn)行研究。
硅星人認(rèn)為,如果能夠取得類似的結(jié)果,這將意味著在數(shù)據(jù)標(biāo)注(特別是圖像標(biāo)注)這件事上,人類標(biāo)注員的準(zhǔn)確度、成本等優(yōu)勢(shì)會(huì)進(jìn)一步消失。
人工智能可以給人工智能打工,打工效率比人還高。
屆時(shí),“那些給人工智能打工的人”可能又會(huì)失去工作了……
本文來源:硅星人





