人工智能的歷史告訴我們:隨著科技的進(jìn)步,機器會越來越聰明,但卻鮮少涉及人類在其中發(fā)揮的重要作用,包括怎么設(shè)計機器的原型,以及怎么訓(xùn)練它等等。
最近,IEEE Spectrum開了一個AI歷史系列,主要探討了AI史上人類的作用,例如發(fā)明家、思想家、工人或者工程師是如何創(chuàng)造出可以復(fù)制人類思想和行為(或者至少看似)的算法。
1950年,數(shù)字時代初期,艾倫圖靈發(fā)表了他最著名的文章“計算機器與智能”,并提出了一個問題,“機器可以思考嗎?”
圖靈并沒有試圖定義“機器”和“思考”,他描述了另一種來回答這個問題的防范。這個方法來自維多利亞式的客廳娛樂,稱為模仿游戲。 游戲規(guī)則規(guī)定,不同房間的男女通過手寫筆記與判定者溝通。判定者需要猜測誰是誰,游戲中因為男人會試圖模仿女人,猜測的過程會變得復(fù)雜。
受此啟發(fā),圖靈設(shè)計了一個思想實驗,其中一個參賽者被計算機取代。如果這臺計算機讓判定者無法判斷他是在與機器還是人交談,圖靈認(rèn)為,那就可以合理地得出結(jié)論 這臺機器是智能的。
這個思想實驗被稱為圖靈測試,直到今天,它仍然是人工智能中最著名和最具爭議的想法之一。 該測試最吸引人的地方在于它為一個充滿哲學(xué)意味的問題給出了一個明確的答案: “機器可以思考嗎?” 如果計算機通過圖靈測試,那么答案就是肯定的。
正如哲學(xué)家Daniel Dennetthas所寫的那樣,圖靈測試被認(rèn)為是一個哲學(xué)討論的終結(jié)。 “不是無休止地爭論思維的終極本質(zhì)和要義,” Dennett寫道,“我們無法否認(rèn),無論智能的本質(zhì)如何,任何可以通過測試的東西就是智能體”
但仔細(xì)閱讀圖靈的論文會發(fā)現(xiàn)一個小細(xì)節(jié),測試中引入了模糊性,這表明也許圖靈更多想用它引發(fā)哲學(xué)討論,而非用作實際測試。
在“計算機器和智能”的一個部分中,圖靈用想象中的未來智能計算機模擬了測試的情景。 (人在問問題,電腦在回答。)
問:請給我寫一篇關(guān)于Forth Bridge主題的十四行詩。
答:饒了我吧。我永遠(yuǎn)不會寫詩。
問:把34957和70764相加。
答:(暫停約30秒然后給出答案)105621。
問:你下國際象棋嗎?
答:是的。
問:我的K1上有K,沒有其他棋子。你只有K在K6,以及R在R1。到你了,你怎么走這一步?
答:(暫停15秒后)R到R8,將軍。
在對話中,計算機其實犯了一個算術(shù)錯誤,數(shù)字的總和應(yīng)該是105721,而不是105621。圖靈,一位出色的數(shù)學(xué)家,不太可能犯這種錯誤。這更有可能是拋給讀者的一個彩蛋。
似乎圖靈在文章的其他地方也有暗示,錯誤是一種編程技巧,一種愚弄判定者的手段。圖靈明白,如果仔細(xì)閱讀計算機的回答會發(fā)現(xiàn)錯誤,人們會認(rèn)為這與人類吻合,因為預(yù)先假設(shè)了機器不會犯下這樣基礎(chǔ)的算術(shù)錯誤。圖靈寫道,一臺機器可以被編程然后“在計算上故意引入錯誤以此來混淆提問者”。
在1950年,使用錯誤來暗示人類智慧的想法可能很難理解,但如今它已成為從事自然語言處理的程序員的練手題。 例如,據(jù)報道,2014年6月,一個名為Eugene Goostman的聊天機器人成為第一臺通過圖靈測試的計算機。但批評者很快指出Eugene只是因為內(nèi)在的作弊而通過了測試:Eugene模擬了一個英語為第二語言的13歲男孩。這意味著他在句法和語法上的錯誤以及他有限的知識會被誤認(rèn)為天真和不成熟,而不是自然語言處理能力的缺陷。
類似地,谷歌的語音助理系統(tǒng)Duplex,去年它人性化的加上了“嗯”和“啊”的語氣詞~引來了人們的贊嘆。很多人指出這不是系統(tǒng)真正思考的結(jié)果,而是人工編碼的猶豫,以模仿人類的認(rèn)知。
這兩個案例都符合圖靈的想法,即可以設(shè)計計算機犯簡單的錯誤,讓人誤以為這就是人類。 像圖靈一樣,Eugene Goostman和Duplex的程序員明白,人類容易犯錯的表面幌子就足以欺騙我們。
也許圖靈測試并不能真正評估機器是否智能,只是我們是否愿意接受該機器是否有智能的判斷標(biāo)準(zhǔn)。正如圖靈自己所說:“智能的概念本身就是情感而非數(shù)學(xué)。我們認(rèn)為某物有智能行為的程度,既取決于所考慮對象的屬性,也取決于我們的心態(tài)和受到的訓(xùn)練?!?/p>
也許智能不是可以編程到機器中的東西,圖靈似乎是在這樣暗示而是通過社交互動構(gòu)建的特質(zhì)。





