機器人能夠產(chǎn)生意識嗎,擁有靈魂嗎?聽專家怎么說
《終結者》電影讓我們感到驚恐,《機器人總動員》讓我們尖叫。雖然機器人無法做出我們在電影中所看到的那些令人驚恐或者心碎的事情,但是我們心中仍然存有疑問:如果它們做出這樣的事情該怎么辦?
退一步講,今天的機器人技術還沒有復雜到足以發(fā)生電影中的那些情景。而人們現(xiàn)在所討論的核心問題就是:機器人能夠產(chǎn)生意識嗎?它們是否能夠發(fā)展出或者通過編程獲得靈魂?或者說未來算法是否能夠含有某種類似于靈魂的東西?
事實上,這些問題的答案完全取決于你對這些事情的定義。目前來說,自從70年前人工智能第一次以學術者的身份出現(xiàn)后,我們尚未確定令人滿意的定義。拿BBC網(wǎng)站最近發(fā)表的一篇文章舉例,該文章試圖探索人工智能是否能擁有靈魂的想法。作者下定義稱,這意味著機器人從神學角度擁有了一種不朽的靈魂。當然不太可能有一個神明從天而降賦予科塔娜(微軟智能語音助手)生命。而且這篇文章并未回答關鍵的問題,人工智能是否能夠跨越呆板工具的范疇?
BBC稱,人工智能系統(tǒng)是否表現(xiàn)的像擁有靈魂一樣取決于旁觀者。對于我們當中的宗教人士來說,一種高度先進的算法中似乎就存在一種靈魂。那些人或許會把它們視作有靈魂的,因為他們會考慮人工智能系統(tǒng)的智力、情緒表現(xiàn)和行為,而且甚至有可能把對于神的信仰視作一種內(nèi)部存在靈魂的跡象。
因此,擁有某種人工智能的機器人有可能同時被視作一種實體或者一種研究工具,這取決于你的詢問對象。關于什么賦予機器意識的爭論最終都歸結于我們所編寫的算法上。
美國楊百翰大學的一位計算機科學家Nancy Fulda稱:“我對于培養(yǎng)原始實體的興趣超過對計算機編程的興趣,獨特行為模式的出現(xiàn)也吸引我參與到計算機科學研究中來,這也是我仍然在這一領域繼續(xù)探索的原因。
Fulda主要訓練人工智能算法了解前后語言之間的關聯(lián),而且正致力于建造一種機器人心靈理論,從人類角度來說指的是讓我們在自己的思維中把其他人視作人類的一種理論。Fulda正在探索的是適用于機器人的心靈理論。Fulda補充道:“至于計算機是否能夠擁有一種神明創(chuàng)造的靈魂,我不敢進行猜測。”
現(xiàn)在有兩個主要問題需要解決。第一個源自于語義學角度,我們非常難以定義擁有意識或者感知究竟意味著什么,或者說擁有一種靈魂或者靈魂功能意味著什么?第二個問題源自于技術方面,與創(chuàng)造人工智能所需要的技術相比,即使是我們最先進的工程師仍然像“擠在洞穴中鉆木取火”的原始人一樣。
此前,生物學家兼工程師Christof Koch與認知科學家David Chalmers產(chǎn)生了爭論,他們爭論的話題就是擁有意識的含義是什么。Chalmers爭辯稱,比我們現(xiàn)在更先進的機器人能夠擁有意識,但是Koch并不贊同,他認為按照目前的神經(jīng)系統(tǒng)科學和人工智能技術來說不可能。
巴爾杜比采大學的一位哲學家和倫理學家Ond ej Beran稱:“人們通常會將靈魂與心靈或者產(chǎn)生復雜行為模式的能力混為一談。靈魂在我們文化中的角色是錯綜復雜的,以我們的觀點來看,我們所需要的并不是人工智能科學或者工程學的突破,而且一種概念的變化。”
Beran以人工智能創(chuàng)作的藝術作品進行了舉例。通常藝術作品的出現(xiàn)只是為了娛樂。但是當我們把一種算法創(chuàng)造的東西稱作藝術時,我們通常不會考慮這種算法僅僅是產(chǎn)生一副圖像還是一首旋律,或者創(chuàng)造出了不僅對觀眾而且對它自己也有意義的東西。我們也并不完全清楚對于人工智能來說有意義的事情究竟有什么含義。
那么當機器能夠內(nèi)部思考而不再借助于輸入和輸出時,它就會獲得感知嗎?或者說它是否真的需要內(nèi)部的某種東西才能讓我們把它們認定為有意識?這些問題的答案再一次因為我們選擇解答問題的方式和定義的不同而變得不那么清晰。
捷克科學院的一位哲學家Vladimir Havl?k試圖從進化角度為人工智能進行定義:“我認為靈魂并非是類似于物質(zhì)的某種東西。我們能夠說那是一種非常清晰的東西,而且是在時間長河中永久存在的東西,同時也能夠代表人類。”
Havl?k提出,不要擔心靈魂在神學方面的解答,我們能夠?qū)㈧`魂定義為一種經(jīng)得起時間考驗的內(nèi)在特性。從那一角度來說,他并不理解為何機器或者人工智能無法形成一種性格,因為這取決于算法本身。以Havl?k的角度來看,性格來源于意識,因此形成性格的人工智能系統(tǒng)需要以非常先進的技術為基礎,這些技術能夠讓人工智能系統(tǒng)根據(jù)過去與未來的對比做出決定或者反思決定,這與人類的行為非常相似。
但是關于我們是否能夠打造一種擁有靈魂或者意識的機器人的問題,也只有那些認為這種差異重要的人才會關注這些問題。從核心角度來說人工智能是一種工具。即使是能夠跨越界限并代表一種意識實體的更復雜算法也只是意識實體的一種表現(xiàn),而不是一種具有自我意識和思考能力的新物種。
美國聯(lián)合大學的一位工程師Peter Vamplew稱:“對于我來說,人工智能系統(tǒng)是否具有真正的智力或者真正的情感和移情作用都無關緊要。重要的是它的行為是否對人類社會有益。”對于Vamplew來說,機器是否擁有靈魂的問題只有當你將它視作一種概念時才有意義。他感覺,機器人未來有一天或許能夠再創(chuàng)造令人信服的情緒反應,而且表現(xiàn)的就像人類一樣。
而且Vamplew并不認為機器有可能能產(chǎn)生真正的意識。一位哲學家兼人工智能研究人員Bernardo Kastrup稱:“我并不贊同人工智能能夠獲得意識的想法,我認為那就是胡說八道,從另外一個角度來說,人工智能代表的是未來。”
Kastrup最近為《科學美國人》寫了一篇文章,在文章中他羅列了自己的證據(jù),證實意識是自然宇宙的基本方面,而且人類接入不同的意識框架才成為了不同的個體。他聲稱,他認為即使是普通的人工智能或許有一天能夠出現(xiàn),但是即使是這樣的人工智能系統(tǒng)也無法像人類一樣擁有思維意識。
不幸的是越來越多的人開始懷疑我們研發(fā)先進人工智能的方法有可能很快將遭遇困境。上周《紐約時報》發(fā)表的一篇文章引用了多位工程師的話,他們越來越相信我們的機器學習甚至是深度學習技術無法像最近幾年一樣繼續(xù)進步。
即使我們解決關于意識的語義之爭時,我們也可能永遠都缺乏能夠?qū)⑺惴◣У揭庾R那一高度的技術。但是當人工智能首次出現(xiàn)之后,沒有人能夠預測它今天所能做到的成績。但是這也并不意味著這個任務是不可能的,我們只是不清楚如何實現(xiàn)。而且我們并未給這個爭議設置界線的事實也讓我們更加難以實現(xiàn)這一目標。
Fulda稱:“我們?nèi)匀挥泻荛L的路要走。這個問題的答案不應當與算法聯(lián)系在一起,就像我們常做的一樣借助人工智能解決復雜問題。你無法一次性解開所有的人類謎題,那是一個完整的過程。”比如說,如果我們不了解感覺和移動我們就無法了解認知,不了解移情作用和社會意識我們就無法真正模仿語言。
只要我們繼續(xù)尋找類似于這些問題的答案,技術就會繼續(xù)發(fā)展和進步。但是當我們編寫出新的代碼時,它會讓機器在未來做出我們往日無法想象的事情,我們也需要了解我們想要人工智能系統(tǒng)向什么方向發(fā)展。不管怎樣,現(xiàn)在的人工智能系統(tǒng)會按照我們發(fā)出的指令進行工作。但是如果算法朝著能夠取代科學家的方向發(fā)展時,我們必須清楚那樣對我們?nèi)祟悂碚f有什么意義。





