主頁 類別 科普學習 不可思議的物理

第8章 7.機器人

不可思議的物理 加来道雄 15860 2018-03-20
在根據艾薩克·阿西莫夫的小說改編的電影《機械公敵》(I,Robot)中,有史以來最先進的機器人系統在2035年啟用了。它被稱為VIKI(虛擬互動運動智能,Virtual Interactive Kinetic Intelligence),它的作用是完美地管理一座大城市的運轉,一切事物,從地鐵系統和輸電網到數千家庭機器人都由VIKI控制。它的核心指令是不容更改的:為人類服務。 但有一天,V1KI提出了關鍵性的問題:人類最大的敵人是什麼? VIKI通過數學運算作出結論,人類最大的敵人正是人類自己。人類必須被從他們污染環境、發動戰爭和毀滅這個星球的瘋狂慾望中拯救出來。 VIKI完成這一中心指令的唯一方法是奪取人類的控制權,並且創造一個機器的良性專政國家。為了保護自己,人類不得不被奴役。

《機械公敵》提出了這些問題:當計算機能力以天文速度發展,機器會有朝一日控制世界嗎?機器人能不能變得足夠先進,以至於有一天成為我們人類生存的終極威脅? 有些科學家說不會,因為人工智能的概念本身是愚蠢的。有大堆批評者齊聲說,製造能夠思考的機器是不可能的。 “人類的大腦,”他們爭辯道,“是大自然所創造過的最複雜的系統,至少在銀河系的這個部分裡是,任何以復制人類思維為目標的機器都是注定要失敗的。”加利福尼亞大學伯克利分校的哲學家約翰·瑟爾(John Searle)和名聲更為顯赫的牛津大學物理學家羅傑·彭羅斯(Roger Penrose)相信機器在物理上是不可能進行人類那樣的思維的。羅格斯大學(Rutgers University)的柯林·麥克金(ColinMc Ginn)說,人工智能“好比鼻涕蟲試著要做弗洛伊德式的精神分析。它們就是不具備概念的技能”。

這是一個使科學界分裂了一個多世紀的問題:機器能思維嗎? 機械生物的構想長久以來使發明家、工程師、數學家以及夢想家們為之神魂顛倒。從(The Wizard of Oz)中的鐵皮人到斯皮爾伯格的《人工智能:AI》(Artificial Intelligence: AI)中孩童模樣的機器人,到《終結者》(The Terminator)中兇殘的機器人們,像人一樣行動和思維的機器這一構想使我們著迷。 在希臘神話中,天神伏爾坎(Vulcan)鍛造了金子製成的機器女僕和能自己移動的三條腿的桌子。早在公元前400年,希臘塔林敦(Tarentmn)的數學家阿契塔(Archytas)就寫到了關於製造用蒸汽驅動的機器鳥的可能性。

在公元1世紀,亞歷山大港的希羅(Hero of Alexandria)(被認為設計出了第一台以蒸汽為原理的機器)設計了自動機,根據傳說,其中一台自動機能夠說話。 900年以前,艾爾-雅扎里(Al-Jazari)設計和製造了自動機械,比如漏壺、廚房用具和以水為動力的樂器。 1495年,偉大的文藝復興時期,意大利藝術家和科學家列奧納多·達·芬奇(Leonardo da Vinci)繪製了一個可以坐起、揮動手臂、移動頭部和下顎的機器人騎士的圖像。歷史學家相信這是首個類人機械的實際設計。 首個粗糙但能夠運轉的機器人是1738年由雅克·德·沃坎遜(Jacques de Vaucanson)製造的,他製作了一台能夠吹長笛的人形機器人,還有一隻機械鴨子。

“機器人”一詞源自1920年的捷克戲劇《RUR》,由劇作家卡爾·卡佩克(Karl Capek)創作(“機器人”在捷克語中表示“繁重的工作”,在斯洛伐克語中表示“勞動”)。在劇中,一家名叫“羅森的萬能機器人”(Ros-sum's Universal Robots)的工廠製造了一支機器人軍隊從事非技術性勞動(不過,不同於普通的機器,這些機器人是用肉和血製造的)。最終,世界經濟變得依賴於這些機器人。機器人們遭受殘酷虐待,最後反叛了它們的人類主人,將他們殺得精光。但是,在盛怒之下,機器人也殺死了所有能夠維修和製造新機器人的科學家,從而注定了它們自己的滅亡。在尾聲,兩個特殊機器人發現它們擁有復制的能力,並且可能成為新的機器人亞當與夏娃。

機器人還是最早、耗資最大的無聲電影之一《大都會》(Metropolis)的內容主題,該片是由弗里茲·朗(Fritz Lang)於1927年在德國導演的。故事設定在2026年,勞動階層無奈地在條件惡劣、骯髒的地下工廠工作,而處於統治地位的社會精英則在地面上尋歡作樂。一位美麗的女性瑪麗亞(Maria)贏得了工人們的信任,但是統治階層害怕有一天她會領導他們起來反抗。所以,他們讓一名邪惡的科學家製造了一個瑪麗亞的機器人副本,但最終,這一陰謀卻事與願違,因為這個機器人領導工人們反抗了統治階層,並且引起了社會體系的崩潰。 人工智能,也稱AI,與我們目前為止所探討過的技術不同,對於支撐它的基礎原理的了解仍舊很少。雖然物理學家對於牛頓力學、麥克斯韋的光學、相對理論和原子、分子的量子理論理解非常充分,但智能的基本原理仍舊被迷霧籠罩。 AI領域的牛頓或許還沒有出生。

但是數學家和計算機科學家仍舊頑強無畏。對他們來說,讓一台能夠思維的機器走出實驗室只是個時間問題。 在AI領域影響最大、為AI研究奠定基石作出貢獻的智者,是偉大的英國數學家阿蘭·圖靈(Alan Turing)。 圖靈為整個計算機革命打下了基礎。他設想了一台僅有三個要素組成的機器(它被稱作圖靈機):一條輸入帶、一條輸出帶和一個能夠完成一組精確操作的中央處理器(比如奔騰芯片),由此,他得以製定出計算機的原理,並且精確地測定了它們的最大能力和極限。今天,所有的數字計算機都遵循圖靈定下的嚴密法則。整個數字世界的建立欠了圖靈一個巨大的人情。 圖靈還為數學邏輯的建立作出了貢獻。 1931年,維也納數學家科特·哥德爾(Kurt Godel)震撼了整個數學界,他證明算術中有些真實的命題永遠無法以算術公理證明(例如,1742年的哥德巴赫猜想[Goldbach conjecture:任何大於2的偶數整數都可以被表示成兩個質數之和]在250年之後仍沒能被證明,且可能事實上是不可證的)。哥德爾揭露的事實粉碎了自古希臘以來延續了2500年的夢:證明數學系統中所有的真命題。哥德爾證明數學領域永遠會有超出我們思維所及的真命題。數學遠遠不是古希臘人所夢想的那樣完整和牢不可破,它被證明是不完整的。

圖靈給這場革命添磚加瓦,證明一台圖靈機是否需要使用無窮多的時間來完成某些數學運算是不可知的。伹如果一台計算機花費無窮多的時間來計算某事,那就意味著無論你要求計算機計算的是什麼,它都是不可計算的。由此,圖靈證明了數學中存在不可計算的真命題。換言之,那是永遠超出計算機能力的,無論它有多麼強大。 在第二次世界大戰中,圖靈在密碼破譯上的開拓性工作按理說拯救了盟軍部隊數以千計的生命,並且影響了戰爭的結果。盟軍無法破譯納粹使用的—種名叫“埃尼格瑪”(Enigma)的密碼機所編譯的密碼,因此圖靈和他的同事們被要求開發一種能夠破譯納粹密碼的機器。圖靈的破譯機被稱為“炸蛋”(bombe),並最終取得了成功。到戰爭尾聲,有200多台他的機器在運行。結果,盟軍得以讀懂納粹的無線電波,並因此能夠在最終進攻德國的時間和地點上愚弄納粹德國。歷史學家從那時起一直在爭辯圖靈的工作在諾曼底登陸的行動計劃中究竟有多重要,諾曼底登陸最終導致了德國的失敗。 (戰後,圖靈的工作成果被英國政府列為機密,結果,他的關鍵性貢獻不為公眾所知。)

圖靈沒能被認為是幫助扭轉二戰局勢的戰爭英雄,而是被無情地糾纏致死,一天,他的家遭人入室盜竊,於是他叫來了警察。不幸的是,警察發現了他是同性戀的證據並且逮捕了他。圖靈後來被法院下令接受性激素注射,這導致了災難性的後果,讓他長出了女性的乳房,並且給他帶來了巨大的精神痛苦,他於1954年吞食加了氰化物的蘋果自殺(根據傳聞,蘋果公司的商標——一顆被咬去一口的蘋果,是為了向圖靈表示敬意)。 如今,圖靈最為人熟知的可能是他的“圖靈測試”(Turing test)。他厭倦了關於機器是否能夠“思維”和它們是否具有“靈魂”的毫無成果、漫長無盡的哲學討論,試圖通過設計一個具體實驗把嚴謹和精確引入關於人工智能的討論。他提議把一個人和一台機器放入兩個封閉的隔間裡,測試者可以向每個隔間提問,如果不能分辨出人和機器給出的回答之間的不同,則這台機器就通過了“圖靈測試”。

科學家們已經編寫了簡單的計算機程序,比如ELIZA,能夠高度模仿對談式的講話,並且由此騙過大多數不存疑心的人們,讓他們相信自己正在和一個人說話(比如,大多數人類對話只使用數百個單詞,並且內容集中在少量的話題上)。但目前為止,能夠瞞過特意想要確定哪個隔間裡是人類、哪個隔間裡是機器的人的計算機程序尚未編寫成功(圖靈本人猜測到2000年,在計算機能力以指數速度增強的前提下,能夠建造出可以在5分鐘的測試中騙過30%評判者的機器)。 一小部分哲學家和神學家已經宣布創造出像我們一樣思維的機器人是不可能的,加利福尼亞大學伯克利分校的哲學家約翰·瑟爾提出了“中文房間測試”(Chinese room test)以證明AI是不可能存在的。瑟爾辯稱,雖然機器人可能通過某些形式的圖靈測試,但之所以能通過測試是因為它們在無理性的情況下操控符號,而絲毫都不理解這些符號的含義。

想像你坐在一間隔間裡,而且你連一個中文字都不懂。假設你有一本書,能夠讓你迅速翻譯中文,並且操控中文。如果有人用中文問你一個問題,那你僅僅是需要熟練使用這些形態古怪的字符,而不理解它們的意思,並且作出可信的回答。 他的反對意見的本質直指句法(syntax)和語義(semantics)的差別。機器人可以掌握一門語言的句法(例如熟練使用它的語法、它的正規結構,等等)而不是它真正的語義(例如詞語的意思)。機器人可以在不明白詞語含義的情況下熟練使用它們。 (這和在電話裡同一台自動語言信息機談話有些類似,你必須鍵人“1”、“2”等等以獲得各個回應。另一端的聲音能完美地領會你被數字化的回應,但是完全不帶有住何理解。) 牛津大學的物理學家羅傑·彭羅斯同樣相信人工智能是不可行的,可以思考並且具備人類意識的機械生物按照量子理論是不可能的。他斷言,人類大腦遠遠超越任何實驗室所能產生的創造物,製造人類那樣的機器人是一場注定要失敗的試驗。 (他辯稱,就如哥德爾的不完備定理證明了算術的不完整一樣,海森堡測不准原理將證明機器無法進行人類式的思考。) 然而,許多物理學家和工程師相信物理學定律中不存在妨礙創造一個真正的機器人的內容。舉例來說,常被稱作信息理論之父的克勞德·香農(Claude Shannon)曾被問及“機器能思考嗎?”他的回答是:“當然。”當他被要求進一步說明這一觀點的時候,他說:“我會思考,不是嗎?”換句話說,對他而言顯然機器能夠思考,因為人類便是機器(儘管是由濕件[wet-ware]而非硬件[hardware]所構成)。 由於我們看到了電影中所描繪的機器人,我們或許會認為開發出具備人工智能的成熟機器人是近在眼前的事情。事實卻大相徑庭。當你看到一個機器人像人類一樣行動,其中多半另有奧妙。就是說,有個人躲在暗處用話筒通過機器人說話,像中的巫師那樣。事實上,目前我們最先進的機器人——比如在火星上漫遊的機器人,只具備一隻昆蟲的智商,在麻省理工學院著名的人工智能實驗室(Artificial Intelligence Laboratory),實驗用機器人在重複哪怕是蟑螂能做到的行動時都有困難,比如在一間滿是家具的房間裡移動、尋找藏身之所和辨識威脅。地球上沒有機器人可以理解你向其朗讀的簡單的兒童故事。 電影《2001:太空漫遊》(2001:ASpace Odyssey)錯誤地假設到2001年我們將擁有HAL——能夠駕駛宇宙飛船去木星、同船員們聊天、解決問題和幾乎像人類一樣行動的超級機器人。 科學家面臨至少兩個數十年來妨礙他們製造機器人的大問題:形狀辨識和常識。機器人能比我們看得更加清楚,但它們不明白自己看到的是什麼。機器人同樣聽得比我們更清楚,但它們不明白自己聽到的是什麼。 為了對付這兩個問題,研究者們嘗試使用達到人工智能的“自上而下法”(有時被稱為“形式”[formalist]派或GOFAI,即“優秀老式AI”[good old-fashioned AI])。大致說來,他們的目的就是將所有的形狀辨識和常識都編寫到一張光盤上。他們相信,將這張光盤插入計算機後,計算機能夠突然變得有自知,並且獲得人類的智力。在20世紀50年代和60年代,隨著能夠下棋、拼積木等等的機器人的出現,這一方向取得了巨大的進展。這些進展非常驚人,以至於有人預測在數年內機器人的智力將超越人類。 1969年,在斯坦福研究所(Stanford Research Institute),機器人SHAKEY製造了一條重要新聞。 SHAKEY是一台放置在一組輪子之上的小型PDP計算機,在頂部有一個攝像頭。攝像頭能夠勘察整個房間,計算機會分析和辨認房間裡的物體,並且試圖在它們之中穿過。 SHAKEY是第一台能夠在“真實世界”中進行導航的機器人,這激勵了記者們推測機器人何時將會把人類甩到後頭。 但是,這種機器人的短處很快就顯露出來,人工智能的自上而下法造就了體積巨大、笨拙的機器人,它們花上整個小時也只能通過只有直線形態物體——就是說正方形和三角形的特殊房間。如果在房間裡放置不規則形狀的家具,機器人將無力辨認它(具有諷刺意味的是,一個大腦含有25萬個神經元——僅及這些機器人計算機能力幾分之一的果蠅能夠不費吹灰之力地在三維之中導航、穿過,完成令人眼花繚亂的翻圈飛行移動,而笨重的機器人卻在二維之中迷失方向)。 自上而下的方法很快就碰了壁,計算機生活研究所(Cyberlife Institute)的主管史蒂夫·格蘭德(Steve Grand)說,像這樣的方法“有50年的時間自我證明,但表現仍舊沒能與他們的承諾相符”。 在20世紀60年代,科學家們沒有充分理解為機器人編程以完成哪怕是很簡單的任務——比如指令機器人辨認如鑰匙、鞋子和杯子等物件,其所涉及的工作有多麼艱鉅。就如麻省理工學院的羅德尼·布魯克斯(Rodney Brooks)所說的:“40年前,麻省理工學院的人工智能實驗室委培一名本科生在一個夏天裡解決這一問題,他失敗了;而我於1981年寫博士論文的時候在同一個問題上也失敗了。”實際上,AI研究者們目前仍然沒有解決這個問題。 例如,當我們進入一個房間,我們會立刻識別出地板、椅子、家具、桌子等等。但是當一個機器人掃視房間的時候,它看到的只是一大堆直線和曲線,它會將這些轉換成像素。理解這一大團亂糟糟的線條要花上極多的時間。辨認出一張桌子或許會花掉我們幾分之一秒的時間,但是一台計算機只能看到一堆圓形、橢圓形、螺旋形和直線、曲線、邊角等等。在漫長的計算過後,機器人或許最終能認出某一個物件是桌子,但如果將圖像旋轉,計算機就不得不完全從頭來過。換句話說,機器人可以看,並且事實上能比人類看得更清楚,但它們不理解自己所看到的東西。在進入一間房間後,機器人只會看到一團線條和弧形,沒有椅子,沒有桌子,也沒有燈。 我們的大腦在我們走進一個房間的時候無意識地通過進行數万億次計算識別出物體——這是一種我們有幸全然不覺的活動。我們對自身大腦活動全然不覺的原因是進化。如果我們獨自在森林中遇見一隻襲來的劍齒虎,要是我們意識到所有辨認危險和實施逃跑所需的計算,我們將會癱軟。為了生存,我們做的一切只是了解如何逃跑。當我們生活在叢林中,我們完全無須覺察大腦識別地形、天空、樹木、岩石等等所必需的一切輸入和輸出活動。 換言之,我們大腦的運轉方式可與一座巨大的冰山相提並論。我們只窺見了冰山一角——自覺意識。但潛伏在表面之下、隱藏在視野之外、更加大上許多的部分——非自覺意識,消耗了巨量大腦“計算能力”以理解周圍事物,比如辨認出你在哪裡、與你談話的人是誰和你的周圍有些什麼。所有這些都是在沒有我們允許和了解的情況下完成的。 這就是機器人無法導航穿過一間房間、閱讀手寫體、駕駛貨車和汽車以及揀拾垃圾等等的原因。美國陸軍已經投入上億美元試圖開發機械士兵和智能火車,但沒有獲得成功。 科學家們開始意識到,下棋或將巨大的數字相乘只需要人類智力的很小部分。當IBM的計算機“深藍”(Deep Blue)於1997年在一場六局比賽中打敗世界象棋冠軍加里·卡斯帕羅夫(Garry Kasparov),那是一場原始計算能力的勝利,但這場實驗沒有給我們帶來任何關於智能或者意識上的收穫,儘管比賽登上了許多新聞版面的頭條。據印第地安那大學(Indiana University)的計算機科學家道格拉斯·侯世達(Douglas Hofstadter)說:“天啊,我曾經以為下棋需要思維。現在,我認識到它不需要。那並不意味著卡斯帕羅夫不是一位深層次的思考者,只說明你可以在下棋時避免進行深度思維,那是一種不用拍動翅膀就飛起來的方法。” (計算機領域的發展同樣也會對職業市場的未來產生巨大影響。未來主義者有時猜測,在未來幾十年後,能保有工作的只有極富經驗的計算機科學家和技術人員。但事實上如清潔工、建築工、消防員、警察等工作者在未來仍舊會找到工作,因為他們的工作涉及形狀識別。每一樁犯罪、每一件垃圾、工具和火災都各不相同,因此無法由機器人勝任,具有諷刺意味的是,受過大學教育的僱員,比如低級別會計師、股票經紀人和出納員,可能會在未來失業,因為他們的工作是半重複性質的,並且涉及了解數字——一項計算機擅長的工作。) 除了形狀識別之外,開發機器人所面臨的第二個問題更為基本,那就是它們缺乏“常識”。舉例來說,人類知道: 伹是,沒有微積分或數學算式可以表達這些事實。我們知道所有這些是因為我們看到過動物、水和繩子,而且我們自己理解了這些事實。孩子們通過投入現實世界學會常識。生物學和物理學的直觀定律是通過與現實世界的互動,以艱難的方式習得的。但是機器人沒有經歷過這些,它們只知道預先給它們編排好的東西。 (結果,未來的職業還將包括那些要求具備常識的行業,即藝術創造力、獨創性、表演才能、幽默感、娛樂、分析和領導能力。正是這些特質使我們成為計算機難以復制的、獨一無二的人類。) 在過去,數學家們曾試圖編制一個速成程序,能夠一次性收集所有常識原則。最為雄心勃勃的嘗試當屬CYC (encyclopedia[百科全書]一詞的簡寫)賽克公司(Cycorp)負責人道格拉斯·列納特(Douglas Lenat)的構想。正如耗資20億美元製造出原子彈的巨型項目“曼哈頓計劃”,CYC被比作人工智能領域的“曼哈頓計劃”,能實現真正人工智能的終極推力。 不出所料,列納特的座右銘是:智能是1000萬條規則(列納特有一種新奇的方式用以從中尋找常識的新規則;他讓他的僱員朗讀花邊小報的報導和聳人聽聞的八卦雜誌內容,然後問CYC是否能指出小報上的錯誤。其實,如果列納特成功的話,CYC將在事實上比大多數小報讀者更聰明)。 CYC的目標之一是實現“保本點”,也就是機器人能夠開始獲得足夠知識,因而可以簡單地通過在圖書館裡找到的雜誌和書本自己消化新信息的臨界點。從這一點起,就如雛鳥離巢一般,CYC將能自己扇動翅膀,並且自己起飛。 但自從公司於1984年創建以來,它的信譽遭遇了AI領域的一大普遍問題:作出能成為新聞頭條但很大程度上不合實際的預測。列納特預測在十年內,到1994年,CYC將包含30%-50%的“普遍事實”(consensus reality)。如今,CYC仍舊沒有關閉。賽克公司的科學家發現,為了讓一台計算機接近一個四歲幼兒所擁有的常識水平,必須編制百萬條的編碼。現在,CYC僅包含有微不足道的4.7萬種概念和30.6萬條事實,與賽克公司定期的樂觀新聞發布相悖,列納特的同事之一,1994年離開公司的GV古哈(GVGuha)所說的話常被引用:“CYC總的來說被視作一個失敗的項目……我們極為勉強地試圖創造出自己承諾的一小部分。” 換言之,將全部常識原理編制到一台計算機中的努力已經舉步維艱,理由很簡單——常識的法則浩如煙海。人類能不費吹灰之力地學會這些法則,因為我們終身都長時間不斷地投入外界環境之中,靜靜地吸收物理和生物法則,但機器人不會。 微軟的創始人比爾·蓋茨承認:“讓計算機和機器人去感受他們周圍的環境,並且迅速、準確地作出反應,要比預料中難得多……例如,根據房間裡的物體確定自己方位的能力,對聲音作出反應和理解發言的能力,以及抓住不同大小、質地和易碎度物品的能力。哪怕是簡單到說出一扇敞開的門和—扇窗戶之間的區別,對機器人而言也會是極為棘手的。” 然而,“自上而下”獲得人工智能方法的支持者們指出,這一方向的進展儘管會間或進入冰凍期,但正在世界各地的實驗室中發生。比如說,在過去的數年中,常常資助尖端科技項目的國防高級研究計劃署(Defense Advanced Research Projects Agency,DARPA)已經為能夠自我導航穿越莫哈韋沙漠(Mojave Desert)中一塊多岩石地帶的無人駕駛汽車贊助了一筆200萬美元的資金。在2004年,沒有一個參加DARPA挑戰賽的參賽者能夠完成賽程。事實上,表現最好的車設法在失靈前跑了7.4英里。但是,2005年斯坦福車隊的無人駕駛汽車成功跑完了令人精疲力竭的132英里全程(儘管這花了那輛車7小時時間)。四部其他汽車也完成了賽程(有些批評者註意到規則允許汽車沿著一條長長的沙漠小徑使用GPS導航系統。事實上,汽車可以沿著一條事先確定、沒有太多障礙的線路圖前進,因此汽車永遠都不用指認它們路途中遇到的複雜的障礙物。在實際駕駛中,汽車必須在毫無預料的情況下辨明方向,繞過其他車輛、行人、施工地點、交通堵塞等等)。 比爾·蓋茨對於機器人機械將成為“下一個大事件”持謹懼樂觀態度。他將目前的機器人領域比作他30年前協助啟動的個人計算機領域。正如個人計算機,它可能已經作好展翅高飛的準備。 “沒有人能確定無疑地指這一產業是否將產生巨大的影響。”他寫道,“但如果它能,那將大大改變這個世界。” (一旦擁有人類智能的機器人進入商業供應,它們的市場將是巨大的。儘管真正的機器人如今還不存在,事先設定程序的機器人卻真的存在,並且數量激增。國際機器人學聯盟[The International Federation of Robotics]估計,2004年這樣的個人機器人有約200萬個,到2008年將另有700萬台被裝配完成.日本機器人協會[The Japanese Robot Association]預測到2025年,如今價值50億美元的個人機器人產業年產值將達到500億美元。) 由於人工智能自上而下法的局限,這一領域的嘗試已經轉而採用一種“自下而上法”取而代之,模仿進化過程和嬰兒學習的方式。例如,昆蟲並不通過掃描周圍環境並將圖像降至他們使用超級計算機處理的數万億個像素來進行導航。相對的是,昆蟲的大腦由“神經元網絡”組成,學習機制是通過投入充滿敵意的世界來慢慢學會如何在其中行走。在麻省理工學院,能行走的機器人聲名狼藉,難以通過自上而下的方式製造出來。但是,投入周圍環境、通過抓撓來學習簡單的昆蟲形態的機械生物,已經能成功地在幾分鐘內在麻省理工學院的樓梯上跑來跑去了。 麻省理工學院著名的人工智能實驗室由於其巨大、笨拙的“自上而下”的行走機器人而聞名,其負責人羅德尼·布魯克斯在探索微型“昆蟲”機器人這一概念的時候變成了異端者。這些“昆蟲”機器人通過蹣跚地與物件碰撞來學習走舊式路線。他的昆蟲們並不使用詳盡複雜的計算機程序在它們行走的時候對腳的位置進行精確的數學計算,而是以很少的計算機能力使用測試與錯誤來協調它們的腿部動作。今天,許多布魯克斯昆蟲們的後裔正在火星上為NASA(美國國家航空航天管理局)收集數據,靠著自己的思想小步疾跑著穿過荒涼的火星表面。布魯克斯相信他的昆蟲適合對太陽系的探索,非常理想。 布魯克斯的項目之一是COG,一項製造一台具有6個月嬰兒智力的機器人的嘗試。 COG的外表看上去像是一團亂糟糟的電線、電路和齒輪,只是它有頭、雙眼和手臂。它沒有被寫入任何智能的法則。取而代之的是,它的雙眼注視著一位人類訓練師,他試著教會它簡單的技能。 (一位懷上孩子的研究人員打了個賭,到兩歲為止時,看COG和她的孩子哪個學習得更快,結果那個孩子遠遠超越了COG。) 雖然有模仿昆蟲行為的成功案例,但使用神經網絡系統的機器人在它們的程序設計師試圖在它們身上複製更高級的生物——如哺乳動物的行為時都表現奇差。最先進的使用神經網絡系統的機器人可以走過一個房間或者在水中游泳,但它無法像狗一樣在森林裡跳躍和狩獵,或者和耗子一樣在房間里四處亂竄。許多大型神經網絡系統機器人可能會由數十個到或許數百個神經元構成,然而,人類大腦擁有超過1兆個神經元。線蟲是一種簡單的蠕蟲,其神經系統已經被生物學家完全標繪出來:它的神經系統僅有約300多個神經元。這使得線蟲的神經系統成為自然界中發現的也許是最為簡單的神經系統之一。但在這些神經元之間有7000多個樹突。簡單如線蟲,它的神經系統也極為複雜,以至於還沒有人能夠建立一個其大腦的計算機模型。 (在1988年,一位計算機專家預測,到現在這個時候,我們將擁有具備超過1億個人造神經元的機器人。事實上,如今具備超過100個神經元的神經系統就被認為是很傑出了。) 最具諷刺意味的是,機器人能夠毫不費力地完成人類認為“困難”的工作,比如將很大數字相乘或者下棋;但是機器人在被要求完成對人類而言極為簡單的工作時卻會嚴重出錯,比如走過一個房間、辨認面孔或者與朋友說長道短。原因是,我們最先進的計算機在本質上僅僅是做加法的機器。可是,我們的大腦由進化精心設計,以解決平凡的問題,如生存——這需要一整套複雜的思維構建,如常識和形狀辨識。在森林中生存並不仰仗微積分或國際象棋,而是依靠躲避天敵、尋找夥伴和對變換的環境作出調整適應。 麻省理工學院的馬文·明斯基(Marvin Minsky)——人工智能最初的奠基人之一,這樣總結了人工智能所存在的問題:“人工智能的歷史有點可笑,因為最初的實際功績都是美麗的事物,比如能夠作出邏輯論證或者在微積分課題中取得好成績的機器。但隨後我們開始試圖製造能夠回答關於初級閱讀材料中簡單故事的問題的機器,目前卻沒有機器可以做到這一點。” 有些人相信最終將會出現介於自上而下和自下而上兩種途徑之間的絕妙綜合體,它或許將提供通向人工智能和類人機器的關鍵。歸根結底,當一個孩子學習的時候,雖然他最初主要依賴自下而上法,投入他周遭的環境,但最終他會獲得來自父母、書本和學校教師的指點,在自上而下的途徑中學習,作為成年人,我們不斷將這兩種方式混合使用。例如,一位廚師閱讀食譜,但也不斷在烹飪的過程中嘗菜。 漢斯·莫拉維克(Hans Moravec)說:“當有機械上的金釘子被用於努力將兩種方式合為一體的時候,完全智能化的機器將會產生。”或許是在未來40年內。 文學和藝術作品的不變主題之一是機械生物渴望成為人類,享有人類的喜怒哀樂。它們不滿於自己由電線和冰冷的鋼鐵製成,希望能夠大笑、哭泣和感覺所有人類所具有的情感上的愉悅。 比如,木偶皮諾曹想要變成真正的小男孩,中的鐵皮人想要一顆心,《星艦迷航》中的達達(Data)是一個體力和智能上都超越人類的機器人,但它仍舊渴望變成人類。 有些人甚至提出我們的情緒代表了身為人類的最高意義。永遠都不會有機器能夠面對火熱的日落激動不已,或者因為一則幽默的笑話哈哈大笑——他們宣稱。有些人說機器是永遠不可能擁有情感的,因為情感代表了人類發展的頂峰。 但是,在人工智能領域工作和試圖破解情感之謎的科學家們給出了另一幅畫面。對他們來說,情感遠遠不是人類的精華,而實際上是進化的副產品。簡而言之,情感對我們有益。它們幫助我們在森林中生存,甚至今天仍然在幫助我們測定生活中的危險。 舉例來說,“喜歡”某事物從進化上來說是非常重要的,因為大多數事物對我們來說是有害的。在我們每天遭遇的數百萬件物件中,只有少量是對我們有好處的。因此“喜歡”某物就是區分出那一小部分事物,它們可以幫助我們對抗可能傷害我們的數百萬件事物。 同樣,嫉妒是一種重要的情緒,因為繁殖成功對於保證我們的基因繼續傳到下一代非常關鍵(事實上,這就是為什麼有那麼多情緒上的攻擊性感覺與性和愛相關的原因)。 羞愧和恥辱很重要,因為它們幫助我們學會在一個合作型社會中起作用的必需社交技巧。如果我們從來不說抱歉,最終我們將被驅逐出所屬的團體,減少我們生存和延續基因的機會。 孤獨同樣是一種必不可少的情感。乍一看孤獨似乎是不必要和多餘的。畢竟,我們可以獨自過活。但是渴望與同伴在一起對於我們的生存也很重要,因為我們依賴族群的資源而存活。 換言之,當機器人變得更加先進,它們同樣可能會具備情感。或許機器人將會被設定為與它們的主人或看管者聯繫在一起,以確保它們的生命不會在垃圾場裡終結。擁有這樣的情感能夠幫助緩解它們在社會中的過渡過程,這樣它們就會成為得力的伴侶,而不是主人的競爭對手。 計算機專家漢斯·摩拉維克相信機器人將配有如“恐懼”這樣的情感以自我保護。比如說,如果一個機器人的電池即將耗盡,那個機器人“會以人類可以辨識的信號表現出焦慮甚至恐慌。它會去鄰居家並且要求使用他們的插座,說著'求求你!求求你!我需要這個!這很重要,這只要一點點花費!我們會補償你!” 情感在作出決定時也重要。遭受某種特定腦損傷的人們缺乏體驗情感的能力。他們的理解能力是完好無損的,但他們無法表達任何感情。愛荷華大學(University of Iowa)醫學院的神經學家安東尼奧·達馬西歐(Antonio Damasio)博士研究過有此類腦損傷的人,總結說他們看似“能感知,但是無感覺”。 達馬西歐博士發現這樣的人總是在要作出最微小的決定時茫然失措。沒有了指引他們的情感,他們會沒完沒了地考慮這個選擇或那個選擇,導致殘缺性的猶豫不決。達馬西歐博士的一位患者花了半小時試圖決定他下一次約會的日期。 科學家們相信情感是在大腦的“邊緣系統”中處理的,它位於我們大腦中心的深層。當人們深受新皮層(掌管理性思維)和邊緣系統之間交流不利所擾時,他們的理解能力完好無損,但是他們不具備指導自己作出決定的情感。有時候我們具有“直覺”或者“腸道反應”,它能驅動我們作出決定。受到損傷影響大腦理性和情感部分之間交流的人不具備這一能力。 例如,當我們購物的時候,我們無意識地對所見到的每件東西作出上千次價值判斷,例如“這個太貴了、太便宜了、太花哨了、太蠢了,或者正好”。對於受到此類腦損傷的人來說,購物可能變成一場噩夢,因為所有東西的價值似乎都一樣。 當機器人變得更加聰明,並且能夠自己作出選擇,它們也可能因為猶豫不決而陷入困境(這讓人聯想起聖經中的寓言故事,一隻驢坐在兩大堆乾草之間,最終因為無法決定吃哪一堆而餓死了)。為了幫助它們,未來的機器人可能需要將情感深深植入它們腦中。麻省理工學院媒體實驗室的羅莎琳德·皮卡德(Rosalind Picard)博士對機器人缺乏情感這一情況評論說:“它們無法感知什麼是最重要的,那是它們最大的缺陷之一。計算機就是做不到這—點。” 正如俄羅斯小說家費奧多爾·陀思妥耶夫斯基(Fyodor Dostoevsky)所寫的:“如果地球上的一切都是理性的,那什麼都不會發生了。” 換言之,未來的機器人可能需要情感以設定目標和為它們的“生命”賦予意義及結構,否則它們將發現自己在無限的可能性面前全面癱瘓。 對於機器是否能夠有意識並無共識,甚至沒有關於“意識”的含義的一致意見。沒有人能夠對意識給出一個合適的定義。 馬文·明斯基描述意識更多的是一種“思想的社會”,就是說,在我們的大腦中,思維過程不是局部化的,而是散發的,在任何規定的時間內有不同的中心部分相互競爭。因此,意識或許會被視作由這些不同的、小型的“心智”所產生的一連串思想和畫面,每一個這樣小型的“心智”都熱切希望抓住我們的注意和為此競爭。 如果這是真的,那或許“意識”已經過了盛期,或許對於這一被哲學家和心理學家過分神秘化的課題已經有太多相關的論文。也許定義意識並不是那麼困難。就像位於拉荷亞(La Jolla)的薩克生物研究院(Salk Institute)的西德尼·布倫納(Sydney Brenner)所說:“到2020年——有美好願景的年頭——意識作為一個科學問題將消失……我們的繼承人將對今天所討論的科學垃圾的數量大吃一驚——如果他們有耐心閱遍過時期刊的電子文檔的話。” 用馬文·明斯基的話說,人工智能研究飽受“物理嫉妒”之苦。物理學界的聖杯是找到一條簡單的方程式,能夠將宇宙中所有的力統一成一種簡單的理論,創造一個“萬物至理”。人工智能的研究人員過度受這一概念影響,試圖找到一種單個的模式以解釋意識。但是在明斯基看來,這樣一個簡單的模式或許不存在。 (那些身處“解釋者”流派中的人,比如我自己,相信應該有人試著製造一台能思維的機器人,而不是無止境地辯論能思維的機器人能否創造出來。關於意識,或許存在著一種意識的連續介質,從卑微如調控房間溫度的溫控器到如當今的我們這樣的自覺生物體。動物可能是有意識的,但是它們並不經歷人類水平的意識。因此,我們應當嘗試將不同種類和水平的意識進行分類,而非就關於意識的定義這類哲學問題進行辯論。機器人可能最終實現一種“矽意識”。機器人有一天可能會具備一種不同於我們的思維和信息處理架構。未來,先進的機器人或許會讓語法和語義之間的區別變得模糊不清,如此一來它們作出的回應將變得無法與人類作出的回應相區別。如果是這樣的話,它們是否真的“理解”問題這一疑問將很大程度上變得無關緊要。一個完全精通句法的機器人實際上理解自己所說出的話。換言之,對句法的完全精通即是理解。) 鑑於摩爾定律宣稱計算機的能力每18個月增加一倍,可以想像在未來幾十年裡具有狗或者貓那樣的智力水平的機器人將被製造出來。但是,到2020年,摩爾定律很可能會崩潰,而且矽的時代將走向終結。在50年左右的時間裡,微型矽晶體管的製造能力為計算機能力的驚人增長添加了燃料,數千萬個微型矽晶體管能輕易放在你的指甲蓋上。紫外線射線被用於將微晶體管蝕刻到矽芯片上。但是這一進程無法永遠持續下去。最終,這些晶體管將微小至達到分子的大小,這一進程將會瓦解。在2020年後,矽的時間最終畫上句號時,矽谷可能變成“銹帶”。 你筆記本電腦中的奔騰芯片有一個寬約20個原子的層次。到2020年,奔騰芯片可能會由一個寬僅5個原子的層次構成。在那個水平上,海森堡測不准原理生效,你將不再知道電子的位置。隨後電會從芯片裡洩漏出來,計算機將會短路。到那時,計算機革命和摩爾定律將因為量子理論的定律而遭遇困境(有些人已經聲稱數字時代是“顆粒對原子的勝利”。但最終,當我們達到了摩爾定律的極限,原子們或許將進行報復)。 物理學家正在研究2020年後能統治計算機世界的“後矽”技術,但是到目前為止,結果喜憂參半。根據我們已知的情況,有多種正在被研究的科技可能最終取代矽技術,包括量子計算機、DNA計算機、光學計算機、原子計算機等等。但是,在接過矽芯片的重任之前,它們每一個都面臨著巨大的難關。操控單個的原子和分子是一種仍處於襁褓中的技術,因此製造數十億個原子大小的晶體管還在我們的能力之外。 假設一下,比如說,物理學家暫時能夠消除矽芯片和量子計算機之間的差距,並且假設摩爾定律的另一種形式延續進入了“後矽時代”,那麼人工智能或許會真正成為可能。到那個時候,機器人可能掌握人類的邏輯與情緒,並且毎次都通過圖靈測試。史蒂芬·斯皮爾伯格(Steven Spielberg)在他的電影《人工智能:AI》中探索了這個問題,影片中首個能表達情感的機器人男孩被創造出來,並且因此適合被人類家庭領養。 這提出了一個問題:這樣的機器人會是危險的嗎?答案可能是肯定的。一旦具備了猴子的智力,它們就有可能變得危險。猴子的智力意味著自我意識可以創造出自己的目標。要達到這一水平可能要用上好幾十年,因此科學家們有大把的時間在機器人引起威脅之前觀察它們。例如,可以在它們的處理器中放置一塊特別的芯片以防止它們進入暴亂狀態。或者,給它們設定自毀或撤銷裝置,能夠在緊急情況下關閉它們。 亞瑟·C.克拉克寫道:“我們變成計算機的寵物是有可能的,導致我們成為寵物狗那樣嬌生慣養地生活。但我希望我們永遠保留在感覺到需要的時候拔掉插頭的能力。” 更常見的威脅是,我們的基礎設施依賴於計算機。我們的水力和電力網絡,更不用說交通和通信網絡,在未來會更加計算機化。我們的城市已經變得如此復雜,只有復雜而交錯的計算機網絡能夠控制和管理我們龐大的基礎設施。未來,在這樣的計算機網絡中加入人工智能會越來越重要。這一無處不在的計算機基礎設施一旦發生失誤或者故障,會使一座城市、一個國家甚至一個文明癱瘓。 計算機會最終在智力上超越我們嗎?當然,物理定律中沒有任何內容能阻止它。如果機器人能以神經網絡的形式學習,並且它們發展到了能夠比我們更加迅速和有效地學習的臨界點,那麼它們最終可能在思考能力上超越我們是符合邏輯的。摩拉維克說:“(後生物學世界)是一個人類種族被文化變革的浪潮所清除、被自己的幼子剝奪權利的世界……當這一切發生,我們的DNA會發現自己失去了作用,已經在進化的賽跑中輸給了一種新型的競爭。” —些發明家,比如雷·庫茲韋爾(Ray Kurzweil),預測這一時刻會很快到來,比想像的更早,甚至就在未來的幾十年內。或許我們正在創造自己進化上的繼承者。一些計算機科學家們想像一個被他們稱作“奇點”(singularity)的點,到那時機器人將能以冪指數的速度處理信息,在過程中創造新的機器人,直到它們總體吸收信息的能力前進至幾乎沒有極限。 所以,從長期來看,有人倡議碳科技與硅科技的融合,而不是坐等我們自己滅絕。我們人類的主要基礎是碳,但是機器人的基礎則是矽(至少目前如此).或許解決的方法是與我們的締造物相融合,(如果我們遭遇天外來客,我們將毫不驚訝地發現它們是部分有機、部分機械的,這樣能承受太空旅行的艱苦,並且在敵對環境中興盛。) 在遙遠的未來,機器人或類人半機械人甚至也許能賦予我們永生的能力。馬文·明斯基補充說:“如果太陽死亡,或者我們毀滅了地球會怎樣?為什麼不培養更好的物理學家、工程師或者數學家?我們或許必須成為自己未來的建築師。如果我們不這麼做,我們的文化或許會消失。” 摩拉維克想像在遙遠未來的某個時刻,當我們的神經構造能夠一個神經元一個神經元地被直接轉移給一台機器的時候,這將賦予我們在某種意義上的永生。這是一個狂野的想法,但並不超出可行的範圍。所以,根據一些關注未來的科學家的說法,永生(以加強DNA或者矽制身體的形式)可能是人類的終極未來。 製造至少同動物一樣聰明並且或許同我們一樣聰明、甚至比我們更聰明的能思維的機器——如果我們能克服摩爾定律的崩潰和常識問題,這一假想或許會成為現實,可能甚至就在本世紀晚些時候。儘管AI的基本規則還在發掘中,但這一領域的發展極其迅速,並且很有前景。因為這一點,我將機器人和其他能思維的機器歸類為“一等不可思議”。
按“左鍵←”返回上一章節; 按“右鍵→”進入下一章節; 按“空格鍵”向下滾動。
章節數
章節數
設置
設置
添加
返回