注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁新聞資訊書訊

“大象不會下象棋”:人工智能已陷入瓶頸?

中世紀以來盛行的自動機械人偶,曾讓歐洲的皇室和宮廷貴族著迷發(fā)狂,傳教士甚至將其作為貢禮獻給中國皇帝。從雅凱-德羅茲的寫字小男孩兒到坎普林的下棋機器人,人和動物的形象,被頻繁地制成荒誕而逼真的

【編者按】

中世紀以來盛行的自動機械人偶,曾讓歐洲的皇室和宮廷貴族著迷發(fā)狂,傳教士甚至將其作為貢禮獻給中國皇帝。從雅凱-德羅茲的寫字小男孩兒到坎普林的下棋機器人,人和動物的形象,被頻繁地制成荒誕而逼真的機器,仿佛有了“能動的生命”。這一切都源于“萬物機械說”的大行其道,它牽涉出的是困擾人類始終的問題:生命是什么?機器會擁有生命嗎?事物運轉的動力來自內(nèi)部還是外部?

杰西卡·里斯金在《永不停歇的時鐘:機器、生命動能與現(xiàn)代科學的形成》一書中從中世紀自動發(fā)條機器人到當代人工智能,溯流機械論的歷史,探求生命的終極命題。本文摘自該書關于人工智能的相關章節(jié),標題為編者所擬,澎湃新聞經(jīng)中信出版集團授權發(fā)布。

在過去30年左右的時間里,認知科學的跨學科領域吸引(匯集)了來自不同領域、對研究大腦如何運作感興趣的人們,這一領域被分為兩大陣營:“具身化陣營”和“表征性陣營”。兩大陣營創(chuàng)建并使用“機器”又或者利用“機器”以支持各自的觀點。“具身化”陣營一直站在反叛的立場。大約從1980年開始,他們一直反對神經(jīng)科學家、語言學家、哲學家及心理學家從語言和認知表征角度理解大腦的運作機制。

麻省理工學院的機器人學家羅德尼·布魯克斯教授于1990年發(fā)表了題為《大象不會下象棋》的宣言。布魯克斯警告稱人工智能領域正在衰退,并且被以“符號系統(tǒng)假設”為形式的笛卡兒的理性主義所替代。這一假設認為人工智能是由受規(guī)則制約的符號操作系統(tǒng)構成,這一符號操作系統(tǒng)代表了外部世界。換句話說,人工智能領域存在一個假設,認為智能存在于“思維和理性”中?!跋缕濉边@一智能行為為符號系統(tǒng)假設理論提供了一個典型例證。以理性符號主義立場為基礎的人工智能已經(jīng)進入了瓶頸期,因為對于智能這一概念的理解,他們至少忽略了很多方面。例如,僅僅憑借“大象不會下象棋”就武斷地認為大象沒有智力研究價值是不公平的。

智能的核心,簡單來說就是存在和反應的精華部分。這曾經(jīng)是布魯克斯認為最難攻克的部分,用進化論的術語來講,象棋就是基于這一發(fā)現(xiàn)衍生出來的。因此,他創(chuàng)造出了新型人工智能,它是具體化理論而非抽象主義理論的產(chǎn)物,它摒棄了用符號系統(tǒng)再現(xiàn)世界的理性操控系統(tǒng),讓真實的世界直接參與其中。這種理論指導下研制出的人工智能產(chǎn)物所具有的智力水平更像一頭大象的智力,而非一名象棋大師的智力。智能并非抽象的,而是植根于或存在于智能產(chǎn)物本身或它存在的環(huán)境中。一切物體的“目的”或“愿望”必須以真實的行為體現(xiàn)出來,“而且所有的信息都來自機體感官”。

布魯克斯和新一代人工智能的同事們沒有把人工智能分解為信息處理模式,而是將其作為一系列“行為產(chǎn)生模塊”的結果演化而來。因此布魯克斯的新一代人工智能也被稱作“行為機器人學”或“進化機器人學”,他和同事們將組裝行為生成模塊的設計方案稱作“包容體系”,因為它是由分散的行為直接組合而成,沒有一個行為居于高層,監(jiān)管其他行為。布魯克斯說,這些行為猶如抽象的屏障,每個行為都需要直接參與到真實的環(huán)境中。包容體系將這些行為整合在一起,使知覺和行動緊密相連,從而使機器人走進現(xiàn)實生活。

布魯克斯機器人的一個重要特點是,它們不是笛卡兒式的、統(tǒng)一的、自我認知的機器人,而且沒中央信息倉庫,沒有整體的管理模塊。它們的智力水平相近,不存在“侏儒”?!百濉币辉~可能會令人疑惑,稱其為侏儒,布魯克斯并非指17世紀胚胎學中預先成形、體形矮小的機械胚胎,而是智力上的侏儒,理性缺失靈魂矮小的侏儒。布魯克斯研制的機器人沒有理性,各個行為之間互不關聯(lián),互不知曉。布魯克斯對于機器人“赫伯特”的描述中就能體現(xiàn)機器人缺乏一個能感知的主題。這個機器人圍繞實驗室閑逛,走進辦公室,取走里面的空汽水罐。其間,它需要繞過障礙物,沿著走廊和房間的墻壁前行,發(fā)現(xiàn)汽水罐,再撿起汽水罐。布魯克斯寫道,赫伯特的神奇之處在于它的行為生成模塊之間沒有任何關聯(lián)。每一個單一行為模塊都與感官連接,并通過感官與現(xiàn)實世界中的辦公室和汽水罐產(chǎn)生聯(lián)系。找到汽水罐這一動作,驅使機器人向汽水罐走去,但是該行為并沒有告知胳膊控制器現(xiàn)在需要撿起一個汽水罐。撿起汽水罐這一行為是由胳膊對輪子做出回應而產(chǎn)生的行為。當輪子停止轉動,胳膊會牽動手掌運動,尋找眼前的汽水罐。當有東西穿透手指間的紅外線光束,手則應激做出“抓取反射”,將手指并攏。單獨的模塊無法負責下達指令、控制整個項目。這樣的結構,具備很大的靈活性和機會空間。布魯克斯解釋道,如果有人直接遞給赫伯特一個汽水罐,而不是它之前在找的汽水罐,它也會抓住汽水罐。這使得拾汽水罐的機器人赫伯特這一設計非常成功。但能否說它是一個典型的自然智能案例呢?據(jù)布魯克斯的觀點,赫伯特的出現(xiàn),表明自然智能也能不依附一個統(tǒng)一的、有認知能力的主體而存在。布魯克斯寫道,觀察者會不自覺地把系統(tǒng)的內(nèi)部結構想象得比現(xiàn)實復雜。看起來赫伯特仿佛在做一些諸如路線設計、圖紙規(guī)劃之類的事情,實則沒有。

但是赫伯特真的缺少一個完整的、有認知能力的主體嗎?答案必須依據(jù)我們?nèi)绾味x“完整的、有認知能力的主體”來定。機器人的自主行動與其輸出面的“判斷網(wǎng)絡”相連,其可驅動執(zhí)行器,讓赫伯特能夠根據(jù)傳感器帶來的信息采取行動。而且,有一個完整的項目存在于赫伯特發(fā)明者的頭腦里,該項目清晰地包含了拾汽水罐這一活動自始至終的計劃。為了證明表面有目的的行為來源于大量無目的的行為,一個人不需要看到表面的目的性是來源于實際的無目的性,而不是像赫伯特那樣,由明顯不相連的部分組裝而成嗎?換句話說,難道不是無目的性顯而易見,而非目的性嗎?

同樣地,根格斯是一個能夠在惡劣地形里導航行走的機器人,它沒有單一的控制系統(tǒng),“中樞表現(xiàn)”或者“能使機器人配置模式化的知識儲備庫”。布魯克斯把它面對碰撞和凹坑時表現(xiàn)出來的穩(wěn)健性歸因于操縱裝置的分散式本質(zhì)。這對于托托來說也是一樣的。托托是一個能在沒有傳統(tǒng)“地圖”,即特定地域靜態(tài)表現(xiàn)的引導下,按照命令走到指定地點的機器人。相反,托托可以利用由“節(jié)點”組成的地圖,每一節(jié)點是一種“行為”。當托托在一處地形漫游或遇到地標時這些“行為”會被激活。

“如果節(jié)點發(fā)現(xiàn)自己與機器人目前所處位置相對應,節(jié)點會更活躍。因此除了分散式計算模型(并非統(tǒng)一的自我),機器人既有地圖又有感知它在地圖上所處位置的能力?!辈剪斂怂共]有詳述一個行為節(jié)點能意識到自己在世界上的位置,這可能意味著什么。他認為托托并沒有表現(xiàn)出“局限在它的頭腦里的”任何東西,但是它卻像人們想象的那樣行事,從而構成了對“傳統(tǒng)表象主義的致命一擊”。據(jù)布魯克斯所說,每一個機器人看起來都像是按照一套集中的目的行事,但這只是一個幻象,無論是在人造智能物或是自然生命中,“智能都出自觀察者之所見”。機器人本身就能體現(xiàn)這一觀點,即布魯克斯研究程序的主導觀點:“將原有的方式反其道而行……這是一個完全關乎認知的外部觀察者,他認為認知能力源自一個系統(tǒng),這一系統(tǒng)在外部世界運作良好,而在認知產(chǎn)生的這一機體中卻沒有容身之地……認知只存在于觀察者眼中?!辈剪斂怂沟淖髌分蓄l繁提到這一點,只有物體觀察者才會假定存在一個中央表征系統(tǒng)或中央控制系統(tǒng)。物體本身并無這些系統(tǒng),它只是一系列相互矛盾行為的集合體。在觀察者的眼中,從其自身一堆混亂的交互行為中,能摸索出一套連貫的行為模式。布魯克斯是個正統(tǒng)的笛卡兒主義者,他認為一個純粹的物質(zhì)產(chǎn)物,應該是意識和物質(zhì)分離的,沒有理性的。他與笛卡兒觀點的不同之處在于,他認為根本就不存在這樣統(tǒng)一的、理性的自我。

據(jù)發(fā)明者透露,這種類型的機器人缺乏秩序,本質(zhì)上更是被動的。它們各種行動的能動性源于外部,也就是說它們并非主動在環(huán)境中運動,而是受到外力牽引:“很大程度上,機器人的行為取決于外界環(huán)境……它們身上也沒有統(tǒng)一的中央調(diào)控系統(tǒng),而是靠有限狀態(tài)調(diào)控設備,根據(jù)自身接收到的信息進行決策?!辈剪斂怂拐J為,機器人被動、去中心化的行為模式看似是思維的對立面,但實則蘊含了思維的本質(zhì)。真正的生物系統(tǒng)并非靠理性主體輸入外部信息,經(jīng)過邏輯加工分析,產(chǎn)生輸出物,而是通過一系列的行為機制及各種方式運作,最終產(chǎn)生我們看到的并且習以為常的行為。

布魯克斯哲學的核心是體現(xiàn)這一概念,是一種將要到來的無能動性模式(一個較為新近的觀點)。“我認為思想和意識是生存在世界上的一種偶然現(xiàn)象?!辈剪斂怂拱l(fā)明的機器人居住環(huán)境越復雜,它們受外力牽引在其中生存時,自身的行為也會變得越復雜。因此它們的行為會變得更加智能,更加深思熟慮,更加有意識感?!耙庾R和思想無須由程序添加進去,它們會自動生成。”

如果生存環(huán)境中存在一些有意識和思想的生物,并且經(jīng)常與這樣的環(huán)境交互,意識和思想才能涌現(xiàn)。“Cog”是一個類人機器人,有軀干、頭、脖子、手臂和雙手。它還擁有傳感系統(tǒng),如視覺系統(tǒng)(攝像頭)、聽覺系統(tǒng)(耳機)、感知系統(tǒng)(電阻式力傳感器),同時也具有本體感受系統(tǒng)來感知頭的位置,控制平衡。如果安裝了名為“天命”的頭部系統(tǒng),它具有卡通特色的臉上能做出諸多表情,包括生氣、疲倦、害怕、厭惡、興奮、愉悅、感興趣、傷心、驚喜。這些表情由機器人身上的各大系統(tǒng)掌控,布魯克斯分別將其命名為“驅動系統(tǒng)”“行為系統(tǒng)”“情感系統(tǒng)”和“狀態(tài)系統(tǒng)”。

例如,只要機器人的驅動裝置運行在一個能夠自我平衡的范圍之內(nèi),那么機器人就能表現(xiàn)出“感趣”和“開心”。但是如果任何一個裝置偏離了這一范圍——例如,如果一段時間內(nèi)機器人接受到的刺激不足——就會呈現(xiàn)出悲傷的表情如“傷心”。布魯克斯和他的同事們則扮演“照看者”的角色,這一過程類似于父母和嬰兒之間的互動。作為“照看者”,他們教給機器人一些基本動作,如指向某個視覺目標,模仿人點頭。

盡管在這些方面較為成功,然而“Cog”畢竟不是一個統(tǒng)一的整體,我們不難想象它會缺乏“連貫性”。它沒法在自己的多個行為中做出抉擇,比如,在轉動身體看到某張臉或伸手去抓住某個物體這兩個動作間不能自主選擇?!癈og”能有多少基本行為數(shù),問題便會以其平方倍數(shù)呈現(xiàn)出來,因此問題的嚴重性可能在短時間內(nèi)迅速加劇。

在布魯克斯對其機器人的描述中,反復強調(diào)了自我和能動性,起初都使用被動語氣,漸漸地就會變成主動。這種轉變在描述包容體系結構的“高”層時變得尤為明顯。例如,艾倫是個可以進行探索并避開障礙物的機器人,在對其的描述中,他提道:“大約每隔十秒這個機器人就會產(chǎn)生一種愿望,想要朝著一個隨機的方向前行?!比欢瑐惖陌菹到y(tǒng)結構的高層結構則會“通過聲吶系統(tǒng)使機體向遠處觀看,并設法朝遠處走去”。高層結構的意愿就會壓制閑逛層想去的方向。由于艾倫避開障礙這一行為,“ 高層結構需要通過測程法觀看現(xiàn)實世界正在發(fā)生怎樣的事情,以此了解控制層的決定,并向下傳達正確的方向信號”。這段對于艾倫運行機制的描述,暗示了它的高級行為中包含一種智能,相對來講具有中心調(diào)控、統(tǒng)一協(xié)調(diào)、主觀能動等特性。

但是布魯克斯和他的支持者們都認可采用行為主義、進化主義以及“具身化”的方式實現(xiàn)人造生命或人工智能。傳統(tǒng)人工智能則常采用計算主義和表征主義的方式。二者其實具有很大的相似性,只是他們從來沒有意識到。他們分享了笛卡兒的信條,物質(zhì)存在沒有內(nèi)部理性主體,物質(zhì)和意識是分開的,這也表明他們都具有反笛卡兒主義思想,萬物都是物質(zhì)與意識的統(tǒng)一,不存在任何物體物質(zhì)和意識分離?!霸谀愕哪X海中,有很多不同的想法”,人工智能領域極具代表性的多部作品的作者,神經(jīng)網(wǎng)絡模擬創(chuàng)造者馬文·閔斯基(Marvin Minsky)如是寫道。人的多種思想之間既能如家庭成員一般親密合作,也能像住在隔壁的人一樣彼此互不了解。如同在一個房間中的多個帳篷,這些想法都住在你的腦子里,但彼此之間不一定要分享精神世界。

閔斯基曾在別處運用過另一個隱喻,將人腦描繪成“一個混雜的機構”,其中所有的機構彼此之間互不了解。他所描繪的人飲水的過程,和布魯克斯描繪赫伯特拾汽水罐的方式是完全一樣的。“抓取系統(tǒng)”想要抓住杯子,平衡系統(tǒng)負責防止水溢出,口渴系統(tǒng)會想喝水。運動系統(tǒng)負責把杯子送到嘴邊。人體內(nèi)滿是行動系統(tǒng),也因此完全缺乏主導體系。丹尼爾·丹尼特是塔夫斯大學人腦和生物學領域的哲學家,除了上述這兩個領域,他在傳統(tǒng)人工智能和行為機器人領域也都占有一席之地。他同樣認為的確不存在自我。丹尼特早期認可如下觀點:用數(shù)字電腦模仿人類認知便可了解人類認知。后來,他重新思考這一問題,并規(guī)定任何有人工智能的產(chǎn)品都要有“眼睛、手、耳朵,并且要有自身的歷史記載”,并杜撰了“高教會計算主義”一詞來批判傳統(tǒng)人工智能。然而在批判之余,他卻贊同計算模式有助于人們理解人腦結構的深層理論問題。

就自我不存在這一問題,丹尼特對于處于對立面的閔斯基和布魯克斯兩位同事的觀點都表示贊同。閔斯基認為人只不過是神經(jīng)系統(tǒng)中的各種器官分支系統(tǒng)和各種神經(jīng)活動的組合。丹尼特對此表示認同。因為對這一觀點表示懷疑就等同于拒絕讓直觀判斷處于待命狀態(tài)。如果你很難想象如何在沒有決策者的情況下談論眾多決策,如何在沒有反對者的情況下談論反對意見,以及如何在沒有思考者的情況下談論思想,那么你可以停下來想象一下,這個幾乎無法設想的舉措可能是一個巨大的突破,而不是一個錯誤。

因此笛卡兒理性自我?guī)缀跬耆慌懦诂F(xiàn)代人工智能、認知科學以及行為機器人學之外。先前傳統(tǒng)人工智能學派曾認為人腦中有一個“小人”負責將大腦對世界的反映進行解讀。傳統(tǒng)人工智能擁護者、計算主義者如哈佛大學認知科學家史蒂芬·平克(Steven Pinker)后來將這一觀點從他們對大腦認知的傳統(tǒng)觀點中剔除。平克稱之為“精子微人”的這一小人代表一個理性主體,而非一個真實的微小胎兒。實際上人腦中不止有一個,而是無數(shù)個這樣的小人。在計算機領域,它們被稱作“智能體”“守護程序”“監(jiān)控程序”“解釋程序”或“執(zhí)行程序”,平克認為所有這些都能在人腦中找到與之對應的部分。這一大批精子微人在科學解釋中被看作合理的元素,而非毫無意義的虛構之物。因為這批重新定義后的微人,較之傳統(tǒng)意義上的微人在功能上受到限定,也更加遲鈍。它們無知、狹隘、盲目。最小、最低層的微人非常愚蠢,甚至可以用機器來取代。人們在整體項目中挑出來單個精明的微人,轉而將工作安排給那些數(shù)量眾多的蠢笨微人。

傳統(tǒng)的人工智能倡導者認為,人工智能本身就是一個謎,是一個被誤解的假象。閔斯基和圖靈都認為智能是基于觀察者無知的臆想物。過去的20年中,雷·庫茲韋爾(Ray Kurzweil)一直在宣揚傳統(tǒng)人工智能,他也認可這一觀點。據(jù)閔斯基觀測,他認為智能是我們看清自身對人腦運作一無所知的片刻。這是因為,最小、最低層的思維智能體并不聰明,甚至“根本無法思考”。如果人腦功能被不斷縮減,以至于到達最低能、最低層的智能層面時,人腦的智能特質(zhì)就會消失殆盡。

傳統(tǒng)人工智能研究者,如傳統(tǒng)控制論學者以及他們現(xiàn)今的繼承者、行為機器人專家也認為生物活動和智能物體的活動源自有知覺的生物身處的環(huán)境中。為了解釋一個人如何科學描繪目的等其他思維產(chǎn)物,丹尼特發(fā)明了他所謂的“意向立場”?!耙庀蛄觥本褪峭ㄟ^“信念系統(tǒng)或愿望系統(tǒng)(如希望、害怕、意愿、預感)”解釋生物或者人造物體的行為。這樣做時,人們必須牢牢記住。所討論的實體本身并不是有意的,而只是“與試圖解釋和預測其行為的人的策略有關”。換句話說,要想理解生物這一“純物理系統(tǒng)”,人們很可能發(fā)現(xiàn)如果假設這一系統(tǒng)有信仰、有愿望且具有理性,那么預測該系統(tǒng)一事將變得“方便快捷,易解釋,且具有實用價值”。

為證明把愿望和目的賦予物理系統(tǒng)合情合理,丹尼特給出的理由是我們通常認為機器人有理解力,有各種目標。因此至少有一種完全機械化的物體具有目的性,雖然這種目的性只存在于人們的想象中。計算機和人類賦予它的某些解釋相關,只算得上忠誠于人類分派的任務,記住任務,完成任務等。如果勉強要說計算機有目的,那也只能是融合了其創(chuàng)造者的意圖。丹尼特認為不同于機器人,人類不受制于這種意圖創(chuàng)造者,至少對于不相信上帝的人而言是這樣。不過他在自然選擇領域找到了答案,他認為自然選擇能給生命系統(tǒng)的物質(zhì)屬性賦予“內(nèi)容”,也就是目的性。盡管他一直堅信達爾文自然選擇論的無意識性,但是他最近發(fā)表的進化論作品中指出:“最原始、最基礎、最笨拙的進化……每一步進化都是野蠻的、機械式的、合乎規(guī)則的爬升?!?/p>

丹尼特認為不論能動性的外部來源是什么,它都肯定不存在于物體內(nèi)部,而必須來源于物體外部。他的這一觀點在傳統(tǒng)人工智能領域和行為機器人領域都廣為流傳。這一共識認為,能動性必須是顯而易見的,因此必須是物體所處環(huán)境的產(chǎn)物而非來自物體內(nèi)部。赫伯特·西蒙(Herbert Simon),卡耐基梅隆大學的經(jīng)濟學家、認知學專家、計算機科學家,將人類行為的復雜性比作螞蟻圍繞沙灘行進的路線。西蒙將這一路線謄到一張紙上,給一個毫不知情的朋友看。在這位朋友眼中,這條路線像是滑雪專家在為障礙滑雪賽導航,或是一個水手在大風中維持航向。因為這條路線暗含了方向感和目標感,指向一個潛在目標。西蒙指出,事實上這一目標導向源于物體之外?!皬碗s性源自沙灘表面的復雜性,而不是因為螞蟻本身很復雜?!?/p>

西蒙和艾倫·紐厄爾(Allen Newell)合作完成了人工智能領域具有里程碑意義的兩個項目,分別是邏輯推理機和一般問題解決器。西蒙同時還是人類思維、行為計算模型最具影響力的倡議者。但是在能動性問題上,他與新、舊派控制論者的觀點一致。西蒙想,螞蟻的例子同樣適用于人類。它們行為中“明顯”的目標導向復雜性很大程度上是“環(huán)境的反映”。

計算主義和行為機器人學者都認可的一條準則:任何物質(zhì)都不具有認知能力。拿行為機器人專家來說,考慮到他們將重點放在物理接觸和具象化上面,我們很吃驚地發(fā)現(xiàn),他們所用材料的物理特征并不能構成他們理論討論中那種及時響應的、吸引人的、有生命力的行為。相反,在他們的理論討論中,詳述了機械的結構特征。計算主義者同樣認為,沒有特定的物質(zhì)有認知力?!爸悄堋?,平克寫道,“常常被歸結為某種能量流或力量場?!边@種觀點與“唯心主義、偽科學和科幻小說”有關。使一個工具或者生物變聰明的不是制造它的材料本身,而是事物各自組成部分的保真性,這種保真性則象征著外部世界的成分。一個感性的生物,其構成物質(zhì)與其感性本身并無關聯(lián),這是兩個研究項目共用的定理。然而,其他的自然力量和自然現(xiàn)象,比如電、磁、化學和引力,都是與某種特定的物質(zhì)相關的。那么為什么像平克所說的,智能和某種特定物質(zhì)相關的觀點被歸為“唯心主義、偽科學和科幻小說”呢?我認為這其中的原因是這樣的觀點違背了簡單機械論者對自然界中能動性作用的排除、禁令。那些還在支持這一禁令的人似乎并不記得,他們最初做出這一決定的理由,其中神學方面的因素并不比科學的少。

《永不停歇的時鐘:機器、生命動能與現(xiàn)代科學的形成》,[美]杰西卡·里斯金著,王丹、朱叢譯,中信出版集團2020年7月。

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) www.stefanvlieger.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號