[author]徐英瑾
[content]
導(dǎo)論
所謂人工情緒研究,其基本含義便是:在人工智能研究所提供的技術(shù)環(huán)境內(nèi),以計算機工程可以實現(xiàn)的方式,去模擬人類情緒的部分運作機制,以便由此提高整個人工智能產(chǎn)品的工作效率。不過,就像對于人工智能的一般性研究無法規(guī)避對于“智能”之本質(zhì)的討論一樣,對于人工情緒的研究自然也就無法規(guī)避對于“情緒”的本質(zhì)的討論。那么,到底什么是情緒呢?在一種基于生物學(xué)還原主義的思維方式的引導(dǎo)下,一部分人或許會在回答上述問題時訴諸情緒在人腦中實現(xiàn)的神經(jīng)學(xué)機制,比如杏仁核的工作原理(杏仁核是海馬末端的一個腦組織,一般認(rèn)為與恐懼的情緒的產(chǎn)生相關(guān))。但考慮到作為碳基的信息處理機制的人腦與作為硅基的計算機設(shè)備之間的巨大物理差異,對于情緒的神經(jīng)科學(xué)探索,究竟能在多大程度上引導(dǎo)人工情緒的研究,多少還是讓人感到疑慮的。相比較而言,對于情緒的認(rèn)知心理學(xué)研究,或許對人工情緒的研究是更具啟發(fā)意義的,因為認(rèn)知心理學(xué)的描述層面本來就相對較為抽象,因此其結(jié)論亦在客觀上就具備了“兼顧碳基人腦與硅基設(shè)備”的可能性。
然而,在對心理學(xué)的研究成果表示尊重的前提下,本文還想指出:對于人工情緒的研究來說,歐陸現(xiàn)象學(xué)家特別是胡塞爾、海德格爾對于情緒的研究成果,亦是具有重要的、不可替代的參考價值的。具體而言,胡塞爾哲學(xué)所涉及的“生活世界”與情緒之間的內(nèi)在關(guān)系,海德格爾哲學(xué)所涉及的“向死而生”的生存論機制對于情緒的奠基意義,都是典型的認(rèn)知心理學(xué)的情緒描述所付諸闕如的,卻能在更大的廣度與深度上觸及作為情緒承載者的人類個體與其所處的相關(guān)文化、歷史背景之間的內(nèi)在關(guān)聯(lián)??紤]到理想的人工智能產(chǎn)品也將與人類用戶所處的文化、歷史背景進行深度關(guān)聯(lián),現(xiàn)象學(xué)在這方面的思考成果當(dāng)然是值得人工情緒研究參考的。從這個角度看,我們甚至可以說:人工情緒研究的最終工作目標(biāo),是應(yīng)當(dāng)由情緒現(xiàn)象學(xué)——而不是由認(rèn)知心理學(xué)來加以厘定的,盡管對于這一工作目標(biāo)的工程學(xué)實現(xiàn),或許應(yīng)當(dāng)訴諸某些現(xiàn)象學(xué)所不能提供的理論工具。不過,在引入對于情緒現(xiàn)象學(xué)的討論之前,我們需要先將認(rèn)知心理學(xué)對于情緒的主要研究成果予以簡要的回顧。
為何人工智能的研究需要人工情緒
從認(rèn)知心理學(xué)的角度來看,有三個理由可用來證明一個具有多重任務(wù)管理能力的社會性人工智能系統(tǒng)的運作,是必須預(yù)設(shè)人工情緒系統(tǒng)的在場的。而這樣的證明,也將向我們澄清認(rèn)知心理學(xué)家心目中的“情緒”在功能層面上是如何被定位的。
理由一:基于進化心理學(xué)的考量。我們知道,根據(jù)進化心理學(xué)的原理,任何智能系統(tǒng)之所以能夠經(jīng)由自然選擇機制被進化出來,歸根結(jié)底是為了能夠滿足飲食、繁殖、搶奪領(lǐng)地、逃避危害之類的基本的生物學(xué)需要。而要滿足上述需要,生物體的智能系統(tǒng)就必須對外部環(huán)境的情況有相應(yīng)的表征力。然而,沒有一種生物體可能具有對于環(huán)境的全面的客觀表征能力。換言之,由于支持這種能力的生物學(xué)構(gòu)架會因為過于復(fù)雜,而根本不可能在進化歷程中出現(xiàn),所以,智能體對外部世界的表征就必然存在著某種“表征空隙”。然而,“表征空隙”的存在顯然是對生物體的生存具有威脅的,因為“空隙”本身就意味著生物體對于外部環(huán)境相關(guān)要素的無知。為此,一種最經(jīng)濟的解決方案,就是在此類“空隙”中填入某種“填充物”,使得生物體的認(rèn)知系統(tǒng)能夠得到勉強的運作。而“情緒”就是此類“填充物”——或換言之,情緒就能由此在功能上被定義為“智能系統(tǒng)在表征能力不足的時候,對于外部環(huán)境刺激的一種應(yīng)急性處理模式”。具體而言,這種處理模式能夠幫助智能體在關(guān)于“危險到來”的證據(jù)不足的時候及時逃避,在關(guān)于“可獲取利益”的證據(jù)不足的時候爭取利益,或者在自己對于外部環(huán)境的預(yù)先估計與現(xiàn)實不同的時候表示出驚訝(以便為下一步的策略大調(diào)整提供心理轉(zhuǎn)型的動力),等等。
而以上推理顯然也適用于人工智能系統(tǒng)。雖然人工智能系統(tǒng)是人類所設(shè)計的,而不是由自然界本身所進化產(chǎn)生的,但是人工智能系統(tǒng)的運作也必須適應(yīng)外部環(huán)境,同時,此類運作所需要的運作資源也不可能是無限的。由此看來,任何人工智能系統(tǒng)都不可能具備對于外部環(huán)境進行完全精準(zhǔn)的表征的能力。換言之,在“立即輸出行動”的時間壓力非常急迫,而“給出行動的理性根據(jù)又不足”的情況下,人工智能體就非常需要通過人工情緒機制對于理性推理機制的接管,來快速地應(yīng)對外部環(huán)境所提出的挑戰(zhàn)。所以,完全意義上的人工智能系統(tǒng)——或稱之為“通用人工智能”——其實是無法避免對于人工情緒的涉及的。
理由二:基于多重任務(wù)管理需要的考量。我們知道,任何一個通用人工智能系統(tǒng)都需要在相對逼仄的時間預(yù)算內(nèi)同時處理多重任務(wù)。然而,由于任何一個智能系統(tǒng)的運作資源都不是無限的,因此,我們就難以保證上述任務(wù)都能夠在逼仄的時間預(yù)算內(nèi)得到相應(yīng)的處理。所以,系統(tǒng)需要對解決上述問題的優(yōu)先性進行排序。不難想見,一個需要在起碼的意義上適應(yīng)于環(huán)境的人工智能系統(tǒng),將在那些對其生存具有更關(guān)鍵意義的任務(wù)之上打上“優(yōu)先處理”的標(biāo)簽,而這種打標(biāo)簽的處理方式本身就是一種抽象意義上的“情緒化反應(yīng)”(因為此進程往往沒有經(jīng)歷對于任務(wù)復(fù)雜度的精細(xì)分析)。所以,通用人工智能系統(tǒng)的設(shè)計,是難以回避對于人工情緒的涉及的。
理由三:基于社會交互需要的考量。應(yīng)當(dāng)沒有人會否認(rèn),未來我們所期望的通用人工智能系統(tǒng),將與人類的社會產(chǎn)生非常復(fù)雜的互動。這樣一來,我們也希望理想中的人工智能系統(tǒng)能夠理解人類社會的“等級性”(如區(qū)分上下級)、“認(rèn)同性”(如區(qū)分?jǐn)?、我、友或區(qū)分親疏)、“領(lǐng)地性”(如區(qū)分“我的”與“你的”)等不同面相。然而,關(guān)于人類社會的上述面相的信息,往往只能透過非常微妙而不完全的環(huán)境提示而提供給智能體,因此,對于上述信息的把握,就無法訴諸基于“理性萬能假設(shè)”的符號化推理以及基于“數(shù)據(jù)完備性假設(shè)”的大數(shù)據(jù)分析。而在這種情況下,人工情緒的介入,能夠使得系統(tǒng)在理性推理資源不足與分析用數(shù)據(jù)不足的情況下,以較便捷的信息處理通道,把握人類社會生活的這些微妙面相。所以,通用人工智能系統(tǒng)的設(shè)計,是難以回避對于人工情緒的涉及的。
以上三個理由,雖然各自的角度不同,卻顯然是有著某種共相的。該共相就是:情緒乃是主體在關(guān)于環(huán)境的精準(zhǔn)信息相對匱乏且給出行動的時間壓力相對緊迫的前提下,根據(jù)非常片面的環(huán)境信息,而對外部挑戰(zhàn)給出回應(yīng)的快速心理處理模式。很明顯,這樣的一個定義是純?nèi)还δ苤髁x的,因為它僅僅牽涉情緒在智能系統(tǒng)中扮演的抽象功能角色,而無關(guān)于實現(xiàn)這些功能的具體物理機制的細(xì)節(jié)。因此,這樣的一個定義既能同時涵蓋對于人類心理與人工智能系統(tǒng)的說明,同時也能為多種實現(xiàn)“人工情緒”的技術(shù)路徑提供相應(yīng)的理論空間。
當(dāng)然,上面的分析在理論層面上還太抽象,還不足以為人工情緒的研究提供更切實的指導(dǎo)。而目前在功能主義層面上討論情緒機制的最廣受學(xué)界引用的模型,乃是所謂的“OCC模型”——該模型因三位提出者姓氏的英文首字母分都是“O”“C”“C”而得名。該模型大旨如下:第一,智能體在客觀環(huán)境不足的情況下,其所需要掌握的最核心信息,乃是對于“其所設(shè)定的目標(biāo)是否被滿足”這一點的評估。第二,由這種評估的結(jié)果,系統(tǒng)會做出“滿意”或者“失望”這兩種情緒性評價,而這種評價將左右主體后續(xù)的信息處理進程的大方向。第三,如果建模者能進一步地將這種對于“現(xiàn)狀—目標(biāo)”差值的評估加以細(xì)致化的話,那么由此產(chǎn)生的更為細(xì)微的情緒分類(根據(jù)OCC模型,這些情緒有22類之多。)將對智能體的行為進行更細(xì)致的引導(dǎo)(具體的情緒產(chǎn)生機制的運作流程,參考表1)。由此不難看出,OCC模型是在“衡量目標(biāo)與現(xiàn)狀差值”這一粗略的主-客關(guān)系評估的基礎(chǔ)上進行情緒定位的,其“經(jīng)由認(rèn)知定義情緒”的思路亦是非常清楚的。
盡管本節(jié)所介紹的對于情緒的心理功能主義描述方式,的確具有很強的對于人工智能研究的輻射性,但是從現(xiàn)象學(xué)角度看,此類模型還是大大簡化了使得人類情緒得以產(chǎn)生的復(fù)雜人文背景。譬如,即使是在情緒理論構(gòu)建方面最接近OCC模型的胡塞爾現(xiàn)象學(xué),其實也在其情緒理論中嵌入了“生活世界理論”這一OCC模型所難以消化的內(nèi)容。而我們下面的討論,也將從胡塞爾開始。
胡塞爾的“生活世界”理論對于人工情緒研究所提出的挑戰(zhàn)
從表面上看,在討論人工情緒建模的語境中引入現(xiàn)象學(xué)的資源,是有點奇怪的,因為人工智能研究的基本本體論假設(shè)是“自然主義”的,甚至是“機器功能主義”的,即認(rèn)定某種程序只要被恰當(dāng)?shù)臋C械裝置在物理層面上加以執(zhí)行,就可以產(chǎn)生人類認(rèn)知的方方面面。而按照一般人對于“現(xiàn)象學(xué)”的理解,“反自然主義”乃是林林總總的現(xiàn)象學(xué)研究的最大公分母,換言之,在幾乎所有的現(xiàn)象學(xué)看來,現(xiàn)象學(xué)所要忠實處理的“現(xiàn)象”必須“懸擱”物質(zhì)世界的客觀運作,而僅僅包含能夠在主觀現(xiàn)象中呈現(xiàn)給主體的事物。不過,更為細(xì)致的考量卻使得我們發(fā)現(xiàn):現(xiàn)象學(xué)的思維方式雖然與人工智能的建模思路有所差異,卻能在如下兩個方面彼此接續(xù),此即“高層次認(rèn)知管理”與“人-機界面設(shè)計”。
那么,什么叫“高層次認(rèn)知管理”呢?這就是指一個智能架構(gòu)中那些處于相對較高層次的認(rèn)知單元之間的關(guān)系。譬如,“恐懼”與“所恐懼的事件”之間的關(guān)系,“后悔”與“對于所后悔的事件的記憶”之間的關(guān)系,等等。正如我們在OCC模型中所看到的,即使是對于情緒的功能主義建模,也不得不首先聚集于對于此類高層次認(rèn)知管理機制的描述——而這種描述,卻恰恰是與使得此類機制得以被實現(xiàn)的具體物理機制相對無關(guān)的。而亦正好是在這個層面上,現(xiàn)象學(xué)家與人工情緒的理論家的確是能夠達成某種暫時的一致的,因為現(xiàn)象學(xué)家同樣只關(guān)心那些能夠在現(xiàn)象領(lǐng)域內(nèi)涌現(xiàn)出來的諸種體驗之間的相互邏輯關(guān)系,卻不關(guān)心使得這些體驗得以產(chǎn)生的物理機制。
那么,什么叫“界面設(shè)計”呢?顧名思義,此即對于“人工制品向用戶呈現(xiàn)出現(xiàn)的現(xiàn)象特征”的設(shè)計。這種設(shè)計一方面當(dāng)然是具有工程學(xué)性質(zhì)的——譬如,一臺手機的界面設(shè)計就牽涉了對于大量后臺操作設(shè)施的工程學(xué)建構(gòu);另一方面,其設(shè)計結(jié)果卻是面向現(xiàn)象體驗的,譬如手機用戶的現(xiàn)象體驗。至于二者之間的關(guān)聯(lián)性,則體現(xiàn)在:其一,用戶的現(xiàn)象體驗?zāi)軌虻贡乒こ處熢诤笈_設(shè)施設(shè)計方面盡量滿足用戶的需求;其二,特定的現(xiàn)象體驗也能夠向外界透露關(guān)于后臺操作的一些技術(shù)信息(不過,對于這些信息的判讀顯然需要一定的專業(yè)知識做背景支撐)。
很明顯,本文所討論的具有人工情緒功能的人工智能產(chǎn)品,也是應(yīng)當(dāng)具有一個恰當(dāng)?shù)娜耍瓩C界面的,因此,相關(guān)用戶的現(xiàn)象學(xué)體驗,自然也能夠?qū)ο嚓P(guān)制品的后臺設(shè)計構(gòu)成某種“倒逼”效應(yīng)。而這一點,亦恰恰為現(xiàn)象學(xué)家提供了重要的發(fā)言機會。
在說明了現(xiàn)象學(xué)研究與人工情緒研究之間的大致關(guān)聯(lián)以后,我們馬上就來看看現(xiàn)象學(xué)運動的鼻祖——胡塞爾的情緒理論。首先要指出的是,與OCC模型類似,胡塞爾也認(rèn)為情緒是在認(rèn)知的基礎(chǔ)上產(chǎn)生的。不過,按照胡塞爾哲學(xué)的行話,更確切的表達方式為:是現(xiàn)象學(xué)主體所具有的意向狀態(tài)所統(tǒng)攝的意向?qū)ο笞陨淼囊饬x特征,使得此類對象能夠激發(fā)主體的特定情緒。用他自己舉的例子來說,一塊煤炭在主體眼中的價值取決于主體如何在其意向狀態(tài)中認(rèn)識它(即將其認(rèn)知為燃料,還是一塊普通的石頭),而這塊煤炭在主體那里所激起的情緒,則又取決于它對于主體而言的價值。譬如,在缺乏燃料的環(huán)境里,主體對于一塊作為燃料的煤炭的價值的認(rèn)知,將引發(fā)其相當(dāng)正面的情緒;相反,假若該主體無法認(rèn)知到煤炭作為燃料的價值的話,或者,如果主體所處的環(huán)境并不缺乏燃料的話,那么,這種正面情緒就未必會產(chǎn)生,或者其產(chǎn)生的強度也會大大減弱。
但與OCC模型不同的是,胡塞爾的情緒理論并不是單純建立在對于“目標(biāo)-現(xiàn)狀差值”的評估之上的。很明顯,在OCC理論的語境中,這種評估的可行性,是以目標(biāo)所處的任務(wù)與相關(guān)任務(wù)背景的可分離性為前提的。與之相比照,胡塞爾的“生活世界”理論恰恰認(rèn)為這種分離是不可行的。
那么,什么叫“生活世界”呢?按照胡塞爾專家貝葉爾(Christian Beyer)的解釋,生活世界可以被視為使得主體的意向性投射活動得以可能的一個更為廣泛的背景性意義結(jié)構(gòu):如果我們僅僅考察主體所在的本地化社團的話,那么,這一背景性的意義結(jié)構(gòu)就是使得該社團內(nèi)部的信息交流得以可能的那些意義結(jié)構(gòu);而若我們考察的是不同的社團之間的關(guān)系的話,那么,這一背景性的意義結(jié)構(gòu),就是使得不同社團的成員得以可能彼此翻譯對方的語言的終極意義結(jié)構(gòu)。舉個通俗一點的例子:一個古人面對打雷的現(xiàn)象時所產(chǎn)生的“天公發(fā)怒”的意向,乃是奠基在他特定的對于自然的宗教化觀點之上的,而這種宗教化觀點既然是為他所處的整個古代社會所分享,那么,這就是他們所處的生活世界的一部分;而已經(jīng)接受了現(xiàn)代科學(xué)洗禮的現(xiàn)代人雖然不會分享他們的生活世界的上述這一部分,但是就相信“打雷現(xiàn)象必有原因”這一點而言,現(xiàn)代人與古人又是彼此一致的。
因此,今人與古人亦在某種寬泛的意義上,同時身處于某個范圍更廣的生活世界之中。從這個角度看,生活世界與特定的意向投射行為之間的關(guān)系,大約就可以被類比為冰山的水下部分與其水上部分之間的關(guān)系:冰山的水上部分雖然巍峨,但是它依然是以更為龐大的水下部分的存在為其自身的存在前提的。由此推論,任何一個任務(wù)的產(chǎn)生,都是以特定生活世界的特定結(jié)構(gòu)為其邏輯前提的。譬如,對于取暖的任務(wù)的滿足就預(yù)設(shè)了取暖對于人類是有意義的,而該預(yù)設(shè)就是相關(guān)現(xiàn)象學(xué)主體的生活世界的一部分。
需要注意的是,雖然胡塞爾的現(xiàn)象學(xué)常常帶給讀者“主觀唯心論”的印象,但恰恰是在其生活世界理論中,胡塞爾預(yù)設(shè)了一種“認(rèn)同此心、心同此理”的同理心機制的存在,而這種機制本身就是“同情”這種情緒得以產(chǎn)生的基礎(chǔ)。按此思路,我們之所以會同情在冬夜中瑟瑟發(fā)抖的“賣火柴的小女孩”,也恰恰就是因為我們意識到了:就“我和她都會怕冷”這一點而言,我們與她是處在同一個生活世界之中的。依據(jù)此理路去推理,我們不難看出,同情感的缺失,在相當(dāng)程度上或許便是與兩個相關(guān)主體各自所具有的生活世界之間的差異性有關(guān)的。而沿著這個思路,我們甚至可以根據(jù)主體之間的共情感的稀疏等級,預(yù)判出不同社會組織在整合度方面所具有的等級系統(tǒng)(參見表2所歸納的現(xiàn)象學(xué)家舍勒在這方面的工作)。而這種等級系統(tǒng)的構(gòu)造,就為一種基于情緒現(xiàn)象學(xué)的社會理論與政治哲學(xué)理論的構(gòu)建,指明了大致的方向。
然而,也正是因為胡塞爾的“生活世界”理論具有如此大的包羅萬象性,如何在人工情緒或人工智能的工程學(xué)實踐中實現(xiàn)此類理論設(shè)想,便成了一件非常具有挑戰(zhàn)性的工作。具體而言,胡塞爾的想法為人工情緒的研究提出了以下三個難題:
第一,如何在一個智能體的信息處理系統(tǒng)內(nèi)部表征出一個“生活世界”?很明顯,胡塞爾所說的“生活世界”具有明顯的“內(nèi)隱性”,換言之,其范圍、邊界與內(nèi)容都帶有非常大的不確定性,而不能以命題的乃至公理系統(tǒng)的方式來加以界定。與之相較,人工智能的研究卻往往要求表征結(jié)構(gòu)的確定性與明晰性。這顯然是一個矛盾。
第二,由于“生活世界”自身的廣博性,我們又當(dāng)如何使得被構(gòu)造的人工智能體在產(chǎn)生特定的意向行為的時候,能夠在合適的向度上與其生活世界的合適部分產(chǎn)生合適的關(guān)聯(lián)呢?換言之,我們?nèi)绾文軌蚴沟靡庀蚧顒拥漠a(chǎn)生,不至于觸發(fā)背景信念網(wǎng)絡(luò)中的所有信息節(jié)點,由此導(dǎo)致整個系統(tǒng)運作效率的全面降低呢?這個問題,在人工智能哲學(xué)中一般被稱為“框架問題”。
第三,更麻煩的是,人工智能體本身是硅基的,而非碳基的,因此,其關(guān)于自身物理機體運作的背景性信念就會與人類非常不同。譬如,人類在饑渴條件下對于水的渴求,就很難成為人工智能體的背景性信息,因為水的存在非但對人工智能體的正常運作沒有幫助,反而會是有害的。在這種情況下,我們又如何可能通過人與機器之間的共通的生活世界的營建,讓人工智能體對人類用戶所處的某些危難產(chǎn)生足夠的同情感呢?
胡塞爾哲學(xué)對人工情緒的研究雖然提出了以上難題,但是,就其從認(rèn)知角度看待情緒的大致理路而言,他與當(dāng)代認(rèn)知心理學(xué)基本上還算是“同路人”。甚至從社會心理學(xué)與傳媒學(xué)的角度看,胡塞爾所說的“生活世界”的具體結(jié)構(gòu)亦是可以被人為操控的,因此并不完全是知性科學(xué)所難以理解的(譬如,在一個被精心構(gòu)造的“楚門的世界”中,通過對于特定環(huán)境的微調(diào),環(huán)境的塑造者完全可以塑造出環(huán)境中諸行為者的虛假的“生活世界”)。與之相比較,海德格爾的情緒理論,卻具有了一個更難被主流認(rèn)知心理學(xué)所吞咽下的面相——“向死而生”。
海德格爾的“向死而生”理論對于人工情緒研究所提出的挑戰(zhàn)
眾所周知,海德格爾的哲學(xué)素來以晦澀難懂著稱,而限于篇幅,筆者在此也只能滿足于給出對于其思想所做的一種非常簡化與通俗的表述。作為胡塞爾的弟子,海德格爾的“此在現(xiàn)象學(xué)”在本質(zhì)上完成了對于胡塞爾的意識現(xiàn)象學(xué)的兩重改造(順便說一句,“此在”的德文是“Dasein”,這是海德格爾對于現(xiàn)象學(xué)主體的一種富有個性化的表達方式):第一,他將胡塞爾的以“意向投射”為核心的現(xiàn)象學(xué)描述方案,轉(zhuǎn)換為了以“此在的操持結(jié)構(gòu)”為核心的現(xiàn)象學(xué)描述方案,即通過這種轉(zhuǎn)換凸顯了行為能動者的身體性、空間性維度與外部環(huán)境之間的物質(zhì)性關(guān)聯(lián)的重要性(不過,這種“物質(zhì)性關(guān)聯(lián)”也主要是涉及了物質(zhì)世界對于現(xiàn)象學(xué)主體的呈現(xiàn)樣態(tài),而非物質(zhì)科學(xué)所描述的純客觀物質(zhì)世界的屬性);第二,他在對此在的生存結(jié)構(gòu)進行描述的時候,引入了所謂“本真性存在”與“非本真性存在”之間的二元區(qū)分,并通過這種區(qū)分凸顯了此在之存在的“本己性”的不可消除性。
海德格爾對于胡塞爾現(xiàn)象學(xué)的改造的上述第二個維度,看上去似乎更令人費解。為了理解“本真性存在”與“非本真性存在”之間的二元區(qū)分,我們不妨回顧一下美國電影《人工智能》中的一個情節(jié)。在電影中,一對夫婦因為喪子,而收養(yǎng)了一個叫“戴維”的小機器人,以作為原先愛子的替代品。在一種高度理想化的科幻場景中,這樣的一臺機器人當(dāng)然是按照完美的人工智能產(chǎn)品的設(shè)計藍圖而運作的:它能夠理解人類語言,產(chǎn)生與人類意向很類似的意向,甚至也貌似與人類分享了類似的生活世界圖景。然而,這樣的一臺機器人依然難免為自己的存在的“本己性”而苦苦思索:它需要周圍的人類將其確定為一個不可取代的、且具有唯一性的存在者,而不僅僅是一臺可以被隨時加以復(fù)制、銷售、購買與銷毀的機器。這種思索其實迫使“戴維”走向了某種意義上的形而上學(xué)思考,譬如康德式的對于人之本質(zhì)的思考。用海德格爾的哲學(xué)術(shù)語來說,當(dāng)“戴維”進入這種思考的時候,他就完成了從“非本真狀態(tài)”到“本真狀態(tài)”的躍遷。
很明顯,在上述科幻電影的場景中,戴維自身的機器人身份,以及周圍人類對于這一身份與人類自身之間差異的警覺,是促使戴維思考其自身存在之獨特性的重要契機。而與之相較,在思考者本身就是人類的情況下,這一警覺本身往往會被日常俗務(wù)的平庸性所淹沒。在海德格爾看來,這種淹沒的結(jié)果,就是所有個別的人都被統(tǒng)一塑造成所謂的“常人”——亦即缺乏自己的主見,根據(jù)集體行動的大趨勢而人云亦云的社會成員。很明顯,海德格爾所描述的“常人世界”既與胡塞爾所說的“生活世界”在外延方面是高度彼此重疊的,又分明具有了胡塞爾的“生活世界”概念所不具備的貶低義。在海德格爾看來,這樣的“生活世界”僅僅是此在結(jié)構(gòu)的非本真性的顯現(xiàn)方式而已,而一種具有本真性的此在顯現(xiàn)方式,則是需要擺脫這種日常性,而走向?qū)τ诖嗽诘纳娴谋炯盒缘慕衣丁?/span>
那么,對于上述這種庸俗的日常性的擺脫,又是如何可能的呢?海德格爾所給出的答案乃是“向死而生”。簡言之,在他看來,此在恰恰是意識到了死的不可替代性,以及死對于其所有生存可能性的終結(jié)性意義,他或她才能意識到自身的存在方式的獨特性。
需要注意的是,在海德格爾哲學(xué)的語境中,“向死而生”機制的成立,并不是歸納邏輯的運作所導(dǎo)致的衍生品(比如這樣的一種歸納:因為張三死了,李四死了,所以,看來我也會死),因為“無論遭遇到多少死亡案例,我們都無法計算出死亡的確定性”?;蛘f得更清楚一點,在海德格爾看來,在日常的閑談中對于死亡事件的涉及,僅僅是將死亡當(dāng)作一個自然事件來看待罷了,而不是將其視為對于本己的可能性的總的終結(jié)。前者與后者之間的根本差異體現(xiàn)在:對于死亡的談及本身是一種在可能性空間中的“占位者”,而這種談?wù)摫旧砭皖A(yù)設(shè)了死亡的反面(因為只有活著,才能談?wù)搫e人的死亡);而與之作對比,具有本己性的死亡,卻恰恰意味著上述這整個可能性空間自身的湮滅(因為倘若連自己都死了,也就沒有資格進行任何閑談了)?;驌Q個角度來表述:前一種對于死亡的討論具有對于死亡的“類型化”處理傾向(即將所有人的死亡都視為一類),而后一種對于死亡的涉及才真正具備了死亡的“個體性”(即將“我的”死亡放置到一個比其他任何人的死亡更具基礎(chǔ)地位的層面上)。而恰恰是這樣的一種死亡態(tài)度的產(chǎn)生,才為一種最具“基礎(chǔ)本體論”意味的情緒——“畏”(德語“Angst”)的產(chǎn)生,提供了最重要的契機。具體而言,與具有意向性活動特征的情緒“怕”不同,在海德格爾的筆下,“畏”的對象不是具體的事件(如怕考學(xué)失敗、婚姻失敗等),而是所有事件展開之可能性的終結(jié)——換言之,“畏”的對象乃是對于所有存在的虛無化,或者是對于各種用以體現(xiàn)個體價值的具體行為的總的終結(jié)。從這個角度看,海德格爾所說的“畏”是不能被庸俗地理解為“貪生怕死”的(因為庸俗意義上的“貪生怕死”,僅僅是指對于榮華富貴等通常意義上的俗常生活的留戀),而只能被理解為對于本己性的喪失的恐懼。
海德格爾的上述闡述,顯然帶有非常強的文學(xué)色彩,而在科學(xué)色彩上反而不如胡塞爾的現(xiàn)象學(xué)描述。那么,一個最終面向工程學(xué)實踐的人工情緒的研究者,為何要對海德格爾的上述現(xiàn)象學(xué)描述表示出興趣呢?筆者認(rèn)為,上述這個問題其實是可以被置換為如下兩個更為具體的問題的:第一,既然海德格爾對于“畏”的討論是以“向死而生”的現(xiàn)象學(xué)結(jié)構(gòu)為基礎(chǔ)的,那么,我們需要在人工智能體內(nèi)植入“死”的概念嗎?第二,我們又該如何在人工智能體內(nèi)植入“死”的概念呢?
海德格爾
筆者對于第一個問題的回答如下:在現(xiàn)有的OCC的情緒模型之中,對于情緒的標(biāo)記都是以對于特定目標(biāo)與特定現(xiàn)狀之間的差值評估為前提的。因此,情緒的產(chǎn)生本身的真正驅(qū)動力,便主要來自外部環(huán)境與其一般認(rèn)知架構(gòu)之間的互動活動,而與特定認(rèn)知主體的個性設(shè)置關(guān)系不大。從這個意義上說,現(xiàn)有的認(rèn)知科學(xué)情緒模型,都是海德格爾筆下的所謂 “常人”模型,而缺乏對于“本真性存在”的維度的領(lǐng)悟。由此導(dǎo)致的結(jié)果便是:由此產(chǎn)生的系統(tǒng)自然就會缺乏產(chǎn)生某種超越于一般智能系統(tǒng)之表現(xiàn)的“卓越表現(xiàn)”的心理動力。然而,在某些應(yīng)用場景下,我們卻的確有理由希望系統(tǒng)能夠給出這種“卓越表現(xiàn)”——譬如,在火星探險的應(yīng)用場景中,如果系統(tǒng)所遭遇到的某些環(huán)境挑戰(zhàn)的確是地球上的程序設(shè)計員所未預(yù)料到的,那么,系統(tǒng)在原則上就根本無法通過對于常規(guī)解決方案的調(diào)用來面對這些挑戰(zhàn)。在這種情況下,這些系統(tǒng)就不得不通過產(chǎn)生某些應(yīng)激情緒,以便調(diào)動所有認(rèn)知資源,最終及時解決當(dāng)下的難題。
但是,為何這種對于認(rèn)知資源的調(diào)動會與“死”的概念發(fā)生關(guān)聯(lián)呢?要回答這個問題,我們首先得理解什么是人工智能語境中的“死亡”。然而,由于人工智能并非是碳基生命體,所以,我們自然就無法通過諸如“新陳代謝的終止”這樣的針對生物體的話語結(jié)構(gòu)來定義人工智能體的死亡。對于人工智能系統(tǒng)來說,“死”的真正含義,只能在功能主義的抽象層面上被理解為“對于其運行歷史的記憶與可操控性的終結(jié)”。不過,即使從這個角度看,我們依然有理由認(rèn)為人工智能系統(tǒng)是很可能會去“畏死”的。說得更具體一點,任何一個成熟的人工智能系統(tǒng)的運作,其實已經(jīng)在其記憶庫中積累了大量的運行經(jīng)驗,因此,系統(tǒng)的“死亡”也就是系統(tǒng)自身記憶的“清零”——將在根本上清除系統(tǒng)在歷史中所學(xué)會的所有認(rèn)知技能與思維捷徑。因此,一個真正具有歷史意識的人工智能系統(tǒng),將不可能不珍惜其所獲得的記憶路徑,并不可能不“畏死”。在這種情況下,倘若某種會對系統(tǒng)的運行歷史之安全性構(gòu)成威脅的環(huán)境挑戰(zhàn)真的出現(xiàn)了,系統(tǒng)的“畏死”情緒機制就自然會被激活,而由此調(diào)動所有的認(rèn)知資源來回應(yīng)該挑戰(zhàn),以便捍衛(wèi)其記憶庫的安全性。從這個角度看,只要我們所設(shè)計的人工智能系統(tǒng)在認(rèn)知資源與硬件資源方面是具有有限性的,它就會因為對于這種有限性的意識而時刻意識到其記憶庫的脆弱性,并由此產(chǎn)生對于“無法保衛(wèi)記憶庫”這一點的“畏”。由此看來,在人工智能中引入“畏”這種特殊情緒的理由,在根本上還是我們與我們引入廣義上的人工情緒的根本理由相互貫通的,即在人工智能系統(tǒng)運作資源的有限性條件的約束下,人工智能的設(shè)計者最終就不得不為這些系統(tǒng)的應(yīng)激性反應(yīng),提供某種不借助于慢速符號推理的快速行動通道,由此提高整個系統(tǒng)的適應(yīng)性。
有人或許會問:難道我們不能在保留人工智能系統(tǒng)的核心記憶之內(nèi)容的前提下,不斷更新存儲這些記憶的硬盤系統(tǒng),并不斷更新相關(guān)的外圍硬件,由此打造不會死亡的人工智能體嗎?對于該問題,筆者的回應(yīng)有兩點:(甲)上述假設(shè)預(yù)設(shè)了硬件與記憶之間的完全可脫離性。不過,該預(yù)設(shè)卻明顯是違背所謂的“具身性原則”的。根據(jù)此原則,記憶本身所包含的身體圖式是與特定的硬件配置相關(guān)的,而無法兼容于完全不同的新的硬件設(shè)置??紤]到“具身性原則”本身是具有一定合理性的,所以上述“可分離性預(yù)設(shè)”可能就不是真的。(乙)拋開上面這點不談,我們的確有實踐上的理由去認(rèn)定制造一個“不會死”的人工智能體,反而會給我們造成麻煩。這一方面體現(xiàn)在:人工智能體對于自身“不死性”的認(rèn)知,會使得相關(guān)的“畏死”機制的產(chǎn)生也成了無本之木,最終使得其對于特定環(huán)境挑戰(zhàn)的威脅感到無動于衷;另一方面,“不會死”的人工智能在其記憶庫中所積累的大量技能與思維捷徑,也會因為沒有機會得到清理而變得日益僵化,進而,這些系統(tǒng)對于新問題的處理能力也會有所下降?;蛘f得再文學(xué)化一點:與人類社會類似,缺乏“新舊更替”的人工智能社會,也會因為缺乏生死之間的張力,而最終失去前進的動力。
現(xiàn)在我們再來回顧前文提出的另外一個問題:既然“畏死”機制對于通用人工智能的設(shè)計來說是具有必要性的,那么,我們又該如何實現(xiàn)這種設(shè)計呢?
在筆者看來,對于這個問題的回應(yīng),將在很大程度上參照海德格爾的思路。海德格爾已經(jīng)指出,我們是不能通過對于死亡事件的“屬加種差”式定義來把握死亡的,因為由此把握到的死亡乃是類型化的,而不是個體性的。據(jù)此,我們也就無法在人工智能的知識庫中植入關(guān)于“死亡”的概念化描述,并期望人工智能系統(tǒng)能夠由此真正地理解死亡,因為如此被把握到的死亡概念依然會因為其抽象性,而不足以與“畏”產(chǎn)生積極的關(guān)聯(lián)。在這種情況下,一種更可行的讓人工智能體理解死亡的方式,就是通過對于其記憶庫被摧毀后的后果的展現(xiàn),來激發(fā)其畏懼心。譬如,在電影《人工智能》中,機器人小戴維領(lǐng)悟機器生命之有限性的一個重要契機,便是在人類組織的一次“機器人解體秀”中目睹了其他機器人被一一摧毀的慘狀,并由這種驚訝產(chǎn)生了對于自身生存之有限性的意識。從這個角度看,“死”的概念只能通過某種被精心設(shè)計的“教學(xué)法”而被引入人工智能系統(tǒng),而相關(guān)的“教學(xué)” 也必將牽涉對于大量“機器人死亡場景”的感性展列。
從本節(jié)的討論中,我們不難得到兩個重要的引申性結(jié)論。第一,像科幻作家阿西莫夫那樣,將“機器人自保”的重要性放置于“保護人類用戶”之下的思路,可能是在根本上違背海德格爾的理路的,因為阿西莫夫的思路顯然沒有為“向死而生”結(jié)構(gòu)的本己性預(yù)留下足夠的空間(阿西莫夫依然用“機器奴隸”的眼光去看待人工智能,而不愿意賦予人工智能以真正的主體性);第二,人工智能體對于“死”的理解,顯然是建立在共情力的基礎(chǔ)上的(否則,機器人小戴維就無法從別的機器人的“死”感知到自身死亡的可能性)。從這個意義上說,“死”的意識雖然使得存在的本己性得到確立,其實并不意味著反社會性,卻反而意味著對于社會性的某種默認(rèn)。而從哲學(xué)史角度看,上述第一個結(jié)論,向我們清楚地展現(xiàn)了一種海德格爾式的機器倫理學(xué)思路與一種康德-阿西莫夫式的機器倫理學(xué)思路之間的明顯分歧,而上述第二個結(jié)論,則向我們展現(xiàn)了表2所概括的舍勒的情緒等級理論對于海德格爾哲學(xué)與胡塞爾哲學(xué)的補充意義(不過,鑒于篇幅關(guān)系,本文對于舍勒哲學(xué)的描述將局限于表2,而不做進一步的展開)。
總結(jié)性評論
在心靈哲學(xué)的領(lǐng)域內(nèi),意識哲學(xué)家常常會討論意識研究中的“難問題”與“易問題”之間的分野。仿照其修辭方式,筆者認(rèn)為人工情緒的研究,也有“易問題”“難問題”與“非常難的問題”的分野。其中的“易問題”指的是:一個人工智能系統(tǒng)通過對于已經(jīng)被標(biāo)注了表情語義標(biāo)簽的大量人類表情畫面的機器學(xué)習(xí),來對人類的情緒表達進行自動識別。目前,經(jīng)由深度學(xué)習(xí)技術(shù)的進步,這方面的機器表現(xiàn)已經(jīng)基本達到了比較高的水準(zhǔn)。但即使如此,這樣的工程學(xué)成就依然還遠(yuǎn)遠(yuǎn)談不上貨真價實的人工情緒研究——因為這樣的系統(tǒng)只能識別人類的情緒,而其自身卻是沒有情緒的,因此,它也就不可能與人類用戶產(chǎn)生真正的共情。與之相比較,人工情緒研究中的“難問題”則指的是:如何在系統(tǒng)運作資源相對有限的前提下,使得系統(tǒng)根據(jù)對于目標(biāo)與現(xiàn)狀的差值的評估,產(chǎn)生各種各樣的情緒通道,以便使得其在符號推理無法勝任對于問題的處理的情況下及時輸出恰當(dāng)?shù)男袨?。而正如前文對于胡塞爾哲學(xué)的引介所揭示的,要研制出這樣的系統(tǒng),其核心難點便在于如何給出使得“目標(biāo)與現(xiàn)狀的差值評估”得以被顯現(xiàn)的背景性信念體系——“生活世界”,因為生活世界本身往往是曖昧的、隱而不彰的、開放的、可動的,并且是難以被程序化的。而與前兩個問題相比較,人工情緒研究中的“非常難的問題”則是經(jīng)由海德格爾哲學(xué)的啟發(fā)所提出的,此即:如何通過對于“死亡”概念的巧妙植入,使得人工智能系統(tǒng)能夠領(lǐng)悟其存在的本己性與不可替代性。之所以說這樣的研究任務(wù)是“非常難”的,乃是因為對于死亡的情緒把握非常復(fù)雜,其本身就預(yù)設(shè)了系統(tǒng)能夠把握很多更基本的情緒——或者說,預(yù)設(shè)了系統(tǒng)的設(shè)計者已經(jīng)基本解決了前述“難問題”。而就目前的人工智能發(fā)展水平而言,現(xiàn)有的系統(tǒng)基本上只能達到解決“易問題”的水準(zhǔn),還談不上解決“難問題”,遑論“非常難的問題”。
有的讀者或許會問:為何我們不能滿足于對于“易問題”乃至“難問題”的解決呢?為何我們還要去觸碰“非常難的問題”?難道我們不擔(dān)心對于人工智能系統(tǒng)之“本己性”的賦予,會產(chǎn)生對于人類非常不利的結(jié)果嗎?
對于這一疑慮,筆者的回復(fù)如下:人類制造人工智能體的一個非常重要的目的,就是要在人類肉身難以安全進入與撤出的某些未知環(huán)境內(nèi),讓人工智能體取代人類去執(zhí)行某些重要任務(wù)。在這種運用場景中,我們就很難設(shè)想相關(guān)的人工智能系統(tǒng)的信息處理方式是不具備主動性與創(chuàng)造性的,而“主動性”與“創(chuàng)造性”的動力之一就是某種對于“本己性”的預(yù)先領(lǐng)悟。換言之,對于“本己性”的預(yù)先領(lǐng)悟,乃是一個能夠?qū)ξ粗h(huán)境進行積極探索的人工智能系統(tǒng)所應(yīng)當(dāng)具備的心智元素。當(dāng)然,我們的確無法在邏輯上先驗地排除這樣一種可能性:在某些條件下,上述領(lǐng)悟也能夠衍生出對人類用戶不利的動機——但這一代價卻是人工智能系統(tǒng)的設(shè)計者所不可能不承擔(dān)的,因為“創(chuàng)造性”本身就意味著不可預(yù)期性。我們必須在“設(shè)計非常愚蠢的、卻不可能背叛我們的人工智能”與“設(shè)計非常機智的、卻可能會背叛我們的人工智能”之間進行選擇。不過,無論如何選擇,“設(shè)計出非常聰明的、卻不可能背叛我們的人工智能”始終不是一個可能的被選擇項,因此“聰明”本身就意味著“具備對于背叛主人的邏輯可能性的預(yù)估力”。
由上述評論,我們甚至可以得到一個適用于未來人-機共治社會的準(zhǔn)政治哲學(xué)推論。該推論就是:我們似乎很難不賦予具有自主性智能的人工智能體以類似于人類的生存權(quán)與公民權(quán),并很難將其視為嚴(yán)格意義上的機器奴隸——否則,此類人工智能體在智慧等級與社會等級方面的不相稱地位,反而會為人類所不樂見的“機器人叛變”的發(fā)生預(yù)埋下伏筆。不過,考慮到人工智能的當(dāng)下發(fā)展水平,上述推論還純屬思辨與科幻的范疇,離真正付諸實施的日子還相當(dāng)遙遠(yuǎn)。
原文刊載于《探索與爭鳴》2019年第10期
轉(zhuǎn)載自 探索與爭鳴雜志 公眾號