【作者】季衛(wèi)東
【內(nèi)容提要】
強(qiáng)人工智能的治理與法律挑戰(zhàn)
*作者 季衛(wèi)東
上海交通大學(xué)文科資深教授
中國(guó)法與社會(huì)研究院院長(zhǎng)
奇點(diǎn)正在逼近或業(yè)已通過?
奇點(diǎn)再次成為輿論的焦點(diǎn)。
七年前,當(dāng)AI系統(tǒng)“阿爾法圍棋(AlphaGo)”擊敗來自韓國(guó)的圍棋世界冠軍李世石時(shí),人工智能超越人類智能的預(yù)測(cè)似乎變成了現(xiàn)實(shí),曾經(jīng)引起一片騷動(dòng)。在新冠疫情爆發(fā)前一年的那個(gè)夏天,油管(YouTube)用戶紛紛發(fā)現(xiàn),該視頻網(wǎng)站上的機(jī)器人對(duì)戰(zhàn)場(chǎng)景都被自動(dòng)刪除了,于是又爆發(fā)出“機(jī)器覺醒”的驚呼。2022年6月,谷歌的一位軟件工程師還聲稱他研制的智能聊天機(jī)器人已經(jīng)產(chǎn)生了自主感情。到2023年3月17日,斯坦福大學(xué)教授米哈爾?科辛斯基公布了他的驚人發(fā)現(xiàn):GPT-4不僅具有比以前更明顯的機(jī)器覺醒的跡象,還暴露出試圖擺脫人類控制的主觀動(dòng)機(jī)和潛力。
諸如此類的事實(shí)不斷曝光,意味著科技正在逼近奇點(diǎn),甚至已經(jīng)越過奇點(diǎn)。也就是說,“強(qiáng)人工智能”似乎正在躡手躡腳地走進(jìn)人類的生活世界。
一般而言,所謂“弱人工智能”,只是按人的指令完成單項(xiàng)任務(wù),沒有獨(dú)立的自我意識(shí)。但與此不同,強(qiáng)人工智能則被認(rèn)為具有與人類同樣的認(rèn)知能力、抽象思考能力以及解決問題的能力,甚至有可能在智慧程度上超過人類。這樣就會(huì)產(chǎn)生AI與人類在智能上進(jìn)行比較或競(jìng)爭(zhēng)的壓力,進(jìn)而導(dǎo)致對(duì)AI取代人類、傷害人類的憂慮。正因?yàn)榇嬖谶@種憂患意識(shí),奇點(diǎn)才會(huì)不斷成為人們關(guān)注的熱點(diǎn)。
兩種應(yīng)對(duì)之道及其變化
雖然ChatGPT功能強(qiáng)大,但還算不上所謂“強(qiáng)人工智能”。不過,GPT-4乃至GPT-5則很不一樣,在進(jìn)化過程中儼然醞釀著重大質(zhì)變。究竟應(yīng)該怎樣應(yīng)對(duì)強(qiáng)人工智能,迄今為止一直存在兩種對(duì)立的思想立場(chǎng)。一種主張?jiān)诎踩垣@得證明之前應(yīng)該停止新的研發(fā),可以稱之為“風(fēng)險(xiǎn)預(yù)防至上”的原則。另一種主張?jiān)谖:π垣@得證明之前還應(yīng)該繼續(xù)研發(fā),可以稱之為“技術(shù)發(fā)展無須審批”的原則。在過去很長(zhǎng)一段時(shí)期,歐洲側(cè)重前一種立場(chǎng),美國(guó)側(cè)重后一種立場(chǎng)。
但是,面對(duì)生成式人工智能ChatGPT橫空出世以及GPT-4引發(fā)的強(qiáng)AI研發(fā)競(jìng)爭(zhēng),即便側(cè)重創(chuàng)新的美國(guó)也出現(xiàn)了更加強(qiáng)調(diào)風(fēng)險(xiǎn)預(yù)防原則的傾向。例如在2023年3月下旬,未來生命研究所發(fā)表了一份公開信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)的AI系統(tǒng)至少6個(gè)月,并獲得馬斯克等千名以上的科技界領(lǐng)袖和業(yè)界大佬簽名支持。3月30日,美國(guó)聯(lián)邦貿(mào)易委員會(huì)還收到來自AI和數(shù)字政策中心的舉報(bào),要求對(duì)OpenAI及其新產(chǎn)品GPT-4展開調(diào)查。
今年4月5日的《華盛頓郵報(bào)》還披露了一個(gè)更加令人不寒而栗的事實(shí),加州大學(xué)洛杉磯分校尤金?沃洛克教授的實(shí)驗(yàn)性研究發(fā)現(xiàn),生成式人工智能ChatGPT居然能夠捏造法學(xué)家性騷擾的丑聞及其信息來源,指名道姓進(jìn)行有鼻子有眼的誹謗。到4月下旬,圖靈獎(jiǎng)得主杰弗里?辛頓向谷歌提出離職以便能夠公開對(duì)人類AI研發(fā)大戰(zhàn)以及強(qiáng)人工智能應(yīng)用的風(fēng)險(xiǎn)表示憂慮,據(jù)說他還很后悔開發(fā)了基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)技術(shù)。這些現(xiàn)象表明,專家和輿論都在試圖發(fā)出警報(bào)并且給社會(huì)帶節(jié)奏。
中國(guó)在上述兩種立場(chǎng)中究竟應(yīng)該如何取舍?抑或在統(tǒng)籌兼顧之余,持中庸之道?
強(qiáng)人工智能引發(fā)人類的三種恐慌
不可否認(rèn),強(qiáng)人工智能若隱若現(xiàn),正在人類社會(huì)甚至很多AI專家中引起某種恐慌。概括起來說,主要存在如下三類恐慌。
第一、失業(yè)的恐慌。事實(shí)上,近幾個(gè)月來已經(jīng)有些游戲美術(shù)外包公司已經(jīng)在大批裁剪美工畫師,因?yàn)檫@些工作由AI來做效率更高、成本極低。在2023年5月初,好萊塢的劇作家們還舉行了頗有聲勢(shì)的罷工和游行示威,抗議制片廠啟用AI系統(tǒng)創(chuàng)造劇本。但是,我們也要看到,即便強(qiáng)人工智能可以巧妙地處理差異,也仍然不能自己產(chǎn)生差異,因而不能像人類那樣進(jìn)行靈光乍現(xiàn)的創(chuàng)新。另外,強(qiáng)人工智能也不能真正理解價(jià)值和文化的涵義,理解是人的本質(zhì)屬性。在這個(gè)意義上可以說,智能機(jī)器是無法完全取代人類的。人們認(rèn)為強(qiáng)人工智能能夠理解,其實(shí)只不過是把預(yù)測(cè)當(dāng)作理解了。ChatGPT盡管不能理解卻還可以進(jìn)行生動(dòng)的對(duì)話,其實(shí)只是借助網(wǎng)絡(luò)上不斷互動(dòng)的自反身機(jī)制在進(jìn)行接龍式預(yù)測(cè)。意大利學(xué)者埃琳娜?埃斯波西托“人工溝通”這個(gè)術(shù)語來描述這種人機(jī)對(duì)話。因此,在這里更重要的問題并非機(jī)器取代人類,而是如何建構(gòu)一種幾乎無法避免的人機(jī)共存秩序。把這個(gè)問題再轉(zhuǎn)換為與失業(yè)恐慌密切相關(guān)的法學(xué)問題,那就是,在強(qiáng)人工智能時(shí)代,會(huì)否形成少數(shù)科技精英對(duì)大多數(shù)賽博朋克們的絕對(duì)支配、對(duì)社會(huì)關(guān)系和社會(huì)分配又會(huì)隨之產(chǎn)生什么樣的影響。
第二、失控的恐慌。過去的斬首行動(dòng)以及持續(xù)了一年多的俄烏戰(zhàn)爭(zhēng)都證明,AI一旦用于目標(biāo)識(shí)別、跟蹤和攻擊,就會(huì)左右作戰(zhàn)的決策和殺傷行動(dòng)的結(jié)果。不言而喻,這種無需人類直接控制的自主武器系統(tǒng)非常精準(zhǔn)和有效率,但也會(huì)導(dǎo)致戰(zhàn)爭(zhēng)自動(dòng)化,會(huì)給人類帶來極大的風(fēng)險(xiǎn)和危害。目前國(guó)際社會(huì)正在探討禁止或限制軍事AI系統(tǒng)的使用和發(fā)展,致力于研發(fā)防范自主武器傷害的技術(shù)或機(jī)制。由此可見,除了各國(guó)制定人工智能研發(fā)的倫理和法律規(guī)則的努力之外,還需要為相關(guān)國(guó)際公約的締結(jié)凝聚共識(shí)。另一方面,除了自主武器傷害,還有那些包括網(wǎng)絡(luò)詐騙、誘餌釣魚、捆綁流氓軟件等在內(nèi)的社會(huì)工程攻擊也構(gòu)成失控的典型場(chǎng)景。此外還有對(duì)知識(shí)產(chǎn)權(quán)制度的重磅沖擊所導(dǎo)致的失控。例如楓丹白露歐洲工商管理學(xué)院的菲利浦?帕克教授為一種自動(dòng)制作合理且信息豐富的書籍的技術(shù)方法申請(qǐng)了專利,這意味著不久就有可能看到AI生成的書籍,本來似乎已經(jīng)塵埃落定的AIGC著作權(quán)制度安排或許會(huì)再起風(fēng)波。又例如澳大利亞新南威爾士大學(xué)已經(jīng)有人利用GPT從科學(xué)文獻(xiàn)中獲取有用的知識(shí)實(shí)現(xiàn)了材料科學(xué)的重要發(fā)現(xiàn),并且可以用于開發(fā)新的材料和器件,因而AI for Science系統(tǒng)的發(fā)明權(quán)和專利權(quán)歸屬也將成為極其復(fù)雜的法律問題。
第三、失真的恐慌。使用過ChatGPT的人都知道,這個(gè)語言大模型在很多方面顯示了令人驚艷的表達(dá)功能,但也頗有些油嘴滑舌不靠譜的地方,甚至還會(huì)人云亦云、不懂裝懂。當(dāng)聊天智能系統(tǒng)在胡說八道時(shí)也能擺出一本正經(jīng)的樣子,甚至引經(jīng)據(jù)典,這就非常容易讓不明就里的人們信以為真。據(jù)研究報(bào)告,ChatGPT將在2026年之前耗盡高質(zhì)量語言數(shù)據(jù),在2030-2040年間耗盡所有人類語言數(shù)據(jù),從此AI合成數(shù)據(jù)將徹底取代真實(shí)數(shù)據(jù),成為訓(xùn)練AI的重要資源。如果此后喂食人工智能的主要數(shù)據(jù)養(yǎng)料是人工智能合成數(shù)據(jù),那么AIGC的可信度究竟如何、會(huì)不會(huì)讓虛假信息或臆造信息充斥網(wǎng)絡(luò)空間甚至壟斷人類溝通的語境就成為一個(gè)非常嚴(yán)重問題。不言而喻,當(dāng)然人類不斷獲得大量真假莫辨的信息并據(jù)此進(jìn)行溝通、做出判斷,那么文明的基礎(chǔ)就會(huì)坍塌。
對(duì)強(qiáng)人工智能應(yīng)保持強(qiáng)風(fēng)險(xiǎn)意識(shí)
上述恐慌都基于強(qiáng)人工智能的獨(dú)立自主性。有鑒于此,瓦拉赫、艾倫、斯密特在2012年發(fā)表的《機(jī)器道德》一文中早就提出了這樣的命題:“機(jī)器的自由度越大,就越有必要為機(jī)器設(shè)立倫理的各種標(biāo)準(zhǔn)”。這些標(biāo)準(zhǔn)既包括對(duì)強(qiáng)人工智能進(jìn)行治理的元規(guī)則和具體規(guī)則,也包括形成強(qiáng)人工智能系統(tǒng)自身道德能力的評(píng)價(jià)標(biāo)準(zhǔn)以及在多種道德(例如自主決定、親屬關(guān)懷、健康維持、隱私保護(hù)等等)之間互相沖突時(shí)進(jìn)行排序和處理的機(jī)制。根據(jù)斯坦福大學(xué)HAI(人本人工智能研究所)發(fā)行的2023年報(bào)告,AI專家的73%都相信AI將引發(fā)社會(huì)革命,但也有36%的人認(rèn)為AI有可能造成核彈級(jí)別的不可逆災(zāi)難。無論如何,正因?yàn)榇嬖谀欠N對(duì)小概率、大危害的強(qiáng)烈不安,我們才必須謀定而后動(dòng)。
實(shí)際上,ChatGPT也是AI網(wǎng)絡(luò)化的一個(gè)典型,有可能從根本上改變?nèi)伺c物質(zhì)世界之間的關(guān)系。在萬物互聯(lián)的智能網(wǎng)絡(luò)之中,深度的機(jī)器學(xué)習(xí)會(huì)使AI離人類的介入和掌控越來越遠(yuǎn),算法變得越來越難以解釋、不可理解甚至無法控制,從而導(dǎo)致強(qiáng)人工智能的大模型有可能反噬人類,構(gòu)成一個(gè)揮之不去的噩夢(mèng)。在我看來,這就意味著人工智能治理的重點(diǎn)將從算法治理轉(zhuǎn)向模型治理。也就是說,人工智能治理的標(biāo)準(zhǔn)將從算法偏見最小化轉(zhuǎn)向模型濫用最小化——從此透明度算不了什么,預(yù)測(cè)的準(zhǔn)確度將決定一切。沿著這樣的思路來考慮對(duì)于強(qiáng)人工智能的監(jiān)管,顯然,僅有集中化的備案和審查是力有不逮的,還需要引進(jìn)類似輿論監(jiān)督或者鼓勵(lì)用戶投訴那樣的分布式監(jiān)管的機(jī)制設(shè)計(jì)方案,讓社會(huì)參與AI監(jiān)管,及時(shí)終止深度學(xué)習(xí)模型的過度訓(xùn)練及其濫用,并對(duì)人工智能生成內(nèi)容(AIGC)的可信度測(cè)驗(yàn)采取某種適當(dāng)提前介入的方式。
值得注意的是,正付諸歐洲議會(huì)討論的歐盟人工智能法案最近追加了若干規(guī)定,要求生成式人工智能模型的設(shè)計(jì)和開發(fā)也必須符合歐盟的法律和基本權(quán)利規(guī)范,包括表達(dá)的自由,同時(shí)也為AIGC設(shè)立了版權(quán)規(guī)則;為了確保AI的可信和安全,對(duì)相關(guān)科技風(fēng)險(xiǎn)設(shè)立了四個(gè)不同等級(jí)以便進(jìn)行分類監(jiān)管;對(duì)AI企業(yè)的違規(guī)行為則將采取非常嚴(yán)厲的制裁措施,罰款可以高達(dá)3000萬歐元或全球收入的6%。據(jù)報(bào)道,在2023年4月27日歐洲議會(huì)已經(jīng)彌合分歧,達(dá)成了臨時(shí)政治協(xié)議,并決定在5月11日進(jìn)行關(guān)鍵委員會(huì)投票、在6月中旬進(jìn)行全體投票。按照這個(gè)日程表,力爭(zhēng)在2024年本屆議會(huì)屆滿前通過歐盟人工智能法案,頒布全球首個(gè)關(guān)于人工智能產(chǎn)品、服務(wù)以及決策的綜合性法律。幾乎同時(shí),在日本高崎召開的G7數(shù)字部長(zhǎng)會(huì)議于4月30日發(fā)表聯(lián)合聲明,強(qiáng)調(diào)應(yīng)該對(duì)AI采取“基于風(fēng)險(xiǎn)”的監(jiān)管,但同時(shí)也表示監(jiān)管應(yīng)該為人工智能技術(shù)的發(fā)展保持一個(gè)“開放和有利的環(huán)境”。
中國(guó)人工智能治理與法規(guī)的最新演變
事實(shí)上,以2021年《新一代人工智能倫理規(guī)范》為標(biāo)志,中國(guó)在不斷加強(qiáng)對(duì)人工智能開發(fā)活動(dòng)的治理,強(qiáng)調(diào)可信、可控、可問責(zé)以及敏捷應(yīng)對(duì)的基本原則。以這個(gè)規(guī)范性文件為指導(dǎo),有關(guān)部門著手研究和制定算法倫理規(guī)范并推動(dòng)人工智能產(chǎn)業(yè)界形成共識(shí),還試圖通過算法社區(qū)、行業(yè)聯(lián)盟等方式搭建公司內(nèi)部治理框架和責(zé)任體系,以便在維持人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展勢(shì)頭與有效防范各種相關(guān)風(fēng)險(xiǎn)之間達(dá)成某種適當(dāng)?shù)钠胶狻?/span>
特別值得注意的是,中國(guó)政府在2021年啟動(dòng)了人工智能產(chǎn)業(yè)的“清朗行動(dòng)計(jì)劃”,當(dāng)年側(cè)重算法濫用的專項(xiàng)治理,翌年又啟動(dòng)了基于算法正義的綜合治理,試圖在三年左右的時(shí)間里把相關(guān)的倫理原則、法律規(guī)則以及技術(shù)性測(cè)試、監(jiān)管、評(píng)價(jià)方法都落到實(shí)處。2022年3月1日頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》還確立了算法備案制,要求對(duì)社會(huì)有實(shí)質(zhì)性影響的算法服務(wù)提供者必須在開業(yè)十天之內(nèi)提供算法自評(píng)估報(bào)告、公示內(nèi)容等具體材料并履行備案手續(xù),以確保監(jiān)管部門能在源頭上控制人工智能風(fēng)險(xiǎn)。以聯(lián)合國(guó)科教文組織推出《人工智能倫理問題建議書》為背景,中共中央、國(guó)務(wù)院在2022年3月20日還頒發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》。
進(jìn)入2023年4月后,隨著ChatGPT引發(fā)的全球性爭(zhēng)議日趨尖銳,中國(guó)科技部及時(shí)公布了《科技倫理審查辦法(試行)》稿,就新型人工智能治理向社會(huì)投石問路。緊接著,網(wǎng)信辦也有針對(duì)性地拿出了《生成式人工智能服務(wù)管理辦法》草稿廣泛征求意見。這些規(guī)范試圖通過備案制、安全評(píng)估、專家復(fù)核程序、明確責(zé)任主體、擬訂風(fēng)險(xiǎn)清單、進(jìn)行抽查核驗(yàn)等方法加強(qiáng)監(jiān)管,旨在防止人工智能技術(shù)的研發(fā)和應(yīng)用失控。然而上述規(guī)范文本如何與《網(wǎng)絡(luò)安全法》、《數(shù)據(jù)安全法》、《個(gè)人信息保護(hù)法》的既定內(nèi)容進(jìn)行更縝密的銜接和整合,還有待進(jìn)一步推敲和改進(jìn)。
特別是《生成式人工智能服務(wù)管理辦法(征求意見稿)》把重點(diǎn)放在制造虛假信息、曝露個(gè)人隱私、侵犯知識(shí)產(chǎn)權(quán)、造成系統(tǒng)歧視、進(jìn)行網(wǎng)絡(luò)攻擊等風(fēng)險(xiǎn)的防范上;要求生成式人工智能的研發(fā)者和利用者對(duì)預(yù)訓(xùn)練和優(yōu)化訓(xùn)練的數(shù)據(jù)來源合法性負(fù)責(zé);把算法安全評(píng)估和算法備案手續(xù)作為提供相關(guān)服務(wù)的前置要件,并要求服務(wù)提供者設(shè)立用戶投訴處理機(jī)制,還必須履行用戶身份驗(yàn)證義務(wù)、防沉迷義務(wù)、個(gè)人信息保護(hù)義務(wù)、避免使用歧視性內(nèi)容的義務(wù)、及時(shí)處置違法信息的義務(wù)、提供安全穩(wěn)健服務(wù)的義務(wù)、生成內(nèi)容審核和標(biāo)識(shí)的義務(wù)、提高透明度義務(wù)等等,有的屬于新增義務(wù)類型。然而這些規(guī)定大都有賴于在行政部門指導(dǎo)下產(chǎn)品研發(fā)者、服務(wù)提供者進(jìn)行的自我審查和自我履行,還缺乏第三方獨(dú)立審計(jì)、測(cè)試以及強(qiáng)制執(zhí)行的制度安排,也缺乏算法論證程序和問責(zé)程序的具體設(shè)計(jì)。
直面自我指涉的法律和人工溝通的悖論
據(jù)報(bào)道,近來ChatGPT已經(jīng)開始廣泛應(yīng)用于司法和法律服務(wù)場(chǎng)景,包括全球四大會(huì)計(jì)師事務(wù)所的法律業(yè)務(wù)處理。2023年5月5日,世界頂級(jí)法商信息服務(wù)平臺(tái)LexisNexis又推出了面向法律界的生成式AI系統(tǒng)Lexis+AITM,旨在通過大語言模型實(shí)現(xiàn)法律和判例的高效檢索以及文書生成自動(dòng)化。顯而易見,這樣的人機(jī)對(duì)話會(huì)不斷加強(qiáng)法律系統(tǒng)自我指涉和意義自我繁衍的特征。如果在不久的將來,用來訓(xùn)練AI的主要資源都統(tǒng)統(tǒng)變成了AI生成的數(shù)據(jù),通過ChatGPT等大語言模型進(jìn)行的法律溝通也將完全人工化,那就勢(shì)必形成一個(gè)完全閉環(huán)的智能司法系統(tǒng)和人工溝通系統(tǒng)。在尼克拉斯?盧曼用“自反身”和“自創(chuàng)生”等概念所描述的這種狀態(tài)下,實(shí)際上法律推理過程很容易陷入無限循環(huán)、頻繁出現(xiàn)無法被證明或證偽的陳述。于是乎,我們不得不追問究竟還能不能找到一個(gè)通用算法來判斷那些通過有限步驟就可以停止的程序?這就是困擾計(jì)算機(jī)科學(xué)家和哲學(xué)家的圖靈停機(jī)問題。
另一方面,隨著生成式人工智能和強(qiáng)人工智能應(yīng)用到規(guī)格化程度很高的法律領(lǐng)域,關(guān)于具體案件的溝通和判斷似乎進(jìn)入一個(gè)效率無限飆升的螺旋,但差異和多樣性的競(jìng)爭(zhēng)和發(fā)展機(jī)制卻被鎖死,形成無法自拔的困境或者“黑洞”,進(jìn)而導(dǎo)致解釋和論證的技術(shù)、法庭內(nèi)外的充分議論、糾紛解決機(jī)制以及整個(gè)法學(xué)領(lǐng)域的簡(jiǎn)化、停滯甚至倒退。這就是人工智能科學(xué)領(lǐng)域的所謂“恐怖谷”效應(yīng)——“一花獨(dú)放百花殺”。當(dāng)人們借助ChatGPT來進(jìn)行檢索和內(nèi)容生成,試圖制定進(jìn)而實(shí)施關(guān)于強(qiáng)人工智能治理的法律規(guī)則時(shí),會(huì)不會(huì)引起赫拉克利特式不可界定的悖論、會(huì)不會(huì)經(jīng)歷類似“恐怖谷”的詭異體驗(yàn)、會(huì)不會(huì)引發(fā)更加復(fù)雜而棘手的社會(huì)問題?因自我指涉、不斷反饋的人工溝通而衍生出來的這一切,都需要計(jì)算法學(xué)研究者以及人工智能治理機(jī)制設(shè)計(jì)者采取未雨綢繆的對(duì)策以防患于未然,并且在試錯(cuò)過程中找出擺脫悖論的進(jìn)路。
參閱文獻(xiàn):
1. 《強(qiáng)人工智能來襲,我們?cè)撛趺崔k?》刊載于公眾號(hào)“鳳凰WEEKLY財(cái)經(jīng)”,鏈接:https://mp.weixin.qq.com/s/Sc8J9zFINPxGdBXpZk_WMw。
2. 《季衛(wèi)東X吳飛:否定硅基生命人權(quán),其實(shí)是“人類碳基沙文主義”》刊載于公眾號(hào)“南都觀察家”,鏈接:https://mp.weixin.qq.com/s/-Dijzoga6QFZy8q27uHlCQ。
網(wǎng)站編輯:康煜
審讀:季衛(wèi)東