【作者】季衛(wèi)東
【內(nèi)容提要】
何時真正邁入“人工智能治理立法時刻”
季衛(wèi)東 上海交通大學(xué)文科資深教授、中國法與社會研究院院長
發(fā)展與安全,價值判斷尚未形成共識
2023年6月,國務(wù)院把人工智能法草案列入2023年度立法工作計劃。在此背景下,同年7月,網(wǎng)信辦等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》。這是世界上第一部關(guān)于大模型和AIGC的法規(guī)。緊接著,中國社會科學(xué)院法學(xué)研究所在8月提出了《人工智能法示范法1.0(專家建議稿)》。但是,全國人大常委會9月發(fā)布的今后五年立法規(guī)劃中卻沒有提及人工智能法。這種顯著的溫差表明:自從ChatGPT橫空出世,人工智能的飛速迭代使我們迅速滑入人機(jī)并存的未知混沌之中,科技和產(chǎn)業(yè)的發(fā)展與人類社會的安全之間的張力變得空前巨大,不同需求尚未找到適當(dāng)?shù)钠胶恻c(diǎn)或妥協(xié)點(diǎn),立法機(jī)關(guān)采取了更慎重的態(tài)度。今年3月,中國政法大學(xué)等七所大學(xué)的研究者共同發(fā)布《人工智能法(學(xué)者建議稿)》,試圖掀起新一波熱潮,促進(jìn)立法進(jìn)程。
實(shí)際上,正是因?yàn)閷Πl(fā)展與安全之間的價值判斷和公共選擇還沒有形成共識,歐洲議會在2023年6月通過《人工智能法》談判授權(quán)草案之后,曾有包括西門子和空客在內(nèi)的150多家科技企業(yè)聯(lián)名發(fā)布公開抵制信,指出法案規(guī)定過于嚴(yán)苛的監(jiān)管機(jī)制會大幅度壓縮科技創(chuàng)新空間,延誤歐盟數(shù)字經(jīng)濟(jì)的發(fā)展;人工智能的治理和立法都應(yīng)該加強(qiáng)相關(guān)行業(yè)的參與。11月發(fā)生的OpenAI高層戲劇性政變,也充分反映了“發(fā)展優(yōu)先”與“安全優(yōu)先”兩條路線之間的激烈斗爭。盡管如此,2024年3月歐洲議會還是以高票正式通過了《人工智能法》。這意味著歐盟的立法機(jī)構(gòu)確立了安全優(yōu)先于發(fā)展的價值排序,要求成員國加強(qiáng)對科技前沿拓展和應(yīng)用場景的監(jiān)管,同時也試圖對域內(nèi)的數(shù)字空間實(shí)行保護(hù)主義政策。
幾乎與此同時,三十幾位海內(nèi)外技術(shù)專家和企業(yè)領(lǐng)袖在中國簽署了《北京AI安全國際共識》,為人工智能研發(fā)劃出幾條明確的紅線,并試圖以此為基礎(chǔ)形成國際合作機(jī)制。北京共識的主要內(nèi)容包括確保人類對AI系統(tǒng)復(fù)制和迭代的控制、反對大規(guī)模自動化武器的設(shè)計、導(dǎo)入國家注冊制以便按照全球?qū)R的要求加強(qiáng)監(jiān)管和進(jìn)行國際審計、防止最危險技術(shù)的擴(kuò)散、開發(fā)全面的治理方法和技術(shù)、建立更強(qiáng)大的全球安全保障網(wǎng)絡(luò)。非常有趣而又耐人尋味的對照是,當(dāng)歐洲科技企業(yè)擔(dān)心偏重監(jiān)管的歐盟《人工智能法》勢必吞噬占投資17%的AI產(chǎn)業(yè)發(fā)展之際,《北京AI安全國際共識》卻呼吁各國政府和企業(yè)把AI研發(fā)預(yù)算的三分之一投到安全保障領(lǐng)域?!?/span>33%vs.17%”的成本效益競爭,仿佛構(gòu)成規(guī)則制定話語權(quán)的嶄新制高點(diǎn)。
AI治理的立法時刻及監(jiān)管優(yōu)先的取向
如果說2024年早春的文生視頻大模型Sora和文本超長大模型Gemini1.5 Pro標(biāo)志著現(xiàn)象學(xué)意義上的“天人合一”奇點(diǎn),那么特斯拉斯堡議員的壓倒性表決結(jié)果和北京科技產(chǎn)業(yè)界國際共識就共同標(biāo)志著“人工智能治理的立法時刻”。為此,有必要審視各國與人工智能相關(guān)的法規(guī)制定和實(shí)施現(xiàn)狀。迄今為止,各國的制度設(shè)計大致可以分為四種模式,即“硬法模式”“軟法模式”“軟硬兼施法模式”“技術(shù)程序法模式”。
不言而喻,剛剛通過的歐盟《人工智能法》代表了硬法模式,其基本特征是監(jiān)管高于研發(fā)。這種立法的理念可以追溯到艾薩克·阿西莫夫在1950年出版的科幻小說短篇集的導(dǎo)言里提出的機(jī)器人三大定律,而新近的學(xué)術(shù)表達(dá)則是W.瓦拉赫和C.艾倫在《道德機(jī)器》(牛津大學(xué)出版社,2009年)以及M.安德森和S.L.安德森在《機(jī)器道德》(劍橋大學(xué)出版社,2011年)中的基本主張:1.應(yīng)為機(jī)器人設(shè)立倫理標(biāo)準(zhǔn),包括AI自身道德能力的評價標(biāo)準(zhǔn)和在多種倫理規(guī)范發(fā)生沖突時進(jìn)行價值排序和選擇的道德原則;2.機(jī)器人的自由度越大,相應(yīng)的AI倫理標(biāo)準(zhǔn)也就應(yīng)該越嚴(yán)格。正是沿著人工智能性能或自由度與倫理標(biāo)準(zhǔn)或監(jiān)管力度之間形成正比例關(guān)系的思路,歐盟《人工智能法》把AI風(fēng)險區(qū)分為不可接受、高、有限、最小這四個等級,分別規(guī)定了不同的規(guī)范方式。特別值得重視的是,該法認(rèn)為極其有害和有違歐洲價值觀、一概屬于禁止范疇的AI應(yīng)用還包括通過社會評分系統(tǒng)對個人行為的操縱、實(shí)時遠(yuǎn)程的生物特征識別技術(shù)的應(yīng)用、預(yù)測性警務(wù)系統(tǒng)的導(dǎo)入。另外,協(xié)助法官和律師的法律專家系統(tǒng)以及智能審判項(xiàng)目也被認(rèn)定為高風(fēng)險類型,需要重點(diǎn)監(jiān)管。
不同軟法形態(tài)及其和硬法的組合
與此形成對照的是美國在2020年制定的《國家人工智能倡議法》,旨在統(tǒng)籌協(xié)調(diào)以加速人工智能的研發(fā)和應(yīng)用、促進(jìn)經(jīng)濟(jì)繁榮和國家安全、審視AI治理的路徑、平衡個體權(quán)利與科技創(chuàng)新之間的關(guān)系,屬于典型的軟法模式。2022年10月白宮科技政策辦公室發(fā)布的《AI權(quán)利法案藍(lán)圖》、2023年1月美國國家標(biāo)準(zhǔn)和技術(shù)研究機(jī)構(gòu)發(fā)布的AI風(fēng)險管理框架等,也都是原則和政策的宣示。拜登政府在2023年7月與人工智能領(lǐng)域的七家頭部企業(yè)達(dá)成關(guān)于AI研發(fā)和應(yīng)用的安全自愿承諾,同樣不具有任何法律約束力。目前,美國多個州已經(jīng)制定AI法規(guī),例如2024年3月猶他州的《人工智能政策法》,在規(guī)定行政和民事罰款作為制裁措施的同時,為AI創(chuàng)新提供監(jiān)管緩解的技術(shù)豁免權(quán);其他30多個州也有審議AI法案的動向。這些分散式立法的內(nèi)容,大都側(cè)重數(shù)據(jù)的隱私保護(hù)、算法的可解釋性、防止AI歧視以及保護(hù)消費(fèi)者權(quán)益等具體問題。美國聯(lián)邦國會議員的立法提案立場各異,雖然已經(jīng)通過的都是促進(jìn)AI產(chǎn)業(yè)發(fā)展、確保美國科技領(lǐng)先地位的法案,但是,參議員伊薇特·克拉克等提出的《2019年算法問責(zé)法案》及其2022年、2023年的更新版本則具有明顯的硬法化傾向;眾議院能源和商業(yè)委員會在2023年7月通過的《人工智能問責(zé)法案》則給政府施壓,希望在2025年之后采取實(shí)質(zhì)性問責(zé)措施來防范AI風(fēng)險。
一般而言,從P.塞爾茲尼克和P.諾內(nèi)特關(guān)于“回應(yīng)型法”的構(gòu)想,轉(zhuǎn)向政府的“敏捷治理(Agile Governance)”方式,規(guī)制的主體和規(guī)范顯然都變得更加多樣化。2018年達(dá)沃斯世界經(jīng)濟(jì)論壇對敏捷治理的定義是“一套具有柔韌性、流動性、靈活性或適應(yīng)性的行動或方法,是一種自我調(diào)適、以人為本以及具有包容性和可持續(xù)性的決策過程”。日本政府在人工智能的風(fēng)險管控方面高度重視敏捷治理,形成了一整套靈活機(jī)動而又具體細(xì)致的AI研發(fā)和應(yīng)用的行為標(biāo)準(zhǔn)和操作流程。今年4月,日本總務(wù)省和經(jīng)濟(jì)產(chǎn)業(yè)省聯(lián)合發(fā)布的《人工智能產(chǎn)業(yè)指引(第1.0版)》中具體界定了利益相關(guān)各方進(jìn)行風(fēng)險管控的主體責(zé)任和敏捷治理的機(jī)制設(shè)計藍(lán)圖,進(jìn)一步呈現(xiàn)出導(dǎo)向性規(guī)范與行政助推措施相結(jié)合的軟法特征。
中國在2019年率先提倡人工智能的敏捷治理原則,側(cè)重軟法模式。但在實(shí)踐層面主要流于因地制宜的行政裁量權(quán)行使,缺乏一套操作自如的規(guī)則和彈性結(jié)構(gòu)的制度安排。這樣做的好處是可以自上而下隨機(jī)應(yīng)變,交替使用軟硬兩種手段進(jìn)行風(fēng)險管理。2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,把AI全生命周期各環(huán)節(jié)的責(zé)任審查和問責(zé)機(jī)制作為基本原則之一。2022年3月,為了落實(shí)2021年底剛頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,“互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)”正式上線運(yùn)行,對人工智能的監(jiān)管形成了算法備案、檢查、問責(zé)“三位一體”的基本框架。特別是2021年算法濫用治理專項(xiàng)行動和2022年算法綜合治理專項(xiàng)行動嚴(yán)厲懲治了“大數(shù)據(jù)殺熟”“二選一平臺壟斷”等違規(guī)現(xiàn)象,顯示了監(jiān)管的硬派一面。2022年12月頒布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》開始劍指生成式AI。因此,中國的經(jīng)驗(yàn)和機(jī)制設(shè)計構(gòu)成“軟硬兼施法模式”。
技術(shù)—程序的路徑通往科技企業(yè)藍(lán)海
在貫徹人工智能治理的原則和政策方面,新加坡走了一條低調(diào)務(wù)實(shí)的技術(shù)路線。2022年5月,該國政府推出全球首個人工智能治理開源測試工具箱“AI.Verify”,把測試和檢查融合在一起,通過安全、靈活、透明化、可審計、可問責(zé)、互相制衡的動態(tài)調(diào)整程序達(dá)到可信AI的目標(biāo)。這種測試框架把安全監(jiān)管與人工智能自身性能提升密切結(jié)合在一起,應(yīng)用基于自愿,因而有利于提高人工智能產(chǎn)品以及監(jiān)管的接受度?!?/span>AI.Verify”又是一個技術(shù)性手段的百寶箱,針對不同行業(yè)、不同應(yīng)用和不同產(chǎn)品形態(tài)分別制定了有針對性的監(jiān)管測試方案,并開發(fā)相應(yīng)的測試工具集和數(shù)據(jù)集。例如在自動駕駛等領(lǐng)域,人工智能應(yīng)用風(fēng)險性更大,因而需要采取更加嚴(yán)格、強(qiáng)制性的監(jiān)管測試舉措。這種“技術(shù)程序法模式”具有普遍推廣可能性。而IBM在2023年12月推出的人工智能治理模型“WatsonX.Governance”把風(fēng)險防控與自動化的監(jiān)管工具開發(fā)密切結(jié)合在一起,可以按照人工智能法規(guī)和政策提供AI的“營養(yǎng)標(biāo)簽”、實(shí)現(xiàn)主動檢測和減少偏差的LLM指標(biāo),與“AI.Verify”有異曲同工之妙。此外,還有加強(qiáng)AI自監(jiān)督學(xué)習(xí)能力的圖像世界模型(IWM),也可以發(fā)揮類似的控制作用。
正是在這里,立法者如何在人工智能發(fā)展與社會系統(tǒng)安全之間保持適當(dāng)平衡、相關(guān)行政部門如何進(jìn)行敏捷治理的答案似乎已隱約可見。如果大模型的技術(shù)研發(fā)不僅是AI治理的對象,也可以反過來為AI治理賦能,科技企業(yè)就不會對人工智能立法感到憂心忡忡。如果大模型的安全研究通過技術(shù)-程序的進(jìn)路能夠形成測試、評估以及監(jiān)控的工具箱,其中包括推廣數(shù)字水印技術(shù)、開發(fā)AI驗(yàn)證小模型、形成AIGC打假系統(tǒng)、建立AI倫理管理指標(biāo)體系和認(rèn)證平臺、編制AI安全保障網(wǎng),那么監(jiān)管與發(fā)展就不再是一種零和游戲,AI治理還能為AI研發(fā)開拓出新的投資契機(jī)或者市場空間,通過錯位競爭構(gòu)成企業(yè)的科技藍(lán)海。換言之,只有在語言大模型和多模態(tài)大模型的性能與安全度提升形成某種正比關(guān)系,而監(jiān)管轉(zhuǎn)變?yōu)椴⒎蔷心嘤谑孪让魑囊?guī)定的程序本位和技術(shù)本位之際,各國以及全球才有可能真正進(jìn)入所謂“人工智能治理的立法時刻”。