【作者】邱遙堃
【內(nèi)容提要】
生成式人工智能的規(guī)制挑戰(zhàn)與體系應(yīng)對
邱遙堃 上海交通大學(xué)凱原法學(xué)院、中國法與社會研究院副教授,法學(xué)博士
摘要:生成式人工智能雖然具有強(qiáng)大到不遜于甚至優(yōu)越于人類智能的內(nèi)容生產(chǎn)能力,但并未提出本質(zhì)上不同于以往的規(guī)制挑戰(zhàn),仍然可用現(xiàn)行人工智能規(guī)制體系來應(yīng)對,進(jìn)而促使這一規(guī)制體系更加合理與完善:在運(yùn)行過程方面,生成式人工智能的技術(shù)復(fù)雜、利益沖突與人機(jī)交互進(jìn)一步加劇了過程規(guī)制的內(nèi)在困難,但應(yīng)當(dāng)一方面將過程規(guī)制合理定位為輔助性規(guī)制措施,另一方面以信任為目標(biāo),進(jìn)行適當(dāng)披露,并增加用戶參與;在輸出結(jié)果方面,生成式人工智能發(fā)揮的功能類似搜索算法,并服務(wù)于平臺利益,應(yīng)當(dāng)繼續(xù)堅持結(jié)果規(guī)制的主導(dǎo)地位,要求其安全可控、公平公正,堅持人工智能應(yīng)以人為本、服務(wù)于社會公共利益;在輸入數(shù)據(jù)方面,生成式人工智能更加凸顯了個人信息保護(hù)、著作權(quán)保護(hù)、正當(dāng)競爭秩序維護(hù)中數(shù)據(jù)保護(hù)與利用之平衡的重要性,應(yīng)當(dāng)在數(shù)據(jù)合規(guī)同時,通過法律解釋為模型發(fā)展提供更多可用數(shù)據(jù),但應(yīng)當(dāng)確保相關(guān)數(shù)據(jù)所創(chuàng)造的更大社會效益普遍地惠及更廣大的社會群體。
關(guān)鍵詞:生成式人工智能;法律規(guī)制;算法規(guī)制;數(shù)據(jù)合規(guī)
引言
DeepSeek、Sora、GPT-4.5等一系列生成式人工智能強(qiáng)大到不遜于甚至優(yōu)越于人類智能的內(nèi)容生產(chǎn)能力再次引發(fā)了對未來技術(shù)發(fā)展與技術(shù)治理的期盼與恐懼。對此,法學(xué)界或關(guān)注人工智能生成內(nèi)容的可版權(quán)性、可專利性,思考如何恰當(dāng)分配其產(chǎn)生的利益,或聚焦人工智能生成內(nèi)容的數(shù)據(jù)、算法、信息內(nèi)容等各類風(fēng)險,探討如何在技術(shù)提供者、服務(wù)提供者、產(chǎn)品提供者等主體之間合理分配法律責(zé)任,并實(shí)現(xiàn)人工智能治理的更新、轉(zhuǎn)型乃至迭代,甚至更進(jìn)一步思考生成式人工智能對法律與司法本身帶來的機(jī)遇與挑戰(zhàn)。
然而,生成式人工智能是否需要特別的法律規(guī)制? 這一爭論不休的前提性問題仍未得到令人滿意的回答。特別是,《個人信息保護(hù)法》第24條、[7]《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》等法律法規(guī)已建構(gòu)起一個針對算法與人工智能的初步規(guī)制框架。這一框架是否不足以應(yīng)對生成式人工智能提出的新挑戰(zhàn),以至于還要出臺《生成式人工智能服務(wù)管理暫行辦法》?
某些學(xué)者的答案是肯定的,認(rèn)為“既有規(guī)則的延伸適用和法律解釋……無法解決因其使動性和嵌入性引發(fā)的人類在現(xiàn)實(shí)世界、虛擬世界的生存性‘遠(yuǎn)慮,。”某些學(xué)者抱有懷疑態(tài)度,主張“‘風(fēng)險立法論,……是風(fēng)險類型與風(fēng)險程度兩個概念混同所致的”,故特別立法并無必要。但總體而言,法學(xué)界對此新技術(shù)不論熱情擁抱還是保持警惕,都或多或少假定了其具有不同于以往的特殊之處,因此需要規(guī)制上的特別對待。
本文希望挑戰(zhàn)這一假定,嘗試以現(xiàn)行人工智能規(guī)制體系來應(yīng)對新興生成式人工智能,從運(yùn)行過程、輸出結(jié)果、輸入數(shù)據(jù)三方面入手對其進(jìn)行規(guī)制,并特別考察生成式人工智能是否提出了現(xiàn)行體系無法應(yīng)對的規(guī)制挑戰(zhàn),抑或其作為被規(guī)制對象的特點(diǎn)仍然可以被包容在現(xiàn)行體系之內(nèi),僅僅發(fā)揮了促使人工智能規(guī)制體系更加合理與完善的作用。
也正因此,本文不僅是針對生成式人工智能提出規(guī)制對策的專門研究,也試圖反思整個人工智能規(guī)制體系及其各種理論優(yōu)化進(jìn)路的優(yōu)劣,進(jìn)而嘗試就人工智能規(guī)制提出更為合理的整體解決方案:從具體技術(shù)的特點(diǎn)切入,通過與相似技術(shù)進(jìn)行比較,發(fā)現(xiàn)普遍的技術(shù)原理,再回歸技術(shù)細(xì)節(jié)的場景化規(guī)制。
對于人工智能領(lǐng)域始終面臨的發(fā)展與安全之平衡問題,本文“如無必要、勿增實(shí)體”的規(guī)制思路更多站在發(fā)展一邊,希望能為新興技術(shù)與產(chǎn)業(yè)適當(dāng)減輕規(guī)制壓力,但對整體性規(guī)制框架的強(qiáng)調(diào)也仍然能夠守住安全底線,并避免因過于關(guān)注新問題而忽視對現(xiàn)有人工智能問題的解決。
一、更居輔助地位的過程規(guī)制
(一) 過程規(guī)制的具體要求與內(nèi)在困難
人工智能的過程規(guī)制要求提升算法透明度,使人了解并監(jiān)督其運(yùn)行過程。例如,《個人信息保護(hù)法》第24條第1款前段:“個人信息處理者利用個人信息進(jìn)行自動化決策,應(yīng)當(dāng)保證決策的透明度……”《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第12條:“鼓勵算法推薦服務(wù)提供者……優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛。”
更具言之,由于代碼的技術(shù)復(fù)雜性與商業(yè)秘密性,人工智能的過程規(guī)制與算法透明并不要求公開代碼,將算法的技術(shù)表達(dá)直接呈現(xiàn)于用戶與規(guī)制者,而是要求解釋算法,分場景、有層次地說明算法基本原理、目的意圖和主要運(yùn)行機(jī)制等,進(jìn)而取得對算法的信任。例如,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第16條:“算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等。”
更進(jìn)一步,對權(quán)益受算法影響重大的用戶,人工智能服務(wù)提供者還應(yīng)當(dāng)承擔(dān)額外的說明義務(wù)。例如,《個人信息保護(hù)法》第24條第3款前段:“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明……”《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第17條第3款:“算法推薦服務(wù)提供者應(yīng)用算法對用戶權(quán)益造成重大影響的,應(yīng)當(dāng)依法予以說明并承擔(dān)相應(yīng)責(zé)任。”
此外,算法備案與安全評估亦屬于算法解釋的進(jìn)一步延伸,是對規(guī)制者所作的專門解釋。例如,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第24條第1款:“具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息,履行備案手續(xù)。”該法第27條:“具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估。”《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第15條規(guī)定亦與此類似。
然而,以提升透明度為主要目標(biāo)的過程規(guī)制進(jìn)路由于以下三方面原因,仍然存在重大的內(nèi)在困難:其一,機(jī)器學(xué)習(xí)的引入提高了技術(shù)的復(fù)雜性,使人工智能與人類智能之間的差別進(jìn)一步擴(kuò)大,其學(xué)習(xí)過程與學(xué)習(xí)成果都難以為人所理解,即使技術(shù)專家亦然。其二,過程透明,特別是代碼公開,既可能與知識產(chǎn)權(quán)、商業(yè)秘密等私人權(quán)利保護(hù)相沖突,也可能危害國家安全與社會秩序,損害公共利益,因此掌握技術(shù)的私人主體往往沒有動力進(jìn)行信息披露,甚至有可能進(jìn)行干擾性披露。其三,也是最為重要的是,技術(shù)與人類在本質(zhì)上天然存在無法彌合的區(qū)別:我們既難以在科學(xué)認(rèn)知的意義上充分理解、也無法在感性常識的意義上了解基于機(jī)器學(xué)習(xí)的人工智能,因此對本質(zhì)上有別的這一異類很難取得我們信任,更何況人工智能經(jīng)常出錯,要么能力不足無法完成既定任務(wù),要么能力過強(qiáng)侵犯他人利益與公共利益,還不值得信任。
(二) 生成式人工智能對過程規(guī)制的挑戰(zhàn)
生成式人工智能的所用技術(shù)更為復(fù)雜、所涉利益沖突更為劇烈、所產(chǎn)生的人機(jī)差別更為顯著,因此對過程規(guī)制提出了更大的挑戰(zhàn)。
首先,生成式人工智能的技術(shù)復(fù)雜性給過程規(guī)制提出了更大的挑戰(zhàn)。在技術(shù)原理方面,生成式人工智能迥異于人類智能與過往其他類型人工智能。其內(nèi)容生成過程通常是給定一個初始單詞或一段文本作為起點(diǎn),已訓(xùn)練的模型會根據(jù)在訓(xùn)練過程中學(xué)到的特定模式和規(guī)律,結(jié)合當(dāng)前上下文,預(yù)測下一個單詞或字符,并不斷依此方式生成后續(xù)內(nèi)容,直到達(dá)到設(shè)定的生成長度或結(jié)束標(biāo)記。
在模型結(jié)構(gòu)方面,生成式人工智能盡管具有與其他類型人工智能類似的三層結(jié)構(gòu)(基座模型—專業(yè)模型—服務(wù)應(yīng)用),但其基座模型的交互性、通用性與賦能性更強(qiáng),涌現(xiàn)能力劇增,更具備面向消費(fèi)者、企業(yè)與政府各端,賦能千行百業(yè),通往通用人工智能的潛力,也不可避免地蘊(yùn)含更為巨大的社會風(fēng)險。
在參數(shù)規(guī)模方面,生成式人工智能的超大規(guī)模參數(shù)也導(dǎo)致各種各樣試圖落實(shí)過程透明的舉措都越發(fā)失效,基于充分了解而產(chǎn)生信任或進(jìn)行控制更不可行。例如,GPT系列所依托的 TranSformer深度學(xué)習(xí)模型,在前饋神經(jīng)網(wǎng)絡(luò)中引入自注意力機(jī)制,具有高達(dá)百萬億且呈指數(shù)級增長的參數(shù)量,是經(jīng)典的黑箱算法,目前無法進(jìn)行全局解釋,而局部補(bǔ)充解釋的可信度存疑,還可能破壞技術(shù)信任、誤導(dǎo)政策制定。數(shù)據(jù)顯示:GPT-1的參數(shù)量為1.17億,GPT-2的參數(shù)量為15億,GPT-3的參數(shù)量為驚人的1750億,而 GPT-4的參數(shù)量雖未披露,但多項預(yù)測顯示將達(dá)100萬億,Sora、GPT-4o的參數(shù)更將無以復(fù)加地增長。
其次,生成式人工智能的過程規(guī)制也將引發(fā)更大的利益沖突問題。一方面,作為備受各大企業(yè)乃至各大國重視并且尚處于快速發(fā)展階段的新興技術(shù),生成式人工智能技術(shù)的知識產(chǎn)權(quán)與商業(yè)秘密保護(hù)需求巨大,而過程規(guī)制的公開透明要求顯然與之劇烈沖突。例如,美國眾議院外交事務(wù)委員會于2024年5月23日以壓倒性多數(shù)通過《加強(qiáng)海外關(guān)鍵出口限制國家框架法案》(Enhancing National Frame Worksf or Overseas Restriction of CriticalExports Act),借助補(bǔ)充 AI相關(guān)定義、賦予總統(tǒng)管制權(quán)、增加美國人從事 AI模型出口相關(guān)活動的許可義務(wù)等等方式,對 AI模型,特別是開源模型,進(jìn)行出口管控。這對我國國內(nèi)許多基于開源大模型的二次微調(diào)“套殼”模型之研發(fā)產(chǎn)生重大而深遠(yuǎn)的影響,體現(xiàn)了生成式人工智能技術(shù)應(yīng)受保護(hù)的重要需求與過程規(guī)制之間的顯著沖突。
另一方面,公開生成式人工智能的技術(shù)原理,特別是其與內(nèi)容治理相關(guān)的技術(shù)信息,亦將加劇算法規(guī)避與算法算計問題,對社會公共安全乃至國家安全造成嚴(yán)重威脅。眾所周知,生成式人工智能可被用于生成違法違規(guī)信息、教導(dǎo)違法犯罪行為。為協(xié)調(diào)生成式人工智能的性能優(yōu)化與合法合規(guī),需要在其外部嵌套另一個發(fā)揮審查作用的人工智能,阻止輸出違法違規(guī)生成結(jié)果。但這一人工智能審查極易被規(guī)避:只需轉(zhuǎn)換適當(dāng)提示詞,以學(xué)習(xí)知識等方式進(jìn)行表述,即可誘導(dǎo)人工智能生成本不應(yīng)生成的內(nèi)容。如果公開生成式人工智能及其相關(guān)審查式人工智能的技術(shù)原理,這一算法規(guī)避與算法算計必將更為容易,隨之而來的有害后果必將更為普遍且嚴(yán)重。
最后,生成式人工智能的交互性激增似乎縮小了人機(jī)差別,但在更為仔細(xì)的審視下,人機(jī)之分仍然存在,激增的交互性既可能加強(qiáng)信任,也可能加劇恐懼。例如,GPT-4o的語音交互不僅具有更強(qiáng)的實(shí)時響應(yīng)能力,也允許用戶打斷模型的語音輸出,還能生成各種不同情緒風(fēng)格的語音,非常接近人與人之間的對話交流。但其模型訓(xùn)練與運(yùn)行的基本原理并未改變,其行為和反應(yīng)仍是基于算法對數(shù)據(jù)的處理而非真正的理解或情感體驗(yàn),其所謂“創(chuàng)造力”實(shí)際上受限于預(yù)設(shè)的參數(shù)與訓(xùn)練所用的數(shù)據(jù)集。
因此,我們不可能把它們當(dāng)作相似的同類,寄托情感方面的需求。如果我們真的被它們表面上的創(chuàng)造與共情能力所迷惑,過分信任乃至依賴它們,可能導(dǎo)致在許多重要事務(wù)中的決策權(quán)力與主導(dǎo)地位被削弱乃至喪失,以及與之相伴的由于人工智能過于強(qiáng)大或不夠強(qiáng)大而產(chǎn)生的各種錯誤,例如智慧司法中的技術(shù)依賴可能挑戰(zhàn)權(quán)力專屬原則、造成司法監(jiān)督困境、難以認(rèn)定與分配責(zé)任。更重要的是,由于當(dāng)前人工智能尚未發(fā)展到強(qiáng)人工智能水平,而在很大程度上取決于技術(shù)開發(fā)者、所有者與提供者,因此其權(quán)力與地位事實(shí)上意味著后者的權(quán)力增大、地位提升與不當(dāng)影響的可能性增加。所以人機(jī)之分并未消除,更強(qiáng)的交互性只是表象,其實(shí)埋藏著更大的安全風(fēng)險與失控隱患,理解與信任的鴻溝仍然存在,甚至進(jìn)一步擴(kuò)大。
(三) 過程規(guī)制的合理定位與規(guī)則細(xì)化
盡管生成式人工智能大大加劇了過程規(guī)制的內(nèi)在困難,但應(yīng)對之道既不應(yīng)當(dāng)是完全拋棄要求公開透明的過程規(guī)制,也不應(yīng)當(dāng)是繼續(xù)堅持要求過高的過程規(guī)制水平,而應(yīng)當(dāng)是對過程規(guī)制進(jìn)行合理定位與規(guī)則細(xì)化:一方面,考慮到過程規(guī)制的上述困難,我們或許不可能也不應(yīng)當(dāng)將其作為人工智能規(guī)制的主導(dǎo)性措施,而最好將其定位為輔助性規(guī)制措施,支持下文所述對結(jié)果與數(shù)據(jù)的規(guī)制;另一方面以信任為目標(biāo),細(xì)化算法透明與算法解釋的相關(guān)規(guī)則,使開發(fā)者能夠向公眾與規(guī)制者說明其人工智能的安全可信。
實(shí)際上,由于上述內(nèi)在困難早已存在,這一定位與細(xì)化并非新鮮事物。亦有證研究顯示:算法解釋的有效性往往取決于解釋主體的披露意愿、解釋對象的理解能力、解釋技術(shù)的匹配性,其后果十分不確定;而且算法解釋與算法信任之間的關(guān)系其實(shí)既不充分、也不必要,算法信任更多取決于場景的信任基礎(chǔ)、人機(jī)判斷的一致性等因素。但生成式人工智能對技術(shù)復(fù)雜性、利益沖突與人機(jī)之分的放大,必將有力推動這一合理定位與規(guī)則細(xì)化的加速發(fā)展,從而促使整個人工智能規(guī)制的體系結(jié)構(gòu)更為合理,實(shí)施效果更為良好。
就此而言,《生成式人工智能服務(wù)管理暫行辦法》的相關(guān)規(guī)定既未有別于以往規(guī)定,亦未突出新的定位、細(xì)化新的規(guī)則。其第4條第5項規(guī)定了過程透明的一般原則:“提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會公德和倫理道德,遵守以下規(guī)定:(五)基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度……”其第17條規(guī)定了備案與安全評估制度:“提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。”其19條第1款規(guī)定了對有關(guān)主管部門的說明義務(wù):“有關(guān)主管部門依據(jù)職責(zé)對生成式人工智能服務(wù)開展監(jiān)督檢查,提供者應(yīng)當(dāng)依法予以配合,按要求對訓(xùn)練數(shù)據(jù)來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機(jī)制機(jī)理等予以說明,并提供必要的技術(shù)、數(shù)據(jù)等支持和協(xié)助。”
但如何在不可能完全了解的前提下對生成式人工智能保持控制或產(chǎn)生信任? 前者需要下文所述對結(jié)果與數(shù)據(jù)的控制,此處不贅;后者則需要開發(fā)者以信任為目標(biāo),對生成式人工智能進(jìn)行適當(dāng)?shù)男畔⑴?/span>。其實(shí),由于神經(jīng)科學(xué)、腦科學(xué)的發(fā)展有限,我們對人類智能亦不完全了解,亦有黑箱問題。但我們能夠信任人類決策,一方面是因?yàn)槲覀兺ㄟ^一系列制度設(shè)計而最小化了決策錯誤的風(fēng)險,更重要的另一方面則是因?yàn)槲覀兗词共煌耆斫獯竽X運(yùn)行過程,也基本了解一般思維過程,而這一了解基于我們實(shí)際思維的經(jīng)驗(yàn)與越來越多的科學(xué)知識積累。
所以,盡管存在前述困難,欲使生成式人工智能獲得更多公眾與決策者支持,技術(shù)開發(fā)者仍應(yīng)當(dāng)善意地進(jìn)行適當(dāng)?shù)男畔⑴?/span>,使二者更為了解技術(shù)的運(yùn)行過程與可能產(chǎn)生的價值與風(fēng)險。例如,生成式人工智能的開發(fā)者可以定期發(fā)布透明度報告,詳細(xì)說明人工智能的工作原理、數(shù)據(jù)收集和處理方式,以及算法決策過程;或通過舉辦公開的網(wǎng)絡(luò)研討會、工作坊或講座,向公眾解釋生成式人工智能技術(shù)的最新進(jìn)展、應(yīng)用案例和潛在社會影響;抑或在設(shè)計生成式人工智能的用戶界面時,采用更直觀、易懂的方式展示其工作流程和決策結(jié)果。
甚至,有時候信任并不基于更充分的信息披露,而是基于長期交易形成的穩(wěn)定預(yù)期:這需要新技術(shù)的開發(fā)者將用戶更深地納入生成式人工智能的開發(fā)、應(yīng)用與優(yōu)化的全生命周期,在親身參與中增強(qiáng)用戶對算法的理解與信任,消除對技術(shù)黑箱的恐懼。
在開發(fā)階段,開發(fā)者可以通過用戶調(diào)研、焦點(diǎn)小組討論或共同創(chuàng)造工作坊,邀請用戶參與到人工智能產(chǎn)品的初步設(shè)計中。在應(yīng)用階段,為了幫助用戶更好地理解人工智能技術(shù),開發(fā)者可以提供在線教程、用戶手冊或互動式學(xué)習(xí)模塊,解釋人工智能的工作原理、優(yōu)勢和局限性;同時,開發(fā)者應(yīng)當(dāng)努力提高人工智能的透明度,通過可視化工具或解釋性界面,向用戶展示算法的決策過程。在優(yōu)化階段,開發(fā)者可以建立一個持續(xù)的反饋機(jī)制,讓用戶能夠報告使用中出現(xiàn)的問題,對人工智能的實(shí)際表現(xiàn)進(jìn)行評價,進(jìn)而提出改進(jìn)建議,幫助開發(fā)者對技術(shù)進(jìn)行迭代優(yōu)化。此外,開發(fā)者還可以建立用戶社區(qū),提供一個平臺讓用戶分享經(jīng)驗(yàn)、交流技巧,并與開發(fā)者就人工智能技術(shù)可能帶來的風(fēng)險和倫理問題進(jìn)行坦誠的直接溝通,并展示他們?yōu)榇_保安全和公正所采取的措施,建立更深層次的共生式合作關(guān)系。
二、 更占主導(dǎo)地位的結(jié)果規(guī)制
(一) 結(jié)果規(guī)制的具體要求與內(nèi)在困難
人工智能的結(jié)果規(guī)制要求輸出結(jié)果安全可控、公平公正,不得造成損害與歧視,本質(zhì)是要求人工智能作為技術(shù)工具必須以人為本,服務(wù)于社會公共利益,既不能侵犯社會整體利益,也不能侵犯組成社會的部分(特別是弱勢)群體之利益。
一方面,人工智能應(yīng)當(dāng)保證安全可控,不得對國家安全、社會公共安全與私人人身財產(chǎn)安全造成損害。例如,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第6條:“算法推薦服務(wù)提供者應(yīng)當(dāng)堅持主流價值導(dǎo)向,優(yōu)化算法推薦服務(wù)機(jī)制,積極傳播正能量,促進(jìn)算法應(yīng)用向上向善。算法推薦服務(wù)提供者不得利用算法推薦服務(wù)從事危害國家安全和社會公共利益、擾亂經(jīng)濟(jì)秩序和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動,不得利用算法推薦服務(wù)傳播法律、行政法規(guī)禁止的信息,應(yīng)當(dāng)采取措施防范和抵制傳播不良信息。”而第7條—第15條通過制度建設(shè)、技術(shù)審核、信息安全管理、用戶標(biāo)簽管理、頁面生態(tài)管理、新聞服務(wù)許可、反壟斷與不正當(dāng)競爭等具體措施落實(shí)了正向引導(dǎo)與守住底線的信息服務(wù)管理要求?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第6條第1款規(guī)定的原則與之類似,第2款特別強(qiáng)調(diào)虛假新聞信息治理:“深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息。轉(zhuǎn)載基于深度合成服務(wù)制作發(fā)布的新聞信息的,應(yīng)當(dāng)依法轉(zhuǎn)載互聯(lián)網(wǎng)新聞信息稿源單位發(fā)布的新聞信息。”第7條—第13條亦以前述類似方式落實(shí)了信息服務(wù)管理要求。
另一方面,人工智能應(yīng)當(dāng)保持公平公正,不得根據(jù)經(jīng)濟(jì)、政治或社會因素等實(shí)行不合理的差別待遇。例如,《個人信息保護(hù)法》第24條第1款:“個人信息處理者利用個人信息進(jìn)行自動化決策,應(yīng)當(dāng)保證決策……結(jié)果公平、公正,不得對個人在交易價格等交易條件上實(shí)行不合理的差別待遇。”《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第18條—第21條分別針對未成年人、老年人、勞動者、消費(fèi)者的權(quán)利規(guī)定專門的結(jié)果規(guī)制義務(wù),以加強(qiáng)對弱勢群體保護(hù)的方式維護(hù)社會公平。《國務(wù)院反壟斷委員會關(guān)于平臺經(jīng)濟(jì)領(lǐng)域的反壟斷指南》第17條進(jìn)一步羅列分析是否構(gòu)成交易上的差別待遇可以考慮的因素:“(一)基于大數(shù)據(jù)和算法,根據(jù)交易相對人的支付能力、消費(fèi)偏好、使用習(xí)慣等,實(shí)行差異性交易價格或者其他交易條件;(二)實(shí)行差異性標(biāo)準(zhǔn)、規(guī)則、算法;(三)實(shí)行差異性付款條件和交易方式。
然而,由于人工智能發(fā)展與安全之間不可避免的沖突,結(jié)果規(guī)制亦存在內(nèi)在困難。具體而言,安全可控與公平公正皆為模糊的標(biāo)準(zhǔn)或原則,在實(shí)際適用時無法為行為提供精確事前指引,特別可能為追求安全而有損技術(shù)效率的提高。例如,如果不比較自動駕駛汽車與非自動駕駛汽車的事故發(fā)生概率,僅以自動駕駛汽車可能發(fā)生事故、危害道路交通安全與其他司機(jī)、乘客、路人的人身財產(chǎn)安全為依據(jù),即有可能因過分追求結(jié)果的安全可控而阻礙產(chǎn)業(yè)發(fā)展。又如,如果不考慮新用戶優(yōu)惠、會員優(yōu)惠等合理的交易習(xí)慣與行業(yè)慣例,僅以電子商務(wù)平臺或共享經(jīng)濟(jì)平臺針對不同用戶實(shí)施差別待遇為依據(jù),即有可能因過分追求結(jié)果的公平公正而限制新經(jīng)濟(jì)發(fā)展。一般而言,輸出結(jié)果端承擔(dān)的更大合規(guī)壓力與潛在規(guī)制權(quán)力濫用不利于新技術(shù)“非法興起”:人工智能應(yīng)用可能被限制發(fā)展?jié)摿?/span>,包括當(dāng)前利益受損群體在內(nèi)的整個社會可能錯失由人工智能發(fā)展而帶來的卡爾多—??怂垢倪M(jìn)。
(二) 生成式人工智能對結(jié)果規(guī)制的挑戰(zhàn)
生成式人工智能從輸出結(jié)果觀之,反而并未對現(xiàn)行規(guī)制體系提出更新更大挑戰(zhàn),因?yàn)槠鋵?shí)際功能類似搜索算法,其結(jié)果規(guī)制亦可參考對搜索算法采取的既有規(guī)制措施。誠然,二者技術(shù)原理完全不同,輸出結(jié)果亦有所差別:搜索算法輸出的是用戶所需要的信息集合,實(shí)現(xiàn)的是人與信息的匹配功能;生成式人工智能輸出的是用戶所需要的直接信息,實(shí)現(xiàn)的是信息的生產(chǎn)功能。但就技術(shù)功能,特別是用戶體驗(yàn)而言,二者皆是以用戶輸入信息為基礎(chǔ),通過算法獲得與該信息中所包含的意圖最匹配的結(jié)果,為用戶提供其希望獲得的信息,僅僅展示方式有所不同,前者僅僅提供問題相關(guān)的信息集合,后者可以直接提供答案而不需要用戶在搜索結(jié)果中進(jìn)一步篩選提煉。所以,生成式人工智能與搜索算法存在功能上的相似性。
司法實(shí)踐與行業(yè)實(shí)踐亦能佐證這一功能相似性。一方面,在域外司法實(shí)踐中,搜索引擎平臺為抵制算法規(guī)制,主張自身通過算法計算和展示的信息亦構(gòu)成一種言論,對算法的干預(yù)和規(guī)制是對言論自由的侵犯,于是更加類似生成式人工智能所提供的“回答”。更何況,互聯(lián)網(wǎng)自誕生之初即背負(fù)了究竟是管道還是編輯、應(yīng)當(dāng)承擔(dān)多大程度責(zé)任的爭議,其“編輯”身份以及此后互聯(lián)網(wǎng)平臺對用戶言論越來越大的引導(dǎo)與治理能力,也與生成式人工智能所提供的回答越發(fā)相似。另一方面,谷歌與微軟此搜索引擎領(lǐng)域的互聯(lián)網(wǎng)二巨頭皆積極引入生成式人工智能,用來彌補(bǔ)當(dāng)前搜索引擎無法精準(zhǔn)回答問題的短板,以提高搜索效率與用戶體驗(yàn)。百度搜索也迅速整合自家生產(chǎn)的生成式人工智能“文心一言”,試圖發(fā)揮中文語料數(shù)據(jù)積累的優(yōu)勢,努力在又一輪新技術(shù)競爭中不落人后。由此亦可見,生成式人工智能在很大程度上可以增強(qiáng)甚至替代搜索引擎。
從互聯(lián)網(wǎng)發(fā)展的更長時間維度觀之,生成式人工智能的發(fā)展事實(shí)上與互聯(lián)網(wǎng)平臺的發(fā)展之間具有內(nèi)在的契合關(guān)系,因而在規(guī)制上可以保持一定程度延續(xù)性。一般而言,互聯(lián)網(wǎng)平臺運(yùn)用數(shù)據(jù)與算法為工具來調(diào)配零散社會資源,從而在企業(yè)內(nèi)部建立雙邊市場,其數(shù)字性成為其雙邊性的基礎(chǔ)。具體而言,搜索算法與推薦算法以用戶輸入信息為基礎(chǔ),結(jié)合用戶填寫與行為表現(xiàn)出的其他信息,以及商品、服務(wù)、信息提供者信息,為用戶提取并按一定順序展示其最可能想要的東西,從而促成市場交易。然而零散社會資源的調(diào)配仍然存在效率上限,而新信息技術(shù)的能力尚未充分發(fā)揮,因此以匹配為核心的互聯(lián)網(wǎng)平臺模式具有向以生產(chǎn)為核心的模式轉(zhuǎn)型的趨勢。對信息而言,這意味著不能僅僅提供信息集合,而最好直接提供答案。于是,互聯(lián)網(wǎng)平臺的雙邊性被其數(shù)字性所揚(yáng)棄,最終成為主動提供信息、商品與服務(wù)的單邊平臺,進(jìn)而需要生成式人工智能的技術(shù)支持,正如搜索引擎向ChatGPT的發(fā)展。
更進(jìn)一步,生成式人工智能與互聯(lián)網(wǎng)平臺模式的本質(zhì)相似性不僅在于前者代表了后者與匹配式人工智能的未來發(fā)展方向,還在于其訓(xùn)練、運(yùn)行、評估與優(yōu)化的過程即互聯(lián)網(wǎng)平臺模式的復(fù)刻。生成式人工智能一方面收集了海量數(shù)據(jù)用于訓(xùn)練、評估與優(yōu)化模型,另一方面收集了用戶輸入信息作為生產(chǎn)內(nèi)容的提示詞,事實(shí)上是將搜索引擎的信息提供者一端后置并內(nèi)化于己。也正因此,它才與匹配式人工智能在數(shù)據(jù)輸入與模型訓(xùn)練方面存在相似性,并與搜索引擎輸出類似的結(jié)果、具有相似的利益分配問題。在這個意義上,它也最能體現(xiàn)互聯(lián)網(wǎng)平臺的主體地位、其信息內(nèi)容的言論性質(zhì):它不僅是信息編輯,還是社論作者,因此在享受言論自由、著作權(quán)等權(quán)利的同時也應(yīng)承擔(dān)相應(yīng)的法律責(zé)任。
(三) 結(jié)果規(guī)制的繼續(xù)適用與總體反思
既然生成式人工智能從輸出結(jié)果觀之,并未提出本質(zhì)上有別的規(guī)制問題,而且由于上文所述生成式人工智能技術(shù)所致公開透明的過程規(guī)制進(jìn)路的更大局限性,輸出結(jié)果的合法合規(guī)更應(yīng)占據(jù)生成式人工智能規(guī)制乃至一般人工智能規(guī)制體系的主導(dǎo)地位。因?yàn)樵購?fù)雜的技術(shù)也必然要產(chǎn)生現(xiàn)實(shí)的后果與影響,而這可以成為規(guī)制的起點(diǎn),而且結(jié)果規(guī)制也是公共權(quán)力機(jī)關(guān)更為擅長判斷、無須借助技術(shù)輔助人員的領(lǐng)域。正如我們對專業(yè)人士的信任往往基于其結(jié)果成功率(律師的勝訴率、醫(yī)生的治愈率、老師的學(xué)生合格率、政客的承諾兌現(xiàn)率等)而非對其專業(yè)過程的了解或理解,如果能夠通過對生成式人工智能的輸出結(jié)果施以法律法規(guī)的相關(guān)要求從而進(jìn)行控制,證明不會造成損害后果,只會創(chuàng)造社會價值,那么即使我們不完全了解其技術(shù)過程,也不用擔(dān)心其“失控”,因而可以進(jìn)行使用。如果無法控制其后果、證明其無害,那么限制甚至?xí)壕徠涫褂镁褪歉鼮榭扇〉慕鉀Q方案。前述方案無須涉及困難的技術(shù)認(rèn)定,可以轉(zhuǎn)而將此問題拋回給更有能力的技術(shù)人員。因此,結(jié)果規(guī)制的主導(dǎo)適用與過程規(guī)制的配合,也意味著法律人與技術(shù)人員之間更為合理的勞動分工。
就此而言,《生成式人工智能服務(wù)管理暫行辦法》的相關(guān)規(guī)定亦未有別于以往規(guī)定。其第4條第(一)(二)(三)(四)項規(guī)定了結(jié)果合規(guī)的基本原則:“(一)堅持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;(二)在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視;(三)尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實(shí)施壟斷和不正當(dāng)競爭行為;(四)尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個人信息權(quán)益。”該法第9條第1款前段規(guī)定了其一般性網(wǎng)絡(luò)信息安全義務(wù):“提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。”該法第14條規(guī)定了發(fā)現(xiàn)違法內(nèi)容以后應(yīng)當(dāng)采取的措施:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報告。提供者發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動的,應(yīng)當(dāng)依法依約采取警示、限制功能、暫?;蛘呓K止向其提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報告。”
首先,就結(jié)果合規(guī)而言,更具體的首要要求仍應(yīng)當(dāng)是安全可控,防止新技術(shù)對國家安全、社會公共安全以及私人人身財產(chǎn)安全造成損害。既然人工智能生成的是“內(nèi)容”,那么對其適用有關(guān)內(nèi)容治理的法律法規(guī)并配備相應(yīng)人工審核與用戶反饋機(jī)制,便理所當(dāng)然:《網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》中的“九不準(zhǔn)”規(guī)定能夠有效守護(hù)內(nèi)容安全底線,前述《生成式人工智能服務(wù)管理暫行辦法》第4條也基本予以延續(xù)。但由于生成式人工智能的技術(shù)原理決定了其特別可能產(chǎn)生幻覺(Hallucination),即根據(jù)預(yù)訓(xùn)練而得到的模式和規(guī)律對下一個單詞不斷進(jìn)行預(yù)測,對形式連貫的追求壓倒了對內(nèi)容正確的追求,最終生成形式規(guī)范但實(shí)質(zhì)錯誤的信息,真?zhèn)坞y辨,而且數(shù)量往往巨大或潛藏于海量信息中,因此其內(nèi)容安全問題面臨特別的困難。對此,當(dāng)前解決方案主要是以內(nèi)容標(biāo)識引起用戶更多警覺(《生成式人工智能服務(wù)管理暫行辦法》第12條),但應(yīng)當(dāng)注意標(biāo)識的醒目程度、實(shí)際作用。未來則期待技術(shù)進(jìn)一步發(fā)展,減輕甚至消除幻覺問題或針鋒相對地開發(fā)審核算法。
其次,結(jié)果合規(guī)還要求生成式人工智能的輸出結(jié)果必須保持公平公正,不能根據(jù)經(jīng)濟(jì)、政治或社會因素進(jìn)行不合理的差別對待。生成式人工智能可能會產(chǎn)生偏見差異,給某些群體的人物賦予不正確或負(fù)面的特征;也可能會導(dǎo)致聚焦不足,更關(guān)注一部分群體的信息而忽略其他群體;還可能輸出帶有歧視性或侮辱性的語言表達(dá)。所以,需要在訓(xùn)練過程中確保數(shù)據(jù)多樣、平衡并正確標(biāo)記以外,對生成內(nèi)容進(jìn)行監(jiān)督和審查,及時發(fā)現(xiàn)并糾正其中可能存在的歧視,確保輸出結(jié)果的公平公正;同時建立用戶反饋機(jī)制,鼓勵用戶向開發(fā)者報告其中可能存在的歧視,以便及時修正與改進(jìn);特別是,需要利用公眾智慧,發(fā)現(xiàn)掩蓋在合理差別對待之下的不合理之處,將深層的歧視問題揭露出來。
最后,不論安全可控還是公平公正,本質(zhì)上都是要求生成式人工智能作為技術(shù)工具必須以人為本,服務(wù)于社會公共利益。更大法律責(zé)任的施加確實(shí)會使生成式人工智能的發(fā)展負(fù)擔(dān)更高成本,但據(jù)此認(rèn)為其發(fā)展將會受到阻礙,可能造成更大的不安全或社會福利損失,或許也使之偏頗。因?yàn)椴徽撌前l(fā)展還是治理生成式人工智能,本質(zhì)上都是為了社會公共利益的增進(jìn),只不過采取的方法不同,相應(yīng)的成本收益計算亦有差異。如果不施加必要的結(jié)果規(guī)制要求,放任技術(shù)自由發(fā)展,那么掌握技術(shù)的數(shù)字平臺與數(shù)字資本只會考慮如何才能最大限度地增進(jìn)自身利益,技術(shù)發(fā)展的社會成本往往無法進(jìn)入其成本收益計算。不能因?yàn)槭┘右?guī)制要求而產(chǎn)生的成本更為明顯可見,即無視自由發(fā)展可能產(chǎn)生的另一方面成本。
三、 更需利益平衡的數(shù)據(jù)合規(guī)
(一) 數(shù)據(jù)合規(guī)的具體要求與內(nèi)在困難
人工智能的數(shù)據(jù)合規(guī)要求輸入數(shù)據(jù)遵守個人信息保護(hù)、著作權(quán)保護(hù)與正當(dāng)競爭的三方面法律要求。
就個人信息保護(hù)而言,首先,處理個人信息的前提是滿足法律規(guī)定的合法性基礎(chǔ),其中最重要者為取得個人的知情同意。其次,處理個人信息應(yīng)當(dāng)滿足目的限定、最小化要求,并提供退出選項。最后,即使是合法公開的個人信息,處理也應(yīng)當(dāng)限定在合理的范圍內(nèi),并且排除個人明確拒絕的部分,同時在對個人權(quán)益有重大影響時應(yīng)再次取得個人同意。就著作權(quán)保護(hù)而言,人工智能企業(yè)需要或取得著作權(quán)人許可,或在無權(quán)使用時進(jìn)行侵權(quán)損害賠償,除非構(gòu)成合理使用。就正當(dāng)競爭而言,人工智能企業(yè)利用數(shù)據(jù)爬蟲獲取其他企業(yè)數(shù)據(jù)可能構(gòu)成不正當(dāng)競爭,甚至非法侵入計算機(jī)信息系統(tǒng)罪、非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù)、非法控制計算機(jī)信息系統(tǒng)罪。
不論是個人信息保護(hù)、著作權(quán)保護(hù)、競爭法規(guī)制,都面臨數(shù)據(jù)保護(hù)與利用之平衡的內(nèi)在困難。一方面是個人信息主體、著作權(quán)人、數(shù)據(jù)持有者的利益需要得到保護(hù),否則可能造成信息隱私、信息自決受侵犯,創(chuàng)新創(chuàng)造激勵不足,企業(yè)經(jīng)營受到不正當(dāng)影響等負(fù)面后果。在互聯(lián)網(wǎng)“非法興起”的過程中,個人權(quán)利、傳統(tǒng)行業(yè)所受損害即可成為佐證。另一方面,過度保護(hù)個人信息、著作權(quán)、數(shù)據(jù)持有者權(quán)益,也不利于數(shù)據(jù)的充分流通利用與新技術(shù)、新產(chǎn)業(yè)的充分發(fā)展壯大,甚至可能不符合個人信息主體、著作權(quán)人、數(shù)據(jù)持有者的利益,因?yàn)閿?shù)據(jù)流通利用也對他們的利益有所促進(jìn),例如個人可以享受更為精準(zhǔn)的推薦服務(wù),著作權(quán)人可以擴(kuò)大自己的聲譽(yù)收益并便捷利用他人著作權(quán)展開進(jìn)一步創(chuàng)作,數(shù)據(jù)持有者可以分享數(shù)據(jù)匯集與處理而產(chǎn)生的更多收益。因此,《個人信息保護(hù)法》通過知情同意以外的其他合法性基礎(chǔ)、合法公開信息的合理處理、敏感信息與非敏感信息的區(qū)分等,《著作權(quán)法》通過合理使用、法定許可、思想與表達(dá)二分等,《反不正當(dāng)競爭法》通過個案利益衡量,來平衡數(shù)據(jù)保護(hù)與利用,從而服務(wù)于人工智能發(fā)展與安全之平衡。
(二) 生成式人工智能對數(shù)據(jù)合規(guī)的挑戰(zhàn)
生成式人工智能的訓(xùn)練與優(yōu)化同樣需要數(shù)據(jù),而且其規(guī)模之大令個人信息保護(hù)、著作權(quán)保護(hù)與正當(dāng)競爭方面的法律風(fēng)險劇增。首先,需要收集大量各種來源和類型的數(shù)據(jù),并進(jìn)行預(yù)處理來清洗和統(tǒng)一格式;然后,根據(jù)任務(wù)的特點(diǎn)和需求,選擇合適的生成式模型,將輸入數(shù)據(jù)投喂給模型,使之通過監(jiān)督學(xué)習(xí)或無監(jiān)督學(xué)習(xí)掌握其中的統(tǒng)計規(guī)律來生成輸出;最后,通過驗(yàn)證和評估,不斷調(diào)整參數(shù),優(yōu)化模型性能,直至達(dá)到所需的水平,具備生成高質(zhì)量、多樣化的輸出的能力。這一過程的每一步都需要海量數(shù)據(jù)支持,于是可能與個人信息保護(hù)、著作權(quán)保護(hù)、正當(dāng)競爭等要求相沖突,需要確保數(shù)據(jù)合規(guī),免除相關(guān)法律風(fēng)險,進(jìn)而避免經(jīng)由數(shù)據(jù)訓(xùn)練與優(yōu)化而得的算法輸出可能造成損害的結(jié)果。
前述數(shù)據(jù)來源非常廣泛,但類型上主要包括公開數(shù)據(jù)、購買數(shù)據(jù)、內(nèi)部數(shù)據(jù)這三個方面,并分別面臨不同程度的數(shù)據(jù)合規(guī)風(fēng)險。
其一,公開數(shù)據(jù),既包括政府機(jī)構(gòu)、學(xué)術(shù)機(jī)構(gòu)或部分企業(yè)發(fā)布的公開數(shù)據(jù)(如ImageNet、COCO、WMT等),也包括通過自動化的網(wǎng)絡(luò)爬蟲技術(shù)從互聯(lián)網(wǎng)上收集數(shù)據(jù)(如網(wǎng)頁內(nèi)容、用戶生成內(nèi)容、新聞作品等)。就個人信息保護(hù)而言,這一部分?jǐn)?shù)據(jù)的合規(guī)要求看似較輕,只需滿足公開個人信息處理所需的合理范圍、拒絕例外與部分單獨(dú)同意即可。但合理范圍的界定并非易事,而且生成式人工智能訓(xùn)練所需的數(shù)據(jù)規(guī)模將導(dǎo)致拒絕例外與部分單獨(dú)同意的合規(guī)壓力仍然過大,更何況聯(lián)系公開數(shù)據(jù)主體更為困難。就著作權(quán)保護(hù)而言,由于受法律保護(hù)的作品認(rèn)定標(biāo)準(zhǔn)較低,因此公開數(shù)據(jù)中很可能包含大量著作權(quán),特別是用戶生成內(nèi)容與新聞作品,因此生成式人工智能訓(xùn)練將背負(fù)沉重的著作權(quán)合規(guī)負(fù)擔(dān),更何況孤兒作品的存在亦將進(jìn)一步增大這一負(fù)擔(dān)。就正當(dāng)競爭而言,上文已述,網(wǎng)絡(luò)爬蟲引發(fā)的糾紛是互聯(lián)網(wǎng)不正當(dāng)競爭的重災(zāi)區(qū),即使行為不構(gòu)成侵犯個人信息或著作權(quán),反不正當(dāng)競爭亦可能成為生成式人工智能數(shù)據(jù)合規(guī)的兜底條款。
其二,購買數(shù)據(jù),既包括從數(shù)據(jù)供應(yīng)商處購買的特定類型的專業(yè)數(shù)據(jù)集(如醫(yī)學(xué)、法律、金融等領(lǐng)域的專業(yè)文獻(xiàn)和報告),也包括通過眾包平臺收集的、用戶用以換取獎勵或認(rèn)可的數(shù)據(jù)(如百度眾包、螞蟻眾包、網(wǎng)易眾包等),還包括合作伙伴和第三方的數(shù)據(jù)。這一部分?jǐn)?shù)據(jù)由于已支付被推定為合理的對價,因此法律風(fēng)險相對較小。但仍然存在問題:一方面是數(shù)據(jù)供應(yīng)者自身是否有權(quán)出售、傳輸相關(guān)數(shù)據(jù),是否向個人告知其個人信息接收方的名稱或姓名、聯(lián)系方式、處理目的、處理方式和個人信息的種類,并取得個人的單獨(dú)同意,或者是否著作權(quán)人或取得著作權(quán)人許可。另一方面是,作為數(shù)據(jù)購買者與接收者的生成式人工智能企業(yè),是否在前述處理目的、處理方式和個人信息的種類等范圍內(nèi)處理個人信息,或重新取得個人同意以變更原先的處理目的、處理方式,以及是否在許可的范圍、性質(zhì)、地域、期限內(nèi)使用著作權(quán)。
其三,內(nèi)部數(shù)據(jù),既包括企業(yè)自己收集和生成的數(shù)據(jù),也包括通過計算機(jī)模擬生成的、用于在沒有足夠真實(shí)世界數(shù)據(jù)的情況下訓(xùn)練模型的數(shù)據(jù)。這一部分數(shù)據(jù)的合規(guī)要求更輕一些,不僅因?yàn)槠渌急戎剌^小,更因?yàn)槠淅嫦嚓P(guān)方較少也較容易確定,法律關(guān)系相對簡單。但輕重只是相對的,企業(yè)自己收集數(shù)據(jù)仍然需要滿足前述法律法規(guī)要求,相關(guān)負(fù)擔(dān)并未免除。
(三) 數(shù)據(jù)合規(guī)的利益平衡與法律解釋
生成式人工智能作為新興數(shù)字技術(shù)對海量數(shù)據(jù)的需求進(jìn)一步放大了數(shù)據(jù)保護(hù)與利用之平衡的困難。如果在數(shù)據(jù)處理方面對其施以個人信息保護(hù)、著作權(quán)保護(hù)、正當(dāng)競爭維護(hù)相關(guān)的過重責(zé)任,可能不利于其長遠(yuǎn)發(fā)展及其可能帶來的正面社會收益之釋放,更不利于我國在新一輪技術(shù)革命中競爭主導(dǎo)地位。因此,《生成式人工智能服務(wù)管理暫行辦法》第7條第(一)項要求“使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型”,事實(shí)上即可能賦予企業(yè)過重的法律負(fù)擔(dān),可能引發(fā)個人信息與著作權(quán)相關(guān)權(quán)利人的維權(quán),或數(shù)據(jù)持有者提起的反不正當(dāng)競爭訴訟,而考慮到生成式人工智能所用數(shù)據(jù)的超大規(guī)模,海量維權(quán)行動不僅難以為技術(shù)開發(fā)者所承受,亦難以為法院等公權(quán)力機(jī)關(guān)所承受。
因此,就個人信息而言,原則上可以繼續(xù)遵守相關(guān)合規(guī)要求:以取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形作為處理基礎(chǔ),完善告知同意、退出機(jī)制、利益補(bǔ)償,并且收集真實(shí)、準(zhǔn)確、客觀、多樣的訓(xùn)練數(shù)據(jù),覆蓋不同種族、性別、年齡、文化等群體,避免產(chǎn)生偏見,同時確保正確標(biāo)注訓(xùn)練數(shù)據(jù),以消除可能存在的質(zhì)量低下或不公對待問題。《生成式人工智能服務(wù)管理暫行辦法》第7條第(三)(四)(五)項,第8條,第11條即延續(xù)這一合規(guī)思路。但規(guī)制上的改進(jìn)方案或許可以包括:更多側(cè)重個人同意以外的合法性基礎(chǔ);擴(kuò)大解釋處理目的以免除處理限制;對合法公開之個人信息的處理適當(dāng)放松規(guī)制要求,令“合理范圍”適當(dāng)擴(kuò)大,減少拒絕例外與部分單獨(dú)同意的適用。
就著作權(quán)而言,合理使用制度的適當(dāng)解釋可以成為平衡著作權(quán)保護(hù)與利用的重要杠桿。如果生成式人工智能對著作權(quán)的使用僅僅是為訓(xùn)練模型的目的,而非生成可能與之競爭市場份額、減少其市場收益的作品,那么認(rèn)定為合理使用便更可能得到支持。因?yàn)?/span>“為個人學(xué)習(xí)、研究或者欣賞,使用他人已經(jīng)發(fā)表的作品”屬于合理使用,生成式人工智能的訓(xùn)練過程雖與人類學(xué)習(xí)過程不同,但仍然屬于廣義的學(xué)習(xí),即輸入知識而獲得智能的過程。更重要的是,這一技術(shù)發(fā)展亦能進(jìn)一步賦能創(chuàng)作者,使之具有更強(qiáng)大的工具或受到更意外的啟發(fā)。但如果將生成式人工智能輸出的結(jié)果認(rèn)定為作品、享有著作權(quán),那么相應(yīng)地其訓(xùn)練過程對著作權(quán)的使用就要取得許可并支付合理對價。
就正當(dāng)競爭而言,應(yīng)當(dāng)保持反不正當(dāng)競爭規(guī)制的謙抑性,避免固化既得利益者利益,對新興技術(shù)與產(chǎn)業(yè)發(fā)展造成阻礙。一般而言,生成式人工智能企業(yè)對公開數(shù)據(jù)的使用并未觸及法律或社會規(guī)范的底線,如果進(jìn)行競爭法規(guī)制,或許僅僅維護(hù)了既得利益者利益,而對競爭秩序乃至社會福利促進(jìn)有限。具體而言,《反不正當(dāng)競爭法》第2條的一般條款過于寬泛,可能成為口袋條款,應(yīng)當(dāng)限制適用,避免法律規(guī)制“吃力不討好”。但社會規(guī)范、商業(yè)習(xí)慣、行業(yè)慣例仍然可以發(fā)揮柔性規(guī)制作用,逐漸形成穩(wěn)定規(guī)則以后再指導(dǎo)法律或上升為法律。誠然,數(shù)據(jù)的保護(hù)與利用之間存在很大程度非此即彼的競爭關(guān)系,如果加強(qiáng)利用則必然意味著減輕保護(hù),但如果為了取得更大的卡爾多—??怂垢倪M(jìn),或許不得不兩害相權(quán)取其輕,為生成式人工智能的發(fā)展及其可能創(chuàng)造的更大社會效益,暫時犧牲部分?jǐn)?shù)據(jù)保護(hù)相關(guān)利益。但應(yīng)當(dāng)牢記,平衡數(shù)據(jù)保護(hù)與利用所創(chuàng)造的更大社會效益應(yīng)當(dāng)更普遍地惠及更廣大的社會群體,而非使投入巨大社會成本而得到的生成式人工智能成為少數(shù)人謀取利益的工具,而這需要對生成式人工智能的輸出結(jié)果施加如上所述的規(guī)制要求。
結(jié)語:反思人工智能規(guī)制
本文探討生成式人工智能的法律規(guī)制,是以現(xiàn)行人工智能規(guī)制體系為基礎(chǔ),結(jié)合生成式人工智能從輸入、運(yùn)行到輸出各環(huán)節(jié)的特點(diǎn),考察是否存在無法回應(yīng)的規(guī)制挑戰(zhàn),最后微調(diào)整個規(guī)制方案,使之不僅更適合于生成式人工智能規(guī)制,也成為更合理的人工智能規(guī)制總體方案??傮w而言,這一規(guī)制方案仍遵循場景化思路,但以技術(shù)分析與比較為基礎(chǔ),避免陷入過于一事一議的“特別規(guī)制”陷阱,不至于對新技術(shù)給予過多豁免或施加過重負(fù)擔(dān),也使得各類新技術(shù)的規(guī)制能夠有所統(tǒng)一。因此在結(jié)語部分,本文希望對人工智能規(guī)制乃至更一般的技術(shù)規(guī)制,展開方法論上的反思。
場景化規(guī)制方法是應(yīng)對新技術(shù)問題、特別是新技術(shù)的復(fù)雜性與利益沖突的有力工具。但場景化方法本身面臨三方面問題:首先是實(shí)質(zhì)性不足,場景理論與具體問題具體分析似乎并不存在本質(zhì)性差別,而現(xiàn)實(shí)執(zhí)法所常用的分類分級管理亦是一種場景化,因此多引入一個理論標(biāo)簽?zāi)軌驅(qū)Ψ治鎏峁┑膶?shí)質(zhì)性幫助相當(dāng)有限;其次是公平性有欠,由于其缺乏體系性,可能造成橫向與縱向的不一致,不利于相對于個案公平的普遍公平,而分析效率也由于場景的具體性而喪失,導(dǎo)致效率與公平皆有所不足;最后是循環(huán)論證,由于法律本身對特定場景的行為預(yù)期即有規(guī)范,因此以場景分析來細(xì)化法律規(guī)定,存在循環(huán)論證的隱憂,并且由于新技術(shù)對現(xiàn)行社會秩序與利益格局的擾亂而缺乏相應(yīng)的社會規(guī)范共識,從而更加依賴制定法對新問題的判斷。所以,看似完美的場景化規(guī)制方法事實(shí)上并不完美,實(shí)質(zhì)性不足、公平性有欠、可能導(dǎo)致循環(huán)論證等問題大大減損了其實(shí)際效用。
因此,有學(xué)者試圖以體系化、模塊化規(guī)制方法替代場景化規(guī)制方法,以自主程度的大小、風(fēng)險程度的高低為依據(jù),對新技術(shù)進(jìn)行成體系、分模塊的規(guī)制。但在操作層面,自主程度與風(fēng)險高低兩個指標(biāo)之間并不獨(dú)立,而是相互糾纏、難以分割,因此并不適于作為劃分依據(jù);而且以風(fēng)險高低作為評價指標(biāo),容易混淆風(fēng)險類型與風(fēng)險程度,導(dǎo)致規(guī)制誤判, 而以自主程度作為評價指標(biāo),容易過于減輕開發(fā)者與使用者的責(zé)任,導(dǎo)致風(fēng)險與利益分配的不均衡。更重要的是在原則層面,體系化、模塊化規(guī)制方法仍然需要落實(shí)到具體場景,針對具體場景進(jìn)行適應(yīng),否則始終面臨一般規(guī)范與具體事實(shí)之間的鴻溝問題。因此,盡管體系化、模塊化規(guī)制方法有利于減輕場景化規(guī)制方法的實(shí)質(zhì)性不足與公平性有欠之問題,但其實(shí)質(zhì)內(nèi)容仍然有待填充,需要進(jìn)一步發(fā)展,而且無法完全免除場景化規(guī)制,毋寧說其是對場景化規(guī)制的考慮指標(biāo)所進(jìn)行的進(jìn)一步優(yōu)化。
還有學(xué)者以不同技術(shù)的不同功能作為區(qū)別規(guī)制的依據(jù),例如區(qū)分人工智能的生產(chǎn)性與輔助性功能。 然而本文分析顯示,功能主義規(guī)制方法可能并不具有普適性。對信息與數(shù)據(jù)的利用與保護(hù)問題而言,區(qū)分其展示性與輔助性功能,從而施以不同程度的保護(hù)水平,進(jìn)而合理促進(jìn)其利用,是合適的規(guī)制方法。但對算法與人工智能的規(guī)制問題而言,區(qū)分生產(chǎn)性與輔助性功能對規(guī)制所具有的實(shí)益可能有限:在技術(shù)比較視野下,不同功能的人工智能算法仍有過程、結(jié)果與數(shù)據(jù)方面的相似性,皆反映了數(shù)字平臺與數(shù)字資本的控制模式,需要解決發(fā)展與治理的協(xié)調(diào)問題。因此,功能主義規(guī)制方法在基于技術(shù)比較的場景化審視下,可能僅具有概念分類上的意義,而對技術(shù)規(guī)制的實(shí)質(zhì)貢獻(xiàn)有限,仍然需要回到場景化規(guī)制。
因此,由上述生成式人工智能的法律規(guī)制可見,雖然場景化規(guī)制方案具有實(shí)質(zhì)性不足、公平性有欠、可能導(dǎo)致循環(huán)論證等問題,但以自主程度、風(fēng)險高低或技術(shù)功能作為規(guī)制抓手,仍無法建構(gòu)有效的人工智能規(guī)制方案,不足以應(yīng)對具體技術(shù)提出的規(guī)制問題,很可能在區(qū)別規(guī)制與統(tǒng)一規(guī)制之間搖擺不定。因此,從具體技術(shù)的特點(diǎn)切入,通過與相似技術(shù)進(jìn)行比較,發(fā)現(xiàn)普遍的技術(shù)原理,再回歸技術(shù)細(xì)節(jié)的場景化規(guī)制,或許仍是相對可行可欲的規(guī)制方案。
原文刊載于《南大法學(xué)》2025年第2期,感謝微信公眾號“ 南大法學(xué)”授權(quán)轉(zhuǎn)載。