【作者】李學堯
【內(nèi)容提要】
人工智能立法的動態(tài)演化框架與制度設(shè)計
李學堯 上海交通大學凱原法學院教授、中國法與社會研究院企劃委員會委員
摘要:如何構(gòu)建兼具穩(wěn)定性與靈活性的人工智能立法框架是一個全球性議題。針對規(guī)范方法論主導下的人工智能立法思路可能引發(fā)的制度適用問題,應采取“適應型法”的立法思路。為了實現(xiàn)法律規(guī)則與技術(shù)演進的動態(tài)適配,還應結(jié)合本土實踐探索人工智能立法的“適應性法治”路徑:審慎對待體系化、部門法化的立法目標,盡量在傳統(tǒng)部門法的實體法框架中采用立改廢釋的方式實現(xiàn)人工智能的立法目標;動態(tài)適應性原則應是人工智能立法的核心原則;條款擬制應從“義務(wù)本位”轉(zhuǎn)向“行為激勵”;學理闡述需把重點放在如何建立“法治化”“中央底線規(guī)則+地方差異化試點+司法判例引導”的多層治理體系,進一步優(yōu)化“軟硬法協(xié)同”在內(nèi)的中國式法治實踐。這樣既可以延續(xù)中國改革開放以來“試驗—推廣”的制度創(chuàng)新傳統(tǒng),也可嘗試為全球技術(shù)治理貢獻具有普適價值的制度分析工具。
一、問題的提出
人工智能技術(shù)的指數(shù)式發(fā)展,正在重塑全球社會經(jīng)濟結(jié)構(gòu),其自主決策、跨域滲透與快速迭代的特性,使傳統(tǒng)法律體系面臨前所未有的適應性危機。人工智能立法最近成了中國法學界的熱門話題,其中,較多研究者傾向于構(gòu)建一部帶有基本法律性質(zhì)的《人工智能法》,通過體系化立法實現(xiàn)對人工智能治理的系統(tǒng)化規(guī)制。
人工智能立法需突破“類法典化”范式的路徑依賴,轉(zhuǎn)向“反脆弱性”的、更具彈性的“適應性法治”模式,采取一種通過局部試錯提升系統(tǒng)抗風險能力的動態(tài)立法思路。這一理論建構(gòu)基于以下現(xiàn)實矛盾:一方面,技術(shù)的高速迭代要求法律保持動態(tài)調(diào)適能力,要求治理框架具有與激勵相容的機制;另一方面,算法的社會嵌入性(如醫(yī)療診斷、司法裁判、金融風控)急需法律為公共利益、社會倫理劃定不可逾越的底線。更重要的是,規(guī)范方法意義上的人工智能法研究和實踐,實質(zhì)上仍需且基本可以借助傳統(tǒng)的民法學、行政法學等部門法體系,如果在未有系統(tǒng)化的理論建構(gòu)前提下,就貿(mào)然以一種“獨立的部門法化”的思路推進人工智能法的體系化立法,其結(jié)果帶來的很可能是“疊床架屋式”的立法,這種立法既會破壞現(xiàn)有法律體系的完整性,削弱現(xiàn)有法律體系的延續(xù)性和確定性,還會給人工智能行業(yè)中的各類主體帶來不同監(jiān)管部門“疊加”的高成本合規(guī)義務(wù),最后走向良好創(chuàng)新促進制度環(huán)境營造的反面。
為破解這一矛盾,本文倡導:第一,在立法理念上,進一步確定人工智能立法不以“自上而下”的體系化立法為目標,著重從問題意識出發(fā),遵循“適應型立法(修法)—試驗性實踐—反饋性修法”的動態(tài)立法模式,秉承“無必要不立法”“能用政策手段替代則就不立法”等原則,盡量在傳統(tǒng)部門法的實體法框架中通過立改廢釋的方式實現(xiàn)立法目標。第二,關(guān)于實操性的人工智能立法工作,應在“適應性法治”的思路下,遵循立法規(guī)律,基于“法律體系適用性的科學評估”等前置程序,通過對現(xiàn)有法律法規(guī)進行適配性修訂為主的原則,輔之以起草必要的單行法律、法規(guī)或者行政法規(guī),比如《人工智能倫理法》或者其他特別法。第三,在修改法律法規(guī)具體條款或者設(shè)計民間示范法時,應始終秉承“簡單規(guī)則—行為激勵—多元協(xié)同”三位一體的治理框架,通過設(shè)定最小安全與倫理底線(如算法透明性、數(shù)據(jù)主權(quán)歸屬),盡量保留法律規(guī)則的開放性;借助各類行為激勵措施(比如安全信用評級)等工具,建構(gòu)外部性風險內(nèi)部化的機制;依托地方政府試點、司法判例反饋與行業(yè)標準制定共同促進規(guī)則完善,等等。
本文試圖在以下三個方面進行創(chuàng)新性理論操作:其一,方法論上融合復雜適應系統(tǒng)理論與行為經(jīng)濟學,將法律視為多元主體博弈下的動態(tài)網(wǎng)絡(luò),突破傳統(tǒng)法教義學的靜態(tài)分析,超越傳統(tǒng)法律與創(chuàng)新研究中以市場激勵為主的制度設(shè)計思路;其二,實踐路徑上提煉中國“試驗—推廣”治理傳統(tǒng),構(gòu)建“中央底線約束—地方場景化試點—企業(yè)合規(guī)創(chuàng)新”的協(xié)同機制,為全球技術(shù)治理提供非西方中心主義的范式;其三,制度設(shè)計上提出以“行為激勵”為主要工具,聚焦人工智能外部風險內(nèi)部化的機制設(shè)計方向,實現(xiàn)行業(yè)、企業(yè)自律與國家立法的有機銜接。
二、基于人工智能適應性治理需求的適應型法
人工智能技術(shù)的“涌現(xiàn)性”與“不可逆性”正在顛覆傳統(tǒng)法學的認知范式。當深度學習模型以超越人類設(shè)計者預設(shè)邏輯的方式持續(xù)進化,當算法決策深度嵌入公共治理與私人生活的“毛細血管”,法律的滯后性事實上不再局限于“規(guī)則與事實的縫隙”,而演變?yōu)?/span>“制度理性與技術(shù)野性”的結(jié)構(gòu)性沖突。在此背景下,傳統(tǒng)法學理論在人工智能產(chǎn)業(yè)的監(jiān)管方面自然容易陷入三重適應性困境:靜態(tài)規(guī)則與動態(tài)技術(shù)的時空脫節(jié)、中心化立法與分布式創(chuàng)新的權(quán)力錯配、形式正義與算法“暴政”的價值撕裂。為回應這一危機,本文提出“適應型法”“適應性法治”的理論——一種以復雜適應系統(tǒng)為基礎(chǔ)、以多層級反饋為驅(qū)動、以“技術(shù)—法律—社會”共同演進為目標的范式革新,在此基礎(chǔ)上“重組”人工智能時代的法治形態(tài)。
(一)人工智能治理對法律“適應性”的需求
人工智能正在以高度動態(tài)化和不可預測的方式改變著社會生產(chǎn)與交往形態(tài)。在這個背景下,法律已經(jīng)無法通過一次性、靜態(tài)化、剛性化的規(guī)則設(shè)計來有效應對社會變化。倘若仍以“集中—固定”的法典式立法思路全面覆蓋豐富多樣的應用情境,難免產(chǎn)生法律滯后或過度束縛創(chuàng)新活動的風險。基于此,法律領(lǐng)域開始出現(xiàn)一種日益凸顯的“適應性”范式需求,即作為“技術(shù)—法律—社會”復雜適用系統(tǒng)的重要節(jié)點,法律制度需要通過“多次迭代、漸進完善”的范式來回應高速變動、異質(zhì)多樣的技術(shù)需求;需要通過嵌入“立法沙盒”“算法影響評估”等反身性工具,使法律具備“自我觀察—自我批判—自我更新”的能力。具體來說,這種適應性的范式轉(zhuǎn)變需求源于人工智能在技術(shù)層面呈現(xiàn)出前所未有的不確定性、不可解釋性。人工智能系統(tǒng)在運行過程中不斷進行自學習與參數(shù)優(yōu)化,算法“黑箱”與“可解釋性”不足等問題使法律對歸責方式、合規(guī)邊界的預先設(shè)定面臨嚴峻挑戰(zhàn)。這決定了法律如果沿用傳統(tǒng)“事前窮盡式”的立法模式,勢必會產(chǎn)生內(nèi)容滯后的風險。再者,人工智能應用跨越了醫(yī)療、交通、金融、公共服務(wù)等眾多領(lǐng)域,不同場景的監(jiān)管要求與風險敏感度各異,必須依托靈活的自我調(diào)整機制方能匹配具體需求。此外,企業(yè)在市場競爭與自主合規(guī)創(chuàng)新中積累了大量應用經(jīng)驗,若法律缺乏有效的反饋回路(“生產(chǎn)機制”),無法及時吸納這些經(jīng)驗,就可能導致制度設(shè)計偏離實際運作。因此,構(gòu)建一種能夠允許“先試先行、漸進修訂”、在市場與社會多重反饋中持續(xù)更新完善的法律模式,具有相當?shù)默F(xiàn)實必要性。
(二)適應型法的理論內(nèi)涵
適應型法是回應型法(Responsive Law)的升級版本?;厮葜Z內(nèi)特和塞爾茲尼克等學者的早期論述可發(fā)現(xiàn),回應型法作為法律現(xiàn)實主義脈絡(luò)的一個理論成果,強調(diào)使法制具有開放性和彈性,“更多地回應社會需要”。這種需要包括擺脫作為純粹國家管控工具的封閉形態(tài),轉(zhuǎn)而更積極地對接社會利益關(guān)切,進而更好適應社會需求。回應型法的開放性訴求似乎意味著這種理論適用于大數(shù)據(jù)或者人工智能的監(jiān)管場景。但傳統(tǒng)回應型法的改革思路更多地依賴公共部門對社會意見的“被動吸納”,也就是立法或司法機構(gòu)在社會問題凸顯后,對既有規(guī)則進行修正。相比之下,適應型法不只是強調(diào)法律對社會需求的敏感性,它更深入地引入了復雜適應系統(tǒng)等理論,將社會和技術(shù)系統(tǒng)內(nèi)生的(基于當事人需求的)司法創(chuàng)新裁判、企業(yè)合規(guī)舉措、地方立法實驗等視為法律演進的重要“自組織”力量。在這種思路下,適應型法不僅要求立法與執(zhí)法部門能夠開放、包容地接收社會反饋意見,也鼓勵平臺企業(yè)、行業(yè)協(xié)會、公眾團體共同推動規(guī)范的形成。例如,企業(yè)可以通過合規(guī)創(chuàng)新、建立自律規(guī)則,率先在內(nèi)部實踐某些數(shù)據(jù)保護、倫理審查、開源社區(qū)與算法審核制度,倘若這些實踐被證明行之有效,司法或立法機構(gòu)可以將其提煉為更具普適性的法律標準。地方政府的先行先試也可以通過區(qū)域性立法、監(jiān)管沙盒等形式對新規(guī)則進行局部驗證,再逐步向更大范圍推廣。這樣一來,法律不再是被動等待“社會訴求反應”后進行的修補,而是在先期就創(chuàng)造條件,讓多方主體在“循環(huán)試錯”的機制中形成務(wù)實而靈活的規(guī)則設(shè)計。與回應型法相比,適應型法的另一個重要特點在于更加注重多元利益平衡與高頻次迭代?;貞头ǜ嗟貜娬{(diào)法律對具體的社會問題作出即時回應,而適應型法則試圖將這種“回應”制度化、程序化,使之在面對高速變動的場景時,可以在短周期內(nèi)完成“問題識別—規(guī)范修訂—再實踐—再修訂”的連續(xù)循環(huán)。通過這一循環(huán),法律能夠在不同階段對算法公平性、數(shù)據(jù)主權(quán)、倫理價值、產(chǎn)業(yè)激勵等多重目標進行反復權(quán)衡,并根據(jù)實際效果不斷調(diào)整比重,從而避免“法律剛剛頒布就落后于技術(shù)發(fā)展”的尷尬局面。
(三)已有法學理論對適應型法需求的回應及其不足
在探討為何需要適應型法以及如何滿足適應型法需求前,主流法學界已經(jīng)形成了多種思路與理論,試圖從不同維度回應法律如何面對高動態(tài)、高復雜性環(huán)境帶來的適應性挑戰(zhàn)。這些理論雖不完全針對人工智能場景,卻在法學方法論上為適應型法的建構(gòu)提供了鋪墊。首先,法律論證理論及作為其實踐性工具的比例原則是常被學者用來應對法律問題的學術(shù)工具。法律論證理論強調(diào)通過嚴謹?shù)耐评沓绦?,在裁判或立法過程中實現(xiàn)對不同價值、利益的有機協(xié)調(diào)。其中頗具代表性的就是憲法學與行政法學領(lǐng)域中廣泛運用的“比例原則”。通過“適當性—必要性—衡量性”的三層次結(jié)構(gòu),立法者或司法者在面對人工智能技術(shù)風險與技術(shù)創(chuàng)新訴求時,可嘗試在條文設(shè)計或司法裁判中進行價值衡量,從而避免簡單化的一刀切或過度管制。這類主張雖然為法律“平衡”人工智能應用中的利益沖突提供了可操作的分析框架,但更多強調(diào)事后裁判或抽象原則與具體規(guī)則的匹配,導致難以應用于非正式制度,不能完全滿足人工智能場景下“持續(xù)迭代、快速反饋”的實踐需求。其次,系統(tǒng)法學對法律體系在高度復雜社會中的自我維持與功能適配提供了最為系統(tǒng)的理論闡釋。盧曼等人的研究將法律視為社會系統(tǒng)網(wǎng)絡(luò)中的一個子系統(tǒng),強調(diào)法律須通過自身的程序、符號和規(guī)范,對外部環(huán)境的變化進行選擇性回應,以維護系統(tǒng)的自我再生產(chǎn)。在人工智能飛速發(fā)展的背景下,系統(tǒng)法學提示我們,法律不僅應對外部技術(shù)沖擊做“結(jié)構(gòu)耦合”的調(diào)整,而且應保留相當程度的自我指涉性,以免被技術(shù)需求所裹挾而失去法律的自主邏輯。此外,系統(tǒng)法學所體現(xiàn)出對復雜性的化約,也是人工智能監(jiān)管或者立法中的重要技術(shù)問題。不過,系統(tǒng)法學在技術(shù)應用領(lǐng)域落地時,常面臨“抽象度過高、對具體制度設(shè)計指導不足”的批評,難以為具體展開“逐步試點—反饋—修正”的機制提供詳細方案。最后,軟法理論近年在國際與國內(nèi)的法學研究中都獲得了較大關(guān)注。軟法通常是指不具有傳統(tǒng)國家強制力但能在實踐中產(chǎn)生重要約束或指引作用的一系列規(guī)則或準則,例如行業(yè)自律公約、技術(shù)標準、政府指導性意見等。人工智能立法需要在高速演化的技術(shù)環(huán)境中保持適度的靈活性。軟法因其制定成本較低、更新迅速、對多元主體具有彈性約束等特性而備受青睞。然而,軟法在法律地位與法律效力上的不確定性,使其在處理算法歧視、數(shù)據(jù)濫用等問題上可能缺乏剛性保障,存在被規(guī)避適用或執(zhí)行力不足的問題。因此,若要有效運用軟法,就需要更精細的配套機制設(shè)計——如將軟法與硬法協(xié)同,使行業(yè)標準或指引在必要時能通過司法或行政程序轉(zhuǎn)化為強制性規(guī)則,設(shè)立動態(tài)評估機制并及時更新制度。除了上述幾條主要脈絡(luò),法學界也有不少其他理論流派,如法律多元主義主張在正式法律體系之外承認地方性、群體性或行業(yè)性規(guī)則的正當?shù)匚?,從而形?/span>“多中心—多聲部”的法律生態(tài);法律實用主義則強調(diào)在具體場域中靈活采用能夠解決現(xiàn)實問題的任何規(guī)范或技術(shù)手段。此外,還有學者從預防性法治和法律的在先規(guī)制方面進行探討。這些研究從不同角度詮釋了法律如何與快速變動的社會現(xiàn)實保持良性銜接或互動,為適應型法的發(fā)展提供了多元的知識資源。
(四)已有法律與科技創(chuàng)新關(guān)系研究的理論回應及其不足
在社會科學領(lǐng)域,直接聚焦法律與科技創(chuàng)新關(guān)系研究的理論,主要有創(chuàng)新經(jīng)濟學、科技法學(或技術(shù)法學)以及知識產(chǎn)權(quán)法學三種脈絡(luò)。上述理論框架為理解與規(guī)范技術(shù)創(chuàng)新和法律制度之間的動態(tài)關(guān)系提供了多元視角。然而,面對人工智能技術(shù)的快速迭代、復雜的倫理挑戰(zhàn)以及多主體協(xié)同治理需求,這些理論仍存在一定局限性,急需在深度與廣度上進一步拓展。
其一,創(chuàng)新經(jīng)濟學的貢獻及其不足。創(chuàng)新經(jīng)濟學融合了新制度經(jīng)濟學、國家創(chuàng)新體系以及法律與金融學的相關(guān)研究成果,綜合運用理論演繹和實證研究的方法,通過產(chǎn)權(quán)界定、交易成本分析和契約執(zhí)行等理論工具,為理解制度如何影響技術(shù)創(chuàng)新提供了重要的分析框架。新制度經(jīng)濟學強調(diào),通過明確產(chǎn)權(quán)關(guān)系與完善市場規(guī)則,可降低創(chuàng)新過程中的交易成本,為企業(yè)研發(fā)與技術(shù)進步提供制度激勵。例如,產(chǎn)權(quán)保護與知識產(chǎn)權(quán)制度的完善被視為激勵企業(yè)研發(fā)投入的重要基礎(chǔ)。盡管近年來該理論也受到行為經(jīng)濟學、演化經(jīng)濟學的影響,但其核心仍基于理性人假設(shè)與市場激勵邏輯,主要關(guān)注經(jīng)濟效率與市場機制。在應對高度不確定且復雜社會目標的人工智能技術(shù)時,特別是解釋類似中國等發(fā)展中國家的經(jīng)濟發(fā)展和科技進步問題時,該框架往往力有不逮。人工智能領(lǐng)域中普遍存在算法黑箱、倫理外部性等問題,單純依賴產(chǎn)權(quán)激勵不足以化解社會成本問題。此外,新制度經(jīng)濟學雖關(guān)注道德、宗教等非正式制度,但其對法律作用的理解多局限于經(jīng)濟性規(guī)制,未能充分回應人工智能治理中的倫理價值、公眾信任與多利益相關(guān)方之間的動態(tài)博弈。例如,諾斯雖承認人的決策理性受到制度約束和信息不完備的影響,但仍假定市場主體會基于“成本—收益”進行最優(yōu)決策,而政府主要負責確立產(chǎn)權(quán)與矯正市場失靈。此種假設(shè)在復雜且未充分成熟的人工智能治理情境下,適用空間明顯受限。此外,國家創(chuàng)新系統(tǒng)理論作為創(chuàng)新經(jīng)濟學的重要理論組成,也是一種復雜系統(tǒng)應用理論,它關(guān)注企業(yè)創(chuàng)新和學習過程,注重通過技術(shù)基礎(chǔ)設(shè)施、教育系統(tǒng)和政策支持來構(gòu)建有利于創(chuàng)新的生態(tài)體系。這種思路與本文的適應性法治理論有異曲同工之處,但該理論對法律制度的直接關(guān)注過少,將其研究成果轉(zhuǎn)化為法律成果還需頗多的研究工作。
其次,科技法學(或者技術(shù)法學)的前沿探索與回應能力不足??萍挤▽W著力研究法律與技術(shù)的雙向互動,強調(diào)通過跨學科視角規(guī)制技術(shù)風險并促進技術(shù)創(chuàng)新。然而,科技法學常聚焦于技術(shù)特性與發(fā)展路徑,因尚未充分吸收社會學與經(jīng)濟學的分析方法,導致在平衡技術(shù)創(chuàng)新與社會價值的制度設(shè)計上缺乏可操作性方案。特別是在人工智能治理中,科技法學理論的研究更多聚焦于技術(shù)特定的法律問題(如算法透明性或數(shù)據(jù)治理),而較少從復雜系統(tǒng)視角分析法律如何在利益相關(guān)方之間進行動態(tài)調(diào)適。此外,科技法學在具體規(guī)則設(shè)計上往往依賴線性邏輯,即法律規(guī)則直接干預技術(shù)發(fā)展,而未能充分考量人工智能技術(shù)的“非線性迭代”和復雜社會性需求。雖然軟法與監(jiān)管沙盒等靈活治理工具在該領(lǐng)域的研究中被廣泛提及,但這些工具的具體制度化路徑與法律體系的兼容性問題尚未得到充分解決。
最后,知識產(chǎn)權(quán)法學的貢獻與適應性挑戰(zhàn)。知識產(chǎn)權(quán)法學長期以來是研究技術(shù)創(chuàng)新與法律關(guān)系的核心領(lǐng)域,其通過明確創(chuàng)新成果的產(chǎn)權(quán)歸屬、構(gòu)建技術(shù)擴散與創(chuàng)新保護之間的平衡機制,為技術(shù)進步提供了重要的法律支持。在人工智能領(lǐng)域,知識產(chǎn)權(quán)法學的重點集中于算法的可保護性、生成式人工智能的作品歸屬以及數(shù)據(jù)共享與壟斷問題等。然而,面對人工智能的“動態(tài)生成”和“多主體協(xié)作”特性,知識產(chǎn)權(quán)制度的適應性面臨雙重挑戰(zhàn):一是,如何在防止因過度保護導致數(shù)據(jù)封閉與技術(shù)壟斷的同時保護創(chuàng)新者的合法權(quán)益,傳統(tǒng)知識產(chǎn)權(quán)法也難以找到精準的調(diào)適方案;二是,知識產(chǎn)權(quán)法學多以市場邏輯為導向,對人工智能倫理考量相對較少,制度完善也缺乏公眾參與機制。此外,生成式人工智能所產(chǎn)出的內(nèi)容或已超出傳統(tǒng)知識產(chǎn)權(quán)的保護邏輯,如何在保護創(chuàng)新激勵與維護公共利益之間取得平衡,已成為緊迫的制度難題。
三、行為激勵視角下的適應性法治
為彌補上述局限,可在前沿科技監(jiān)管情境下對法律與科技創(chuàng)新理論進行擴展,將復雜適應系統(tǒng)納入分析框架,并結(jié)合“行為激勵”替代或擴充傳統(tǒng)的“市場激勵”邏輯,形成行為法經(jīng)濟學版的“適應性治理”模式,在此基礎(chǔ)上進一步構(gòu)建“適應型法”和“適應性法治”的理想類型。該模式不僅繼承了新制度經(jīng)濟學、創(chuàng)新經(jīng)濟學對法律適應性的關(guān)切與主張,也更適應人工智能技術(shù)的自學習屬性與多利益相關(guān)方協(xié)同治理需求。當然,最近也有學者展開了下述研究:一方面,試圖超越法律與科技創(chuàng)新理論,轉(zhuǎn)而采用新制度經(jīng)濟學善用的機制設(shè)計理論,關(guān)注人工智能治理領(lǐng)域的信息不對稱和規(guī)則優(yōu)化問題,從而解決人工智能倫理等社會性規(guī)制領(lǐng)域的激勵失效問題;另一方面,試圖超越安全和發(fā)展的二元對立思維,從溝通視角來重新認識人工智能的技術(shù)原理與風險復雜性,從而在動態(tài)過程中形成規(guī)則。在這些理論基礎(chǔ)上,適應性法治更加關(guān)注“行為激勵”,即更加注重個體行為的心理和認知偏差,通過行為調(diào)整達成社會目標。
(一)適應性法治的理想類型建構(gòu)
第一,引入復雜適應系統(tǒng)理論:多主體反饋與自組織。復雜適應系統(tǒng)強調(diào)系統(tǒng)內(nèi)部存在多元主體,它們在相對分散的條件下可通過交互與反饋實現(xiàn)全局性或結(jié)構(gòu)性的演化。從監(jiān)管視角來看,法律可通過設(shè)置簡單、核心的“基礎(chǔ)規(guī)則”和“共識性目標”,將局部的企業(yè)創(chuàng)新試點、用戶反饋、行業(yè)標準修訂等整合到一個可持續(xù)的演化體系之中。立法可采用“合作治理”“分支式治理”的思路,不再自上而下“一刀切”,而是在不同業(yè)務(wù)分支、不同區(qū)域、不同技術(shù)領(lǐng)域逐步試點,推動局部成功經(jīng)驗融入整體法律框架。
第二,嫁接行為經(jīng)濟學:從“市場激勵”到“行為激勵”。行為經(jīng)濟學提醒我們,市場主體在作出決策時,往往并非基于純粹理性,常會受到心理偏好、社會規(guī)范、認知偏差等因素影響。人工智能治理同樣如此。算法開發(fā)者、平臺企業(yè)或公眾并非只關(guān)心經(jīng)濟收益,也會受到合規(guī)聲譽、倫理審查、用戶觀感等多重因素的影響。因此,法律應適度設(shè)置激勵機制和“助推”或“軟激勵”(nudge)策略,讓企業(yè)與用戶能夠在相對自主的環(huán)境中更安全、更負責任地應用人工智能。例如,通過稅收優(yōu)惠、算法安全評級、倫理認證標章等手段,實現(xiàn)對守法主體的正向激勵;對違規(guī)或不負責任的技術(shù)使用者,則可結(jié)合行政、司法、信用懲戒等多重工具實現(xiàn)行為約束。
第三,“精巧監(jiān)管”與“適應型監(jiān)管”的結(jié)合。“精巧監(jiān)管”是近年來學術(shù)界基于數(shù)據(jù)和技術(shù)的優(yōu)化監(jiān)管手段,是在對最小政府干預、更加靈活、更加精準、多主體分層協(xié)同監(jiān)管的探索后提出的概念。“精巧監(jiān)管”強調(diào)以大數(shù)據(jù)、人工智能等技術(shù)輔助監(jiān)管部門提升發(fā)現(xiàn)問題與處置問題的效率,同時注重為企業(yè)合規(guī)創(chuàng)新提供更開放的制度空間。將“精巧監(jiān)管”納入“適應型監(jiān)管”的框架內(nèi),可以進一步擴寬“監(jiān)管沙盒”“監(jiān)管科技”等工具的運用邊界,在短周期內(nèi)完成“規(guī)則測試—風險評估—制度迭代”,使法律與技術(shù)發(fā)展節(jié)奏保持更緊密的銜接。
第四,搭建適應性原則與預防性原則的配合機制。適應性原則與預防性原則在技術(shù)治理中各有側(cè)重,二者并非相互對立,而是可根據(jù)風險性質(zhì)與社會價值選擇適配的不同監(jiān)管原則。一般而言,預防性原則強調(diào)在科學證據(jù)尚不充分但潛在危害巨大時,立法者或監(jiān)管者應當采取更為審慎或嚴格的約束,以避免不可挽回的公共安全或生態(tài)損害。這往往需要對某些高風險技術(shù)施加在先限制甚至暫緩應用某項技術(shù)。與此不同,適應性原則更注重在不確定性較大的情境下,通過分階段試點與動態(tài)迭代的方式,讓監(jiān)管規(guī)則與技術(shù)進展同步演化,從而在保障安全的同時保留技術(shù)創(chuàng)新空間。對于那些短期內(nèi)難以形成科學共識但又可通過“小范圍試驗—逐步推廣”有效評估與管控風險的創(chuàng)新技術(shù)而言,采用適應性原則進行規(guī)制最為妥當。而一旦技術(shù)本身可能引發(fā)“深層且不可逆”的威脅,或事關(guān)公眾高度關(guān)注的倫理底線,則預防性原則將占主導地位,以剛性立法先行鎖定風險閾值。綜合運用上述兩原則,立法者方能在安全保障與持續(xù)創(chuàng)新之間取得更為平衡的治理效果。
第五,社會性價值的嵌入與多維目標的平衡。正如上文所述,制度經(jīng)濟學往往圍繞效率和產(chǎn)權(quán)保護兩個核心目標來構(gòu)建規(guī)則。而在人工智能時代,法律還需融入更多社會性目標(例如公共信任、倫理保護、國家安全及公平競爭等)。將復雜適應系統(tǒng)和行為經(jīng)濟學視角引入后,法律不僅要對市場主體的經(jīng)濟行為進行規(guī)制,而且需要通過行為激勵策略引導市場主體在數(shù)據(jù)處理、算法訓練、應用場景拓展等方面自覺承擔社會責任。因此,人工智能法學研究有必要將研究對象擴大到人工智能倫理審查、價值對齊等制度設(shè)計。
(二)“簡單規(guī)則—多次迭代”的方法論
第一,從靜態(tài)約束到動態(tài)演化。傳統(tǒng)的法律規(guī)則往往依賴固定化、細密化的條款設(shè)計,力圖以全面覆蓋的方式規(guī)制新技術(shù)風險。然而,人工智能技術(shù)的“指數(shù)級”演進速度使得立法者難以實時捕捉新興問題,導致法律出臺后很快出現(xiàn)滯后或漏洞。與之相對,適應型監(jiān)管鼓勵“先設(shè)定簡單且足夠的底線規(guī)則,再通過多次迭代優(yōu)化”,允許企業(yè)、研究機構(gòu)和地方政府在基本約束之下進行探索性技術(shù)實踐,并在積累足夠經(jīng)驗后進行法規(guī)調(diào)整。通過不斷的修正,法律不僅能在早期為市場提供合規(guī)指引,而且能在后續(xù)演化中為技術(shù)創(chuàng)新保留足夠的包容度。
第二,“簡單規(guī)則”與“行為激勵”的內(nèi)涵。“簡單規(guī)則”可被視作法律體系中類似于強化學習的“獎勵函數(shù)”:立法者并非事先設(shè)計出覆蓋所有情境的煩瑣條文,而是設(shè)定若干關(guān)鍵目標或底線,用最簡潔的方式指明何為“合規(guī)”或“違背公共利益”。就像在強化學習中,智能體會依據(jù)獎勵或懲罰信號持續(xù)優(yōu)化策略,法律也可通過這一類最小化約束,驅(qū)動社會主體在復雜、動態(tài)的場景中尋找更優(yōu)的合規(guī)路徑。如此一來,立法只需明確應當堅守的核心價值(例如算法公平、數(shù)據(jù)安全、倫理紅線),而無需對每個具體步驟作出窮盡性規(guī)定。此種機制可賦予技術(shù)和市場充分的探索空間,讓“自適應”在不斷嘗試與反饋中自然涌現(xiàn)。由于簡單規(guī)則并不足以維持復雜系統(tǒng)的良性演化,因此有必要進行“獎勵—懲罰”設(shè)計,也就是建立“行為激勵”機制。換言之,法律通過多樣化的正向激勵(如稅收優(yōu)惠、公共采購優(yōu)先、倫理認證標章)和負向制裁(如信用懲戒、行政處罰),使企業(yè)、研究機構(gòu)乃至公眾在遵守最低限度的制度基礎(chǔ)上,上述主體亦能“被鼓勵”去主動探索更高標準、更具社會責任的創(chuàng)新方案。類似強化學習中的動態(tài)調(diào)優(yōu)過程,這些激勵工具會在實踐中不斷校準效果:若出現(xiàn)技術(shù)濫用或不當行為,懲戒隨即觸發(fā)并提醒開發(fā)者修正;若合規(guī)創(chuàng)新帶來顯著安全收益,則正向激勵將進一步增強該模式的可持續(xù)性。借由“最簡規(guī)則+迭代激勵”的雙重路徑,法律在復雜適應系統(tǒng)里不再是機械的控制者,而成為設(shè)定方向與目標的“教練”,幫助整個社會—技術(shù)系統(tǒng)在反復試錯中逐步邁入兼具安全與創(chuàng)新的理想軌道。
第三,“多次迭代”與循環(huán)式調(diào)適。借鑒強化學習的理念,法律體系可將“簡單規(guī)則”視為類似獎勵函數(shù)的基石,并通過“探索—反饋—修訂”的循環(huán)過程實現(xiàn)動態(tài)調(diào)優(yōu)。在“探索”階段,企業(yè)、地方政府等主體在既定的最簡規(guī)則和核心底線下開展產(chǎn)品落地、監(jiān)管沙盒試點等活動,就像智能體在環(huán)境中試探不同策略以獲取初步反饋;隨后,在“反饋”階段,司法判例、社會輿論以及用戶體驗等多渠道的反饋信號,類似獎勵或懲罰信號,為現(xiàn)行規(guī)則的有效性提供評估依據(jù),并揭示潛在的規(guī)則缺口或創(chuàng)新亮點;最后,在“修訂”階段,立法者依據(jù)這些反饋調(diào)整制度:若反饋顯示安全底線設(shè)置過于寬松或倫理風險未能被充分反映,則適時收緊規(guī)范;反之,若實際運行中未見嚴重沖突,則繼續(xù)保留制度的彈性空間或進一步鼓勵合規(guī)主體追求更高標準。
總而言之,“適應性法治”是在跨學科改造創(chuàng)新經(jīng)濟學、新制度經(jīng)濟學等有關(guān)法律與創(chuàng)新關(guān)系理論的基礎(chǔ)上提出的主張,它不再單純關(guān)注市場效率或投資保護,而主張將算法迭代、技術(shù)倫理、社會信任與多主體協(xié)同治理有機整合進監(jiān)管邏輯。適應性法治的核心在于“簡單規(guī)則—多次迭代”,并通過類似于強化學習中的行為激勵設(shè)計(正向激勵與負向制裁相結(jié)合)的機制,引導各參與主體在快速變化的科技生態(tài)中實現(xiàn)合規(guī)與創(chuàng)新的平衡。雖然新制度經(jīng)濟學在關(guān)注法律適應性、實證研究以及制度激勵效果方面具有一定優(yōu)勢,但只有在此基礎(chǔ)上融入復雜適應系統(tǒng)和行為經(jīng)濟學主張的動態(tài)調(diào)整要素,才能更切實地應對人工智能時代多環(huán)節(jié)、多主體協(xié)同治理所帶來的挑戰(zhàn)。這一過程使“適應性法治”不僅與學界對智能監(jiān)管、分支式治理等概念的倡導相呼應,而且能成為中國乃至全球在人工智能法律治理領(lǐng)域極具潛力的制度創(chuàng)新路徑。
四、適應性法治理論在人工智能立法領(lǐng)域的初步應用
為能夠更“接地氣”地將基礎(chǔ)理論貫穿于立法工作,下文將從“制度生成機制”的角度,對適應性法治理論在人工智能立法領(lǐng)域的應用作一個初步討論。正如上文提及的,本文反對“自上而下”的體系化立法,即反對制定專門的“人工智能法”,因此下文涉及具體條款擬制的討論,主要是從民間性的“示范法”起草角度出發(fā)展開的討論,目的是在相關(guān)部門對現(xiàn)行實體法進行“適用性測試和更新(釋改立廢)”時,提供一個體系性的參考。
(一)人工智能法律制度的適應性生成機制
為了確保人工智能法律體系能夠隨著技術(shù)發(fā)展不斷調(diào)整,本文主張概括已有國內(nèi)外關(guān)于國際科創(chuàng)中心建設(shè)的經(jīng)驗,構(gòu)建多層次法律適應性機制,使法律規(guī)則的生成、調(diào)整能夠涵蓋不同層次的法律運作模式。
第一,底線與開放并行立法思路的進一步厘定。在全國人大層面,通過頒布適配人工智能技術(shù)的規(guī)范性法律文件,明確確立底線與開放并行的立法思路。正如上文不斷強調(diào)的,人工智能立法若僅僅依靠靜態(tài)的、細密化的法典規(guī)則,就無法應對技術(shù)飛速演變所帶來的新風險。立法思路需要調(diào)整,如,可按照動態(tài)適應性原則,通過附加時限的專項授權(quán)形式,要求國務(wù)院通過滾動式立法不斷更新“最少但必要”的底線規(guī)則,例如立法設(shè)置算法安全義務(wù)、隱私保護與倫理紅線等,確保公眾利益與社會價值免受重大損害;同時,在具體的制度設(shè)計上保留足夠的彈性與修訂空間,以便在產(chǎn)業(yè)實踐與司法判例反饋之后,立法能夠及時得到更新與補充。在兩個專家建議稿中,學者們已經(jīng)嘗試對數(shù)據(jù)保護、算法評估、倫理審查及人工智能產(chǎn)品管理等關(guān)鍵環(huán)節(jié)進行體系化設(shè)計,這在一定程度上填補了原有法律的空白。不過,從適應型監(jiān)管的視角來看,這些建議稿在“一攬子”式的合規(guī)義務(wù)與條文設(shè)定上,需要進一步體現(xiàn)“基礎(chǔ)底線+分階段調(diào)整”的立法邏輯。
第二,進一步發(fā)揮司法裁判在制度生成中的功能。一般認為,在20世紀末21世紀初,美國和中國的法院系統(tǒng),在一種與立法機關(guān)、行政機關(guān)協(xié)同的思路下,利用司法程序的“適應性機制”,即根據(jù)當事人的需求自下而上地供給制度,積極降低平臺企業(yè)的責任及其合規(guī)成本、降低嚴苛的隱私權(quán)保護標準以及采取較為合理的知識產(chǎn)權(quán)保護基準,為科技創(chuàng)新所必需的風險投資等金融創(chuàng)新提供了及時的制度供給,特別是通過司法判決創(chuàng)制性應用避風港規(guī)則和紅旗標準,兩國的互聯(lián)網(wǎng)平臺借助這一免責條款的庇佑,得以迅猛發(fā)展。有鑒于此,如何延續(xù)我國法院在網(wǎng)絡(luò)平臺經(jīng)濟、金融創(chuàng)新等領(lǐng)域的“適應性制度供給”的司法傳統(tǒng),是一個法學界必須重視的理論課題。從中短期來說,可以從包括但不限于以下幾個具體的方面積極推進制度完善:(1)我國立法機關(guān)應采取開放的心態(tài),超越已有的法律保留理論,特別是“大陸法系國家”“成文法系國家”的制度定位。司法解釋以及指導性案例在科技創(chuàng)新領(lǐng)域的適用采取擴張性的法律解釋思路,保持一種更加寬容的態(tài)度。(2)在科技創(chuàng)新領(lǐng)域,中國的法院應繼續(xù)有意識地積極扮演“政策法院”的角色,總結(jié)好自己在促進全面創(chuàng)新過程中的經(jīng)驗,積極供給回應性的制度。立法機關(guān)還應及時對法院與立法、行政等機關(guān)的協(xié)同經(jīng)驗進行制度性概括或者固化。(3)在績效考核制度方面,應給予審判一線的承辦法官或者合議庭更多自主創(chuàng)新探索的空間。比如,對于知識產(chǎn)權(quán)、金融、互聯(lián)網(wǎng)審判等涉及創(chuàng)新領(lǐng)域的專業(yè)法院、專業(yè)法庭的法官,可以探索采用“無量化考核”的人事管理制度。(4)從提升涉科技創(chuàng)新領(lǐng)域裁判文書質(zhì)量的角度出發(fā),強制規(guī)定從事科技創(chuàng)新審判的法官必須擁有一個自然科學的學位,以防止知識結(jié)構(gòu)的偏差影響司法裁判的科學性。
第三,保障和優(yōu)化科技企業(yè)制度的自我生成機制。在快速進化的人工智能生態(tài)中,大型平臺企業(yè)由于掌握算法、數(shù)據(jù)等關(guān)鍵要素,常常走在技術(shù)與合規(guī)實踐的前沿。在缺乏完備法律規(guī)范時,這些平臺可通過內(nèi)部道德審查、黑盒測試、開放接口或算法解釋機制等自律舉措,先行塑造行業(yè)自治規(guī)則。法律應當賦予企業(yè)更多的制度創(chuàng)新空間,鼓勵企業(yè)通過行業(yè)自律形成符合市場需求的人工智能治理標準。具體包括兩步:第一,自主合規(guī)與行業(yè)示范:企業(yè)為規(guī)避商譽風險及潛在訴訟壓力,通常樂于通過內(nèi)部制度創(chuàng)新來保證算法安全、透明和合規(guī)。若其成效良好,這些做法在行業(yè)內(nèi)便具備示范意義。第二,納入公共規(guī)則:政府或立法機關(guān)在綜合評估這些企業(yè)的先行實踐做法后,可將其優(yōu)秀經(jīng)驗“法治化”,如發(fā)布部門規(guī)章、標準指導性文件或在全國性立法中寫明對這些自律標準的認可與推廣。這樣便可完成從“企業(yè)標準”到“公共法規(guī)”的轉(zhuǎn)變過程。然而,這一機制必須謹慎運用,以防止企業(yè)通過形式上的合規(guī)行為規(guī)避實質(zhì)性的法律責任??梢酝ㄟ^設(shè)立“動態(tài)合規(guī)審查機制”,確保企業(yè)在創(chuàng)新過程中仍然承擔相應的法律義務(wù),遏制企業(yè)借助政策套利和市場壟斷的行為。
第四,地方實驗性立法的試點與拓展?;谌斯ぶ悄芗夹g(shù)的非線性迭代特征,構(gòu)建“政策試驗—反饋學習—規(guī)則迭代”的閉環(huán),通過小范圍先行先試來降低系統(tǒng)性風險,加速法律與技術(shù)的同步演化。面對不同區(qū)域的經(jīng)濟基礎(chǔ)與產(chǎn)業(yè)結(jié)構(gòu),地方政府可依托地方立法機制,對部分人工智能應用場景(如自動駕駛、智能醫(yī)療、跨境數(shù)據(jù)流動等)進行差異化先行先試,從而獲得社會的治理反饋意見。具體也包括兩步。一是,差異化試點:通過對不同場景設(shè)立不同的評估指標與合規(guī)要求,地方政府可驗證具體制度設(shè)計的可行性并及時進行調(diào)適。二是,成果復制與推廣:當某一地區(qū)試點的制度實踐經(jīng)反復驗證被證明有效,便可將其上升為更高層級的立法或在更大范圍內(nèi)推廣。若試點失敗或出現(xiàn)重大隱患,則社會僅在小范圍內(nèi)承擔風險與損失,避免“多米諾骨牌”式的全國性制度失靈。未來,可以考慮通過《立法法》的修改,在國家層面設(shè)立“人工智能法律試驗區(qū)”,允許地方政府在人工智能治理方面進行更大范圍的制度創(chuàng)新,并通過定期評估和反饋機制,及時將地方立法經(jīng)驗轉(zhuǎn)化為全國性法律規(guī)則。
第五,打造多主體參與的專家組織機制。人工智能立法還需依賴行業(yè)組織、科研機構(gòu)、公眾等多元主體共同參與,以保證決策的科學與透明??煽紤]在全國人大法工委之下設(shè)立“人工智能立法適應性評估委員會”,根據(jù)情勢需要組織跨學科專家評估和公眾聽證等程序,通過程序化的方式實現(xiàn)技術(shù)、法律和社會的三方對話。評估委員會可定期對現(xiàn)行所有實體法的適應度進行量化或定性評估,并提出修法或行政指引建議,從而在技術(shù)躍遷的不同階段保持法律的前瞻性與可行性。
(二)動態(tài)適應性原則的貫徹落實
第一,突出高風險場景的模塊化管控。已有公開的各類關(guān)于人工智能立法的專家建議稿雖然對自動駕駛、醫(yī)療AI等高風險場景都有所提及,但大多以“原則性要求”或較為籠統(tǒng)的責任歸屬來規(guī)制風險行為,且較為依賴線性化的分類分級原則。未來若能對“最小安全與倫理底線”做制度細化,并輔以可操作的管控流程或合規(guī)標準(如測試條件、外部審計、事中監(jiān)測機制),將有助于為各行業(yè)提供更明晰的行為邊界。與此同時,立法可考慮明確授權(quán)地方政府或行業(yè)主管部門對高風險人工智能作“先行先試”并滾動修訂安全標準,通過試點來校驗合規(guī)的可行度。
第二,為前沿技術(shù)保留制度彈性與更新機制。出于種種原因,現(xiàn)行法律法規(guī)對于多模態(tài)生成式人工智能、情感計算、腦機接口等前沿技術(shù),尚未設(shè)立明確的審查與評估路徑。為了更好地促進創(chuàng)新,并有效地控制風險,可考慮在相關(guān)的單行法律、法規(guī)以及行政規(guī)章的文本中設(shè)定“定期技術(shù)評估+動態(tài)條文更新”條款,允許法律條文在一定周期內(nèi),依據(jù)專門委員會或行政主管部門的建議、社會調(diào)查、行業(yè)實證數(shù)據(jù)來進行修訂;同時,為更有效地應對新興技術(shù)帶來的潛在倫理與安全隱患,應及時將相關(guān)問題納入立法范圍。
第三,強化多元化的信息披露與外部監(jiān)督。已有人工智能立法研究在強調(diào)平臺和開發(fā)者的算法透明、數(shù)據(jù)合規(guī)義務(wù)時,更多是從傳統(tǒng)監(jiān)管思路出發(fā),將責任嵌入“報批、備案、承諾”這一類“自上而下”的機制。相關(guān)立法若能進一步明確公眾參與或行業(yè)自律機制(如開源社區(qū)、平臺自審委員會)、第三方獨立審計機構(gòu)的監(jiān)督,就可以更充分發(fā)揮社會多方共治的潛力。通過立法層面對外部監(jiān)督與反饋的程序性保障,既能降低政府單一監(jiān)管的負擔,也能使適應型監(jiān)管更好地吸納“自下而上”的制度調(diào)適要求。
第四,精簡與聚焦:避免條文覆蓋過度或責任重疊。已有人工智能立法研究受歐盟《人工智能法》立法思路影響,普遍試圖“一攬子”解決算法合規(guī)、數(shù)據(jù)共享、個人信息保護、倫理審查等諸多議題。這種思路會導致責任邊界交叉或監(jiān)管重疊,造成實際執(zhí)行中合規(guī)負擔過重。適應型監(jiān)管主張在立法初期先確立最核心風險的底線責任,其他風險監(jiān)管則可以采取更為具體且分散的條款來規(guī)制,留待二級法規(guī)、部門規(guī)章或地方立法試點來細化。這樣既可以確保立法的突出重點,也能為后期制度的“滾動修訂”預留空間。
第五,增設(shè)立法評估及修訂程序。傳統(tǒng)立法往往缺乏制度化的“立法后評估”程序,使條文本身難以與技術(shù)發(fā)展同頻共振。建議所有涉人工智能產(chǎn)業(yè)的法律法規(guī)在制定時增設(shè)“立法效果評估條款”,明確規(guī)定:應定期召開跨部門、跨學科的專門評議會議,就法律的適用效果、企業(yè)合規(guī)成本、公眾反饋等方面進行量化或定性評估。對發(fā)現(xiàn)的重要缺陷或新問題,可通過快速修訂程序或者授權(quán)部門規(guī)章細化規(guī)定的方式進行修正。這種“輕量化、可迭代”的立法更新機制,恰能與人工智能產(chǎn)業(yè)的高速演化形成相對匹配的治理節(jié)奏。
(三)如何強化“行為激勵”:兼顧風險控制與創(chuàng)新促進
在傳統(tǒng)法律治理模式下,立法者通常依賴“合規(guī)義務(wù)”工具,通過行政許可、審批和處罰等剛性手段來約束企業(yè)的行為。無論是安全防范、創(chuàng)新發(fā)展還是權(quán)利保護,人工智能立法的核心目標本質(zhì)上都與如何調(diào)適企業(yè)和研發(fā)者的行為選擇密切相關(guān)。如果僅仰賴對違法行為的事后懲罰,企業(yè)就會趨向保守或被動地遵守最低合規(guī)標準;若進一步強化行政審批或嚴苛進行事前審查,則可能損害技術(shù)進步與商業(yè)發(fā)展的活力。相較而言,行為激勵的思路應該是通過財政投入、稅收調(diào)控、信用評級、產(chǎn)業(yè)配套、行政獎勵、定向采購等一系列正負向誘因,通過高權(quán)行政與新型行政措施、硬法與軟法的有效配合,讓企業(yè)在追求經(jīng)濟利益的同時,自愿或主動考量社會價值與公共倫理,從而實現(xiàn)企業(yè)“樂于合規(guī)”而非“不得不合規(guī)”的效果。換言之,如果運用行為法經(jīng)濟學的理論思路,企業(yè)的研發(fā)與合規(guī)決策并非完全理性計算的產(chǎn)物,而是會受到一系列認知偏差、預期激勵和制度框架的影響。因此,政策工具的設(shè)計需要結(jié)合預期效用理論、前景理論以及軟激勵(Nudging)機制,在降低企業(yè)短期合規(guī)成本的同時,塑造長期的創(chuàng)新激勵結(jié)構(gòu),使市場主體不僅主動合規(guī),而且愿意主動投入研發(fā),以獲取未來更高的市場回報。
第一,動態(tài)化侵權(quán)責任機制的打造。傳統(tǒng)侵權(quán)法中,嚴格責任和過錯責任常被用于規(guī)制高風險行業(yè),但行為法經(jīng)濟學的研究表明,這些責任原則在實踐中可能引發(fā)逆向激勵問題,甚至削減企業(yè)的安全投入。嚴格責任可能導致企業(yè)因預期巨額賠償而選擇退出市場,而過錯責任則可能使企業(yè)采取“最低合規(guī)”策略,僅滿足法律規(guī)定的最低標準,而不會主動優(yōu)化安全設(shè)計制度。因此,在人工智能治理領(lǐng)域,貫徹適應型監(jiān)管,就需要引入動態(tài)化的侵權(quán)責任機制,結(jié)合經(jīng)濟激勵、風險定價與法律責任調(diào)整,以推動企業(yè)內(nèi)生性地提升安全標準。通過動態(tài)化侵權(quán)責任機制與市場激勵工具的結(jié)合,人工智能監(jiān)管能夠在不削弱創(chuàng)新動力的前提下,促使企業(yè)不斷優(yōu)化安全性,形成“合規(guī)—競爭—優(yōu)化”的自我強化機制。這種方式不僅能夠減少因道德直覺導致的過度規(guī)制,而且能有效填補傳統(tǒng)法律責任制度在高技術(shù)風險治理中的漏洞。
第二,數(shù)據(jù)確權(quán)思路的優(yōu)化:讓企業(yè)主動保護用戶權(quán)益。首先,在個人數(shù)據(jù)收益共享方面,傳統(tǒng)的數(shù)據(jù)保護法律框架主要關(guān)注用戶隱私權(quán)的保護。行為法經(jīng)濟學的研究表明,用戶的權(quán)利感知與收益獲取密切相關(guān),即當用戶認為其數(shù)據(jù)對企業(yè)具有顯著價值,但卻無法獲得相應回報,可能會降低用戶對平臺的信任和合作意愿。因此,政府可以推動數(shù)據(jù)收益分配激勵機制,鼓勵企業(yè)在合規(guī)數(shù)據(jù)交易或數(shù)據(jù)分析活動中給予用戶一定的經(jīng)濟回報。例如,企業(yè)可以采用“數(shù)據(jù)紅利計劃”,即用戶在同意平臺使用其數(shù)據(jù)時,能夠獲得積分、折扣或直接的經(jīng)濟收益,從而增強用戶數(shù)據(jù)共享的積極性。此外,政府還可引入“動態(tài)數(shù)據(jù)定價機制”,允許用戶根據(jù)數(shù)據(jù)敏感性、自身偏好及使用場景設(shè)定不同級別的授權(quán),使提供高價值數(shù)據(jù)的用戶可獲得更高的補償。這種激勵機制不僅可增強用戶對自身數(shù)據(jù)的掌控權(quán),還能提高企業(yè)的數(shù)據(jù)治理透明度,最終促使平臺在市場競爭中更加注重用戶權(quán)益保護。
第三,關(guān)于知識產(chǎn)權(quán)開放共享。人工智能技術(shù)的快速發(fā)展需要數(shù)據(jù)與算法的廣泛流通,過度封閉的知識產(chǎn)權(quán)保護可能會導致技術(shù)擴散受阻,甚至形成市場壟斷。行為法經(jīng)濟學強調(diào),精細化的產(chǎn)權(quán)結(jié)構(gòu)設(shè)計和適度的強制許可制度,可避免市場主體因“心理所有權(quán)效應”而對數(shù)據(jù)或技術(shù)資源的過度保護,從而促進知識流通與市場競爭。政府可以推動激勵兼容的知識產(chǎn)權(quán)共享機制,即在公共利益高度相關(guān)或社會需求迫切的關(guān)鍵技術(shù)領(lǐng)域(如智慧醫(yī)療、公共交通等),對獲得政府資助的企業(yè)設(shè)定可控數(shù)據(jù)開放制度,要求其在享受政策支持(如稅收優(yōu)惠或政府采購)時,開放部分訓練數(shù)據(jù)或非核心算法模型,以促進行業(yè)整體技術(shù)進步。此外,政府還可設(shè)立動態(tài)強制許可制度,結(jié)合前景理論,在企業(yè)取得高額市場回報后,設(shè)定非排他性使用權(quán)或數(shù)據(jù)共享要求,確保關(guān)鍵技術(shù)能夠更廣泛地造福社會。這種遞進式的許可模式有助于減少企業(yè)對強制技術(shù)共享的抵觸心理,還能夠避免對技術(shù)創(chuàng)新的過度限制。
第四,關(guān)于財政激勵。傳統(tǒng)的稅收優(yōu)惠與補貼政策往往基于企業(yè)的完全理性假設(shè),假定企業(yè)會在稅收激勵的驅(qū)動下自動增加研發(fā)投入。然而,行為法經(jīng)濟學的研究表明,企業(yè)管理層對長期收益的折現(xiàn)率往往過高,即存在“短視偏差”,導致企業(yè)更傾向選擇短期回報更高的投資方向,而忽視前期成本高、周期長但長期收益更可觀的基礎(chǔ)研發(fā)。因此,政府可以引入動態(tài)稅收優(yōu)惠機制,即對于持續(xù)進行合規(guī)研發(fā)投入的企業(yè),提供遞增式稅收減免。例如,若企業(yè)連續(xù)五年符合人工智能倫理標準并投入安全研發(fā),對其適用的稅收優(yōu)惠比例將逐步增加。這種設(shè)計利用損失規(guī)避效應,使企業(yè)因害怕失去累積稅收優(yōu)惠而持續(xù)保持高合規(guī)標準。此外,為應對高風險、高投入的人工智能倫理研發(fā),政府還可以引入研發(fā)風險共擔機制,設(shè)立研發(fā)失敗補償基金,為符合倫理安全標準的企業(yè)提供部分失敗損失補償。這一機制能夠糾正企業(yè)管理者的概率加權(quán)心理傾向,即高估小概率失敗的可能性,從而減少對高風險、高成本項目的回避行為。
第五,公平感與企業(yè)創(chuàng)新。在市場競爭激勵方面,企業(yè)的“公平感知”往往會決定其合規(guī)與創(chuàng)新的積極性。企業(yè)若認為監(jiān)管政策對競爭對手更加寬松,可能會選擇最低限度合規(guī)標準,而非主動提升技術(shù)安全標準。因此,政府可以通過市場準入、行業(yè)排名、公共信譽公開等手段,建立公平的市場競爭環(huán)境,以激勵企業(yè)在合規(guī)與創(chuàng)新之間找到最優(yōu)平衡點。例如,政府可利用信號傳遞理論,參考“軟激勵”理論,推出“倫理科技”品牌認證,為符合高倫理標準的人工智能產(chǎn)品設(shè)立“倫理科技認證標章”,并在政府采購、市場準入、稅收優(yōu)惠等方面給予競爭激勵。這不僅能降低企業(yè)的合規(guī)成本,而且能使倫理標準成為市場競爭中的增值要素,而非單純的合規(guī)義務(wù)。此外,在公共采購和市場準入環(huán)節(jié),政府可以采用競爭性合規(guī)競標的方法,即要求企業(yè)在競標過程中提交其公平性、安全性的數(shù)據(jù)保護等方面的合規(guī)方案,并在評分機制中給予額外加分。此類機制能夠通過市場競爭壓力,促使企業(yè)主動優(yōu)化自身的合規(guī)水平,而非僅僅被動接受監(jiān)管。
第六,競爭性公平激勵機制。在算法公平性激勵方面,傳統(tǒng)的法律責任制度往往采用“嚴格責任”或“過錯責任”模式,即企業(yè)若因算法偏見導致歧視性決策或損害用戶利益,需承擔法律責任。然而,行為法經(jīng)濟學的研究發(fā)現(xiàn),單純的懲罰機制可能會引發(fā)企業(yè)的“消極合規(guī)”行為,即企業(yè)僅滿足最低限度的法律要求,而不主動優(yōu)化算法以減少社會風險。因此,政府可以運用“競爭性公平激勵機制”,即通過設(shè)立公平算法認證、政府補貼、獎項激勵等方式,使企業(yè)在市場競爭中因優(yōu)化算法公平性而獲得實際利益。例如,政府可設(shè)立“公平技術(shù)獎”,鼓勵企業(yè)自愿參與算法公平性評測,并對表現(xiàn)優(yōu)異的企業(yè)提供政策支持,如稅收減免、政府采購優(yōu)先權(quán)等。此外,還可采取“差異化監(jiān)管”策略,即對于能夠主動披露算法透明性、接受公平性審查的企業(yè),降低其行政審查頻率或減少合規(guī)成本,提升“高透明、高公平”的企業(yè)享有市場競爭的優(yōu)勢。
五、結(jié)語:中國式法治視野下適應型法的未來
本文仍有諸多尚未充分展開或尚待深入研究的問題。
首先,人工智能的跨國界屬性決定了任何立法嘗試都不能僅限于一國或一地的封閉語境,如何在多邊場域下實現(xiàn)適應型立法的協(xié)調(diào)與耦合,尤其面對國際數(shù)據(jù)流動、算法輸出管制與“數(shù)字主權(quán)”等復雜議題,仍有賴于更全面的國際法視角和跨國機制設(shè)計。
其次,隨著腦機接口、多模態(tài)生成式人工智能等前沿技術(shù)逐漸進入實施階段,技術(shù)不確定性與倫理風險或?qū)⑦M一步放大,現(xiàn)有的適應型監(jiān)管工具在應對超大規(guī)?;虺唢L險的場景時是否同樣有效,需要持續(xù)的動態(tài)評估與實證檢驗。
再次,本文強調(diào)的“行為激勵”模式也只是初步勾勒了“激勵—反饋—修訂”的基本框架,制度的完善尚需更多實證案例與跨學科合作來論證具體激勵措施的有效性、可操作性以及對社會公平的可能影響;政府與平臺企業(yè)的風險博弈如何被納入這一框架以防止企業(yè)“政策套利”,同樣是值得后續(xù)制度細化的重要課題。此外,從國家治理層面而言,適應性法治的成功還依賴政治與行政體制的靈活度、司法對新型技術(shù)風險的審慎態(tài)度以及社會對“試錯”過程中可能出現(xiàn)的收益與負面外部性的寬容度。若缺乏宏觀層面的制度配合,單純從法律條文層面追求適應性,難免陷入“理念先進、落實乏力”的尷尬處境。需要指出的是,這種強調(diào)動態(tài)優(yōu)化與開放性治理的法律范式,并不否定法教義學對于人工智能立法的基石作用,只是在具體規(guī)則的修正與引導機制上,更需結(jié)合實證研究、法律經(jīng)濟學以及技術(shù)倫理評估等跨學科方法,進而既確保立法既符合本土實踐需求,又能在快速演化的技術(shù)環(huán)境中保持足夠的適應性。
最后,在全球新一輪科技競爭和產(chǎn)業(yè)變革大背景下,將中國式法治中“試驗—推廣”傳統(tǒng)所蘊含的制度優(yōu)勢轉(zhuǎn)換為具有普適價值的治理范式,還有賴于持續(xù)的理論創(chuàng)新與實踐推動。未來若能在國際交流、地方立法以及企業(yè)合規(guī)創(chuàng)新中積累更多詳實案例,并與復雜科學、系統(tǒng)工程、社會學等領(lǐng)域開展跨學科對話,有望使適應性法治理論獲得更堅實的實踐基礎(chǔ),并為全球人工智能治理貢獻更具啟發(fā)意義的“中國方案”。
原文刊載于《法律科學》2025年第3期,感謝微信公眾號“法律科學期刊”授權(quán)轉(zhuǎn)載。