亚洲一线产区二线产区区别在哪,亚洲AV永久无码精品,久久精品国产精品国产精品污,亚洲精品亚洲人成年,青青草视频在线观看综合网,亚洲国产色欲AV一区二区三区在线,亚洲美乳字幕日韩无线码高清专区

當(dāng)前位置:首頁 > 文獻(xiàn)資源 > 論文著作 > 理論推演
林洹民|人工智能科技倫理審查制度的體系化建構(gòu)
2025年05月13日 【作者】林洹民 預(yù)覽:

【作者】林洹民

【內(nèi)容提要】


人工智能科技倫理審查制度的體系化建構(gòu)






林洹民 上海交通大學(xué)凱原法學(xué)院副教授








摘要:采用何種路徑規(guī)范人工智能活動,是人工智能立法的核心問題。風(fēng)險管理進(jìn)路存在風(fēng)險評估與分類困難、放任損害發(fā)生等問題,并非人工智能立法的當(dāng)然選擇。與以往科技活動不同,人工智能活動既屬于專精科技活動,又具有賦能科技活動屬性。以人工智能活動為規(guī)范對象的人工智能法不應(yīng)以單一理論為指導(dǎo),而應(yīng)遵從科技法與應(yīng)用法雙重定位。科技法定位下的《人工智能法》應(yīng)尊重科技自主,將科技倫理內(nèi)化于人工智能研發(fā)活動中,同時打破制度壁壘,設(shè)計促進(jìn)型規(guī)則,助力人工智能科技的發(fā)展。應(yīng)用法定位下的《人工智能法》則應(yīng)關(guān)注科技賦能場景導(dǎo)致的功能異化現(xiàn)象,一方面借助抽象的權(quán)利義務(wù)工具,尤其是通過規(guī)定新型權(quán)利,構(gòu)建彈性的規(guī)范框架,回應(yīng)不同應(yīng)用場景中的價值序列差異;另一方面應(yīng)推行實(shí)驗(yàn)主義治理,通過監(jiān)管沙箱、授權(quán)性立法等設(shè)計,動態(tài)調(diào)整監(jiān)管策略,滿足人工智能賦能應(yīng)用活動的靈活治理需求。

關(guān)鍵詞:人工智能立法 專精科技 賦能科技 科技倫理 實(shí)驗(yàn)主義治理






一、 引言

隨著人工智能技術(shù)的發(fā)展與應(yīng)用,人工智能治理正在引起國際社會的高度重視。立法機(jī)構(gòu)已經(jīng)不滿足于倫理宣言式的行業(yè)自治,轉(zhuǎn)向出臺專門性的法律,從而開啟了從軟拘束硬規(guī)則的人工智能立法時代。歐盟于2021年率先推出全面規(guī)范人工智能活動的法律《人工智能法(提案)》(The Artificial Intelligence Act)。該提案經(jīng)過修正后,于20243月經(jīng)歐洲議會表決通過,這標(biāo)志著歐盟誕生了世界上首部規(guī)范人工智能活動的綜合性法律。美國在聯(lián)邦層面尚沒有進(jìn)行類似的橫向集中式立法,但也于202310月發(fā)布具有里程碑意義的總統(tǒng)行政命令,要求美國聯(lián)邦政府各部門和機(jī)構(gòu)制定人工智能活動監(jiān)管政策。在我國,國務(wù)院自2023年開始已經(jīng)連續(xù)兩年將人工智能立法列入立法工作計劃;全國人大常委會于20239月發(fā)布的《第十四屆全國人大常委會立法規(guī)劃》也將人工智能立法列入第一類項(xiàng)目(條件比較成熟、任期內(nèi)擬提請審議的法律草案),并指出推進(jìn)科技創(chuàng)新和人工智能健康發(fā)展……要求制定、修改、廢止、解釋相關(guān)法律,或者需要由全國人大及其常委會作出相關(guān)決定的,適時安排審議??梢灶A(yù)見,一旦完成準(zhǔn)備工作,我國人工智能立法將會提速進(jìn)行。圍繞人工智能立法的爭議問題包括但不限于以下五點(diǎn):人工智能法的規(guī)范對象、人工智能立法的基本路徑、人工智能時代的新興權(quán)利、監(jiān)管機(jī)構(gòu)以及法律責(zé)任。其中,對人工智能活動的規(guī)范進(jìn)路問題涉及價值判斷與治理觀念,反映了立法者應(yīng)對未知的倫理觀。就立法基本路徑而言,極端謹(jǐn)慎的態(tài)度是,如果不能防范風(fēng)險,就不允許新技術(shù)的應(yīng)用,但這一方案明顯過于保守。與之相對,風(fēng)險管理進(jìn)路強(qiáng)調(diào)擁抱風(fēng)險、容忍錯誤,對技術(shù)研發(fā)與應(yīng)用更為友善。歐盟的《人工智能法》就明確采取風(fēng)險管理進(jìn)路規(guī)范人工智能活動,該法序言14條指出,法案遵循基于風(fēng)險的路徑risk-based approach),即根據(jù)人工智能系統(tǒng)可能產(chǎn)生的風(fēng)險的強(qiáng)度和范圍來確定規(guī)則的類型和內(nèi)容。在英國達(dá)成的全球第一份針對人工智能的國際性聲明《布萊切利宣言》,同樣強(qiáng)調(diào)應(yīng)采取基于風(fēng)險的政策調(diào)整人工智能活動。我國也簽署了《布萊切利宣言》,接受基于風(fēng)險的人工智能規(guī)范路徑。然而,風(fēng)險管理進(jìn)路未必合理。筆者認(rèn)為,我國如果簡單地照搬他國模式進(jìn)行人工智能立法,不僅無法為世界法治貢獻(xiàn)智慧成果,也將喪失引領(lǐng)人工智能全球治理的良機(jī)。是以,研究人工智能立法的基本路徑問題,既是發(fā)展我國本土法學(xué)、樹立中國法學(xué)界碑的應(yīng)有之義,也是開展人工智能國際合作、貢獻(xiàn)中國智慧、表現(xiàn)大國擔(dān)當(dāng)?shù)漠?dāng)然之舉。有鑒于此,本文將在分析風(fēng)險管理進(jìn)路利弊的基礎(chǔ)上,通過辨析人工智能活動的雙重屬性,提出人工智能立法的另一種思路與策略,努力打造一種既能滿足人工智能動態(tài)監(jiān)管需求,又能促進(jìn)人工智能創(chuàng)新發(fā)展的新型治理框架。

二、人工智能立法風(fēng)險管理單一進(jìn)路之檢討

或許是受到風(fēng)險社會理論的影響,人們往往下意識地選擇風(fēng)險管理路徑調(diào)整新興科技活動。但風(fēng)險管理進(jìn)路不同于風(fēng)險社會理論,后者是探討后現(xiàn)代社會家庭、職業(yè)、知識以及外部自然環(huán)境等因素的風(fēng)險特征的理論體系,前者則是一套基于風(fēng)險收益分析的社會管理方法。風(fēng)險管理進(jìn)路的模式是:首先,將損害界定為風(fēng)險;其次,評估可能引發(fā)風(fēng)險的行為;最后,在進(jìn)行成本收益分析的基礎(chǔ)上劃分特定的風(fēng)險分類并配置相應(yīng)的規(guī)范。風(fēng)險管理進(jìn)路通過評估風(fēng)險的危害程度、控制風(fēng)險的成本以及風(fēng)險能帶來的收益,選擇相應(yīng)的規(guī)范設(shè)計。其中,將損害視為風(fēng)險是風(fēng)險管理的正當(dāng)性基礎(chǔ),風(fēng)險評估是風(fēng)險管理的前提,而風(fēng)險分類則是風(fēng)險管理的關(guān)鍵。然而,未經(jīng)充分論證就將損害界定為風(fēng)險,有輕視個人權(quán)益保護(hù)之嫌;由于人工智能活動引發(fā)的風(fēng)險具有高度復(fù)雜性,對人工智能活動的風(fēng)險評估與分類也極為困難,風(fēng)險管理路徑未必能有效地調(diào)整人工智能活動。

(一)風(fēng)險管理的正當(dāng)性問題

正當(dāng)性問題是人工智能風(fēng)險管理進(jìn)路受到批評的重要原因。風(fēng)險管理進(jìn)路強(qiáng)調(diào)擁抱風(fēng)險、容忍錯誤,對技術(shù)研發(fā)與應(yīng)用極為友善。但是,包容審慎的治理思路以不嚴(yán)重侵犯個人權(quán)益和產(chǎn)生重大社會風(fēng)險為前提。欲在政策上選擇風(fēng)險管理進(jìn)路,必須首先論證為什么讓個體與社會承受不可知的重大損害是值得的。易言之,既然已經(jīng)確定地知道人工智能將產(chǎn)生風(fēng)險,且風(fēng)險可能會造成嚴(yán)重的損害,為什么要選擇一種容忍損害的規(guī)范路徑?

一種辯護(hù)觀認(rèn)為,風(fēng)險與收益同在,個體雖然承受損害,但也在享受技術(shù)發(fā)展帶來的紅利。例如,智能手機(jī)極大地提升了人們的生活質(zhì)量,大部分人已經(jīng)無法在沒有智能手機(jī)陪伴下生活。但是,并非所有人都是科技的受益者。在科技轉(zhuǎn)化過程中存在決策者、受益者與波及者三方主體。波及者是不能參與政策制定又難以享受科技福利的群體。在風(fēng)險管理路徑下,偏離一般基準(zhǔn)的人,如老人、低智力群體,往往被迫承受技術(shù)發(fā)展的不利后果,他們的特別需求也常被忽視。另有觀點(diǎn)認(rèn)為,為了集體或多數(shù)人的利益,有時不得不讓少數(shù)人承受損失。集體利益確實(shí)常被視為承受風(fēng)險的理由,相較于個人,群體和社會才是風(fēng)險管理進(jìn)路關(guān)注的重點(diǎn)。但個人利益與集體利益是難以劃分的,當(dāng)海量個體淪為人工智能客體時,集體利益也在被侵犯。因而,風(fēng)險管理進(jìn)路未必對整體有益。

值得慶幸的是,人們已逐漸認(rèn)識到風(fēng)險管理路徑的弊端,轉(zhuǎn)而考慮采用其他替代策略。例如,在環(huán)境保護(hù)方面,德國環(huán)境保護(hù)法就拋棄之前的風(fēng)險管理模式,轉(zhuǎn)采預(yù)防原則。預(yù)防原則的宗旨是,面對科學(xué)上的不確定性,政策制定者應(yīng)努力防止危害的發(fā)生。即便缺少損害與行為之間充分的因果關(guān)系論證,只要損害后果可能極為嚴(yán)重,政府也應(yīng)馬上采取監(jiān)管措施。目前,預(yù)防原則已被寫入眾多環(huán)境保護(hù)公約中,取代風(fēng)險原則成為環(huán)境保護(hù)的基本原則。在人工智能治理領(lǐng)域,業(yè)界也有要求強(qiáng)化對人工智能活動監(jiān)管,對特定人工智能活動適用許可制度而非風(fēng)險管理的呼聲。除此之外,還有美國學(xué)者針對人工智能損害的不可逆性,強(qiáng)調(diào)應(yīng)努力構(gòu)建某種恢復(fù)性制度(Resilience),以替代人工智能風(fēng)險管理模式。


(二)風(fēng)險評估的可行性問題

拋開正當(dāng)性不論,人工智能活動風(fēng)險管理進(jìn)路在應(yīng)用層面的可行性也存在問題。風(fēng)險管理以有效的風(fēng)險評估為前提。風(fēng)險評估本質(zhì)是一種成本效益分析,歐盟《人工智能法》第3條就將風(fēng)險界定為發(fā)生損害的概率和該損害的嚴(yán)重程度的組合。風(fēng)險只有被量化分析,才有可能與收益相比較,從而確定可接受的限度。但是,對人工智能活動引發(fā)風(fēng)險的量化分析極為不易,人工智能風(fēng)險評估未必能成為決策的基礎(chǔ)。

其一,欠缺高質(zhì)量的數(shù)據(jù)和有效的模型。首先,缺乏作為量化評估基礎(chǔ)的高質(zhì)量數(shù)據(jù)。風(fēng)險評估需要的基本數(shù)據(jù)包括損害的危害程度、發(fā)生的概率、損害的地理和時間分布(普遍性)、損害的持續(xù)時間(持續(xù)性)、損害的可逆性等。然而,在新技術(shù)被投入應(yīng)用前,并不存在可供評估風(fēng)險的相應(yīng)數(shù)據(jù)。即便就已投入應(yīng)用的產(chǎn)品而言,受技術(shù)發(fā)展、地理、時間等各方面因素影響,所提供的數(shù)據(jù)也未必具有參考性。尤其是,以ChatGPTGemini為代表的人工智能大語言模型具有強(qiáng)大的自我學(xué)習(xí)能力,依據(jù)既有的數(shù)據(jù)難以預(yù)測不斷進(jìn)化的人工智能活動帶來的風(fēng)險。在缺乏高質(zhì)量數(shù)據(jù)的情況下,顯然難以精確地計算風(fēng)險發(fā)生的概率與危害程度,也就無法借助成本收益法確定人工智能活動可容忍的限度。其次,目前并不存在評估人工智能風(fēng)險的有效模型。對新興技術(shù)的風(fēng)險評估,將因延用舊有的分析框架而無法精確界定與測量風(fēng)險。以化學(xué)材料為例,定量結(jié)構(gòu)活性關(guān)系QSAR模型)工具可為普通化學(xué)品提供相當(dāng)可靠的風(fēng)險估計,但納米材料的毒性受化學(xué)結(jié)構(gòu)以外的其他因素(包括尺寸、表面積、表面特性等)影響,因而定量結(jié)構(gòu)活性關(guān)系并不能有效分析多數(shù)納米材料的風(fēng)險。又如,目前對于機(jī)動車的檢測標(biāo)準(zhǔn)與程序并不適用于智能網(wǎng)聯(lián)汽車,《醫(yī)療器械監(jiān)督管理?xiàng)l例》《醫(yī)療器械生產(chǎn)監(jiān)督管理辦法》也未必能夠合乎預(yù)期地調(diào)整人工智能醫(yī)學(xué)輔助器械(如看護(hù)機(jī)器人)的生產(chǎn)與使用。可見,如果使用舊有模型評估新型人工智能活動帶來的風(fēng)險,評估結(jié)果將不具有參考價值。當(dāng)評估模型失效時,即便存在有效的數(shù)據(jù),風(fēng)險評估也將缺乏說服力。

其二,難以準(zhǔn)確評估技術(shù)疊加引發(fā)的風(fēng)險。一般技術(shù)引發(fā)的風(fēng)險相對簡單,風(fēng)險發(fā)生概率與損害也容易確定(如機(jī)動車交通肇事風(fēng)險、斷電風(fēng)險等)。但人工智能大語言模型引發(fā)的風(fēng)險具有疊加性,使得風(fēng)險評估更為困難。復(fù)雜系統(tǒng)中不同活動和事件之間的相互作用使得風(fēng)險成倍增加,引發(fā)協(xié)同效應(yīng),風(fēng)險總量遠(yuǎn)大于各部分之和。有時兩個或更多的故障孤立地看均不具有破壞性,可一旦故障以意想不到的方式結(jié)合在一起,就會使得安全裝置失效,引發(fā)重大系統(tǒng)性事故。在大模型+具體應(yīng)用的產(chǎn)業(yè)生態(tài)中,上游基礎(chǔ)大模型和下游具體應(yīng)用之間存在著復(fù)雜的依存關(guān)系。通過海量數(shù)據(jù)訓(xùn)練出的大模型為具體模型提供底層邏輯支持,具體模型則通過術(shù)業(yè)有專攻的專業(yè)優(yōu)化訓(xùn)練,適配眾多的具體的行業(yè)和場景。在這一協(xié)同應(yīng)用關(guān)系中,對上游大模型的風(fēng)險評估無法預(yù)計下游應(yīng)用產(chǎn)生的具體風(fēng)險,對下游應(yīng)用的風(fēng)險評估也無法預(yù)測反饋機(jī)制對上游大模型自我學(xué)習(xí)能力的影響。

人工智能風(fēng)險評估技術(shù)越不可靠,評估結(jié)果受到外部因素干涉的可能性就越大。近幾十年來,學(xué)者們對技術(shù)風(fēng)險評估的客觀性進(jìn)行了檢驗(yàn),發(fā)現(xiàn)偏見、道德、政策、社會文化等均會影響風(fēng)險的識別與評估。其中,政策對于風(fēng)險評估結(jié)果的影響尤其引人關(guān)注。溫迪-瓦格納將外部政策環(huán)境對風(fēng)險評估的影響評價為科學(xué)騙局science charade),即用看似客觀的技術(shù)評估為幌子,就技術(shù)的應(yīng)用作出政策決定。尤其是當(dāng)人工智能活動風(fēng)險評估在技術(shù)層面遭遇障礙時,風(fēng)險評估就更易受到外部社會政治環(huán)境的影響。此時,財富生產(chǎn)的邏輯總能獲勝。如果風(fēng)險評估變?yōu)殡[性的政策選擇,風(fēng)險控制閥門將有失效之虞。

(三)風(fēng)險分類的融貫性問題

如上所述,風(fēng)險分類是風(fēng)險管理的關(guān)鍵。風(fēng)險管理路徑力求將人工智能活動引發(fā)的風(fēng)險進(jìn)行分類,進(jìn)而配置與風(fēng)險級別相稱的規(guī)范。目前國際上的風(fēng)險分類模式主要有三種:風(fēng)險屬性劃分模式、風(fēng)險內(nèi)容劃分模式以及風(fēng)險程度劃分模式。但上述模式均存在弊端,不能融貫地劃分風(fēng)險的類型與級別。

1. 風(fēng)險屬性劃分模式

風(fēng)險屬性劃分模式是一種依據(jù)風(fēng)險屬性對人工智能活動進(jìn)行分類的治理模式。采用此種模式的典型代表為美國。美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究院推出的《人工智能風(fēng)險管理框架》(AI RMF 1.0)根據(jù)風(fēng)險屬性不同,將人工智能活動風(fēng)險分為技術(shù)性風(fēng)險、社會技術(shù)風(fēng)險與指導(dǎo)原則性風(fēng)險。技術(shù)性風(fēng)險是指影響人工智能運(yùn)行穩(wěn)健性和準(zhǔn)確性的風(fēng)險,社會技術(shù)風(fēng)險涉及人工智能對隱私、安全、自由、公平等價值的影響,指導(dǎo)原則性風(fēng)險則是人工智能的應(yīng)用可能會影響對好的可信賴的人工智能的理解。這一模式的最大問題是,風(fēng)險本身難以被精確定性。首先,技術(shù)一定會出錯,而如何分配錯誤本身就是一個社會價值判斷,并不存在純粹的技術(shù)性風(fēng)險。其次,社會技術(shù)風(fēng)險與指導(dǎo)原則性風(fēng)險之間難以區(qū)分,因?yàn)橹挥性诰唧w的應(yīng)用場景中才能判斷好的可信賴。以深度偽造技術(shù)為例:當(dāng)深度偽造技術(shù)被用于合成虛假圖片、視頻時,我們會覺得人工智能不可信賴;但當(dāng)深度偽造技術(shù)被用以重現(xiàn)消失的藝術(shù)時,人們又樂于享受這一應(yīng)用,認(rèn)為人工智能是好的”“可信賴的。對人工智能技術(shù)的宏觀評價,離不開具體語境中的價值衡量。從該意義上說,指導(dǎo)原則性風(fēng)險本質(zhì)上也是一種社會技術(shù)風(fēng)險。依據(jù)風(fēng)險屬性劃分風(fēng)險類型的思路,在邏輯上并不清晰,也因此欠缺可執(zhí)行性。

2.風(fēng)險內(nèi)容劃分模式

風(fēng)險內(nèi)容劃分模式是依據(jù)風(fēng)險現(xiàn)實(shí)化的后果進(jìn)行分類。我國信息安全標(biāo)準(zhǔn)化技術(shù)委員會在2021年發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險防范指引》依據(jù)風(fēng)險后果將人工智能活動風(fēng)險分為失控性風(fēng)險”“社會性風(fēng)險”“侵權(quán)性風(fēng)險”“歧視性風(fēng)險”“責(zé)任性風(fēng)險五類;英國科技創(chuàng)新與技術(shù)部在2023年推出的《人工智能管理的創(chuàng)新優(yōu)先路徑》報告也根據(jù)風(fēng)險現(xiàn)實(shí)化后果分類,但將人工智能風(fēng)險劃分為人權(quán)風(fēng)險”“安全風(fēng)險”“公平風(fēng)險”“隱私風(fēng)險”“社會福利風(fēng)險可靠性風(fēng)險六類??梢?,即便采取同樣的風(fēng)險分類方式,中英兩國的風(fēng)險分類也并不相同。由于觀察者會因信息獲得渠道與關(guān)注焦點(diǎn)不同而總結(jié)出不同的風(fēng)險類型,風(fēng)險內(nèi)容劃分模式很難形成一套具有說服力的風(fēng)險類型。更何況,列舉難免會掛一漏萬。立法者若依據(jù)該模式確定人工智能風(fēng)險類型,可能會自我設(shè)限,使得一些本應(yīng)受到充分關(guān)注的人工智能活動被排除在法律規(guī)范之外。

3.風(fēng)險程度劃分模式

風(fēng)險程度劃分模式是目前最受關(guān)注的風(fēng)險分類模式。在該模式下,立法者根據(jù)人工智能活動引發(fā)風(fēng)險的危害程度劃分風(fēng)險類型。歐盟《人工智能法》為該模式的典型代表。該法將人工智能活動引發(fā)的風(fēng)險分為四類,并相應(yīng)地配置規(guī)則:引發(fā)不可接受風(fēng)險的人工智能系統(tǒng)是被禁止的,高風(fēng)險人工智能系統(tǒng)必須遵守特定要求,限制性風(fēng)險人工智能系統(tǒng)受到拘束較少,最小風(fēng)險人工智能系統(tǒng)則完全不受到限制。但這一模式也存在明顯的局限性。其一,風(fēng)險程度缺乏明確的判斷標(biāo)準(zhǔn)。例如,歐盟《人工智能法》第7條第1款要求結(jié)合是否嚴(yán)重危害健康和安全是否對基本權(quán)利、環(huán)境以及民主和法治造成嚴(yán)重不利影響來判斷人工智能活動是否屬于高風(fēng)險,但上述標(biāo)準(zhǔn)具有巨大的彈性與模糊性。歐盟試圖通過人工智能委員會與人工智能辦公室提供相對清晰的指引,但行政機(jī)關(guān)未必有能力評估風(fēng)險并進(jìn)行風(fēng)險分類。例如,以ChatGPT為代表的生成式人工智能可能產(chǎn)生不實(shí)資訊,從而直接或間接地?fù)p害個人權(quán)益,但歐盟對于應(yīng)將之歸入何種類型的人工智能活動存在大量爭議。美國于20245月通過的首部規(guī)范人工智能的地方性法律《科羅拉多州人工智能法》(SB24-205),同樣以高風(fēng)險人工智能系統(tǒng)為規(guī)范對象。根據(jù)該法第6-1-1701條第9款第a項(xiàng),構(gòu)成重大決策的實(shí)質(zhì)性因素的任何人工智能系統(tǒng)均為高風(fēng)險人工智能系統(tǒng)。而這一標(biāo)準(zhǔn)可能使得所有人工智能系統(tǒng)都被認(rèn)定具有高風(fēng)險。因此,科羅拉多州不得不在該條的第b項(xiàng)規(guī)定大量例外,但也會產(chǎn)生一刀切”“掛一漏萬等問題,并不能為確定是否具有高風(fēng)險提供清晰的指引。其二,僵化的風(fēng)險類別與高速發(fā)展的人工智能技術(shù)之間存在張力。一方面,隨著人工智能技術(shù)的發(fā)展,原本被視為限制性風(fēng)險或最小風(fēng)險的人工智能應(yīng)用可能會變得具有高風(fēng)險性甚至不可接受。例如,人工智能輔助教學(xué)曾被視為教育數(shù)字化的重要標(biāo)志,但隨著人臉識別、情緒識別技術(shù)的發(fā)展,對學(xué)生課堂活動的監(jiān)控有嚴(yán)重侵犯人權(quán)的風(fēng)險。另一方面,原本被認(rèn)為禁止應(yīng)用或高風(fēng)險的人工智能活動,也可能隨著安全技術(shù)措施的發(fā)展與應(yīng)用風(fēng)險程度顯著降低,但因規(guī)范的滯后性,相應(yīng)的人工智能活動將受到不當(dāng)限制。例如,無人駕駛引發(fā)的風(fēng)險等級隨著自動駕駛技術(shù)的成熟而不斷降低。無人駕駛汽車越早地被投入到真實(shí)場景中進(jìn)行路測,越有可能占據(jù)市場,但若無人駕駛被歸入高風(fēng)險人工智能活動,其路測場所、時間與程度等都將受到嚴(yán)格限制,最終也將制約技術(shù)發(fā)展與汽車行業(yè)的迭代升級。

風(fēng)險治理作為一種現(xiàn)代社會治理模式,已成為一種崇拜,使得一種近乎神奇的光環(huán)籠罩著對風(fēng)險評估與風(fēng)險治理但若審慎地分析該模式,就會發(fā)現(xiàn)風(fēng)險管理單一路徑并非調(diào)整先進(jìn)科技活動的良方。首先,風(fēng)險管理路徑僅適用于可量化的危害,對人工智能活動引發(fā)的風(fēng)險并不適用,而忽視不可量化的危害是災(zāi)難的根源。其次,人工智能活動的復(fù)雜性使得全面、妥當(dāng)?shù)娘L(fēng)險分類與歸類極為困難。最后,風(fēng)險管理路徑有損害個體和集體利益的危險。歐盟采取風(fēng)險管理進(jìn)路規(guī)范人工智能活動,是一種有益的嘗試,但單一理論是無法規(guī)范復(fù)雜、多場景的人工智能應(yīng)用的。我國未來的人工智能立法不應(yīng)受到布魯塞爾效應(yīng)的影響,亦步亦趨地遵循風(fēng)險管理路徑,而應(yīng)在充分了解人工智能活動特性的基礎(chǔ)上,尋找一種更兼顧安全與發(fā)展的綜合的人工智能治理范式。

三、因應(yīng)人工智能活動特性的復(fù)式立法路徑

人工智能活動具有高度復(fù)雜性,以之為調(diào)整對象的法律難以按照風(fēng)險管理單一路徑進(jìn)行設(shè)計。欲制定調(diào)整行為的法律,必須首先了解被規(guī)范的對象。如果只是基于一種主觀判斷進(jìn)行立法,這種判斷未必能夠與現(xiàn)實(shí)問題相對應(yīng),其是否有足夠的張力、體現(xiàn)了何種程度的偏差或遺漏,也不得而知。人工智能活動具有雙重屬性,人工智能立法也應(yīng)具有復(fù)式立法定位。

人工智能活動由人工智能研發(fā)活動與人工智能應(yīng)用活動組成,前者體現(xiàn)出鮮明的科學(xué)性,后者則以賦能應(yīng)用為主,因此具有工具性特征。當(dāng)然,人工智能研發(fā)活動與應(yīng)用活動也存在交叉。例如,一些研發(fā)活動的目的是賦能應(yīng)用,在應(yīng)用過程中也可以通過數(shù)據(jù)訓(xùn)練人工智能系統(tǒng),實(shí)現(xiàn)人工智能研發(fā)的質(zhì)的突破。為了更加清晰地說明問題,下文分別著重在研發(fā)活動與應(yīng)用活動的框架內(nèi)討論人工智能活動的科學(xué)性與工具性。

(一)人工智能活動的雙重屬性

科技大致被劃分為專精科技和賦能科技兩類。專精科技側(cè)重于深度與專業(yè)性,賦能科技則注重于應(yīng)用與提升能力,二者在性質(zhì)、功效和實(shí)現(xiàn)手段上存在根本差別。以往的科技要么屬于專精科技,要么表現(xiàn)為賦能科技。人工智能活動相較于以往的科技活動更為復(fù)雜,既具有高度專業(yè)性(科學(xué)性),又具有廣泛的賦能性(工具性),同時屬于專精科技活動與賦能科技活動。

1. 作為專精科技活動的科學(xué)性

人工智能屬于新一代科技革命中的表征性科技。人工智能研究屬于一項(xiàng)專精科技活動,旨在開發(fā)出可以自我分析、自我總結(jié)、自我糾錯的人工智能系統(tǒng)。為了實(shí)現(xiàn)這一目標(biāo),在計算機(jī)科學(xué)中產(chǎn)生了符號主義、聯(lián)結(jié)主義和行為主義等諸多流派。神經(jīng)網(wǎng)絡(luò)技術(shù)的出現(xiàn)使得人工智能研究有了重大突破(如深度學(xué)習(xí)算法)。以ChatGPT為代表的大語言模型又使得人工智能研發(fā)前進(jìn)一大步。目前,人工智能已經(jīng)具有超強(qiáng)的自我學(xué)習(xí)能力。在此基礎(chǔ)上,有些科研活動直接瞄準(zhǔn)超級人工智能,力圖使得人工智能呈現(xiàn)出一種人類尚未發(fā)現(xiàn)或無法實(shí)現(xiàn)的邏輯形式,進(jìn)而超越人類智能,探索到人類無法觸及的高度。顯而易見,人工智能研發(fā)本質(zhì)是一項(xiàng)科學(xué)研究,屬于專精科技活動。

人工智能研發(fā)活動的科學(xué)性增加了調(diào)整人工智能活動的難度。非專業(yè)人士通常無法真正理解作為一項(xiàng)科學(xué)研究的人工智能的影響。以作為人工智能三要素之一的算法為例,人工智能算法的書寫甚至閱讀都是一項(xiàng)專業(yè)技能。對非專業(yè)人士而言,算法是另外一種語言。因此,只有借助計算機(jī)科學(xué)家對科研活動的自我批判,才能理解與規(guī)范人工智能活動。目前也已經(jīng)存在以控制人工智能為目標(biāo)的科研項(xiàng)目,例如,谷歌公司、斯坦福大學(xué)等都在進(jìn)行算法可視化的研究,以增強(qiáng)算法的可解釋性。當(dāng)下的研究增加了對圖像識別人工智能算法的解釋可能,但是仍有很多工作未能完成。只有借助科學(xué)系統(tǒng)自身,才能更好地識別與解決問題。

2.作為賦能科技活動的工具性

當(dāng)聚焦人工智能活動時,人們更多關(guān)注人工智能的賦能應(yīng)用。以往的科技常被認(rèn)為是定向的,影響范圍基本是領(lǐng)域性的(如化石燃料、通信技術(shù)等),即便是通過跨學(xué)科合作產(chǎn)生了一定的開放性,也不具備通用性。在此認(rèn)知之下,科技主要被視為推動經(jīng)濟(jì)發(fā)展的工具,科技法也主要關(guān)注技術(shù)的經(jīng)濟(jì)意義,一直秉持技術(shù)經(jīng)濟(jì)的立法范式。人工智能的出現(xiàn)改變了科技的定向性。人工智能是一項(xiàng)通用技術(shù),是科學(xué)研究、教育、制造、物流、運(yùn)輸、司法、行政、廣告、藝術(shù)等眾多領(lǐng)域與人類生活各方面的賦能者。通過在具體應(yīng)用場景中的調(diào)整,人工智能可以滿足多樣的需求。人形機(jī)器人就是人工智能技術(shù)與場景的疊加和結(jié)合的典型。人形機(jī)器人根據(jù)不同場景需求呈現(xiàn)出不同的表現(xiàn)形式,如陪伴機(jī)器人、看護(hù)機(jī)器人以及親密機(jī)器人等。我國工業(yè)和信息化部《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》指出,應(yīng)首先研發(fā)出基礎(chǔ)版人形機(jī)器人整機(jī),打造公版通用平臺,然后支持不同場景需求下的結(jié)構(gòu)改造、算法優(yōu)化以及特定能力強(qiáng)化。

作為賦能工具的人工智能活動,在價值上并不當(dāng)然具有合理性,可能會帶來新的社會風(fēng)險,導(dǎo)致社會關(guān)系異化。仍以人形機(jī)器人為例,在大語言模型的加持下,人形機(jī)器人將獲得強(qiáng)大的操縱能力,損及人的主體性。其一,人形機(jī)器人具有智能表象。如果人類發(fā)現(xiàn)人形機(jī)器人比一般人更有能力,人形機(jī)器人遲早會獲得高于普通人的影響力。當(dāng)我們習(xí)慣性地首先問詢機(jī)器人意見時,人類就在喪失自主性。一個顯而易見的例子是,高德地圖、百度地圖等導(dǎo)航程序大大減弱了個人的自主尋路能力。其二,高度擬人化的外觀使得人形機(jī)器人更容易被視為同類。人類對于人形物件產(chǎn)生共情是自然的心理傾向,人形機(jī)器人的外觀能夠引發(fā)人類的心理投射,很容易引起共情。如果陪伴機(jī)器人或親密機(jī)器人(性愛機(jī)器人)幾可以假亂真,人類可能會有意無意地將機(jī)器人視為同類,并將之視為自己的最佳伙伴。這將使得具身智能進(jìn)一步獲得不同尋常的操縱能力。具有操縱性能力的人形機(jī)器人可能會限制個人的自我決定、干擾人的社會化甚至扭曲家庭觀念,引發(fā)新型社會問題,因而需要法秩序積極應(yīng)對與規(guī)范。

(二)雙重屬性下的人工智能復(fù)式立法定位

基于人工智能活動的科學(xué)性與工具性雙重屬性,以之為規(guī)范對象的人工智能法也應(yīng)具有雙重定位。人工智能研發(fā)活動是一項(xiàng)科學(xué)研究活動,以科學(xué)活動為規(guī)范對象的《人工智能法》當(dāng)然具有科技法屬性;人工智能應(yīng)用則是技術(shù)與場景的結(jié)合,因而以場景化應(yīng)用為規(guī)范對象的《人工智能法》也應(yīng)具有應(yīng)用法屬性。是以,我國未來的人工智能立法應(yīng)同時具有科技法與應(yīng)用法雙重定位。

1. 作為科技法的人工智能法

科技法導(dǎo)向下的人工智能立法應(yīng)充分尊重科技自主,關(guān)注科技倫理?,F(xiàn)代社會的典型特征是功能分化,功能分化創(chuàng)造解決社會問題的諸多子系統(tǒng),社會子系統(tǒng)無法被一種方式整合,而是始終按照各自的媒介發(fā)揮作用。例如,經(jīng)濟(jì)子系統(tǒng)無法替代教育子系統(tǒng)的功能,科研活動也只能依托科技系統(tǒng)推進(jìn)??蒲谢顒右话悴辉甘艿竭^多的外部限制,對科研活動的規(guī)范應(yīng)優(yōu)先借助科技系統(tǒng)自身。借助科技倫理規(guī)范科技本身,此謂科技系統(tǒng)的自我反身性。長期以來,人們認(rèn)為科研不應(yīng)存在禁區(qū),因?yàn)榭茖W(xué)研究本身是一種求真的活動,依賴一個自由探索的科研環(huán)境。如若事先設(shè)定禁區(qū),將會破壞科學(xué)研究的求真本性。但隨著現(xiàn)代科學(xué)的興起,知識的發(fā)現(xiàn)不再被認(rèn)為是最終目的,科學(xué)的成功可能就是危害的開始。美國《科學(xué)》雜志指出,現(xiàn)代科學(xué)引發(fā)的科學(xué)與社會責(zé)任、科學(xué)與倫理、科學(xué)與現(xiàn)代性等問題,正以前所未有的速度與規(guī)模引起人們的注意。科學(xué)并非全然有益,一些科學(xué)研究的危害性甚至勝過其學(xué)術(shù)性。人們逐漸認(rèn)識到,科技并非文明,科研活動也應(yīng)受到規(guī)范,科技倫理應(yīng)運(yùn)而生。人工智能活動作為科技活動的一種,當(dāng)然應(yīng)遵守人工智能科技倫理。

人工智能法的科技法屬性也意味著,我們在規(guī)范科技活動的同時應(yīng)規(guī)定適當(dāng)?shù)目萍即龠M(jìn)型制度。人工智能的核心要素是算法、算力與數(shù)據(jù),但人工智能法并不等同于人工智能要素法。若將人工智能立法簡單拆分為人工智能要素的立法,圍繞各個要素設(shè)計一般性規(guī)則,不但會消解人工智能法的立法目的,也會模糊人工智能法與《個人信息保護(hù)法》《數(shù)據(jù)安全法》等法律的關(guān)系。不能因?yàn)槿斯ぶ悄艿暮诵囊厥撬惴?、算力與數(shù)據(jù),就圍繞各個要素面面俱到地制定規(guī)則。所應(yīng)思考的毋寧是,阻礙人工智能發(fā)展的障礙為何、我國未來的《人工智能法》又應(yīng)如何適當(dāng)?shù)卦O(shè)計規(guī)則以充分發(fā)揮制度的破壁效果。目前較為清晰的是,數(shù)據(jù)資源的匯集與適用是影響人工智能發(fā)展的關(guān)鍵性問題。中國社會科學(xué)院發(fā)布的《人工智能示范法(專家建議稿)》第18條、中國政法大學(xué)等高校合作起草的《中華人民共和國人工智能法(學(xué)者建議稿)》第20條,均規(guī)定了數(shù)據(jù)要素供給制度,強(qiáng)調(diào)國家應(yīng)支持建設(shè)人工智能領(lǐng)域基礎(chǔ)數(shù)據(jù)庫和專題數(shù)據(jù)庫,促進(jìn)數(shù)據(jù)資源高效匯聚和共享利用,鼓勵引導(dǎo)相關(guān)主體開展大數(shù)據(jù)與人工智能技術(shù)協(xié)同研發(fā)等。我國未來的人工智能立法,應(yīng)規(guī)定數(shù)據(jù)使用規(guī)則,適度突破既有的個人信息保護(hù)規(guī)則、著作權(quán)保護(hù)規(guī)則,滿足人工智能訓(xùn)練的數(shù)據(jù)需求。

2.作為應(yīng)用法的人工智能法

人工智能復(fù)雜、多樣的場景化應(yīng)用增加了統(tǒng)一立法的難度。人工智能賦能不同應(yīng)用場景,引發(fā)的法律關(guān)系并不相同。以人臉識別為例,如果人臉識別技術(shù)被用于門禁、電子護(hù)照、自動支付,涉及的法益包括出行自由與財產(chǎn)安全等;但若人臉識別技術(shù)被用于一般性的監(jiān)控,則主要涉及自由與安全之間的矛盾。自動決策算法在公私不同領(lǐng)域中的應(yīng)用,引發(fā)的法律問題也不一樣。商業(yè)領(lǐng)域的自動決策算法應(yīng)用容易引發(fā)算法黑箱與歧視問題。例如,招聘人工智能可能有意識地排斥特定地域的應(yīng)聘者,將地域歧視程序化。公權(quán)力運(yùn)用決策型算法的,則會直接對個人的基本權(quán)利造成影響。例如,以秒批為代表的自動行政算法極大地提升了行政效率,但也在一定程度上侵犯了公民的人身自由和知情權(quán)??梢?,人工智能在公私領(lǐng)域應(yīng)用涉及的價值各異,統(tǒng)一的規(guī)范設(shè)計并不容易。

在很長的一段時間內(nèi),思想家偏好一種本質(zhì)論的思維方式,即通過界定事物本質(zhì)來尋找其發(fā)展規(guī)律,運(yùn)用規(guī)律規(guī)范事物本身。遺憾的是,試圖抓住本質(zhì)、化繁為簡的努力往往不易成功,很多時候是表面上似乎對認(rèn)識對象一目了然了,但是實(shí)際上卻并沒有真實(shí)反映復(fù)雜社會的實(shí)際情況,反倒使得認(rèn)識對象被過度簡化。所以,現(xiàn)代認(rèn)識范式越來越偏愛非本質(zhì)論,即通過揭示事物的復(fù)雜性、多樣性,在全面了解事物不同面相的基礎(chǔ)上解釋與調(diào)整事物。以經(jīng)濟(jì)學(xué)為例,復(fù)雜經(jīng)濟(jì)學(xué)理論指出,古典均衡理論過于理想化和理性化,扭曲了現(xiàn)實(shí)世界?,F(xiàn)代經(jīng)濟(jì)學(xué)批判以往經(jīng)濟(jì)模型的過度簡化,認(rèn)為經(jīng)濟(jì)不是確定的、靜態(tài)均衡的,而是依賴于過程的、有機(jī)的、永遠(yuǎn)在進(jìn)化的。筆者認(rèn)為,歐盟采取風(fēng)險管理單一進(jìn)路規(guī)范人工智能活動,認(rèn)為風(fēng)險是確定的與可預(yù)測的,一定程度就是在將復(fù)雜世界簡單化與靜態(tài)化。單一理論是無法規(guī)范復(fù)雜、多場景的人工智能應(yīng)用的,如果按照單一理論設(shè)計規(guī)則,難免會產(chǎn)生規(guī)制過嚴(yán)或過松的問題。鑒于人工智能多樣的應(yīng)用場景,人工智能賦能應(yīng)用規(guī)范不應(yīng)尋求簡單的、單一的規(guī)范框架,而應(yīng)充分重視事物的復(fù)雜性。

我國目前存在兩個版本的人工智能法建議稿。中國社會科學(xué)院發(fā)布的《人工智能示范法2.0(專家建議稿)》規(guī)定了人工智能支持與促進(jìn)制度,人工智能管理制度,人工智能研發(fā)者、提供者義務(wù)以及人工智能綜合治理機(jī)制;中國政法大學(xué)等高校合作起草的《中華人民共和國人工智能法(學(xué)者建議稿)》規(guī)定了發(fā)展與促進(jìn)、使用者權(quán)益保護(hù)、開發(fā)者與提供者義務(wù)規(guī)范、監(jiān)督管理、特殊應(yīng)用場景、國際合作等。無論是哪一個版本,均未采取單一的風(fēng)險管理路徑或某種單一理論模型規(guī)范人工智能賦能活動。筆者認(rèn)為,不同的人工智能活動所涉問題分屬不同的領(lǐng)域,涉及的主體結(jié)構(gòu)、利益關(guān)系也有所不同。人工智能賦能應(yīng)用活動具有高度場景化特征,沒有任何一個正確的預(yù)期模型可以被假定為共同知識。因此,人工智能賦能應(yīng)用活動的規(guī)范,不應(yīng)過度追求理論化與體系性,而應(yīng)在充分了解現(xiàn)實(shí)問題的前提下,設(shè)計能夠滿足場景化應(yīng)用與動態(tài)調(diào)整需求的治理結(jié)構(gòu)。

四、復(fù)式立法進(jìn)路下人工智能規(guī)范框架的展開

人工智能活動具有科學(xué)性與賦能性,我國未來的人工智能立法也應(yīng)在科技法與應(yīng)用法復(fù)式定位下展開。一部立法具有雙重定位,無疑極為考驗(yàn)立法者的智慧。一個簡單的、邏輯清晰的治理框架雖然符合形式美感,但可能削足適履,不能有效地調(diào)整規(guī)范對象。作為科技法的《人工智能法》應(yīng)重在將科技倫理內(nèi)化于人工智能研發(fā)活動中,同時打破制度壁壘,促進(jìn)人工智能科技的發(fā)展;作為應(yīng)用法的《人工智能法》則應(yīng)關(guān)注科技賦能導(dǎo)致的功能異化現(xiàn)象,借助靈活的規(guī)范配置,滿足多樣的規(guī)范需求。

(一)科技法定位下的人工智能研發(fā)伴生性規(guī)范

人工智能研發(fā)活動屬于專精科技活動,具有科學(xué)性。與之相應(yīng),對人工智能研發(fā)活動的規(guī)范,不能忽視科技系統(tǒng)獨(dú)有的調(diào)整方式。此外,以科技活動為規(guī)范對象的人工智能法,應(yīng)充分發(fā)揮科技促進(jìn)法的功能,破除人工智能發(fā)展的制度障礙,促進(jìn)人工智能科技成果轉(zhuǎn)化。

1. 科技倫理義務(wù)化

科技不同于自然,自然中萬事萬物緊密關(guān)聯(lián),科技則是操作系統(tǒng)的因果性閉合??萍枷到y(tǒng)的內(nèi)在封閉性意味著,只有本系統(tǒng)成員才能充分理解其內(nèi)部發(fā)生的意義溝通過程。計算機(jī)科學(xué)家最了解人工智能研發(fā)中的危險,也處于控制危害的最佳位置。作為科技法的人工智能法,應(yīng)關(guān)注研發(fā)過程,要求科學(xué)家遵守科技倫理。

科技倫理是科技系統(tǒng)對科研活動的自我調(diào)整方式??萍紓惱砜梢暂斔透邥r效、更加貼合技術(shù)發(fā)展與商業(yè)模式的行為規(guī)范,實(shí)現(xiàn)尊重人工智能發(fā)展規(guī)律、促進(jìn)人工智能場景創(chuàng)新與立法監(jiān)管相協(xié)調(diào),增強(qiáng)立法的社會適應(yīng)性。國家新一代人工智能治理專業(yè)委員會于2021年發(fā)布的《新一代人工智能倫理規(guī)范》就確立了強(qiáng)化自律意識、提升數(shù)據(jù)質(zhì)量、增強(qiáng)安全透明和避免偏見歧視四項(xiàng)研發(fā)規(guī)范。唯須注意,倫理原則只有具體化、義務(wù)化,才能真正發(fā)揮作用。如果沒有通過立法確定具體的人工智能活動規(guī)則,人工智能倫理原則將難以落地。法秩序應(yīng)通過設(shè)計研發(fā)伴生性規(guī)范的方式,將科研倫理內(nèi)化于科研過程。我國未來的人工智能法應(yīng)規(guī)定記錄義務(wù)、報告義務(wù)、安全管理和倫理委員會等制度。囿于篇幅,下文主要介紹研發(fā)人員應(yīng)承擔(dān)的記錄和報告義務(wù)。

記錄是科技系統(tǒng)自我觀察與調(diào)試的基礎(chǔ)。人工智能活動引發(fā)的風(fēng)險具有不可預(yù)測性,唯有借助科學(xué)記錄,才能在一定程度上理解正在進(jìn)行的科研活動。歐盟委員會于2020年發(fā)布的《人工智能白皮書——追求卓越和信任的歐洲方案2020》就明確指出,人工智能設(shè)計者和運(yùn)營者應(yīng)當(dāng)記錄并保存下列信息:訓(xùn)練和測試的數(shù)據(jù)集,包括對主要特征的描述及挑選數(shù)據(jù)集的方式;在合理情況下,數(shù)據(jù)集本身;有關(guān)編程和訓(xùn)練方法,構(gòu)建、測試和驗(yàn)證人工智能系統(tǒng)的過程和技術(shù)等,包括避免歧視的相關(guān)設(shè)計。在大語言模型時代,人工智能科研工作者更應(yīng)承擔(dān)記錄義務(wù)。只有以可理解的方式記錄科研流程,才有可能控制大模型引發(fā)的不確定性。

記錄義務(wù)并非僅存在于實(shí)驗(yàn)室,而應(yīng)貫穿人工智能系統(tǒng)全生命周期。考慮到人工智能的自我學(xué)習(xí)、自我成長能力,人工智能活動的記錄義務(wù)應(yīng)有一定的特殊性。相較于工業(yè)時代的產(chǎn)品,人工智能技術(shù)在投入應(yīng)用后更可能實(shí)現(xiàn)進(jìn)化,因?yàn)閬碜袁F(xiàn)實(shí)場景中的數(shù)據(jù)將不斷刺激人工智能的自我生長?;诜律鷮W(xué)設(shè)計的種子人工智能Seed AI)能夠不斷改良自身。種子人工智能首先通過試驗(yàn)和試錯、信息采集以及程序員協(xié)助等方式理解自己的運(yùn)行邏輯,然后通過建立新算法與結(jié)構(gòu)實(shí)現(xiàn)遞歸性自我提升recursive self-improvement),從而獲得自我進(jìn)化能力。從某種意義上說,整個社會都是人工智能系統(tǒng)的進(jìn)化場所。歐盟《人工智能法》第12條第1款明確要求高風(fēng)險人工智能系統(tǒng)應(yīng)具備在運(yùn)行時自動記錄事件的能力,第2款則強(qiáng)調(diào)人工智能開發(fā)者將人工智能產(chǎn)品投入市場后需要承擔(dān)產(chǎn)品追蹤記錄義務(wù)。只要人工智能系統(tǒng)具有自我學(xué)習(xí)能力,研發(fā)者就應(yīng)承擔(dān)持續(xù)的記錄義務(wù),以實(shí)現(xiàn)對人工智能系統(tǒng)的全生命周期監(jiān)測。

報告義務(wù)與記錄義務(wù)相輔相成,是同一硬幣的兩面。如果根據(jù)記錄發(fā)現(xiàn)人工智能模型存在錯誤或缺陷,研發(fā)人員應(yīng)及時向監(jiān)管機(jī)構(gòu)匯報。歐盟《人工智能法》第62條第1款要求高風(fēng)險人工智能系統(tǒng)的提供者發(fā)現(xiàn)嚴(yán)重故障時,應(yīng)立即向監(jiān)管機(jī)構(gòu)進(jìn)行匯報,報告時間應(yīng)在發(fā)現(xiàn)嚴(yán)重故障之日起15日內(nèi)。當(dāng)強(qiáng)人工智能有望實(shí)現(xiàn)時,科研工作者更應(yīng)及時報告,因?yàn)閺?qiáng)人工智能技術(shù)可能是人類最后一個發(fā)明,會給作為發(fā)明者的人類帶來巨大危險。當(dāng)然,也有人指出,強(qiáng)人工智能的到來尚遙遙無期,人工智能末世論過于夸大人工智能的危險。對此,或許只有時間才能分辨對錯。真正需要思考的問題是,我們是否愿意接受因技術(shù)蝶變而自我毀滅的可能。當(dāng)奇點(diǎn)時刻來臨時,不應(yīng)僅由科學(xué)家決定人類的命運(yùn),而應(yīng)讓包括科學(xué)家在內(nèi)的全人類共同作出選擇。但要讓研發(fā)者之外的其他人也獲得決定權(quán),就必須使其能夠?qū)崟r了解研發(fā)進(jìn)度。因此,人工智能研發(fā)者應(yīng)負(fù)有重大事項(xiàng)報告義務(wù),以使監(jiān)管機(jī)關(guān)可以據(jù)此及時介入人工智能科研活動,防止系統(tǒng)發(fā)生整體性崩壞。

目前,互聯(lián)網(wǎng)監(jiān)管部門正在嘗試通過算法備案的方式強(qiáng)化對人工智能活動的監(jiān)管。但相較而言,算法備案不如記錄與報告義務(wù)那么契合專精科技活動的科學(xué)性。通過算法備案的方式規(guī)范人工智能活動,并不符合科技法規(guī)范模式。算法備案實(shí)質(zhì)是一種權(quán)力機(jī)關(guān)試圖深入到科技系統(tǒng)內(nèi)部、直接監(jiān)管人工智能設(shè)計與運(yùn)行的有益嘗試,旨在獲取平臺設(shè)計部署的具有潛在危害和風(fēng)險的算法系統(tǒng)的相關(guān)信息,以固定問責(zé)點(diǎn),為今后的行政監(jiān)管提供信息基礎(chǔ)。但是,備案可能成為變相的審批,不當(dāng)干擾科技研發(fā)。實(shí)踐中,部分監(jiān)管部門以備案之名行審批之實(shí),過度侵蝕科技系統(tǒng)的自主性。歐盟1995年頒布的《個人信息保護(hù)指令》(Data Protection Directive)第1819條曾規(guī)定個人信息控制者和處理者使用自動化算法的備案義務(wù)。但在制定歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)的過程中,歐盟委員會就指出備案義務(wù)增加了企業(yè)的官僚主義負(fù)擔(dān),并主張廢除一般性的備案義務(wù),改為要求全面記錄個人信息處理活動;一旦監(jiān)管機(jī)構(gòu)要求算法使用人提供記錄,算法使用人有義務(wù)及時、全面提供相應(yīng)的記錄。2016年通過的歐盟《通用數(shù)據(jù)保護(hù)條例》采納了歐盟委員會的建議,于第30條規(guī)定中以記錄和報告義務(wù)取代《個人信息保護(hù)指令》中的備案義務(wù)。此外,人工智能大語言模型具有不斷進(jìn)化的能力,將靜態(tài)的、一時的算法予以備案,也不足以幫助監(jiān)管部門了解算法的后續(xù)進(jìn)化。更優(yōu)的路徑是強(qiáng)化人工智能開發(fā)者的持續(xù)記錄與報告義務(wù),借助科學(xué)系統(tǒng)自身的控制閥門實(shí)現(xiàn)治理目標(biāo)。

2.建立促進(jìn)人工智能科技發(fā)展的數(shù)據(jù)制度

《人工智能法》以科技活動為調(diào)整對象,應(yīng)在規(guī)范之余設(shè)計促進(jìn)型制度,助力人工智能科技發(fā)展。數(shù)據(jù)利用問題是制約人工智能發(fā)展的卡脖子問題,不論大模型設(shè)計的技術(shù)水平有多高,數(shù)據(jù)訓(xùn)練數(shù)量與質(zhì)量均對AI性能具有決定性影響。依數(shù)據(jù)來源主體不同,數(shù)據(jù)可以分為個人數(shù)據(jù)與非個人數(shù)據(jù)。目前人工智能訓(xùn)練使用個人數(shù)據(jù)的,只有在符合《個人信息保護(hù)法》規(guī)定的合法性基礎(chǔ)的前提下才能實(shí)現(xiàn),這嚴(yán)重限制了人工智能的數(shù)據(jù)訓(xùn)練;非個人數(shù)據(jù)的利用雖然無需受到個人信息保護(hù)法律的拘束,但也面臨數(shù)據(jù)孤島”“數(shù)據(jù)壟斷等問題,加之知識產(chǎn)權(quán)制度的影響,人工智能訓(xùn)練難以匯聚利用商業(yè)數(shù)據(jù)、中國知網(wǎng)等知識平臺的高質(zhì)量數(shù)據(jù)。

首先,人工智能立法可以借助可期待性同意規(guī)則,允許合理利用個人數(shù)據(jù)進(jìn)行人工智能訓(xùn)練。《個人信息保護(hù)法》第13條第1款規(guī)定了七項(xiàng)處理個人信息的合法性基礎(chǔ),其中個人的同意是處理個人信息的核心規(guī)則。依據(jù)第14條規(guī)定,同意必須由個人在充分知情的前提下自愿、明確作出,但一方面,人工智能訓(xùn)練需要海量的個人數(shù)據(jù),無法事先一一獲得個人的同意;另一方面,同意機(jī)制在人工智能時代也可能成為個人的負(fù)擔(dān)——個人信息主體在無法充分理解人工智能活動的情況下,被迫面臨信息過載和決策過頻的問題,將很難作出真正有價值的決定。我國未來的人工智能立法可以嘗試通過規(guī)定可期待性同意的方式,在減輕個人負(fù)擔(dān)的同時,允許人工智能系統(tǒng)在符合期待的情境下收集與處理個人信息。早在2004年,美國學(xué)者就提出情境誠信理論,認(rèn)為個人信息保護(hù)應(yīng)當(dāng)根據(jù)不同的情境而有不同的期待。如果行為不合期待,即便有個人明確的同意也構(gòu)成對個人信息的侵犯;反之,即便個人沒有事先明確同意,個人信息處理活動也是合法的。例如,智能家居機(jī)器人在征得購買者同意處理其個人信息時,當(dāng)然還會處理購買者家庭其他成員(如未成年人)、偶然使用者(如訪客)等個人信息,此時人形機(jī)器人的數(shù)據(jù)處理行為應(yīng)是符合期待的。借助可期待性同意規(guī)則,可以一定程度上柔化《個人信息保護(hù)法》中的同意規(guī)則的剛性,推動人工智能通過收集與處理個人數(shù)據(jù)實(shí)現(xiàn)科技蝶變。

其次,人工智能立法應(yīng)借助數(shù)據(jù)訪問權(quán)打破數(shù)據(jù)孤島,并適當(dāng)紓解人工智能利用非個人數(shù)據(jù)的知識產(chǎn)權(quán)限制。數(shù)據(jù)不會被耗盡,且能夠?yàn)閷?shí)現(xiàn)不同目的而被反復(fù)利用與共享,數(shù)據(jù)的這一屬性使得數(shù)據(jù)共享作為常態(tài)成為可能。但在技術(shù)壁壘與商業(yè)模式的影響下,數(shù)據(jù)集中于大型平臺之上,最終容易導(dǎo)致數(shù)據(jù)孤島和數(shù)據(jù)壟斷。對于個人數(shù)據(jù),尚可以借助《個人信息保護(hù)法》第45條第3款規(guī)定的數(shù)據(jù)可攜帶權(quán)實(shí)現(xiàn)數(shù)據(jù)流轉(zhuǎn);但對于非個人數(shù)據(jù)的流轉(zhuǎn),卻不存在明確的規(guī)則。監(jiān)管部門要求大型平臺之間互聯(lián)互通,但有過分侵犯營業(yè)自由的嫌疑;要求強(qiáng)強(qiáng)聯(lián)合,卻可能進(jìn)一步促成數(shù)據(jù)壟斷。2022年公布的《歐盟數(shù)據(jù)法》專門規(guī)定了數(shù)據(jù)訪問權(quán)(right of access to data),允許個人攜轉(zhuǎn)與產(chǎn)品或服務(wù)有關(guān)的非個人數(shù)據(jù)。我國的人工智能立法可以參照規(guī)定數(shù)據(jù)訪問權(quán),將用戶攜轉(zhuǎn)數(shù)據(jù)的對象從個人數(shù)據(jù)擴(kuò)張到非個人數(shù)據(jù),借助個人力量打破數(shù)據(jù)孤島,促進(jìn)數(shù)據(jù)聚合。此外,著作權(quán)也會對人工智能訓(xùn)練數(shù)據(jù)的匯聚和融合形成挑戰(zhàn)。開放性網(wǎng)站是人工智能訓(xùn)練的重要數(shù)據(jù)來源。但是,開放性網(wǎng)站上的文字、圖片、聲音等很可能已經(jīng)受到《著作權(quán)法》的保護(hù)。例如,微博、知乎上發(fā)表的文字或問答,微信、小紅書、抖音上用戶上傳的音樂、圖片、視頻,在達(dá)到獨(dú)創(chuàng)性的門檻后,都可能獲得著作權(quán)保護(hù)。一旦人工智能企業(yè)利用這些內(nèi)容數(shù)據(jù),就有可能構(gòu)成著作權(quán)侵權(quán)。為了鼓勵人工智能科技發(fā)展,日本政府官員表示,日本法律不會保護(hù)人工智能集中使用的原始材料版權(quán)。但筆者認(rèn)為,一概允許人工智能使用他人作品進(jìn)行訓(xùn)練,未免過于極端了。更為妥適的做法是借鑒歐盟2019年《單一數(shù)字市場版權(quán)指令》第4條的規(guī)定,一方面規(guī)定以人工智能訓(xùn)練為目的使用作品構(gòu)成著作權(quán)保護(hù)的例外,另一方面允許著作權(quán)人以可機(jī)讀的方式明確反對人工智能系統(tǒng)使用其作品進(jìn)行訓(xùn)練。考慮到人工智能將使用海量的作品進(jìn)行訓(xùn)練,我國未來的《人工智能法》還可以借鑒歐盟《人工智能法》第53條第1款第c項(xiàng)的規(guī)定,要求相關(guān)主體制定專門性的符合著作權(quán)法的政策,幫助著作權(quán)人行使反對權(quán)。

(二)應(yīng)用法定位下的人工智能賦能規(guī)制型制度

科學(xué)研究的主要目的是發(fā)現(xiàn)知識,控制危險僅為其考慮的次要因素,而主要目的會天然地弱化次要因素。例如,企業(yè)的主要宗旨是營利,企業(yè)文化形成僅為企業(yè)的次要追求,當(dāng)主旨與次要目的發(fā)生沖突時,企業(yè)會為了營利而放棄建設(shè)或改變企業(yè)文化。同樣,科技系統(tǒng)可能會為了促進(jìn)科技進(jìn)步,而忽視權(quán)益保護(hù)、社會正義等價值,因此,法律作為社會回應(yīng)新型挑戰(zhàn)的有力工具,有必要進(jìn)行更為積極的干預(yù),人工智能立法因而迫在眉睫。倘若人們將法律系統(tǒng)視為一種應(yīng)對危機(jī)的方式,那么法律系統(tǒng)就是全社會的免疫系統(tǒng)。但是免疫并不總是有益,有時會徒增煩惱。法律規(guī)范可能因過于剛性而阻礙人工智能產(chǎn)業(yè)的發(fā)展。是以,對人工智能應(yīng)用的規(guī)范既需要借助法律系統(tǒng),也應(yīng)留出必要的接口推行實(shí)驗(yàn)主義治理,構(gòu)造一種靈活的人工智能賦能規(guī)制型框架。

1. 規(guī)范人工智能多場景應(yīng)用的權(quán)利義務(wù)機(jī)制

合法與非法是法律系統(tǒng)的基本符碼,只是人工智能的應(yīng)用呈現(xiàn)為從場景到場景的現(xiàn)象羅列,增加了設(shè)計統(tǒng)一規(guī)則的難度。鑒于法律系統(tǒng)系借助抽象的權(quán)利義務(wù)制度調(diào)整復(fù)雜的生活,人工智能立法應(yīng)側(cè)重于識別與總結(jié)相關(guān)主體的權(quán)利與義務(wù)類型。

1)人工智能系統(tǒng)相對人的應(yīng)有權(quán)利

為了捍衛(wèi)人的中心地位,人工智能系統(tǒng)相對人應(yīng)享有一系列保護(hù)性權(quán)利。歐盟在起草《通用數(shù)據(jù)保護(hù)條例》時就已經(jīng)明確指出,采取基于風(fēng)險的規(guī)制路徑無法充分支撐起歐盟數(shù)據(jù)保護(hù)的法律框架,無論在數(shù)據(jù)處理過程中產(chǎn)生的風(fēng)險程度如何,法律都應(yīng)賦予數(shù)據(jù)主體權(quán)利。相較于個人信息保護(hù),人工智能涉及的問題更為復(fù)雜、更加場景化,因而更應(yīng)重視私權(quán)的作用。

首先,人工智能系統(tǒng)相對人的知情權(quán)應(yīng)受法律保護(hù)。知情權(quán)是確立以人為本的人工智能善治的前提與基礎(chǔ),不論是在何種場景下,個人的知情權(quán)均應(yīng)受到尊重。如果個人都不清楚是否已經(jīng)進(jìn)入人工智能生態(tài)系統(tǒng),就很難產(chǎn)生捍衛(wèi)個人權(quán)利的意識。人工智能相對人應(yīng)有權(quán)了解自己的信息是否在被人工智能系統(tǒng)處理,應(yīng)有權(quán)獲知人工智能系統(tǒng)的預(yù)設(shè)功能、局限性、不良影響等信息。當(dāng)人工智能系統(tǒng)具有一定程度上的操縱性時,系統(tǒng)提供者更應(yīng)將這一情況告知相對人,使其意識到自己的自由意志有被扭曲的可能。即便是治療性醫(yī)療人工智能,在修復(fù)心理創(chuàng)傷之前,也應(yīng)告知病患,尊重病患的自主決定權(quán)(《民法典》第1219條)。

其次,個人在了解相關(guān)信息后,是否享有解釋請求權(quán)、應(yīng)用拒絕權(quán)等權(quán)利,則應(yīng)視場景而定。其一,不同類型的人工智能系統(tǒng)對應(yīng)不同的個人權(quán)利。應(yīng)用場景中的人工智能活動大致可以分為決策型與輔助型兩類。決策型人工智能代替人快捷地作出判斷與決定,典型如信用評級(貸款或信用卡發(fā)放)、防疫健康碼、秒批、稅務(wù)抵扣系統(tǒng)等。輔助型人工智能僅提供輔助支持作用,如個性化推薦、醫(yī)學(xué)圖像處理、智能客服機(jī)器人等。決策型與輔助型人工智能系統(tǒng)在不同應(yīng)用場景中對相對人的影響不同,權(quán)利配置也應(yīng)有所不同。決策型人工智能系統(tǒng)直接影響相對人的法律利益,相對人應(yīng)有權(quán)利請求解釋決策是如何作出的;輔助型人工智能系統(tǒng)并不直接作出影響相對人利益的決定,但可能潛移默化地影響相對人的思維方式,因此相對人應(yīng)有權(quán)利事先拒絕該系統(tǒng)的應(yīng)用。是以,個人的解釋請求權(quán)應(yīng)主要針對決策型人工智能系統(tǒng),應(yīng)用拒絕權(quán)則主要以輔助型人工智能系統(tǒng)為對象。其二,無論是解釋請求權(quán)還是應(yīng)用拒絕權(quán),均應(yīng)區(qū)分公私應(yīng)用場景分別判斷權(quán)利的適用空間。以解釋請求權(quán)為例,公權(quán)力借助人工智能系統(tǒng)進(jìn)行行政或司法行為的,相對人應(yīng)有權(quán)請求解釋人工智能系統(tǒng)的具體決策;商業(yè)機(jī)構(gòu)使用人工智能系統(tǒng)進(jìn)行商業(yè)活動的,相對人是否享有解釋請求權(quán),則應(yīng)綜合衡量解釋可能性以及商業(yè)秘密保護(hù)等因素進(jìn)行判斷。當(dāng)公權(quán)力運(yùn)用人工智能系統(tǒng)進(jìn)行決策時,如果不能解釋決策,公共行為的正當(dāng)性和合法性都將遭受質(zhì)疑。因?yàn)榕c提升行政與司法效率相比,公民基本權(quán)利保護(hù)的價值位階更高。與之不同,商業(yè)人工智能系統(tǒng)的邏輯、參數(shù)、特征的權(quán)重以及分類等是企業(yè)的商業(yè)秘密,未必應(yīng)屈從于個人的算法解釋請求權(quán)。德國聯(lián)邦最高法院在2014年的判決中明確指出,數(shù)據(jù)主體不得請求披露權(quán)重、評分公式、統(tǒng)計值和參考組等信息,因?yàn)檫@觸犯了企業(yè)的商業(yè)秘密,披露企業(yè)的商業(yè)秘密也明顯不符合立法目的。當(dāng)個人要求解釋商業(yè)自動決策算法的決定時,算法解釋請求權(quán)如何與保護(hù)商業(yè)秘密的法律要求相協(xié)調(diào),將是司法審判的難點(diǎn)。

最后,我國未來的《人工智能法》還應(yīng)專門規(guī)定請求人工溝通的權(quán)利。只有保證個人享有表達(dá)意見、獲得人為干涉的權(quán)利,人才不會淪為機(jī)器的客體。歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第3款專門規(guī)定了算法相對人請求人工干預(yù)的權(quán)利。相較而言,我國《個人信息保護(hù)法》第24條第3款僅規(guī)定請求說明算法和拒絕算法決定的權(quán)利,并未規(guī)定人工溝通的權(quán)利。在人工智能時代,受影響個人有權(quán)與機(jī)器背后的人進(jìn)行有意義的溝通,是捍衛(wèi)人的主體地位的基本要求。我國未來的人工智能立法應(yīng)專門規(guī)定人工智能系統(tǒng)相對人享有人工溝通權(quán)。

2)人工智能系統(tǒng)提供者與使用者的不同義務(wù)

人工智能系統(tǒng)相關(guān)義務(wù)主體大致可分為提供者與使用者兩類,由于二者對作為賦能工具的人工智能系統(tǒng)的影響不同,所應(yīng)承擔(dān)的義務(wù)也應(yīng)有所不同。人工智能系統(tǒng)提供者負(fù)責(zé)設(shè)計開發(fā)產(chǎn)品并將之投入市場,應(yīng)承擔(dān)信息公開、人工監(jiān)督等義務(wù);人工智能系統(tǒng)使用者則因可以影響具體的輸出結(jié)果,應(yīng)承擔(dān)謹(jǐn)慎使用、保存日志等義務(wù)。

第一,不論是決策型還是輔助型人工智能系統(tǒng),也不論應(yīng)用于何種場景,人工智能系統(tǒng)提供者均應(yīng)一般性地承擔(dān)特定的法律義務(wù)。這些義務(wù)包括但不限于信息公開、人工監(jiān)督、保障系統(tǒng)穩(wěn)定性等。首先,人工智能系統(tǒng)提供者應(yīng)承擔(dān)信息公開義務(wù),以使下游合作者和用戶能夠及時了解系統(tǒng)相關(guān)信息。這些信息主要包括提供者的身份和聯(lián)系方式、人工智能系統(tǒng)的功能及其局限性、測試結(jié)果、對目標(biāo)人群可能的不利影響以及如何進(jìn)行系統(tǒng)維護(hù)等。人工智能系統(tǒng)提供者應(yīng)通過說明性文件(技術(shù)文件)的方式,將上述信息告知相對人。其次,人工智能系統(tǒng)設(shè)計應(yīng)留有適當(dāng)?shù)娜藱C(jī)交互界面,以便對人工智能系統(tǒng)進(jìn)行有效的監(jiān)督。人工監(jiān)督機(jī)制旨在及時發(fā)現(xiàn)人工智能系統(tǒng)的功能異常和性能突變跡象,糾正自動化偏差,手動控制或逆轉(zhuǎn)輸出結(jié)果。當(dāng)出現(xiàn)重大隱患時,人工智能系統(tǒng)提供者應(yīng)有義務(wù)一鍵關(guān)閉人工智能系統(tǒng),避免發(fā)生不可逆的后果。再次,人工智能系統(tǒng)提供者應(yīng)當(dāng)維護(hù)人工智能系統(tǒng)的穩(wěn)定性和安全性,尤其是確保人工智能系統(tǒng)具有自我復(fù)原能力。惡意第三方可能通過“臟數(shù)據(jù)”、系統(tǒng)漏洞等試圖改變?nèi)斯ぶ悄芟到y(tǒng)的運(yùn)作模式、性能以及輸出結(jié)果。人工智能系統(tǒng)提供者可以有針對性地通過提供備份、補(bǔ)丁和安全解決方案等技術(shù)方案保護(hù)網(wǎng)絡(luò)安全。最后,我國作為《聯(lián)合國殘疾人權(quán)利公約》(UNCRPD)的簽署國,有義務(wù)確保殘疾人同等地使用人工智能系統(tǒng)。在人工智能時代,弱勢群體同樣有權(quán)不受限制地使用人工智能技術(shù)。人工智能服務(wù)提供者應(yīng)當(dāng)在系統(tǒng)設(shè)計時就考慮到弱勢群體的需求,提供必要措施,以使弱勢群體不至于被技術(shù)排除在外。

第二,人工智能系統(tǒng)使用者應(yīng)承擔(dān)謹(jǐn)慎使用、保存日志等義務(wù)。人工智能系統(tǒng)的提供者與使用者并非同一主體的,人工智能系統(tǒng)使用者直接操作人工智能系統(tǒng),系處于影響系統(tǒng)結(jié)果和監(jiān)測程序運(yùn)行的最佳位置,因而應(yīng)承擔(dān)與之相稱的法律義務(wù)。其一,人工智能系統(tǒng)使用者應(yīng)謹(jǐn)慎使用人工智能系統(tǒng)。使用者輸入數(shù)據(jù)可能影響到系統(tǒng)功能的,應(yīng)確保輸入數(shù)據(jù)的正當(dāng)性。例如,生成式人工智能以“用戶輸入+機(jī)器輸出”的模式提供服務(wù),生成內(nèi)容的性質(zhì)、價值取向很大程度上取決于用戶輸入指令。人工智能系統(tǒng)使用者應(yīng)當(dāng)遵守人工智能系統(tǒng)的預(yù)設(shè)功能,不能通過模糊詞等欺騙性手段實(shí)現(xiàn)非法目的。其二,如果日志對診斷系統(tǒng)的運(yùn)行狀態(tài)和故障是不可或缺的,人工智能系統(tǒng)使用者就有保存相關(guān)日志的義務(wù)。只是考慮到存儲成本問題,日志保存宜設(shè)置期限限制(如六個月)。其三,人工智能系統(tǒng)使用者如果發(fā)現(xiàn)人工智能在具體場景中可能產(chǎn)生歧視、侵犯人格尊嚴(yán)等問題,應(yīng)當(dāng)暫停使用該系統(tǒng),并將問題反饋給人工智能系統(tǒng)提供者。如果存在重大隱患,應(yīng)當(dāng)同時上報國家監(jiān)管機(jī)構(gòu),以防止發(fā)生不可逆的后果。

我國未來的人工智能立法除了規(guī)定上述一般性的義務(wù)外,還可以挑選重要的具有成熟監(jiān)管經(jīng)驗(yàn)的人工智能場景,有針對性地規(guī)定人工智能系統(tǒng)提供者和使用者的特殊義務(wù)。例如,我國未來的人工智能立法可以考慮對公權(quán)力使用人臉識別等人工智能系統(tǒng)作出專門規(guī)定。反之,如果一些場景中的人工智能相關(guān)主體義務(wù)尚有爭議,不妨適當(dāng)留白,交由監(jiān)管機(jī)構(gòu)出臺專門性法律文件進(jìn)行規(guī)范。

2.調(diào)整人工智能復(fù)雜應(yīng)用活動的實(shí)驗(yàn)主義治理

新興科技對治理產(chǎn)生的挑戰(zhàn)主要體現(xiàn)為未知與不確定性。未知是指決策者可能并不了解真實(shí)的、不斷變化的問題;不確定性則是指決策者不具有解決問題的能力,需要不斷研究和改進(jìn)治理方案。即便在充分調(diào)研的基礎(chǔ)上配置權(quán)利義務(wù)制度,人工智能復(fù)雜的、多場景的應(yīng)用活動也可能使得一時有效的規(guī)則轉(zhuǎn)瞬變成科技發(fā)展的障礙。是以,法律常常面臨與新興技術(shù)的步調(diào)失調(diào)問題。為了破解這一難題,我國未來的《人工智能法》可以考慮推行實(shí)驗(yàn)主義治理模式,構(gòu)造試錯與糾錯的動態(tài)機(jī)制。

實(shí)驗(yàn)主義治理(Experimentalist Governance)起源于對歐盟治理政策的總結(jié)性思考和提煉。實(shí)驗(yàn)主義治理大致包括四項(xiàng)內(nèi)容:大致的框架目標(biāo)、參與者的自由裁量、基于同行評議的動態(tài)評估,以及根據(jù)評估結(jié)果的反饋修正。具體而言,決策機(jī)構(gòu)在充分聽取利益攸關(guān)者的意見后,確立一個開放式框架性目標(biāo);授權(quán)相關(guān)機(jī)構(gòu)以較大的自由裁量權(quán),根據(jù)具體情況調(diào)整策略;負(fù)責(zé)機(jī)構(gòu)應(yīng)定期匯報治理績效,并經(jīng)由同行評估判斷妥適性;負(fù)責(zé)機(jī)構(gòu)如果沒有取得良好進(jìn)展,則應(yīng)當(dāng)根據(jù)評估結(jié)果提出合理的改進(jìn)計劃。在該治理模式下,目標(biāo)是可變的,既定的規(guī)則是不存在的,它們都會基于評估結(jié)果被修正,通過在臨時性目標(biāo)設(shè)置與修正之間反饋迭代、循環(huán)往復(fù),經(jīng)由“共同學(xué)習(xí)”最終尋找妥適的應(yīng)對挑戰(zhàn)方案。實(shí)驗(yàn)主義治理強(qiáng)調(diào)構(gòu)建多元性、開放性和互動性的治理系統(tǒng),能夠彌補(bǔ)傳統(tǒng)科層式治理模式的主體單一性、體系封閉性和過程單向性等不足,并更好地應(yīng)對不斷發(fā)展、調(diào)整的人工智能應(yīng)用活動帶來的挑戰(zhàn)。

實(shí)驗(yàn)主義治理突出體現(xiàn)為一定程度的縱向放權(quán),使得監(jiān)管機(jī)構(gòu)能夠進(jìn)行監(jiān)管實(shí)驗(yàn)、積累監(jiān)管經(jīng)驗(yàn)。在實(shí)驗(yàn)主義治理模式下,立法者設(shè)計人工智能監(jiān)管的大致目標(biāo),授予監(jiān)管機(jī)構(gòu)自由裁量權(quán),監(jiān)管機(jī)構(gòu)定期評估并匯報治理績效,并根據(jù)相關(guān)主體的建議調(diào)整監(jiān)管策略。監(jiān)管沙箱(Sandbox)是推進(jìn)實(shí)驗(yàn)主義治理的典型設(shè)計。監(jiān)管沙箱是一種由監(jiān)管機(jī)構(gòu)依據(jù)法律規(guī)定設(shè)立的受控測試環(huán)境,在限定時間內(nèi)允許人工智能系統(tǒng)進(jìn)行開發(fā)與測試。人工智能活動即便違反現(xiàn)行法律法規(guī),只要符合監(jiān)管沙箱的要求,相關(guān)人員也不會被問責(zé)。英國科學(xué)創(chuàng)新與技術(shù)部指出,監(jiān)管沙箱能夠幫助迅速將新產(chǎn)品和服務(wù)推向市場,產(chǎn)生經(jīng)濟(jì)和社會效益;檢驗(yàn)監(jiān)管框架在實(shí)踐中的運(yùn)行情況,揭示需要解決的創(chuàng)新障礙;并確定監(jiān)管框架需要適應(yīng)的技術(shù)和市場的調(diào)整方向。公權(quán)力機(jī)關(guān)基于一些特殊的考慮,會希望在特定地域或領(lǐng)域加速人工智能產(chǎn)業(yè)的發(fā)展。例如,日本就專門劃出特定地域和場景布局人工智能產(chǎn)業(yè),如福岡(道路交通)、關(guān)西(無線電)、京都(數(shù)據(jù)保護(hù))、筑波(安全治理和稅收規(guī)制)等。我國未來的人工智能立法應(yīng)授權(quán)監(jiān)管部門在特定地域與領(lǐng)域設(shè)立監(jiān)管沙箱,從而擺脫“操之過急”或“聽之任之”的弊端。監(jiān)管部門可以根據(jù)評估結(jié)果,適當(dāng)調(diào)整監(jiān)管沙箱政策,在摸索中尋找妥適的治理手段。此外,立法還可以通過授權(quán)監(jiān)管機(jī)關(guān)出臺專門規(guī)范性文件的方式推行實(shí)驗(yàn)主義治理。在高新科技領(lǐng)域,中小企業(yè)往往是創(chuàng)新的主力。正如凱文·凱利指出的,未來在人工智能領(lǐng)域大放異彩的企業(yè),大概率不會是現(xiàn)在的大型企業(yè),而是某個不起眼的小公司。欲使中小企業(yè)完成蝶變,就應(yīng)在制度層面提供額外的支持。如同《個人信息保護(hù)法》第62條第2項(xiàng)授權(quán)國家網(wǎng)信部門出臺專門針對小型個人信息處理者的規(guī)則與標(biāo)準(zhǔn)一樣,我國未來的人工智能法也可以賦權(quán)監(jiān)管機(jī)構(gòu)出臺專門的規(guī)范人工智能中小企業(yè)的文件,以促進(jìn)科技創(chuàng)新。例如,監(jiān)管機(jī)構(gòu)可以授予中小型人工智能企業(yè)對人工智能監(jiān)管沙箱的優(yōu)先訪問權(quán);可以提供專項(xiàng)資金,解決中小企業(yè)的融資難題;可以適當(dāng)?shù)亟档土x務(wù)標(biāo)準(zhǔn),或者在充分保障個人權(quán)益的基礎(chǔ)上,提供一定程度上的責(zé)任豁免等。監(jiān)管機(jī)構(gòu)應(yīng)定期評估規(guī)范性文件的效果,并根據(jù)同行評估不斷調(diào)整方案,以真正滿足中小型科技企業(yè)的訴求。除上述規(guī)則外,日落規(guī)則、智能預(yù)期草案等設(shè)計,都可以成為貫徹實(shí)驗(yàn)主義治理的有益嘗試。

五、余

目前世界正處于第四次工業(yè)革命全面來臨前夕。第一次工業(yè)革命和第二次工業(yè)革命都是圍繞動力提升展開,第三次工業(yè)革命是信息革命,第四次工業(yè)革命是智能革命,與第三次工業(yè)革命既有關(guān)聯(lián),也有本質(zhì)不同。第四次工業(yè)革命是對人類智能的模擬與提升,圍繞智能展開,其核心是人工智能技術(shù)的研發(fā)與賦能推廣。中國未來的人工智能立法必然應(yīng)以促進(jìn)人工智能可控發(fā)展為目標(biāo),否則中國將再次落后于世界浪潮。

歐盟《人工智能法》采取風(fēng)險管理路徑,形成了以監(jiān)管為核心的規(guī)范框架。但歐盟采取風(fēng)險管理單一進(jìn)路規(guī)范人工智能活動,認(rèn)為風(fēng)險是靜態(tài)的、確定的與可預(yù)測的,并不符合復(fù)雜、動態(tài)發(fā)展的世界。更為科學(xué)的做法應(yīng)是基于人工智能活動的雙重屬性,明確人工智能法的科技法與應(yīng)用法復(fù)式定位,在規(guī)范人工智能活動的同時最大限度地促進(jìn)人工智能技術(shù)與產(chǎn)業(yè)的發(fā)展。筆者相信,尊重科技自主、強(qiáng)調(diào)靈活規(guī)范的中國《人工智能法》將成為人工智能立法的一種新范式,為世界人工智能治理提供來自東方大國的智慧。



原文刊載于《中國法學(xué)》2024年第5期,感謝微信公眾號“中國法學(xué) ”授權(quán)轉(zhuǎn)載。





晋宁县| 巩义市| 潢川县| 洪江市| 封丘县| 新闻| 介休市| 阿鲁科尔沁旗| 清原| 班玛县| 内乡县| 杭锦后旗| 苍溪县| 宝清县| 镇平县| 扎鲁特旗| 淮南市| 新巴尔虎左旗| 兰西县| 句容市| 罗田县| 措美县| 乌恰县| 龙井市| 长海县| 永和县| 常宁市| 马龙县| 东安县| 阜平县| 西盟| 博罗县| 襄城县| 英德市| 醴陵市| 南华县| 灯塔市| 前郭尔| 华亭县| 永清县| 论坛|