【作者】趙澤睿
【內(nèi)容提要】
算法論證程序的意義——對法律規(guī)制算法的另一種思考
*作者 趙澤睿
上海交通大學(xué)凱原法學(xué)院博士研究生
中國法與社會(huì)研究院研究助理
摘要:算法,在從處理實(shí)驗(yàn)數(shù)據(jù)的邏輯規(guī)則演變?yōu)樘幚砩鐣?huì)數(shù)據(jù)的人機(jī)交互決策機(jī)制時(shí),其概念含義發(fā)生了本質(zhì)變化。對算法概念變化的忽視,導(dǎo)致了法律規(guī)制算法研究對研發(fā)與應(yīng)用的階段混同。而重實(shí)體、輕程序的偏好,更是引發(fā)了法律規(guī)制算法研究的碎片化爭論。對此,算法論證程序,作為由法律要求算法應(yīng)用主體按照特定標(biāo)準(zhǔn)和條件整理利益相關(guān)方意見后,對其算法應(yīng)用的決定做出可使利益相關(guān)方理解與認(rèn)可的溝通過程,其概念的提出有利于澄清現(xiàn)有的階段混同,并糾正重實(shí)體、輕程序的偏好。同時(shí),算法論證程序具有的相對客觀合理性、銜接技術(shù)中立與技術(shù)向善性、多元價(jià)值兼容性,為法律限制算法權(quán)力恣意、解決算法黑箱問題和減少算法歧視提供了全新的溝通性視角。
在新冠肺炎疫情爆發(fā)后,生活與工作的線上轉(zhuǎn)移已經(jīng)成為了全球疫情防控的重要舉措。數(shù)字空間已經(jīng)從原來的研究與實(shí)驗(yàn)場所擴(kuò)張到當(dāng)代購物、娛樂、社交和辦公的主要場所。算法,作為代碼構(gòu)建數(shù)字空間的邏輯規(guī)則,也從原來的研究數(shù)據(jù)處理工具轉(zhuǎn)變?yōu)榱水?dāng)代的社會(huì)數(shù)據(jù)處理工具。而隨著以機(jī)器學(xué)習(xí)為代表的人工智能技術(shù)興起,基于大規(guī)模數(shù)據(jù)自動(dòng)、高效地產(chǎn)出能解決復(fù)雜問題的算法得以可能。算法便成為了政府和數(shù)字平臺(tái)企業(yè)預(yù)測、誘導(dǎo)以及規(guī)制人們行為的新型利器。例如,在信息內(nèi)容生態(tài)領(lǐng)域,社交媒體平臺(tái)在利用算法規(guī)范用戶的信息內(nèi)容發(fā)布與流動(dòng);在網(wǎng)絡(luò)交易領(lǐng)域,電子商務(wù)平臺(tái)在利用算法規(guī)范商家與用戶之間的交易行為;在城市交通領(lǐng)域,交通出行平臺(tái)在利用算法規(guī)范司機(jī)的車輛營運(yùn)行為;在金融與征信領(lǐng)域,數(shù)字金融平臺(tái)在利用算法規(guī)范用戶的金融借貸行為。此外,隨著全球各國先后將數(shù)字政府建設(shè)、智慧法院建設(shè)、人工智能研發(fā)列入國家發(fā)展規(guī)劃文件,算法已經(jīng)成為了以數(shù)據(jù)為“燃料”,驅(qū)動(dòng)國家治理變革與社會(huì)數(shù)字化轉(zhuǎn)型的“引擎”。
然而,隨著算法在數(shù)字社會(huì)中的權(quán)力不斷擴(kuò)張,各類因算法設(shè)計(jì)的恣意性引發(fā)的算法偏見與算法獨(dú)裁等算法權(quán)力濫用事件頻頻出現(xiàn),這些事件反過來敦促人們思考該如何規(guī)制算法這項(xiàng)新型規(guī)制工具。例如社交媒體平臺(tái)操縱政治選舉、電子商務(wù)平臺(tái)進(jìn)行大數(shù)據(jù)殺熟、法院利用算法量刑引發(fā)歧視、公安利用算法監(jiān)控侵犯隱私等。由此,繼把算法作為一項(xiàng)新型規(guī)制工具的熱潮過后,學(xué)界又掀起了將算法作為新興規(guī)制對象的浪潮。法學(xué)界開始對如何保護(hù)算法可能侵犯的選擇自主性、知情權(quán)、平等和自由等基本價(jià)值進(jìn)行熱議,大量關(guān)于算法的法律規(guī)制文章接踵而至。
在此背景下,本文將對法律規(guī)制算法的現(xiàn)有研究進(jìn)行一個(gè)總結(jié)與反思,并據(jù)此指出法律規(guī)制算法的另一條思考路徑。首先,本文認(rèn)為,法律規(guī)制算法的現(xiàn)有研究存在著“算法研發(fā)階段與應(yīng)用階段的混淆”、“注重實(shí)體性判斷而缺乏程序性分析”兩個(gè)問題。這兩個(gè)問題導(dǎo)致了我國現(xiàn)有研究在宏觀層面上反復(fù)重申“可解釋性”、“公開透明”、“公正”等規(guī)制原則但對這些原則的內(nèi)容與落實(shí)卻爭論不止,在微觀層面上對“自動(dòng)駕駛”、“人臉識(shí)別”、“輔助裁判”等應(yīng)用場景有實(shí)體規(guī)制建議但卻難以形成統(tǒng)一性的法律規(guī)制理論。其次,本文將基于算法應(yīng)用與法律適用的功能相似性,提出適用于算法應(yīng)用階段的算法論證程序概念,并依據(jù)算法應(yīng)用所面臨的不確定性問題,闡述提出算法論證程序概念的正當(dāng)性,以及進(jìn)一步描述算法論證程序的三項(xiàng)基本特性——相對客觀合理性、銜接技術(shù)中立和技術(shù)向善性,以及多元價(jià)值整合性。最后,本文將從算法論證程序的視角反思算法權(quán)力、算法黑箱和算法歧視的問題本質(zhì),并據(jù)此論述算法論證程序概念的提出對限制算法權(quán)力恣意、解決算法黑箱問題,以及減少算法歧視的意義。
| 法律規(guī)制算法的現(xiàn)有主流意識(shí)以及爭議 |
算法,最早作為一種數(shù)學(xué)與計(jì)算科學(xué)的術(shù)語,被定義為“解決特定問題的一系列規(guī)則”、“精確指示計(jì)算機(jī)操作的一系列規(guī)則”、“指示代碼編寫的邏輯規(guī)則”和“為了實(shí)現(xiàn)某一目標(biāo)對一組數(shù)據(jù)進(jìn)行處理的邏輯規(guī)則”。而隨著互聯(lián)網(wǎng)技術(shù)與以機(jī)器學(xué)習(xí)為代表的人工智能技術(shù)發(fā)展,算法逐漸被運(yùn)用到了社會(huì)生活的各個(gè)領(lǐng)域。部分學(xué)者便將這些在社會(huì)中廣泛運(yùn)用的算法,延伸定義為“一種人類與機(jī)器交互產(chǎn)生的決策機(jī)制”,即“一種人類利用代碼和數(shù)據(jù)進(jìn)行自動(dòng)化決策的機(jī)制”。在法學(xué)界,除了以知識(shí)產(chǎn)權(quán)視角研究算法的學(xué)者采用算法的技術(shù)定義外,絕大部分算法的法律規(guī)制研究均是采用了算法被社會(huì)廣泛應(yīng)用后的延伸定義,即將算法認(rèn)定是一種基于代碼構(gòu)建與數(shù)據(jù)處理的決策機(jī)制。
而現(xiàn)有研究對法律規(guī)制算法的必要性論述主要是從算法權(quán)力、算法黑箱和算法歧視三個(gè)方面展開的。首先,算法作為一項(xiàng)科學(xué)技術(shù),在從研究所和實(shí)驗(yàn)室逐漸進(jìn)入到社會(huì)各領(lǐng)域的過程中,其價(jià)值中立性受到普遍關(guān)注與質(zhì)疑?,F(xiàn)有研究普遍認(rèn)為,在數(shù)字社會(huì)廣泛運(yùn)用的算法中已經(jīng)暗含了人們的價(jià)值判斷。算法雖來源于科學(xué)技術(shù),但其并非價(jià)值中立,甚至還存在主觀任意性,其已經(jīng)在數(shù)字社會(huì)產(chǎn)生了一種新型權(quán)力。這種算法權(quán)力因缺乏監(jiān)管而易被濫用與異化,進(jìn)而危害公民自由與權(quán)利秩序。因此,為了保障數(shù)字社會(huì)中的公民自主性與人格自由,算法權(quán)力應(yīng)當(dāng)受到法律的規(guī)制。其次,由于最近興起的機(jī)器學(xué)習(xí)技術(shù)在挖掘數(shù)據(jù)來自動(dòng)生成相關(guān)算法時(shí)缺乏透明度,算法黑箱便成為了法律規(guī)制算法另一理由。“算法黑箱”是指人們無法從外部直接觀察或打開算法系統(tǒng)的數(shù)據(jù)處理過程,而只能得知其輸入數(shù)據(jù)和輸出數(shù)據(jù)。其導(dǎo)致人們難以理解算法進(jìn)行決策時(shí)的具體邏輯,進(jìn)而無法對算法決策產(chǎn)生信任,甚至?xí)?dān)憂和恐懼在算法不斷擴(kuò)張應(yīng)用的未來社會(huì)中被算法暗中操控。因此,為了在人類與機(jī)器的交互決策過程中構(gòu)建信任,防止算法黑箱誘發(fā)算法權(quán)力濫用和加劇算法歧視,算法黑箱便需要受到法律的規(guī)制。再有,因?yàn)闄C(jī)器學(xué)習(xí)是通過提取數(shù)據(jù)的抽象特征來自動(dòng)、高效地產(chǎn)生代表數(shù)據(jù)背后規(guī)律與規(guī)則的算法,而這些用于訓(xùn)練算法的數(shù)據(jù)本身可能蘊(yùn)含了社會(huì)現(xiàn)存的歧視與不平等,那機(jī)器學(xué)習(xí)在提取這些數(shù)據(jù)的抽象特征時(shí),便可能將這些暗含于數(shù)據(jù)的不平等歸納進(jìn)算法之中,進(jìn)而導(dǎo)致固化甚至放大現(xiàn)有社會(huì)中的歧視與不平等現(xiàn)象。因此,為了保障公民在數(shù)字社會(huì)的平等權(quán)、包容未來社會(huì)的人格多樣性與個(gè)體獨(dú)特性,算法歧視也成為了法律規(guī)制算法的重要理由。
| 現(xiàn)有法律規(guī)制算法研究的兩個(gè)問題 |
(一)對算法研發(fā)階段與應(yīng)用階段的混淆
算法,在研發(fā)階段作為一項(xiàng)科學(xué)技術(shù),被定義為“為了實(shí)現(xiàn)某一目標(biāo)對一組數(shù)據(jù)進(jìn)行處理的邏輯規(guī)則”,而在社會(huì)應(yīng)用階段,算法則被延伸為了“一種人類與機(jī)器交互產(chǎn)生的決策機(jī)制”。在算法概念的延伸過程中,實(shí)際上暗含了應(yīng)用階段的人類判斷,即算法應(yīng)用者選擇特定算法(此處的“算法”為技術(shù)定義)作為決策規(guī)則嵌入到特定社會(huì)領(lǐng)域的過程?,F(xiàn)有研究大多忽略了這個(gè)概念轉(zhuǎn)換過程中的人類決策過程,而直接將算法的社會(huì)應(yīng)用認(rèn)定為了算法中的邏輯規(guī)則決策過程,進(jìn)而導(dǎo)致現(xiàn)有研究全部聚焦于算法的技術(shù)研發(fā)階段而忽略了算法應(yīng)用階段的可規(guī)制性。這不僅誤解了“技術(shù)中立性”的內(nèi)涵與意義,更混淆了算法在技術(shù)研發(fā)階段和社會(huì)應(yīng)用階段所分別蘊(yùn)含的技術(shù)屬性與社會(huì)屬性。由此,現(xiàn)有研究才會(huì)出現(xiàn)借用研發(fā)階段的“可解釋性”等技術(shù)概念卻陷入了實(shí)踐困境、嘗試直接約束算法的生成過程卻因違背技術(shù)發(fā)展原理而遭駁斥的爭論。
首先,現(xiàn)有研究對“算法中立性”的批判,實(shí)質(zhì)上僅局限于對算法“價(jià)值中立性”的駁斥,卻未重視對算法“技術(shù)中立性”的探討。而技術(shù)中立性恰恰要求人們尊重技術(shù)發(fā)展的獨(dú)特價(jià)值,在法律規(guī)制層面則意味著要?jiǎng)澐炙惴ǖ难邪l(fā)階段與應(yīng)用階段,分別論證其規(guī)制正當(dāng)性與規(guī)制方式。技術(shù)中立性并不等同于價(jià)值中立性,其雖然承認(rèn)技術(shù)的研發(fā)依靠于追求客觀性的科學(xué)對客觀結(jié)構(gòu)的認(rèn)識(shí)與運(yùn)用,但依舊認(rèn)為技術(shù)和科學(xué)是人類意識(shí)形態(tài)的表現(xiàn)。因此,技術(shù)中立性并非是否定技術(shù)內(nèi)所蘊(yùn)含的人類意識(shí)形態(tài),而是“在一種最低意義上表明了技術(shù)作為社會(huì)實(shí)踐的特殊范疇,因其自身的客觀結(jié)構(gòu)和編程屬性而具有討論起點(diǎn)意義的獨(dú)立性。反映了技術(shù)價(jià)值切入社會(huì)世界的一種相對獨(dú)立狀態(tài)”。以貼近日常生活的工具——刀來解釋,技術(shù)中立性認(rèn)為制造刀的階段與使用刀的階段都蘊(yùn)含了人類的意識(shí)形態(tài),但在制刀階段的價(jià)值追求與用刀階段的價(jià)值追求應(yīng)當(dāng)分別討論。
在此種意義上,算法的技術(shù)中立性是指算法作為一項(xiàng)科學(xué)技術(shù)因其客觀結(jié)構(gòu)和編程屬性而具有獨(dú)立討論其內(nèi)涵價(jià)值的必要性,不應(yīng)當(dāng)用其社會(huì)應(yīng)用時(shí)的價(jià)值判斷完全代替其技術(shù)研發(fā)時(shí)的價(jià)值取向。算法在技術(shù)研發(fā)階段,追求于用計(jì)算機(jī)可理解和操作的語言表達(dá)特定數(shù)據(jù)的處理規(guī)則,如機(jī)器學(xué)習(xí)技術(shù)在研發(fā)時(shí)是追求一套能讓計(jì)算機(jī)自行提取樣本數(shù)據(jù)集蘊(yùn)含的邏輯規(guī)則并生產(chǎn)特定算法的算法。然而,當(dāng)算法作為一項(xiàng)決策規(guī)則嵌入進(jìn)社會(huì)特定領(lǐng)域時(shí),利益相關(guān)者所關(guān)心的是算法作為特定領(lǐng)域的決策規(guī)則是否具有合理性與正當(dāng)性,而非特定算法具體是由哪些計(jì)算機(jī)代碼所構(gòu)成的。例如當(dāng)機(jī)器學(xué)習(xí)應(yīng)用到法院量刑時(shí),公眾關(guān)心的并非該技術(shù)的具體代碼,而是該技術(shù)用于定罪量刑的合理性與正當(dāng)性。雖然算法在技術(shù)研發(fā)時(shí)的價(jià)值判斷會(huì)影響其社會(huì)應(yīng)用時(shí)的價(jià)值判斷,但其在技術(shù)研發(fā)時(shí)依舊應(yīng)當(dāng)保持價(jià)值判斷的獨(dú)立性。因此,法律規(guī)制算法的研究應(yīng)當(dāng)重新審視“技術(shù)中立性”,劃分算法的技術(shù)研發(fā)階段與社會(huì)應(yīng)用階段分別進(jìn)行規(guī)制討論,并在技術(shù)研發(fā)階段充分尊重算法作為科學(xué)技術(shù)的獨(dú)立價(jià)值。
其次,現(xiàn)有研究因未區(qū)分算法的研發(fā)階段與應(yīng)用階段而對算法“可解釋性”概念產(chǎn)生了誤用。在技術(shù)研發(fā)階段,技術(shù)人員所主張的算法可解釋性是通過代碼編寫規(guī)范來規(guī)制技術(shù)人員的編程行為,如采用縮進(jìn)風(fēng)格、排版整齊、語句可讀、進(jìn)行規(guī)范的代碼注釋等。這些“可解釋性”的技術(shù)規(guī)范是為了方便其他專業(yè)研發(fā)者對已有算法的理解與運(yùn)用、促進(jìn)算法合作研發(fā)與系統(tǒng)檢查的高效性、進(jìn)而保障系統(tǒng)源程序的可讀性和系統(tǒng)的可維護(hù)性。然而,現(xiàn)有研究未劃分研發(fā)與應(yīng)用兩個(gè)階段來分別討論,而直接將算法研發(fā)時(shí)的可解釋性概念延伸到了算法應(yīng)用階段,試圖以技術(shù)規(guī)范來解決應(yīng)用問題。這引發(fā)了算法可解釋性概念的誤用。因?yàn)樗惴ǖ难邪l(fā)階段和應(yīng)用階段所面向的利益相關(guān)者并不相同。在算法的研發(fā)階段,算法的代碼編寫者面向的是其他工程師,他只需用符合專業(yè)規(guī)范的代碼注釋來告訴其他工程師其算法的實(shí)現(xiàn)邏輯,但如果要求他要面向一般公眾或是具體應(yīng)用場景的利益相關(guān)者來揭開其算法編寫邏輯是不現(xiàn)實(shí)與不可行的。更何況社會(huì)應(yīng)用的算法往往是大量代碼編寫者共同合作的產(chǎn)物,法律無法要求他們以通俗易懂的語言來闡述他們所負(fù)責(zé)的部分算法。同時(shí)這也忽視了算法復(fù)合可能產(chǎn)生的突生屬性,畢竟算法的代碼編寫人員無暇也無力去思考其每一列代碼可能在復(fù)合系統(tǒng)與復(fù)雜社會(huì)中產(chǎn)生的各種可能性。因此,法律規(guī)制算法的研究應(yīng)當(dāng)基于技術(shù)研發(fā)階段和社會(huì)應(yīng)用階段的不同規(guī)制需求,提出專屬于算法應(yīng)用階段的新概念,而非共用“算法解釋”的概念。
再有,算法的研發(fā)階段與應(yīng)用階段突出了算法的不同屬性,若算法的法律規(guī)制混淆了兩者的屬性,將會(huì)導(dǎo)致算法在法律規(guī)制與技術(shù)發(fā)展之間產(chǎn)生不可調(diào)和的沖突。算法作為驅(qū)動(dòng)人工智能發(fā)展的引擎,其研發(fā)規(guī)劃已經(jīng)成為了全球各國的未來發(fā)展戰(zhàn)略之一。各國研究機(jī)構(gòu)都在大力研發(fā)能驅(qū)動(dòng)強(qiáng)人工智能的機(jī)器學(xué)習(xí)算法,企圖在強(qiáng)人工智能研究領(lǐng)域占領(lǐng)高地。在這個(gè)強(qiáng)人工智能的研發(fā)過程中,算法突出了其技術(shù)屬性,即其僅被當(dāng)作完成特定數(shù)據(jù)集處理的工具。因此在算法的研發(fā)階段,規(guī)制算法的社會(huì)規(guī)范并不直接規(guī)制算法本身,而是規(guī)制算法的研發(fā)者,即算法僅是工具而不具有主體性,如禁止將機(jī)器學(xué)習(xí)算法用于研發(fā)武器裝備等規(guī)定實(shí)際上是針對算法的研發(fā)者。在算法的技術(shù)屬性層面上,算法與其他科學(xué)技術(shù),如核技術(shù)、納米技術(shù)等具有相似性,而不具有為其專門立法的獨(dú)特性與正當(dāng)性,已有的科學(xué)技術(shù)研發(fā)規(guī)范一樣適用于算法的研發(fā)。然而,算法具有專門立法的獨(dú)特性與正當(dāng)性是因?yàn)槠湓趹?yīng)用階段突顯出的社會(huì)屬性,即“擬主體性”。這種“擬主體性”是指算法在社會(huì)應(yīng)用階段通過對數(shù)據(jù)的自動(dòng)認(rèn)知實(shí)現(xiàn)智能系統(tǒng)的感知、決策與執(zhí)行,以此功能性模仿人類的主體性。由此,算法的社會(huì)應(yīng)用將分散性、即時(shí)性、個(gè)體性的人類主體決策機(jī)制轉(zhuǎn)變?yōu)榻y(tǒng)一性、預(yù)先性、共識(shí)性的人機(jī)交互決策機(jī)制。因此,是算法在社會(huì)應(yīng)用階段的“擬主體性”,才讓其不同于一般科學(xué)技術(shù)而具有了專門立法的獨(dú)特性與正當(dāng)性,即構(gòu)建人機(jī)交互決策的合理性與正當(dāng)性。
(二)重實(shí)體而輕程序
在算法的法律規(guī)制難以形成普遍一致的實(shí)體法規(guī)則已成為學(xué)界共識(shí)后,主流意見開始轉(zhuǎn)向討論具體場景中的算法規(guī)制規(guī)則,但也有小部分學(xué)者開始從程序法視角思考算法的法律規(guī)制。有學(xué)者從算法的法律性質(zhì)出發(fā),批評(píng)了將算法認(rèn)定為言論和商業(yè)秘密的既有觀點(diǎn),并以算法權(quán)力具有“準(zhǔn)國家權(quán)力”性質(zhì)為由,提出應(yīng)以正當(dāng)程序來規(guī)制算法權(quán)力。在此觀點(diǎn)的基礎(chǔ)上,另一學(xué)者以算法的政府使用為切入口提出了根植于算法設(shè)計(jì)的“技術(shù)性正當(dāng)程序”觀點(diǎn),并據(jù)此重申了算法公開、算法可解釋性和結(jié)果審查的既有主張。也有學(xué)者進(jìn)一步討論了算法的商業(yè)秘密保護(hù)與正當(dāng)程序保障之間的利益平衡,并提出通過有限公開、保密協(xié)議進(jìn)行實(shí)質(zhì)審查和賦予用戶算法拒絕權(quán)的法律規(guī)制方式,以此形成基于過程和結(jié)果的算法正當(dāng)程序。由于目前直接主張由法律程序來規(guī)制算法的文獻(xiàn)較少,這些觀點(diǎn)又與本文觀點(diǎn)直接相關(guān),在此將一一展開評(píng)述。
首先,對于批判將算法當(dāng)作言論和商業(yè)秘密,主張基于算法的“準(zhǔn)國家權(quán)力”來要求算法擁有者受到正當(dāng)程序限制的觀點(diǎn)。其揭示了僅僅依靠算法研發(fā)階段的規(guī)范價(jià)值——自由創(chuàng)新和市場激勵(lì),是無法應(yīng)對算法帶來的社會(huì)困境的。更指出了算法權(quán)力應(yīng)當(dāng)通過正當(dāng)程序來進(jìn)行法律規(guī)制的研究方向,為包括本文在內(nèi)的算法的法律程序規(guī)制研究奠定了理論基礎(chǔ)。然而,因其混同了算法的技術(shù)研發(fā)階段和社會(huì)應(yīng)用階段,導(dǎo)致其觀點(diǎn)一味地否定了言論自由和商業(yè)秘密對法律規(guī)制算法的意義。算法在技術(shù)研發(fā)階段,作為指示代碼編寫的邏輯規(guī)則,是工程師們針對具體問題以計(jì)算機(jī)語言來表達(dá)其觀點(diǎn)和智慧的產(chǎn)物,更是科技企業(yè)花費(fèi)大量財(cái)力和物力的勞動(dòng)所得。言論自由和商業(yè)秘密在此階段為算法研發(fā)的創(chuàng)新發(fā)展提供了制度保障,其意義不該被完全否定。需要注意的是,算法在尚未被應(yīng)用到社會(huì)之中,而僅存在于實(shí)驗(yàn)室里時(shí),是不會(huì)產(chǎn)生所謂的“準(zhǔn)國家權(quán)力”。因此,完全否定言論自由和商業(yè)秘密對算法的規(guī)制作用,并以算法權(quán)力為由要求正當(dāng)程序規(guī)制的觀點(diǎn),難免有以偏概全之嫌,可能會(huì)阻礙算法作為科學(xué)技術(shù)的創(chuàng)新發(fā)展。并且,該觀點(diǎn)在闡述“正當(dāng)程序”時(shí)依舊回歸到了算法的公開,即其認(rèn)為算法的法律程序規(guī)制依舊是與算法的透明度直接相關(guān)。雖然該觀點(diǎn)在后續(xù)提出了以“輸入端”和“輸出端”的評(píng)價(jià)來代替算法公開作為正當(dāng)程序的要求,但其觀點(diǎn)背后實(shí)則暗含了將算法的權(quán)力行使過程或者說決策過程等同于系統(tǒng)內(nèi)部基于代碼的數(shù)據(jù)處理過程,而忽略了算法應(yīng)用階段實(shí)則是一個(gè)人機(jī)交互過程而非單純的系統(tǒng)運(yùn)作過程。
其次,對于提出從算法設(shè)計(jì)源頭構(gòu)建“技術(shù)性正當(dāng)程序”,將法律程序代碼化的觀點(diǎn)。其雖然指出了一條以法律程序視角研究算法問題的思考路徑,但本文認(rèn)為還存在著另一個(gè)被忽視的研究視角,即僅依靠“技術(shù)性正當(dāng)程序”是無法完全解決算法權(quán)力、算法黑箱和算法歧視問題的。該觀點(diǎn)以自動(dòng)化行政場景切入來主張的“技術(shù)性正當(dāng)程序”,側(cè)重于以法律程序的視角回答如何設(shè)計(jì)出一套符合現(xiàn)代法治政府理念的自動(dòng)化行政算法,即其所謂的法律程序代碼化。然而,其觀點(diǎn)關(guān)注于將“程序正義”的理念在算法設(shè)計(jì)層面嵌入進(jìn)算法的具體代碼之中,但這無法在算法的社會(huì)應(yīng)用階段限制算法使用者利用該算法產(chǎn)生的權(quán)力,也無法解決算法黑箱難以讓公眾信任其決策的實(shí)踐問題,更無法在政府使用該算法進(jìn)行自動(dòng)化行政的過程中規(guī)制人機(jī)共同產(chǎn)生歧視的問題。畢竟該文所主張“技術(shù)性正當(dāng)程序”的觀點(diǎn)只是追求于打造一把符合正義理念的“劍”,但忽視了對揮劍人的規(guī)制,進(jìn)而容易導(dǎo)致正義之劍被濫用的情形。由此,該觀點(diǎn)大部分篇幅借鑒了技術(shù)文獻(xiàn)和技術(shù)用語,卻又突兀地簡略提及自動(dòng)化決策的事后聽證,混雜了算法在設(shè)計(jì)階段和應(yīng)用階段具有不同價(jià)值取向的法律規(guī)制觀點(diǎn)。因此,在關(guān)注到法律程序能為特定場景的算法研發(fā)提供指引之外,也應(yīng)當(dāng)注重其在算法應(yīng)用層面的規(guī)制作用,即通過在算法應(yīng)用過程中構(gòu)建特定的法律程序來塑造信任,而這正是本文試圖揭示的視角。
再有,對于批判商業(yè)秘密無法有效規(guī)制算法,進(jìn)而提出基于私法的知情同意權(quán)和算法拒絕權(quán),以及基于正當(dāng)程序的算法公開和內(nèi)外部審查的觀點(diǎn)。該文在總結(jié)了上述兩篇文獻(xiàn)的基礎(chǔ)上進(jìn)一步指出了法律程序?qū)λ惴ǖ囊?guī)制不能僅局限于關(guān)注輸入和輸出的結(jié)果評(píng)價(jià),還要注重于算法應(yīng)用的過程評(píng)價(jià)。其提出的“算法運(yùn)用時(shí)的技術(shù)論證”、“算法運(yùn)營者需要解釋算法決策的基本邏輯”等觀點(diǎn)均為本文后續(xù)的觀點(diǎn)提供了基礎(chǔ)。然而,該文對基于過程的算法正當(dāng)程序論述較少,僅停留于中立、參與、效率等原則,而并未針對算法本身的特殊性來設(shè)計(jì)算法應(yīng)用過程的法律程序,更未以算法應(yīng)用階段的法律程序視角去談?wù)撍惴?quán)力限制、算法黑箱問題和算法歧視問題。進(jìn)而導(dǎo)致該文雖提出了基于私法的賦權(quán)規(guī)制路徑和基于程序的審查規(guī)制路徑,但未談及兩者關(guān)系,也未能將兩者有機(jī)結(jié)合起來。
在此需要指出的是,法學(xué)界以程序視角研究算法的法律規(guī)制才剛剛興起,對算法權(quán)力和算法黑箱的問題雖有初步探索但仍不夠具體和深入,且缺乏以法律程序視角反思算法歧視問題的研究。目前對算法歧視的法律規(guī)制研究均直接從具體的算法歧視問題(如大數(shù)據(jù)殺熟)出發(fā),或是默認(rèn)以算法基于群體特征的自動(dòng)化決策必定蘊(yùn)含算法歧視為前提,進(jìn)而試圖提出各種實(shí)體權(quán)利來進(jìn)行法律規(guī)制。但算法歧視并非是一種內(nèi)嵌于技術(shù)之中且恒久不變的問題,其實(shí)際上僅出現(xiàn)于算法應(yīng)用階段。算法作為數(shù)據(jù)處理的邏輯規(guī)則,其運(yùn)作依賴于對數(shù)據(jù)的分類,如機(jī)器學(xué)習(xí)算法必須基于大量具有類型化標(biāo)簽的樣本數(shù)據(jù)才能產(chǎn)出對更多數(shù)據(jù)進(jìn)行分類處理的算法。在技術(shù)研發(fā)階段,算法對數(shù)據(jù)的分類處理并不涉及歧視的問題,只有在社會(huì)應(yīng)用階段算法的歧視問題才會(huì)產(chǎn)生。例如,對于處理人臉數(shù)據(jù)的算法而言,許多研究者會(huì)利用其探究人臉數(shù)據(jù)差異和政治偏好之間的關(guān)聯(lián),以及人臉數(shù)據(jù)差異和社會(huì)階層的關(guān)聯(lián),這些研究中的算法并不會(huì)被認(rèn)為存在歧視。但這些處理人臉數(shù)據(jù)的算法若從實(shí)驗(yàn)研究進(jìn)入社會(huì)應(yīng)用便會(huì)產(chǎn)生一系列的算法歧視問題,進(jìn)而需要法律規(guī)制。這是因?yàn)樗惴ㄗ鳛閿?shù)據(jù)在統(tǒng)計(jì)學(xué)意義上的關(guān)系規(guī)則,其對不同數(shù)據(jù)的差異化處理是否構(gòu)成“歧視”并不取決于算法本身,而取決于數(shù)據(jù)在社會(huì)應(yīng)用過程中的指涉。尤其是在機(jī)器學(xué)習(xí)興起后,算法的構(gòu)建將會(huì)突破人類對數(shù)據(jù)關(guān)系規(guī)則的認(rèn)知局限,在人類都難以認(rèn)知數(shù)據(jù)的關(guān)系規(guī)則情況下,該算法在社會(huì)應(yīng)用時(shí)進(jìn)行的決策是否構(gòu)成歧視將會(huì)比人類決策的歧視問題更加復(fù)雜。在難以用人類易理解的語言準(zhǔn)確描述算法所蘊(yùn)含的數(shù)據(jù)關(guān)系規(guī)則的情況下,試圖從技術(shù)層面規(guī)定算法歧視的認(rèn)定標(biāo)準(zhǔn)并據(jù)此規(guī)定實(shí)體權(quán)利的法律規(guī)制方式是不現(xiàn)實(shí)的。在這種對算法歧視的定義不清且多變的情況下,實(shí)體法規(guī)制容易陷入“一管就死、一放就亂”的悖論,即過于寬泛的定義會(huì)嚴(yán)重抑制算法的應(yīng)用范圍,過于狹窄的定義又無法有效規(guī)制算法歧視問題。如面對人臉識(shí)別的算法,若寬泛地認(rèn)為處理個(gè)人敏感數(shù)據(jù)的算法均構(gòu)成算法歧視,將會(huì)嚴(yán)重阻礙人臉識(shí)別算法的技術(shù)研發(fā),但若狹隘地認(rèn)為處理個(gè)人敏感數(shù)據(jù)的算法僅在用于重大決策時(shí)構(gòu)成歧視又無法有效規(guī)制人臉識(shí)別濫用的問題。因此,法律對算法歧視的規(guī)制研究也勢必要轉(zhuǎn)向法律程序視角。這一方面體現(xiàn)為不再追求適用于全部應(yīng)用場景的實(shí)體認(rèn)定標(biāo)準(zhǔn),而是從法律程序視角重新界定算法歧視,另一方面體現(xiàn)為不再試圖完全依賴于技術(shù)改進(jìn)和研發(fā)來解決算法歧視,而是通過構(gòu)建算法應(yīng)用的程序規(guī)則來應(yīng)對算法歧視。
綜上,在算法的法律規(guī)制研究處于混淆技術(shù)研發(fā)階段與社會(huì)應(yīng)用階段和重實(shí)體而輕程序的當(dāng)下,本文將以法律程序視角提出一條聚焦于算法應(yīng)用階段的規(guī)制路徑,并據(jù)此論述此種規(guī)制路徑的研究必要性。
| 算法論證程序的含義與基本特征 |
(一)算法論證程序的概念及其正當(dāng)性
“算法論證程序”(Algorithmic Argumentation Procedure)是指,算法應(yīng)用主體按照特定標(biāo)準(zhǔn)和條件整理利益相關(guān)方通過一定順序、方式和步驟得出的意見后,對其算法應(yīng)用的決定(即選擇某項(xiàng)數(shù)據(jù)處理或代碼構(gòu)建的邏輯規(guī)則作為決策規(guī)則嵌入到特定社會(huì)領(lǐng)域)做出可使利益相關(guān)方理解與認(rèn)可的溝通過程。其概念中的“論證”和“程序”分別對應(yīng)了“算法的法律規(guī)制應(yīng)當(dāng)區(qū)分研發(fā)階段和應(yīng)用階段”與“算法的法律規(guī)制研究應(yīng)當(dāng)注重法律程序視角”的兩個(gè)主張。
首先,“算法論證程序”聚焦于算法應(yīng)用階段,其概念中的“算法”采用了延伸定義,即一種基于代碼構(gòu)建與數(shù)據(jù)處理的人機(jī)交互決策機(jī)制。而“算法論證程序”中的“論證”,則是基于算法應(yīng)用與法律適用的功能相似性,借鑒了“法律論證”(Legal Argumentation)的定義,即就代碼構(gòu)建與數(shù)據(jù)處理的邏輯規(guī)則該如何嵌入社會(huì)而說服利益相關(guān)者,其對象在于論證的理性可接受性。對此,近幾年來一些將法律與算法進(jìn)行比較的交叉研究,為本文將法律論證理論引入算法規(guī)制理論奠定了正當(dāng)性。先是有國外學(xué)者從軟件工程學(xué)的視角分析了算法與法律之間的相似性:“在功能層面上,算法與法律都是由一系列規(guī)則組成,而這些規(guī)則都是為了管理某些操作,法律管理人的交互操作,算法管理計(jì)算機(jī)的交互操作”。例如,算法規(guī)定了計(jì)算機(jī)在接收到某種數(shù)據(jù)輸入后得出某種數(shù)據(jù)輸出的規(guī)則,法律規(guī)定了特定人(除了自然人,也包括法人、國家等擬制人)在某種環(huán)境或行為輸入后輸出特定權(quán)力或權(quán)利的規(guī)則。基于這種功能上的相似性 , 該學(xué)者將軟件工程學(xué)中對算法代碼的理技術(shù)引入到了法典編纂的立法研究中。后有研究從法學(xué)與認(rèn)知科學(xué)的視角論證了算法與法律的功能共性:“算法和法律作為實(shí)現(xiàn)特定目標(biāo)的指令集,均是通過過濾信息、建構(gòu)模型來降低認(rèn)知負(fù)擔(dān)、提高認(rèn)知效率”。并基于此種功能共性,該研究提出了從結(jié)構(gòu)層面借鑒算法設(shè)計(jì)的基本原則來觀察與認(rèn)識(shí)法律。在這些基于算法與法律的功能共性而將算法設(shè)計(jì)理論引入立法理論與法律認(rèn)識(shí)理論的研究基礎(chǔ)上,本文試圖反向?qū)⒎▽W(xué)論證理論引入算法規(guī)制理論。算法,作為數(shù)字空間的架構(gòu)規(guī)則,在社會(huì)應(yīng)用階段與法律的司法適用階段具有功能上的相似性,即算法應(yīng)用與法律適用均是特定主體決定將自成一體的邏輯規(guī)則嵌入進(jìn)社會(huì)并對利益相關(guān)者產(chǎn)生強(qiáng)制力的規(guī)范性過程。因此,保障法律適用合理性的法律論證理論也應(yīng)當(dāng)能夠用于保障算法應(yīng)用的合理性,進(jìn)而也就擁有了提出“算法論證程序”的正當(dāng)性。
其次,“算法論證程序”中的“程序”是指法律學(xué)意義上的“程序”,即其屬于法律程序(Legal Procedure),而非軟件工程學(xué)意義上的算法程序(Algorithmic Programs)。因此,“算法論證程序”中的“程序”主要體現(xiàn)為按照一定的順序、方式和步驟來作出算法應(yīng)用決定的過程,其包含了算法應(yīng)用決定成立的前提和客觀評(píng)價(jià)決定過程的合理性標(biāo)準(zhǔn),并影響著利益相關(guān)者在程序完成后對算法決策的信任度。而“算法論證程序”突出“程序”的正當(dāng)性在于其能在算法應(yīng)用充滿不確定性的情況下保障算法應(yīng)用決定的合理性。根據(jù)上文所述,目前從實(shí)體法層面對算法的法律規(guī)制研究處于場景化原則遮蔽下的散亂紛爭之中,這是因?yàn)閷?shí)體法難以為方興未艾的算法應(yīng)用在豐富多樣場景中尋找出普遍一致的合理性標(biāo)準(zhǔn)。但“程序并沒有預(yù)設(shè)的真理 (truth) 標(biāo)準(zhǔn) , 程序是通過促進(jìn)意見疏通、加強(qiáng)理性思考、擴(kuò)大選擇范圍、排除外部干擾來保證決定的成立和合理性”所以從算法應(yīng)用與法律適用所共同面臨的不確定性問題來看,法律程序的相關(guān)理論具有延伸應(yīng)用到算法規(guī)制研究之中的正當(dāng)性。對于法律適用而言,不確定性 (indeterminacy) 問題是指法官為了在法定審期內(nèi)基于由當(dāng)事人敘事而成的心證與法律體系中的邏輯,決定具體案件場景中適用哪一條法律所必然面臨的主觀性與價(jià)值判斷。而與此對應(yīng)的是,算法在社會(huì)應(yīng)用階段也同樣面臨著不確定性問題,即算法應(yīng)用者為了在特定期限內(nèi)基于對利益相關(guān)者需求敘述的主觀認(rèn)識(shí)和算法技術(shù)體系的邏輯,決定特定應(yīng)用場景中適用哪些算法所必然面臨的主觀性與價(jià)值判斷。面對這種無法完全避免的不確定性問題,當(dāng)下的法學(xué)理論逐步聚焦于法律適用過程中的議論過程,通過制度上的程序要件來保障法官論證的合理性和可信性,進(jìn)而在承認(rèn)不確定性的基礎(chǔ)上尋求動(dòng)態(tài)的權(quán)利共識(shí)。因此,算法論證程序也可通過制度上的程序要件來保障算法應(yīng)用者論證的合理性和可信性,進(jìn)而在承認(rèn)算法應(yīng)用存在不確定性的基礎(chǔ)上尋求動(dòng)態(tài)的人機(jī)交互決策共識(shí)。
綜上,基于法律適用和算法應(yīng)用在功能層面與不確定性問題上的共性,算法論證程序概念的提出得以獲得正當(dāng)性,其聚焦于算法應(yīng)用過程中論證的理性可接受性,通過程序要件在不確定性的基礎(chǔ)上保障算法應(yīng)用決定的合理性與可信性。
(二)算法論證程序的基本特性
在上述的概念定義下,本文將進(jìn)一步闡述算法論證程序的三項(xiàng)基本特性,即相對客觀合理性、技術(shù)中立與技術(shù)向善的協(xié)同性,以及多元價(jià)值整合性。
1.追求相對客觀合理性的算法論證程序
算法從研發(fā)階段落地到應(yīng)用階段時(shí),引領(lǐng)規(guī)制規(guī)范的理性價(jià)值將從理論理性轉(zhuǎn)為實(shí)踐理性。然而正如上文所述,算法應(yīng)用與法律適用所追求的實(shí)踐理性將會(huì)面臨著無法避免的不確定性問題。那在這種不確定性存在的基礎(chǔ)上,如何理解算法論證程序所追求的合理性?對此,本文將進(jìn)一步闡明算法論證程序所追求的合理性含義。
首先,算法論證程序所追求的是一種客觀合理性而非主觀合理性。主觀合理性體現(xiàn)為一種只在主觀內(nèi)獲得證立且不適用于其他利益相關(guān)者的內(nèi)在應(yīng)然性。在算法應(yīng)用階段,追求主觀合理性的法律規(guī)制觀點(diǎn)主要表現(xiàn)為算法應(yīng)用者的自我道德約束,其將算法的社會(huì)應(yīng)用認(rèn)定為應(yīng)用者的意志行為,當(dāng)且僅當(dāng)算法應(yīng)用者確信其算法應(yīng)用決定符合其所持的道德規(guī)范時(shí),該算法應(yīng)用是主觀正確的。與此相對應(yīng),算法論證程序所追求的客觀合理性,則體現(xiàn)為一種客觀可證立的或已被證立的外在應(yīng)然性。其在算法應(yīng)用階段則表現(xiàn)為,某項(xiàng)算法應(yīng)用決定當(dāng)且僅當(dāng)與能被客觀證立或已被客觀證立的道德規(guī)范相符合時(shí)是客觀正確的。因此,不同于依賴自我道德約束的決斷主義觀點(diǎn),在算法論證程序視角下,算法應(yīng)用者對其每項(xiàng)應(yīng)用決定的合理性主張都連接著對這一主張加以客觀證立的義務(wù)。這種義務(wù)要求算法應(yīng)用者一方面要論證其決定與道德規(guī)范相符合,另一方面要求其論證該道德規(guī)范可以在利益相關(guān)者之間獲得客觀證立。
其次,算法論證程序所追求的是一種相對合理性而非絕對合理性。在哈貝馬斯所提出的理想商談情境中,人們通過特定程序所達(dá)成的共識(shí)是一種絕對正確的共識(shí),其絕對性特征體現(xiàn)為每個(gè)實(shí)踐問題依照特定程序都存在唯一正確的答案。但這種理想商談并不具有實(shí)踐中所必需的決斷能力。因?yàn)楝F(xiàn)實(shí)中的商談受到了規(guī)則相對性、滿足程度相對性、參與者相對性和期限相對性的限制,如關(guān)于算法應(yīng)用的商談要求有限的利益相關(guān)者,必須在有限的期限內(nèi)以有限的程序規(guī)則做出大家相對滿意的算法應(yīng)用決定,這些商談的現(xiàn)實(shí)性必然導(dǎo)致了商談結(jié)果的相對性。因此,算法論證程序不同于那些在任何場景下追求唯一正確算法應(yīng)用決定的確定主義觀點(diǎn),依據(jù)算法論證程序得到的算法應(yīng)用決定是相對客觀正確的。這句話背后蘊(yùn)含著一個(gè)批判的維度,即任何算法應(yīng)用者對其算法應(yīng)用決定的合理性主張不僅包括了該決定是客觀正確的主張,還包含了該決定接受批判和進(jìn)一步證立的主張。后一個(gè)主張表明了該算法應(yīng)用決定需要在未來進(jìn)行各種意義上的批判和進(jìn)一步理性化。
2. 尊重技術(shù)中立性并引領(lǐng)技術(shù)向善的算法論證程序
在二戰(zhàn)后,美國的許多學(xué)者與議員對科技發(fā)展與公民福利之間的關(guān)系進(jìn)行了討論。當(dāng)時(shí)的學(xué)者們普遍認(rèn)為,科技的發(fā)展是公共福利之必需,而政府嚴(yán)重低估了科技研究的價(jià)值,導(dǎo)致政府撥款不足且缺乏協(xié)調(diào)統(tǒng)一的中央資助機(jī)構(gòu),出于保障公民的福利,政府有義務(wù)以各種方式引領(lǐng)科技發(fā)展。然而,對于政府該如何引領(lǐng)科技發(fā)展卻有存在著爭論。參議員基爾戈?duì)栒J(rèn)為,科技的發(fā)展應(yīng)當(dāng)由公民的需求來引領(lǐng),即建立一個(gè)由普通公民、勞工領(lǐng)袖、教育家和科學(xué)家共同組成的委員會(huì)統(tǒng)一管理本國科技的發(fā)展規(guī)劃與撥款預(yù)算,而科學(xué)政策家范內(nèi)瓦·布什卻論證了科技發(fā)展引領(lǐng)與公共政治討論相隔離的必要性,并主張由專業(yè)人員來驅(qū)動(dòng)和規(guī)劃。上文早已論述的“技術(shù)中立性”概念便是由此延伸而來,其蘊(yùn)含了對科技自身發(fā)展規(guī)律的尊重,即“科學(xué)家們應(yīng)當(dāng)在一種相對沒有成規(guī)、偏見或商業(yè)需求等不利壓力的氛圍下展開工作”。
3. 兼容多元價(jià)值的算法論證程序
與在技術(shù)研發(fā)階段,人們對算法有著準(zhǔn)確性、健壯性、可解釋性等統(tǒng)一一致的價(jià)值追求所不同的是,在算法論證程序所聚焦的第四層秩序——人機(jī)共同決策影響下的行為秩序中,人們存在著多種不同的信仰與世界觀,雖都稱追求“善”,但對其理解卻各有不同。而如何讓算法在應(yīng)用階段兼容人們的多種價(jià)值觀已經(jīng)成為了當(dāng)代人工智能產(chǎn)業(yè)落地的重要議題。例如,在目前產(chǎn)業(yè)化進(jìn)程最快的自動(dòng)駕駛領(lǐng)域中,選擇什么樣的車輛制動(dòng)算法最能符合人們道德要求已成為了自動(dòng)駕駛車輛產(chǎn)商最關(guān)心的問題。麻省理工學(xué)院媒體實(shí)驗(yàn)室(the MIT of Media Lab)曾為此開展了一場全球線上實(shí)驗(yàn),試圖找到一個(gè)符合全球價(jià)值觀的車輛制動(dòng)道德規(guī)則。他們開發(fā)了一個(gè)模擬自動(dòng)駕駛道德困境場景的調(diào)查平臺(tái),以此來征集全球網(wǎng)民在交通事故場景下的道德選擇。該調(diào)查平臺(tái)預(yù)設(shè)了十三個(gè)無法避免的交通事故場景,要求被調(diào)查者依照其自身價(jià)值觀在兩種車輛制動(dòng)方案中選擇一種,以此保護(hù)其認(rèn)為應(yīng)優(yōu)先保護(hù)的特定人群,如富人、女性、老人等。然而,該平臺(tái)通過 18 個(gè)月收集的來自 233 個(gè)國家和地區(qū)的近 4000 萬份調(diào)查卻無法得出一個(gè)符合全球價(jià)值觀的車輛制動(dòng)方案,反而驗(yàn)證了全球文化差異所導(dǎo)致的價(jià)值多元。
| 算法論證程序?qū)Ψ梢?guī)制算法的意義 |
在明確了算法論證程序的概念及其基本特性后,本文將在其視角下重新闡述算法權(quán)力、算法黑箱及算法歧視的法律規(guī)制問題,以此進(jìn)一步明確當(dāng)下提出算法論證程序?qū)Ψ梢?guī)制算法研究的意義。
(一)算法權(quán)力的規(guī)制重述
算法權(quán)力,源于算法在輔助甚至替代人類決策的過程中直接對人們行為產(chǎn)生的規(guī)范性影響,這點(diǎn)在學(xué)界已達(dá)成共識(shí)。而法律對算法權(quán)力的規(guī)制并非是要完全消除它,而是為了限制算法權(quán)力在行使過程中的恣意性,即避免算法在將特定設(shè)計(jì)者或特定數(shù)據(jù)集內(nèi)的數(shù)據(jù)處理邏輯規(guī)則作為對人們行為產(chǎn)生規(guī)范性影響的決策規(guī)則時(shí)的任意妄為。對此,現(xiàn)有研究因過于側(cè)重算法權(quán)力的實(shí)體性分析,妄圖直接通過規(guī)制算法內(nèi)的數(shù)據(jù)處理邏輯規(guī)則來達(dá)到規(guī)制算法權(quán)力的目的,導(dǎo)致了上文所述的數(shù)據(jù)權(quán)屬與算法公開紛爭,并引發(fā)了過于依賴技術(shù)改善和尋找正義算法的技術(shù)主義傾向。因此,本文將基于算法與法律的功能相似性,借鑒法律程序?qū)Ψ蓹?quán)力的恣意限制方式,從程序視角思考算法權(quán)力的恣意限制問題,并由此分析算法論證程序的提出對規(guī)制算法權(quán)力的意義。
正如上文所述,在功能層面上,算法與法律均是管理特定操作并追求一般性、體系性與完備性的規(guī)則系統(tǒng)。在法律規(guī)則系統(tǒng)的演化過程中,法律程序通過分化和獨(dú)立來限制了法律權(quán)力的恣意。具體來說,法律規(guī)則系統(tǒng)內(nèi)部不斷基于法律程序而分化為兩個(gè)及以上各自具有特殊意義且需要獨(dú)立地實(shí)現(xiàn)各自價(jià)值目標(biāo)的組織或角色,如立法機(jī)構(gòu)與司法機(jī)構(gòu)基于法律程序的分化與獨(dú)立,司法機(jī)構(gòu)中當(dāng)事人、法官、陪審團(tuán)基于法律程序的分化與獨(dú)立。所以,法律程序?qū)λ惴?quán)力中的恣意限制也可以從算法規(guī)則系統(tǒng)的分化和獨(dú)立出發(fā)。如下圖所述,法律權(quán)力和算法權(quán)力在作為規(guī)則系統(tǒng)的運(yùn)作框架里可以體現(xiàn)在兩個(gè)由不同組織或角色追求不同價(jià)值的決策過程中。
(二)算法黑箱的規(guī)制重述
如上文所述,對于算法黑箱問題,在追求算法公開和技術(shù)透明的規(guī)制思路被普遍批判為不符合現(xiàn)實(shí)規(guī)律后,現(xiàn)有的法學(xué)研究借鑒“算法可解釋性”這一技術(shù)指標(biāo),衍生出了“算法解釋權(quán)”的規(guī)制思路。然而,由于法律規(guī)制的“算法”與技術(shù)研發(fā)所關(guān)注的“算法”并不相同,前者著重于算法應(yīng)用階段的人機(jī)協(xié)同決策,后者則是指算法研發(fā)階段的數(shù)據(jù)處理邏輯,因此,在法律規(guī)制層面簡單地借用技術(shù)研發(fā)階段的“算法解釋”概念容易引起混亂與誤用。在此,本文將重新闡述算法系統(tǒng)與法律系統(tǒng)所共同面對的黑箱問題根源,并基于法律論證程序解決司法決策黑箱的路徑,分析算法論證程序是如何應(yīng)對算法的黑箱問題,以及闡明算法論證程序與算法可解釋性之間的關(guān)聯(lián)。
(三)算法歧視的規(guī)制重述
根據(jù)上文所述,算法歧視問題的根源在于算法的社會(huì)應(yīng)用決策,當(dāng)算法作為實(shí)驗(yàn)數(shù)據(jù)的邏輯處理規(guī)則時(shí),人們并不會(huì)將其認(rèn)定為一種應(yīng)當(dāng)否定的“歧視”。例如,對于處理人臉數(shù)據(jù)的算法而言,許多研究者會(huì)利用其探究人臉數(shù)據(jù)差異和政治偏好之間的關(guān)聯(lián),以及人臉數(shù)據(jù)差異和社會(huì)階層的關(guān)聯(lián),這些研究中的算法并不會(huì)被認(rèn)為存在歧視,而是一種對當(dāng)下社會(huì)狀況進(jìn)行客觀描述的科研嘗試。在此,本文將從算法歧視的定義、起因及規(guī)制方式來討論聚焦于社會(huì)應(yīng)用階段的算法論證程序?qū)Ψ梢?guī)制算法歧視的意義。
| 結(jié)論 |
算法論證程序(Algorithmic Argumentation Procedure)是指,算法應(yīng)用主體按照特定標(biāo)準(zhǔn)和條件整理利益相關(guān)方通過一定順序、方式和步驟得出的意見后,對其算法應(yīng)用的決定(即選擇某項(xiàng)數(shù)據(jù)處理或代碼構(gòu)建的邏輯規(guī)則作為決策規(guī)則嵌入到特定社會(huì)領(lǐng)域)做出可使利益相關(guān)方理解與認(rèn)可的溝通過程。在我國對算法的法律規(guī)制研究陷入因混淆算法研發(fā)與算法應(yīng)用、重實(shí)體而輕程序?qū)е碌臒o盡紛爭下,算法論證程序的提出有利于為算法的法律規(guī)制研究提供一條切實(shí)可行且凸顯法學(xué)人文價(jià)值的發(fā)展路徑。其擺脫了完全依賴技術(shù)革新實(shí)現(xiàn)社會(huì)基本價(jià)值的技術(shù)主義幻想,將視角重新聚焦于利益相關(guān)群體之間的溝通過程之中。這一方面有利于為算法的科技研發(fā)開辟自由發(fā)展的空間,另一方面強(qiáng)調(diào)了算法應(yīng)用決策的民主性。同時(shí),算法論證程序的提出更為法學(xué)研究者基于法律與算法的功能相似性進(jìn)行比較研究提供了思路。其不但響應(yīng)了萊斯格提出“代碼即法律”的比較研究號(hào)角,更是為法律論證理在法律規(guī)則算法研究方面的應(yīng)用指明了推進(jìn)方向。算法論證程序概念的提出象征著,法律在社會(huì)不斷嵌入算法的數(shù)字化轉(zhuǎn)型過程中,將會(huì)通過構(gòu)建民主對話空間,實(shí)現(xiàn)算法應(yīng)用決策的可比較與可溝通,讓多元價(jià)值的利益相關(guān)者提出意見并競爭,進(jìn)而促進(jìn)數(shù)字社會(huì)的相互理解和相互信任。
原文刊載于《中國政法大學(xué)學(xué)報(bào)》2023年第1期,感謝公眾號(hào)“中國政法大學(xué)學(xué)報(bào)”授權(quán)轉(zhuǎn)載!
網(wǎng)站編輯:康煜
審讀:季衛(wèi)東