亚洲一线产区二线产区区别在哪,亚洲AV永久无码精品,久久精品国产精品国产精品污,亚洲精品亚洲人成年,青青草视频在线观看综合网,亚洲国产色欲AV一区二区三区在线,亚洲美乳字幕日韩无线码高清专区

當(dāng)前位置:首頁 > 文獻(xiàn)資源 > 論文著作 > 理論推演
衣俊霖 | 論人機(jī)協(xié)同審判的信任構(gòu)建
2025年05月06日 【作者】衣俊霖 預(yù)覽:

【作者】衣俊霖

【內(nèi)容提要】

論人機(jī)協(xié)同審判的信任構(gòu)建








衣俊霖、上海交通大學(xué)凱原法學(xué)院助理教授







摘要:隨著人工智能在我國智慧司法建設(shè)中的普及推廣,司法審判逐步呈現(xiàn)出法官為主、機(jī)器為輔的人機(jī)協(xié)同審判格局。目前,司法人工智能暫時消隱于法官背后,審判信任被置換為對法官人格、法院制度或人工智能算法的信任。人格信任奠基于法官作為完人的應(yīng)然預(yù)設(shè),與實(shí)然的法官常人之間存在現(xiàn)實(shí)差距。法院組織以司法責(zé)任制作為約束人機(jī)互動的主要制度安排,但在預(yù)測審判邏輯的影響下,存在盲目采納機(jī)器建議的人機(jī)合謀風(fēng)險(xiǎn)。算法信任機(jī)制盡管能發(fā)揮局部的信任補(bǔ)救功能,但囿于主體工具的二分思維,難以對法官與算法的協(xié)同過程進(jìn)行約束。應(yīng)當(dāng)以信任者與信任對象的溝通互動為出發(fā)點(diǎn),對人格信任、制度信任和算法信任進(jìn)行反思性整合,將司法人工智能從內(nèi)部辦案工具拓展為外部溝通工具,推動人機(jī)協(xié)同法律議論的充分展開,為人機(jī)協(xié)同審判奠定更為堅(jiān)實(shí)的信任基礎(chǔ)。







一、人機(jī)協(xié)同審判的信任主題

近年來,人工智能技術(shù)蓬勃發(fā)展,給人類社會帶來一系列機(jī)遇和挑戰(zhàn)。在海量語料、豐富算力的推動下,基于神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)的大語言模型,為人工智能技術(shù)帶來了顛覆性革新,機(jī)器算法早已悄然跨越圖靈測試的門檻。隨著世界各國智慧司法建設(shè)的穩(wěn)步推進(jìn),人工智能技術(shù)不斷滲入、賦能法院司法審判工作,涉足審判執(zhí)行、訴訟服務(wù)、司法管理等多個方面。我國自十三五時期起便在智慧司法領(lǐng)域進(jìn)行布局,人類法官與人工智能深度融合的協(xié)同審判模式正逐漸成為司法審判工作的新常態(tài)。


(一)人工智能介入司法審判的發(fā)展分期


人工智能對司法審判的介入,與計(jì)算機(jī)科學(xué)技術(shù)的突破性發(fā)展密不可分,且呈現(xiàn)出與顛覆性革新事件相關(guān)聯(lián)的斷裂現(xiàn)象。透過對技術(shù)斷裂點(diǎn)的觀察,大致可以劃分出人機(jī)對抗和人機(jī)協(xié)同兩條主線。前者聚焦于機(jī)器算法能否替代人類法官的問題,后者強(qiáng)調(diào)人類法官與機(jī)器算法在司法審判中的交互協(xié)作。當(dāng)然,兩者并不是非此即彼,而更像對位交織的兩個聲部,但仍可借助斷裂點(diǎn)以辨識出特定時期學(xué)術(shù)爭鳴的主旋律。


第一個斷裂點(diǎn)發(fā)生于2016年,開啟了對審判主體性人機(jī)對抗問題的熱烈討論。谷歌公司于當(dāng)年推出的AlphaGo戰(zhàn)勝了著名棋手李世石,成為科技界的轟動事件,同時觸發(fā)了社會各界的廣泛反思——究竟哪些領(lǐng)域是人工智能仍沒有能力或不應(yīng)涉足的人類陣地。在此大背景下,法學(xué)界關(guān)于人類法官與人工智能的人機(jī)對抗之辯自此拉開帷幕。一定程度上,法官成了代表人類智慧與人工智能進(jìn)行新一輪對弈的棋手,只不過棋盤轉(zhuǎn)變?yōu)樗痉▽徟羞@一頗為敏感而復(fù)雜的領(lǐng)域。此外,廣受關(guān)注的美國盧米斯訴威斯康星州案也在2016年終審宣判。在該起案件中,人類法官的審判主體地位并沒有變,但法官實(shí)質(zhì)上是否已過度依賴機(jī)器算法的問題引起了不少擔(dān)憂。因此,在人機(jī)對抗的主戰(zhàn)場外,對人機(jī)協(xié)作潛在風(fēng)險(xiǎn)的反思也埋下了伏筆。


第二個斷裂點(diǎn)發(fā)生于2022年,法官為主、機(jī)器為輔的協(xié)同審判模式逐漸成為通說共識。在科技領(lǐng)域,ChatGPT領(lǐng)銜的大語言模型技術(shù)在當(dāng)年取得突破性進(jìn)展。長期以來,人工智能處理人類自然語言文本的效果并不令人滿意,妨礙了其在日常工作生活中的普及推廣。而大語言模型徹底改變了這一現(xiàn)狀,普通公眾可以借助情景對話方式快速上手使用。由此,人工智能成為人們在軟件研發(fā)、教學(xué)科研、內(nèi)容設(shè)計(jì)等各領(lǐng)域的協(xié)作搭檔,并開始出現(xiàn)遇事不決,先問AI”的有趣景象。圍繞審判主體性的人機(jī)之爭也在當(dāng)年塵埃落定,法官為主、機(jī)器為輔的人機(jī)協(xié)同審判模式在我國司法實(shí)踐中得以確立。相關(guān)標(biāo)志性事件是,《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》(法發(fā)〔202233號)于202212月發(fā)布,集中回應(yīng)了2016年以來人機(jī)對抗的相關(guān)爭議。至此,人類法官的審判主體性基本得到鞏固,更多研究開始轉(zhuǎn)向法官與機(jī)器的協(xié)同問題。


需指出的是,我國對人機(jī)對抗、人機(jī)協(xié)同的討論至少可追溯到21世紀(jì)初的電腦量刑。2004年,山東省淄博市淄川區(qū)法院引入電腦輔助量刑技術(shù),可根據(jù)犯罪情節(jié)自動計(jì)算刑期。該嘗試一時引起廣泛熱議,終因爭議較大未能得到普及推廣。受限于彼時的技術(shù)條件,所謂電腦量刑不過是基于量刑表格的簡單查詢和算術(shù),遠(yuǎn)遠(yuǎn)不能與如今的ChatGPT、DeepSeek等大語言模型相提并論。不過,淄川法院當(dāng)年也面臨機(jī)器可能取代法官的質(zhì)疑,而其所作的回應(yīng)亦令人頗感熟悉——電腦只是輔助工具,法官才是審判主體??梢?,關(guān)于人機(jī)對抗與人機(jī)協(xié)同的早期思考至今仍發(fā)揮著影響。


(二)人機(jī)協(xié)同審判面臨的信任挑戰(zhàn)


從早年的電腦量刑,到如今基于大語言模型的未來法官助手,學(xué)術(shù)研究許多時候似乎是對技術(shù)里程碑事件的跟進(jìn)與回應(yīng)。技術(shù)革新使人們短時間內(nèi)聚焦特定問題,但新的技術(shù)又隨時拋出新問題,導(dǎo)致相關(guān)研究呈現(xiàn)些許跳躍甚至斷裂。


然而,斷裂的背后存在一條連續(xù)的邏輯主線,貫穿其中的主題是審判信任。信任一般是指對個體、組織或系統(tǒng)所實(shí)施行為的可靠性的信心狀態(tài)。審判信任作為信任的下位概念,是指社會大眾對于司法審判活動的信心和信賴。信任具有簡化復(fù)雜性的作用:信任程度高時,人們會減少對信任對象的干預(yù)控制;而信任度低時,則可能采取控制行為以提升結(jié)果的可預(yù)期性,或回避與信任對象進(jìn)行接觸。就司法審判而言,審判信任的構(gòu)建不僅有助于維護(hù)社會秩序和法律權(quán)威,還能促進(jìn)裁判結(jié)果的有效執(zhí)行。


在審判信任的觀察視角下,有關(guān)人工智能介入司法審判的一系列探討,從更深層次上都可被視為對信任問題的討論。無論21世紀(jì)初有關(guān)電腦量刑的爭議,還是2016年以來有關(guān)“AI法官的審判主體性之辯,都體現(xiàn)了人們對機(jī)器算法介入審判——甚至竊取法官審判權(quán)——的不信任感。即便在法官為主、機(jī)器為輔的協(xié)同分工形成之后,人們對司法審判活動的信任顯然也并非堅(jiān)如磐石。從更廣闊的視野來看,人機(jī)協(xié)同審判的信任風(fēng)險(xiǎn)與目前人工智能引起的信任危機(jī)密切相關(guān)。算法黑箱、算法偏見等一系列社會熱點(diǎn)問題,在深層次上揭示出人工智能系統(tǒng)的信任困境。而人工智能對司法審判的介入,觸動到人們內(nèi)心深處對人類被機(jī)器審判的恐懼??梢哉f,人機(jī)協(xié)同審判的信任問題恰好處于這場信任危機(jī)的前線。


(三)尋找人機(jī)協(xié)同審判的信任基礎(chǔ)


審判信任并非人工智能時代的新問題,其在我國有時呈現(xiàn)為司法公信力的敘事話語。司法公信力通常是指法院的信譽(yù)和口碑,即法院的行為、表現(xiàn)或成就所引起的公眾評價(jià)。審判信任和司法公信力存在相互關(guān)聯(lián),但亦存在微妙而重要的差異。公信力是從作為被信任對象的法院角度而言的,而信任則強(qiáng)調(diào)從信任者的角度來觀察信任對象。故此,審判信任是一個涵義更為豐富的概念,所涉及信任對象的范圍也更加廣闊,可以將法官個體、法院組織、司法人工智能盡皆納入研究視野。


以審判信任為切入點(diǎn),可以從人工智能+司法審判相關(guān)研究文獻(xiàn)中提煉出三個信任類型以及相應(yīng)的信任構(gòu)建模式。其一,將審判信任問題予以化簡,置換為對審判者之專業(yè)能力與道德品質(zhì)的人格信任。其二,將審判信任寄托于對審判機(jī)關(guān)的制度信任,特別是對司法責(zé)任制、審判監(jiān)督等制度的信任。其三,通過完善司法人工智能的準(zhǔn)確性、可解釋性、可問責(zé)性等指標(biāo),借助算法信任來夯實(shí)審判信任的基礎(chǔ)?;趯η笆鋈N類型的排列組合,又可以形成其他信任構(gòu)建方式,使人工智能時代的審判信任呈現(xiàn)出異常豐富的內(nèi)涵和多元化的構(gòu)建進(jìn)路。


通過對前述三類信任構(gòu)建模式的批判與反思,筆者試圖刻畫審判信任得以建立和維系的核心邏輯,揭示審判信任在人工智能時代的變與不變,并在此基礎(chǔ)上,提出一套基于法律溝通議論的整合式信任構(gòu)建理論,為人機(jī)協(xié)同審判奠定更為堅(jiān)實(shí)可靠的信任基石。



二、審判者人格信任的現(xiàn)實(shí)局限

社會大眾對司法審判的信任在很大程度上與對法官的信任密不可分。作為法院與社會大眾之間的一扇窗,法官因其專業(yè)能力、道德品質(zhì)以及公正無私的品格而贏得外界的尊重和信任。隨著人工智能應(yīng)用于司法審判,首先浮現(xiàn)出來的問題是:人們是否像對人類法官那樣信任人工智能。更進(jìn)一步的追問是,在人機(jī)協(xié)同審判模式下,對人類法官的信任能否構(gòu)成審判信任的堅(jiān)實(shí)根基。


(一)審判主體性的人機(jī)對抗


在人工智能發(fā)展的早期階段,機(jī)器算法無法像人類法官一樣進(jìn)行復(fù)雜推理工作,所以對于機(jī)器法官的討論更多處于理論想象層面。近年來,隨著大語言模型的迅猛發(fā)展,人工智能已能夠產(chǎn)生邏輯緊密、表述清晰的自然語言文本。因此,人工智能在法律領(lǐng)域的應(yīng)用,成為人們普遍寄予厚望的一個落地場景。人工智能代表一種異于人類的智能運(yùn)作邏輯,被置于人類智能與機(jī)器智能的二元對抗圖式下加以審視。在這一背景下,人工智能是否會替代法官而成為審判主體,一度成為法學(xué)界的研究熱點(diǎn)。


在審判主體性的爭奪上,人類法官和人工智能以頗為抽象、簡化的面目進(jìn)行同臺競技。法官作為人類價(jià)值理性的代表,被浪漫化地視為專業(yè)知識和道德品格上的完人。在思維創(chuàng)造性、默會知識和實(shí)踐理性、社會經(jīng)驗(yàn)等方面,人類法官具有人工智能所無法比擬的優(yōu)勢。同時,完人法官具有同情心、同理心,可以在審判過程中實(shí)現(xiàn)情理法的融合。相比之下,人工智能則在效率、一致性、中立性等方面具有優(yōu)勢,可以快速處理大量案件信息,縮短審理時間、提升司法效率。算法亦不受個人情感和利益的影響,可以基于類案裁判歷史數(shù)據(jù)推動裁判尺度的統(tǒng)一。不難發(fā)現(xiàn),人類法官與人工智能的比較,被置于公正與效率、價(jià)值理性與工具理性的對立語境之下。


目前,人類法官取得了審判主體性之爭的第一回合勝利。提倡價(jià)值理性、限制工具理性、堅(jiān)守人類主體性,成為審判主體性之爭的通說。具體而言,反對人工智能替代人類法官的理由主要包括:其一,人工智能難以妥善處理價(jià)值判斷問題;其二,人工智能的性能主要由訓(xùn)練數(shù)據(jù)決定,故可能受到數(shù)據(jù)偏誤的影響而產(chǎn)生偏見或錯誤;其三,人工智能對簡單的類型化案件比較準(zhǔn)確,但難以在復(fù)雜案件中實(shí)現(xiàn)個案正義。此外,有學(xué)者指出,人們之所以反對算法取代法官,并非由于審判準(zhǔn)確性、公正性等方面的差異,而是源于主觀的感知正義匱乏。總而言之,由于人們不信任人工智能可以勝任審判者的角色,人類法官的審判主體地位因而得以保全。


(二)人機(jī)協(xié)同審判的法官人格信任背書


“法官為主、機(jī)器為輔的人機(jī)協(xié)同審判模式,已成為理論和實(shí)務(wù)界的共識。具體來說,法官是審判活動的最終裁判者,對審理結(jié)果承擔(dān)司法責(zé)任;與此相應(yīng),人工智能不得取代法官,其運(yùn)行結(jié)果僅供參考。當(dāng)然,盡管機(jī)器不能取代法官,但其作為審判輔助工具的應(yīng)用前景是頗為光明的。在法院案多人少的壓力下,人工智能在提升審判效率、加強(qiáng)司法管理等方面確有重要價(jià)值。我國法院已明確了司法人工智能作為輔助審判工具的功能定位。在堅(jiān)持法官審判主體性的前提下,人工智能對法院審判的介入已頗為普遍。案件審理時,先由人工智能進(jìn)行粗加工,再由人類法官實(shí)施更加精細(xì)的審理,這條兼顧正義與效率的人機(jī)融合進(jìn)路似乎已呈現(xiàn)在眼前。


對法官審判主體性的堅(jiān)持,在很大程度上將人機(jī)協(xié)同審判奠基于法官人格信任背書。所謂人格信任,即對另一個人的信任,他人此時作為有序的、人格化的行動者而成為被信任對象。對法官的人格信任,主要涉及專業(yè)能力和道德品質(zhì)兩個維度:在專業(yè)能力維度,信任法官能勝任甄別司法人工智能相關(guān)風(fēng)險(xiǎn)的工作,并糾正其中的偏誤;在道德品格方面,信任法官決定是否采納機(jī)器輔助建議時,可以公正無私地排除個人利益等無關(guān)因素。目前,理論和實(shí)務(wù)界把信任票投給了人類法官,不信任人工智能可以勝任審判者的角色。在法官為主、機(jī)器為輔的分工下,仍延續(xù)了人機(jī)對抗語境下的法官完人預(yù)設(shè)——法官在專業(yè)能力上有著機(jī)器無法比擬的優(yōu)勢,能夠?qū)徤髫?fù)責(zé)地甄別機(jī)器輔助建議,并排除案外因素的相關(guān)影響。


將審判信任奠基于對辦案法官的人格信任,體現(xiàn)了一種對司法審判的簡化思維方式。司法過程被化簡為以審判者為中心的決策過程,審判信任被還原為對審判者的人格信任。既然法官作為審判者是可信的,那么法官主導(dǎo)的人機(jī)協(xié)同審判也是可信的。只要法官最終負(fù)責(zé)作出判決,其與人工智能的具體互動似乎成為法官自主決定的事務(wù)。拒絕抑或采納機(jī)器輔助意見,則完全由法官自行作出裁量。此時,人工智能退居于法官的法袍之后,不與當(dāng)事人、律師等訴訟參與人直接接觸。這種做法具有簡化復(fù)雜性的價(jià)值,法院組織似乎就不必對外披露人機(jī)協(xié)作的復(fù)雜互動過程。


綜上,在既有人機(jī)協(xié)同審判模式下,審判信任依賴于辦案法官的信任背書。法官被視為公平正義的守門人,通過發(fā)揮主觀能動性和自由裁量權(quán),對如何采納人工智能輔助建議行使最終決定權(quán),以尋找案件裁判的最佳正解。


(三)法官人格信任的理想愿景和現(xiàn)實(shí)差距


在與人工智能的比較中,法官作為人類智識和公平正義的代言人,被賦予了完人的理想形象。法官既精通經(jīng)驗(yàn)法則、邏輯規(guī)則和審判技巧,又恪守良知、敬畏之心和正義理念,作為法治正義之代表向社會傳達(dá)司法權(quán)威。法官被視為正義的化身,這既包含了對法官這一社會角色的期望,也反映了塑造法官權(quán)威性的實(shí)際需要。司法實(shí)踐中,對優(yōu)秀法官個人事跡的頌揚(yáng),對司法機(jī)關(guān)贏得社會信任具有重要意義。勤勉奉獻(xiàn),堅(jiān)持嚴(yán)格公正司法,全心全意為人民群眾服務(wù),努力滿足人民群眾的司法需求,這是對我國法官的一種理想化的標(biāo)桿形象。


然而,僅僅基于對法官人格信任的理想化愿景,并不足以建立起審判信任的堅(jiān)固根基?,F(xiàn)實(shí)中的法官并非完美無缺,而是具有人性弱點(diǎn)的常人。像普通人一樣,法官也有知識、經(jīng)驗(yàn)上的盲點(diǎn),可能出于自利的動機(jī)而采取機(jī)會主義行為,在認(rèn)知和決策上也會受到非理性因素的影響。將審判信任建立在對法官的信任之上,并不是絕對可靠的。一旦理念與現(xiàn)實(shí)之間發(fā)生想象斷裂,將導(dǎo)致法官人格信任變得異常脆弱,引起人們對審判信任的態(tài)度瞬間逆轉(zhuǎn)。我國智慧法院建設(shè)的目的之一是預(yù)防和糾正法官辦案過程中的潛在偏差和不當(dāng)行為,從而實(shí)現(xiàn)審判質(zhì)效的提升。只不過,在人機(jī)對抗語境下,法官作為常人的局限性被理想的法官完人形象暫時遮蔽。


人機(jī)協(xié)同審判中,人類法官處于一種人在回路情境,需承擔(dān)起評估、糾正機(jī)器輔助建議的責(zé)任。然而,鑒于人工智能的技術(shù)復(fù)雜性、算法黑箱化等問題,要對機(jī)器輔助建議進(jìn)行甄別糾正并非易事。特別是在遇到酌情量刑、再犯風(fēng)險(xiǎn)評估等缺乏標(biāo)準(zhǔn)答案的問題時,法官能否發(fā)現(xiàn)并糾正人工智能生成結(jié)果的潛在偏誤存在疑問。此外,法官在人機(jī)協(xié)同決策過程中還可能受到辦案壓力、認(rèn)知盲區(qū)等非理性因素的影響。故此,不能想當(dāng)然地認(rèn)為法官在作出審判時可以不受到算法偏誤的影響甚至誤導(dǎo)。


此外,將審判信任奠基于人格信任,未能考慮到人工智能與傳統(tǒng)機(jī)械工具的差異,忽略了人類法官與人工智能的復(fù)雜互動過程。機(jī)械工具不存在情感或偏見,亦不參與對意義的主觀解釋,只是通過非語言的形式直接提供客觀事實(shí)的信息。就傳統(tǒng)計(jì)算機(jī)應(yīng)用系統(tǒng)而言,盡管電子元器件取代了齒輪、杠桿等機(jī)械部件,但仍可將其視為一種完全由使用者操控的機(jī)械性輔助工具。然而,在新一輪人工智能科技浪潮下,機(jī)器算法正展現(xiàn)出前所未有的智能化水平,并逐步承擔(dān)起一定的意義解讀工作,因而與傳統(tǒng)輔助工具之間存在本質(zhì)差別。在人機(jī)協(xié)同審判中,人工智能并非僅僅基于法官指令來完成法律查詢、檢索排序等簡單任務(wù),而是已經(jīng)深度介入對法律和事實(shí)問題的分析。因此,如果審判信任完全奠基于法官人格信任,無疑是將人工智能視為完全受法官控制的惰性工具,低估了人機(jī)協(xié)同審判的風(fēng)險(xiǎn)與挑戰(zhàn)。


(四)從人格信任到系統(tǒng)信任的視角拓展


隨著社會復(fù)雜性的不斷提升,信任的客體對象從具體個人逐漸延展到組織系統(tǒng)、算法系統(tǒng)等非人格化的抽象客體?;诒恍湃螌ο蟮牟町愋裕湃慰杀患?xì)分為若干不同類型。其中,最基本的信任對象是能與主體進(jìn)行面對面交往的他人。此外,信任對象還可拓展到社會角色、組織機(jī)構(gòu)、技術(shù)系統(tǒng)乃至社會系統(tǒng)等更加抽象的客體。若將人際信任作為圓心向系統(tǒng)信任邁進(jìn),信任對象的具象程度逐漸減弱、抽象程度不斷增強(qiáng)。所謂人格信任系統(tǒng)信任的經(jīng)典二分法,是對前述信任譜系的一種簡化表達(dá)。而本文所探討的法官人格信任,既指向具體的法官個人,又與作為社會角色的法官群體緊密相連。法官本身就是一種容易喚起信任感的專業(yè)型公職角色,而對優(yōu)秀典型的宣傳又能進(jìn)一步提升人們對法官職業(yè)角色的信任。


人們對法官的人格信任,實(shí)際上是以司法系統(tǒng)的總體信任作為制度背景。人格信任建立于對他人的道德品質(zhì)、專業(yè)能力的信賴,而對系統(tǒng)的信任則奠基于系統(tǒng)運(yùn)作機(jī)制的正確性、合理性,更強(qiáng)調(diào)對抽象原則和技術(shù)知識的信賴。盡管存在差異,人格信任與系統(tǒng)信任之間并不是相互替代、非此即彼的關(guān)系,人格信任可以成為系統(tǒng)信任的一種表征機(jī)制。由于系統(tǒng)概念過于概括、抽象,人們?nèi)菀谆诟行越?jīng)驗(yàn)而對人格化對象產(chǎn)生信任的心理紐帶,這是個體在適應(yīng)社會復(fù)雜性時發(fā)展出的簡化機(jī)制。就審判活動而言,司法系統(tǒng)內(nèi)部的運(yùn)作細(xì)節(jié)對普通人而言顯得過于陌生、抽象。相比之下,法官是司法系統(tǒng)與公眾的交匯口,人們通過親身經(jīng)歷、道聽途說或媒體宣傳等渠道,往往對法官有更強(qiáng)的熟悉感。在實(shí)踐中,樹立理想的法官形象也是法院贏得外部信任的重要方式。由于法官吸引了公眾的注意力,此時作為制度背景的司法系統(tǒng)則變得模糊起來。


對審判信任的分析,不應(yīng)止步于人格信任,而應(yīng)將視野擴(kuò)大到對整個司法系統(tǒng)的理解和信任上來。從系統(tǒng)視角來觀察,法官只是形成司法審判過程中的一個環(huán)節(jié)。法官的審理過程不能任憑主觀恣意,而必須基于法律、事實(shí)和程序。正是出于對人格信任的審慎懷疑,司法系統(tǒng)才建立起一系列限制主觀恣意的組織機(jī)制甚至技術(shù)性手段。故此,對審判信任的思考,應(yīng)進(jìn)一步擴(kuò)展到對審判機(jī)關(guān)的系統(tǒng)信任之上。


三、審判機(jī)關(guān)制度信任的異化風(fēng)險(xiǎn)

人們對審判人員的人格信任,不能脫離于對審判機(jī)關(guān)的系統(tǒng)信任,故對審判信任的分析應(yīng)從法官個體延展到作為整體的法院組織。法院借助訴訟程序、司法公開、司法責(zé)任制等一系列制度安排,保障司法審判的公平公正。故此,對法院組織的信任,最終奠基于制度信任之上。在人機(jī)協(xié)同審判模式下,法院組織的相關(guān)制度規(guī)則能否發(fā)揮預(yù)期作用,抑或可能存在失效乃至異化的風(fēng)險(xiǎn),這是需要進(jìn)一步探討的問題。


(一)審判機(jī)關(guān)系統(tǒng)信任的制度內(nèi)核


法院作為行使國家審判權(quán)的審判機(jī)關(guān),是較之法官而言更為抽象的組織系統(tǒng)。當(dāng)法院作為信任對象時,其所對應(yīng)的信任類型屬于系統(tǒng)信任。社會大眾未必了解法院內(nèi)部的運(yùn)作原理和具體細(xì)節(jié),但仍可能形成對法院組織的信任。正如吉登斯所指出的,人們常常需要信任那些超出其理解能力的抽象系統(tǒng)。系統(tǒng)信任一定程度上促成了信任與理解的分離。普通人未必理解醫(yī)學(xué)、法律或科技系統(tǒng)的復(fù)雜性,但仍能信賴醫(yī)生、法官和工程師的專業(yè)判斷。故此,當(dāng)人們對法院組織有足夠的信任時,盡管未必知曉其內(nèi)部運(yùn)作細(xì)節(jié),但仍能對法院審理結(jié)果產(chǎn)生信賴和認(rèn)可。


法院組織系統(tǒng)(以下簡稱法院組織)具有專家系統(tǒng)和科層組織的雙重色彩。專家系統(tǒng)expert system)是對專業(yè)知識與技術(shù)、業(yè)務(wù)專家進(jìn)行組織和整合的系統(tǒng)機(jī)制,為人們在現(xiàn)代社會提供可靠的決策支持。法院通過組織和管理辦案法官等司法人員來開展審判業(yè)務(wù),處理法律糾紛、解釋法律規(guī)則,從而構(gòu)成一個典型的專家系統(tǒng)。同時,作為國家審判機(jī)關(guān),法院亦具有科層組織的色彩。作為層級化的組織系統(tǒng),法院通過規(guī)則、程序?qū)ζ涑蓡T的職責(zé)和權(quán)限加以明確。法院還通過績效評價(jià)、量刑指引、類案檢索、監(jiān)督懲戒等審判管理機(jī)制對法官審判工作進(jìn)行規(guī)范、激勵和約束。


對法院組織的信任,歸根到底在于對其相關(guān)制度規(guī)則的信任。相較于人格信任,人們之所以會對抽象系統(tǒng)產(chǎn)生信任,主要原因不在于隸屬于該系統(tǒng)之個體的品質(zhì)或動機(jī),而在于對制度、規(guī)范、機(jī)制或原理的信任。對組織系統(tǒng)的信任具有去人格化的特點(diǎn),不能還原為對組織中個體成員的信任。法院不是法官個體的簡單、機(jī)械地聚合,而是通過一種系統(tǒng)、有序的方式加以有機(jī)整合,從而形成一個整體性的抽象系統(tǒng)。法院通過機(jī)制設(shè)計(jì)、職業(yè)倫理、問責(zé)機(jī)制等一系列手段對法官個體的行為進(jìn)行約束,從而保障審判活動在整體上是可信的。誠然,法院贏得公眾信任的途徑并不僅限于制度建設(shè),還包括樹立模范法官、普法宣傳、媒體報(bào)道等其他方式。但不可否認(rèn),制度信任構(gòu)成了法院組織系統(tǒng)的信任內(nèi)核。尤其在法治社會背景下,法院是對其他社會主體進(jìn)行監(jiān)督和強(qiáng)制的責(zé)任機(jī)構(gòu)agencies ofaccountability),對于守護(hù)契約精神、優(yōu)化營商環(huán)境、建立誠信社會具有基礎(chǔ)性的支撐意義。作為社會整體信任的基石,審判機(jī)關(guān)的系統(tǒng)信任必然要以法治精神為本色,以制度之治和規(guī)則之治為內(nèi)核。因此,對審判機(jī)關(guān)的系統(tǒng)信任進(jìn)行分析,就要深入到相關(guān)制度規(guī)則的設(shè)計(jì)原理和運(yùn)作邏輯之中,考察其能否在人機(jī)協(xié)同審判模式下繼續(xù)維系其制度信任。


(二)人機(jī)協(xié)同審判黑箱化與司法責(zé)任制


隨著人工智能技術(shù)在法院審判中的廣泛應(yīng)用,人機(jī)協(xié)同審判模式給法院組織的傳統(tǒng)制度結(jié)構(gòu)帶來了深刻挑戰(zhàn)。一方面,人工智能技術(shù)本身仍面臨機(jī)器幻覺、可解釋性差等問題;另一方面,人工智能對法院審判活動的介入,可能導(dǎo)致法院組織原本就不得不防范的潛在風(fēng)險(xiǎn),如偏見歧視、機(jī)械司法、官僚司法等,進(jìn)一步被加劇和放大。故此,如果無法打消人們對前述風(fēng)險(xiǎn)的擔(dān)憂,法院組織的制度信任將陷入危機(jī)之中。


法院制度信任所面臨的核心挑戰(zhàn)是,如何使外界信任人機(jī)協(xié)同審判這一具有黑箱色彩的決策過程。對黑箱的關(guān)注,主要濫觴于算法黑箱的相關(guān)研究。更廣泛意義上,黑箱這一隱喻強(qiáng)調(diào)決策過程的不透明性,因而不僅限于計(jì)算機(jī)技術(shù)領(lǐng)域。司法審判活動中,合議庭評議、審委會討論等環(huán)節(jié)并不對外示人,法官內(nèi)心的心證過程亦只有其本人能直接感知。就此而言,傳統(tǒng)司法過程本身帶有一定程度的決策黑箱色彩。正是借助制度、機(jī)制和程序來約束審判過程中的決策黑箱,法院組織的系統(tǒng)信任才得以建立起來。隨著人工智能介入法院審判,人機(jī)協(xié)同審判構(gòu)成一個區(qū)別于傳統(tǒng)審判的新型決策活動。雖然法官是最終的裁判者,但人工智能可以通過影響法官心證來間接影響審判結(jié)果。人機(jī)協(xié)同審判是算法黑箱人腦黑箱相互疊加形成的復(fù)雜決策過程。算法黑箱具有一定的穩(wěn)定性、連續(xù)性和普遍性,人腦黑箱則更具個別性、隨機(jī)性和不斷變化的特征。當(dāng)然,法官可通過釋明權(quán)、心證開示等手段解釋其決策過程,但真實(shí)的心證情況只有法官本人知曉。因此,如何約束法官與算法的互動過程,避免偏離親歷性、獨(dú)立性、判斷性等司法規(guī)律和原則,需要法院作出制度性的回應(yīng)。


面對上述信任挑戰(zhàn),法院主要通過重申司法責(zé)任制和法官主體地位予以回應(yīng)。司法責(zé)任制的內(nèi)涵可概括為讓審理者裁判,由裁判者負(fù)責(zé),旨在強(qiáng)調(diào)人類法官的權(quán)責(zé)一致性。在人工智能時代,法院組織進(jìn)一步強(qiáng)化了審判人員的主體地位和司法責(zé)任——“人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責(zé)任最終由裁判者承擔(dān)。相比純粹的法官人格信任,司法責(zé)任制借助問責(zé)機(jī)制對辦案法官形成外部約束,督促辦案法官對算法輔助意見中的偏誤進(jìn)行糾正?;谶@一邏輯,實(shí)踐中的人機(jī)協(xié)同審判呈現(xiàn)兩大特點(diǎn):一是法官為主、機(jī)器為輔的內(nèi)部分工,二是法官在明、機(jī)器在暗的外部形態(tài)。關(guān)于法官與算法在個案中如何互動,目前在庭審公開、裁判文書等公開渠道中均無法覓得蹤跡。就外觀而言,人機(jī)協(xié)同審判與傳統(tǒng)審判活動之間似乎沒有變化。


相應(yīng)地,法院組織對人機(jī)協(xié)同審判的制度安排,是將人工智能消隱于法官主體性背后,使司法責(zé)任制作為維持法院制度信任的邏輯支點(diǎn)。這一制度安排背后的潛在邏輯是,在鞏固法官司法責(zé)任制的基礎(chǔ)上,法院目前的制度結(jié)構(gòu)足以吸收人機(jī)協(xié)同審判帶來的風(fēng)險(xiǎn)與不確定性。既然人機(jī)協(xié)同審判的最終裁判者仍是審判人員,則約束審判人員的傳統(tǒng)制度邏輯仍能繼續(xù)奏效,所以法院組織的制度信任理應(yīng)由此得以維系。然而,前述邏輯是否經(jīng)得起推敲,仍需進(jìn)一步結(jié)合人機(jī)協(xié)同審判的特點(diǎn)予以審視。


(三)預(yù)測性審判與法院組織的制度異化


司法人工智能的算法邏輯,概括來說是基于裁判文書數(shù)據(jù)來預(yù)測和模擬司法裁判。目前,主流的人工智能模型大多基于神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)進(jìn)行訓(xùn)練和預(yù)測。在訓(xùn)練數(shù)據(jù)方面,由于司法裁判文書的數(shù)據(jù)資源豐富,文本內(nèi)容結(jié)構(gòu)化、標(biāo)準(zhǔn)化程度較高,因而成為法律人工智能領(lǐng)域的主要數(shù)據(jù)來源。至于案件卷宗、合議庭討論等數(shù)據(jù),由于敏感程度高、質(zhì)量良莠不齊等原因,并未得到廣泛使用??梢哉f,司法人工智能本質(zhì)上是一種概率預(yù)測模型,其通過分析裁判文書中的判決概率趨勢,以生成輔助性審判建議。


司法人工智能具有的預(yù)測性審判特征,與強(qiáng)調(diào)親歷性、獨(dú)立性、判斷性的傳統(tǒng)司法原則存在沖突。作為審判輔助工具,人工智能的核心使命是基于歷史數(shù)據(jù)作出準(zhǔn)確的預(yù)測,而不是對結(jié)果是否公平正義進(jìn)行評價(jià)。這不禁使人聯(lián)想到霍姆斯所描繪的司法預(yù)測論:不在乎公理原則或規(guī)則演繹,只對法院的判決進(jìn)行預(yù)測。類似地,只要算法生成的結(jié)果被法官所采納,就意味著預(yù)測是準(zhǔn)確的。人工智能這種預(yù)測性審判的算法邏輯,難以實(shí)現(xiàn)基于情理法的利益衡量與價(jià)值判斷,因而可能會產(chǎn)生算法偏見、機(jī)械司法等弊端。誠然,傳統(tǒng)的司法審判活動也可能存在機(jī)械司法、司法官僚化等風(fēng)險(xiǎn)。經(jīng)由機(jī)器算法的數(shù)據(jù)挖掘與模式識別,相關(guān)風(fēng)險(xiǎn)可能進(jìn)一步擴(kuò)散和惡化。在極端情況下,司法審判甚至可能徹底淪為例行公事的走過場,人們對司法審判的信任將遭到嚴(yán)重破壞。


在預(yù)測性審判的影響下,人類法官對司法人工智能的態(tài)度可能從對抗邁向合謀。所謂人機(jī)合謀,是人機(jī)協(xié)同審判的一種極端形態(tài),人類法官對司法人工智能推送的建議一概予以采納。發(fā)生人機(jī)合謀時,機(jī)器輔助建議的采納率不斷攀升,法官對相關(guān)建議的偏離率不斷降低,法官審理結(jié)果與機(jī)器輔助建議將難分彼此。此時,法官在名義上仍是裁判者,事實(shí)上卻可能在盲目接受算法推送的建議。實(shí)際上,人機(jī)合謀的風(fēng)險(xiǎn)并非聳人聽聞。對司法人工智能而言,預(yù)測準(zhǔn)確性是評估其性能的核心指標(biāo),算法的更新迭代會自然篩選出采納率更高的模型。對辦案法官而言,機(jī)器輔助建議提供了新的觀察視點(diǎn),使其能對法官群體的審判行為進(jìn)行預(yù)測。由此,機(jī)器輔助建議可能在法官群體內(nèi)形成類似焦點(diǎn)博弈的效果。法官個體通過調(diào)整自身意圖或期望以匹配他人,最終使算法輸出的結(jié)果成為群體的共識選擇。


面對人機(jī)合謀的風(fēng)險(xiǎn),法院既有制度對法官的激勵約束可能會失效甚至異化。首先,采納機(jī)器輔助建議可以大幅提升法官單位時間內(nèi)的辦案數(shù)量,在案多人少背景下完成更多辦案指標(biāo)。以文書輔助生成功能為例,人工智能可以在幾秒鐘內(nèi)生成完成度頗高的判決書,點(diǎn)擊一鍵生成文書無疑對法官極具吸引力。如果法官拒絕采納機(jī)器輔助建議,就需要投入更多的時間和精力。其次,法官通過采納人工智能輔助建議,還能降低被司法問責(zé)的風(fēng)險(xiǎn)。既有司法責(zé)任制背景下,是否應(yīng)責(zé)的問題往往依賴法院在內(nèi)部開展調(diào)查認(rèn)定工作。法院內(nèi)部問責(zé)時以類案裁判的標(biāo)準(zhǔn)統(tǒng)一為指針,以對標(biāo)準(zhǔn)的偏離為風(fēng)險(xiǎn)。目前,偏離度預(yù)警已融入法官的日常工作內(nèi)容,并成為法院問責(zé)的重要線索。而隨著人工智能預(yù)測日益準(zhǔn)確,輔助建議將逐步成為標(biāo)準(zhǔn)答案,在無形中迫使辦案法官向其靠攏。因此,從法官個體視角而言,依賴機(jī)器輔助建議進(jìn)行判案,不但能緩解辦案壓力,還能避免因偏離預(yù)警而觸發(fā)問責(zé)。


綜上,法院組織尚未對人機(jī)協(xié)同審判作出完善的制度安排。現(xiàn)行制度未能充分考量預(yù)測性審判對法官激勵約束的影響,無法有效紓解算法邏輯與法院科層制疊加后可能引發(fā)的制度失靈風(fēng)險(xiǎn)。在人機(jī)協(xié)同審判的變革中,法院組織的制度信任已經(jīng)出現(xiàn)裂隙。


四、人工智能算法信任的局部補(bǔ)強(qiáng)

隨著人工智能對社會生活的不斷滲透,如何建立對人工智能技術(shù)本身的信任成為一項(xiàng)難題。作為一個垂直應(yīng)用場景,人工智能司法應(yīng)用同樣受到準(zhǔn)確性、可解釋性、可問責(zé)性等算法信任問題的困擾。相應(yīng)地,提升人工智能系統(tǒng)的可靠性,對審判信任的構(gòu)建具有積極意義。然而,算法信任主要聚焦于對技術(shù)系統(tǒng)的信任,難以涵蓋當(dāng)事人、法官以及人工智能在審判活動中的復(fù)雜互動過程,故而只能局部實(shí)現(xiàn)對人機(jī)協(xié)同審判的信任補(bǔ)強(qiáng)。


(一)人工智能算法信任的基本理念


在人機(jī)協(xié)同審判的語境下,算法信任即對法院所部署的人工智能審判輔助系統(tǒng)的信任。人工智能的技術(shù)初衷源于對人類智能的模擬,而隨著相關(guān)技術(shù)的不斷突破,關(guān)于人工智能的主體性探討亦未曾停歇。然而,對司法人工智能的算法信任本質(zhì)上是一種系統(tǒng)信任,而非人格信任。我國各級法院所采用的人工智能審判輔助系統(tǒng),是由多元化、異質(zhì)化算法模塊構(gòu)成的復(fù)雜信息系統(tǒng)。因此,司法人工智能應(yīng)被視為一種抽象的技術(shù)系統(tǒng),而非擬人化的道德行動體。相應(yīng)地,人工智能的算法信任是一種獨(dú)特的系統(tǒng)信任。


人工智能系統(tǒng)的準(zhǔn)確性、安全性和魯棒性等技術(shù)指標(biāo),構(gòu)成了算法信任的基本要求。值得注意的是,前述指標(biāo)并非專門針對人工智能系統(tǒng),而是在操作系統(tǒng)、數(shù)據(jù)庫、高性能計(jì)算等傳統(tǒng)信息系統(tǒng)中也同樣適用。首先,準(zhǔn)確性是人工智能贏得用戶信任的基本門檻。如果系統(tǒng)頻繁出現(xiàn)錯誤,用戶顯然難以對其產(chǎn)生信任。在司法實(shí)踐中,使用準(zhǔn)確性欠佳的機(jī)器算法不僅毫無意義,還可能干擾正常的決策流程。其次,安全性是算法信任的另一重要維度。一旦發(fā)生數(shù)據(jù)泄露、隱私侵犯等安全風(fēng)險(xiǎn)事件,可能會徹底摧毀用戶信任。在人工智能時代,隨著數(shù)據(jù)規(guī)模、模型復(fù)雜度的急劇提升,安全問題變得更加嚴(yán)峻,任何疏漏都可能引發(fā)廣泛的信任危機(jī)。最后,系統(tǒng)魯棒性是指技術(shù)系統(tǒng)面對不確定性、干擾或異常情況時仍保持平穩(wěn)運(yùn)行的能力。人工智能在實(shí)際生產(chǎn)環(huán)境中肯定會遇到與訓(xùn)練環(huán)境有所差異的場景,其在這些未知情況下的表現(xiàn)也會對算法信任帶來一定影響。由此可知,盡管人工智能在數(shù)據(jù)規(guī)模、模型復(fù)雜度等方面遠(yuǎn)超傳統(tǒng)信息系統(tǒng),但準(zhǔn)確性、安全性和魯棒性等技術(shù)指標(biāo)依然是影響算法信任的重要因素。


除上述指標(biāo)外,人工智能的可解釋性與可問責(zé)性問題近年來備受矚目。算法信任不僅關(guān)乎人工智能系統(tǒng)本身的技術(shù)可靠性,更與人們對技術(shù)的認(rèn)知理解及熟悉程度密切相關(guān)。借由海量數(shù)據(jù)與復(fù)雜模型的深度融合,人工智能系統(tǒng)展現(xiàn)出令人驚嘆的智能涌現(xiàn)能力,同時引發(fā)了其可能超越人類理解、脫離人類控制的深切憂慮。通過對機(jī)器算法的可解釋性與可問責(zé)性要求,可以在一定程度上實(shí)現(xiàn)對技術(shù)系統(tǒng)的透視與干預(yù),從而增強(qiáng)人們對人工智能的信任感。同時,借助可解釋性與可問責(zé)性,能夠構(gòu)建針對機(jī)器算法的制度約束,提升人們對算法系統(tǒng)的控制力。因此,可解釋性與可問責(zé)性成為探討人工智能算法信任問題的重要切入點(diǎn)。


(二)人工智能算法的可解釋性與可問責(zé)性


人工智能系統(tǒng)的可解釋性和可問責(zé)性,直接影響著算法信任的預(yù)期建立與維系。建立信任的前提是形成對系統(tǒng)決策行為的特定預(yù)期。可解釋性的價(jià)值在于幫助人們理解算法系統(tǒng)并形成穩(wěn)定的預(yù)期,而可問責(zé)性的意義在處理預(yù)期可能落空的情況時得到體現(xiàn)。具言之,當(dāng)算法系統(tǒng)能對其運(yùn)作過程提供清晰的解釋時,外部用戶就形成合理的預(yù)期,并逐步建立對輸出結(jié)果的信賴。而當(dāng)算法系統(tǒng)出現(xiàn)差錯偏誤時,可問責(zé)性有助于妥善處理、吸收由于預(yù)期落空而產(chǎn)生的不滿。


1.算法可解釋性

算法可解釋性是構(gòu)建和維系人工智能算法信任的重要基礎(chǔ)??山忉屝詮?qiáng)調(diào)人工智能系統(tǒng)能被人們所理解,使后者得以建立熟悉感和合理預(yù)期。算法規(guī)制的早期研究非常強(qiáng)調(diào)代碼公開。例如,勞倫斯·萊斯格認(rèn)為,既然在數(shù)字空間中代碼即是法律,就應(yīng)像公開法律文本一樣公開代碼。然而,對人工智能系統(tǒng)而言,問題并非簡單源于代碼被刻意隱蔽,而是由于模型算法的運(yùn)作邏輯和技術(shù)原理過于復(fù)雜。以DeepSeek、LLaMa等開源大模型為例,其源代碼已對外公開,但對代碼的靜態(tài)分析仍難以揭示出算法在具體應(yīng)用中的決策邏輯。再加上知識庫、調(diào)優(yōu)技術(shù)、提示工程等方面的差異,甚至同一模型在不同場景中的表現(xiàn)也可能大相徑庭。算法可解釋性并不要求代碼公開,而是聚焦于對算法運(yùn)作原理進(jìn)行描述,使其能被人們所理解。同時,算法可解釋性有助于從事實(shí)維度回溯模型開發(fā)和機(jī)器決策過程,從而為價(jià)值判斷、制度設(shè)計(jì)和責(zé)任判定提供依據(jù)。


由于人工智能系統(tǒng)的高度復(fù)雜性,算法可解釋性在技術(shù)實(shí)現(xiàn)上仍面臨一定挑戰(zhàn)。在人工智能的早期發(fā)展中,基于邏輯規(guī)則的專家知識模型曾風(fēng)靡一時。這類系統(tǒng)具有可解釋的知識庫和推理規(guī)則,但自我學(xué)習(xí)和泛化能力較弱。相比之下,目前廣泛流行的大語言模型展現(xiàn)出令人驚嘆的性能,但如何解釋其數(shù)以億計(jì)的參數(shù)的運(yùn)作原理,仍是實(shí)踐中的一大難題。人工智能并非對人類智能的簡單模仿,而是有其特殊的存儲和計(jì)算邏輯架構(gòu)。正如有學(xué)者指出的,可解釋性與模型性能之間存在緊張關(guān)系,過度追求算法可解釋性,有點(diǎn)像在強(qiáng)迫人工智能人為地愚蠢到我們可以理解它是如何得出結(jié)論的。因此,試圖以人類認(rèn)知尺度來解釋人工智能算法,其技術(shù)可行性上仍有待論證。


2.算法可問責(zé)性

算法的可問責(zé)性是鞏固算法信任的重要保障。如前所述,人工智能系統(tǒng)的可解釋性與性能表現(xiàn)存在潛在沖突,加上人類思維在認(rèn)知復(fù)雜性上的局限,可解釋性相關(guān)技術(shù)的研究仍面臨巨大挑戰(zhàn)。因此,借助事后的結(jié)果問責(zé)以擺脫對技術(shù)細(xì)節(jié)的糾纏,能在一定程度上緩解對可解釋性的需求。通過采取嚴(yán)格責(zé)任、強(qiáng)制保險(xiǎn)等制度規(guī)則,法律無需在技術(shù)泥淖掙扎就能實(shí)現(xiàn)事后問責(zé)。此外,可問責(zé)性還能用于推動可解釋性的落實(shí),敦促人工智能的系統(tǒng)研發(fā)者開發(fā)出可解釋性更高的算法模型。而當(dāng)研發(fā)者無法作出必要解釋時,則可能需要承擔(dān)相應(yīng)法律責(zé)任。


當(dāng)人工智能系統(tǒng)出現(xiàn)問題或未達(dá)預(yù)期時,可問責(zé)性能夠有效吸收風(fēng)險(xiǎn)和不確定性帶來的負(fù)面影響。算法可問責(zé)性的要求是,確保算法系統(tǒng)是負(fù)責(zé)任的、安全的,并建立相應(yīng)的審計(jì)、歸責(zé)和補(bǔ)救等機(jī)制。通過事后問責(zé),人工智能系統(tǒng)的研發(fā)者和使用者被要求對其行為負(fù)責(zé),從而促進(jìn)機(jī)器算法的迭代與優(yōu)化。以人機(jī)協(xié)同審判為例,在審判人員、算法系統(tǒng)、技術(shù)服務(wù)商的交互中,任何環(huán)節(jié)的問題都可能造成復(fù)雜的連鎖反應(yīng),加劇責(zé)任認(rèn)定和分配的難題。因此,在算法較為復(fù)雜時,基于可問責(zé)性的規(guī)制方式能倒逼系統(tǒng)研發(fā)者采取相關(guān)措施,避免因系統(tǒng)設(shè)計(jì)、使用過程中的疏忽或過錯而導(dǎo)致的不利后果。


(三)算法信任對審判信任的局部補(bǔ)強(qiáng)


建立人工智能的算法信任機(jī)制,對人機(jī)協(xié)同審判的信任構(gòu)建具有積極意義。準(zhǔn)確性、可解釋性、可問責(zé)性等評價(jià)指標(biāo)構(gòu)成可信人工智能的一般性要求,因而亦能適用于人機(jī)協(xié)同審判這一應(yīng)用場景?!蹲罡呷嗣穹ㄔ宏P(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》第6條要求,司法人工智能從研發(fā)到應(yīng)用全流程可解釋、可驗(yàn)證,確保運(yùn)行結(jié)果可預(yù)期、可追溯、可信賴,這與算法信任的相關(guān)理念不謀而合。


然而,算法信任主要著眼于人工智能系統(tǒng)本身,并非人機(jī)協(xié)同審判的互動過程,因而只能對審判信任發(fā)揮局部補(bǔ)強(qiáng)的作用。而一旦缺乏對人機(jī)協(xié)同過程的系統(tǒng)性剖析,則容易囿于主體與工具二元對立的思維定式,難以對法官與算法的具體互動形成約束。實(shí)際上,人工智能對司法審判的介入是間接性的,需要以辦案法官為媒介,通過影響法官的心證狀態(tài)從而影響審理結(jié)果。至于法官究竟如何使用人工智能,則超出了算法信任本身的討論范圍。諸如法官如何評估、怎樣取舍、是否采納機(jī)器輔助意見,以及機(jī)器輔助建議是否需要對外進(jìn)行披露,這些問題難以直接從算法信任的理論框架中找到答案。于是,人機(jī)協(xié)同審判在實(shí)踐中存在一種兩層皮現(xiàn)象:盡管人工智能的可解釋性、可問責(zé)性等問題在法院組織內(nèi)部頗受重視,但外部人仍無從知曉人工智能如何影響個案審理。


此外,過度強(qiáng)調(diào)對人工智能算法的信任,可能會對人格信任和制度信任產(chǎn)生沖擊。從信任主體的視角看,法官、制度和算法作為潛在信任對象,相互間有一定功能等價(jià)性。在司法人工智能首次亮相時,由于算法信任尚未建立,人們對法院和法官的信任度較高,后者拒絕或偏離機(jī)器建議的阻力也較小。隨著機(jī)器建議的采納率逐步提高,人們對算法的信任可能會逐步提升。如果社會上缺乏對法院、法官的充分信任,則很可能發(fā)生信任轉(zhuǎn)移現(xiàn)象,寄希望于讓看似更中立、客觀的人工智能來作出裁判。而隨著人們對“AI法官的熟悉度不斷提升,算法信任逐漸深入人心,審判信任可能會蛻變?yōu)樗惴ㄐ湃巍7ㄔ汉头ü僖坏┢x人工智能輔助建議,將面臨巨大非議,從而導(dǎo)致審判權(quán)的正常運(yùn)行受到干擾。不難發(fā)現(xiàn),前文所述的算法邏輯壓過司法邏輯的風(fēng)險(xiǎn)再次出現(xiàn)。只不過,向算法靠攏的壓力此時不來自法院組織而是來自社會大眾。


綜上,對算法信任的研究,觸及了人工智能系統(tǒng)的可信性,而不再想當(dāng)然地假定法官能糾正機(jī)器輔助建議的任何問題。然而,算法信任及其相關(guān)規(guī)制策略,仍處于人機(jī)分立、主客二元的靜態(tài)分析框架內(nèi),未能充分考慮法官與機(jī)器、法院組織與算法系統(tǒng)的動態(tài)協(xié)同過程。而人機(jī)協(xié)同審判的信任難題,不僅在于算法模型的技術(shù)復(fù)雜性,更在于人機(jī)協(xié)同互動的溝通復(fù)雜性。盡管算法信任有助于審判信任的構(gòu)建,其也只構(gòu)成解決方案的一個局部。因此,對審判信任的探討不能止步于算法信任。



五、基于溝通議論的整合式信任構(gòu)建

無論是對法官人格、法院制度,還是對人工智能算法的信任,都僅是審判信任的局部環(huán)節(jié),任何一種信任類型都無法單獨(dú)構(gòu)成人機(jī)協(xié)同審判的信任基石。關(guān)鍵在于,如何找到統(tǒng)合這些信任對象的紐帶,從而在整體上構(gòu)建起對人機(jī)協(xié)同審判的信任。要實(shí)現(xiàn)三種信任類型的整合,需聚焦于信任主體與信任對象的相互關(guān)系,通過法律溝通與議論,實(shí)現(xiàn)審判信任的動態(tài)構(gòu)建。


(一)信任構(gòu)建的溝通互動原理


人機(jī)協(xié)同審判的信任構(gòu)建,建立在多個信任對象相互支撐的整全性網(wǎng)絡(luò)上,不存在單一的信任基礎(chǔ)。在該信任網(wǎng)絡(luò)中,人格信任、制度信任以及算法信任均發(fā)揮著重要價(jià)值。不過,三者各自亦只構(gòu)成審判信任的一個局部,相互之間并不是簡單的線性遞進(jìn)關(guān)系,而是循環(huán)指涉的網(wǎng)狀關(guān)系。審判信任不能還原為單一信任類型,不存在阿基米德支點(diǎn)?;蛴杏^點(diǎn)認(rèn)為,既然審判信任不存在單一基礎(chǔ),將其建立在復(fù)合型信任基礎(chǔ)之上即可。難題恰恰在于,不同的信任類型如何統(tǒng)合為一個整體。在靜態(tài)觀察角度下,可以從審判信任中析出人格信任、制度信任以及算法信任等不同的信任類型。分別來看,亦可針對不同信任對象提出補(bǔ)強(qiáng)措施。然而,信任對象相互之間的裂隙仍會在相互指涉過程中不斷激蕩、放大,最終可能導(dǎo)致整個信任網(wǎng)絡(luò)的崩潰。因此,審判信任的構(gòu)建需要將人格信任、制度信任和算法信任整合為一個融貫的信任網(wǎng)絡(luò)。


統(tǒng)合人格信任、制度信任和算法信任的關(guān)鍵,在于推動信任主體與信任對象的溝通互動,實(shí)現(xiàn)三種信任的反思性整合。信任存在于信任主體與信任對象的交互關(guān)系之中。信任的構(gòu)建過程,不是靜態(tài)、孤立、單調(diào)線性的,而是動態(tài)、整體、循環(huán)往復(fù)的。經(jīng)由信任主體的審慎反思,原本相互割裂的人格信任、制度信任和算法信任相互調(diào)適與平衡,從而形成統(tǒng)合、融貫的信任(或不信任)評價(jià)。如果主體作出積極的信任判斷,就意味著其在反思的意義上對諸信任對象實(shí)現(xiàn)了整合;而如果選擇消極不信任,則意味著對局部環(huán)節(jié)有所疑慮,抑或認(rèn)為信任對象相互之間存在鴻溝和斷層。經(jīng)由動態(tài)持續(xù)的溝通互動,主體能對各個局部作出信任或不信任的判斷,并根據(jù)新的信息或經(jīng)驗(yàn)來調(diào)整總體上的信任程度。


通過溝通與互動,信任主體得以獲取信任對象的相關(guān)信息,從而對自身的信任態(tài)度進(jìn)行反思和校準(zhǔn)。在面對面的人際交往中,溝通互動對信任構(gòu)建的價(jià)值幾乎是不言自明的。一個一般的規(guī)律性似乎表明緊密、親近、熟悉敞開了相關(guān)信息的通道,也因此減少了操縱和欺騙的機(jī)會。而對法院組織、人工智能等抽象系統(tǒng)而言,他人難以從外部洞悉系統(tǒng)內(nèi)部細(xì)節(jié),所以可能因缺乏熟悉感而產(chǎn)生不信任。此時,信任主體與抽象系統(tǒng)之間的信任校準(zhǔn)trustcalibration)就尤為重要。開放、透明的信息獲取渠道,有利于建立起更加堅(jiān)固的信任基礎(chǔ)。通過溝通互動,方能超越盲信或悲觀,實(shí)現(xiàn)主體信任態(tài)度與對象可靠性相互對齊。


基于溝通互動的反思性整合機(jī)制,突出了信任主體在信任構(gòu)建過程中的積極功能。在數(shù)字時代,隨著社會復(fù)雜性的不斷提升,信任對象的運(yùn)作規(guī)律也持續(xù)演進(jìn)、變化。相應(yīng)地,人們需要對信息和知識進(jìn)行持續(xù)更新以形成信任判斷。信任的建立并非消極被動,而是具有積極、主動的面向。這種積極的信任機(jī)制,與傳統(tǒng)社會中凝固的信任形成鮮明對比,后者依賴于既定、靜態(tài)的社會結(jié)構(gòu)與規(guī)范。換句話說,信任構(gòu)建并非一勞永逸,而是一個具有協(xié)商性、開放性的持續(xù)過程。當(dāng)然,在信任初步建立后,信任主體未必會時刻對信任對象進(jìn)行審視和檢查。但在必要的時候,信任主體唯有通過與信任對象的溝通互動,才能對信任基礎(chǔ)是否堅(jiān)實(shí)進(jìn)行驗(yàn)證和評估。


綜上,信任應(yīng)當(dāng)回歸到信任主體與信任對象的溝通之中,實(shí)現(xiàn)對人格信任、制度信任和算法信任的統(tǒng)合。一旦脫離了作為信任主體的當(dāng)事人和社會大眾,再多的專家背書、制度設(shè)計(jì)以及標(biāo)準(zhǔn)發(fā)布也難免陷入自說自話的境地。普通人對司法審判進(jìn)行信任評估時,往往既不熟悉具體的承辦法官,也不了解法院組織的內(nèi)部復(fù)雜性,更不清楚人工智能系統(tǒng)的技術(shù)原理。盡管如此,人們?nèi)钥梢詮恼w性、融貫性的視角進(jìn)行綜合評估,在深思熟慮的基礎(chǔ)上形成對審判信任的總體判斷。


(二)審判程序的法律議論本質(zhì)


溝通互動對信任構(gòu)建具有重要價(jià)值,在司法審判領(lǐng)域尤其如此。由于審判程序具有公開、參與、中立、辯論等特點(diǎn),法庭空間被視為認(rèn)定事實(shí)、適用法律的最佳場合。從這個意義上說,審判程序歸根到底是一個法律議論的過程。在司法審判中,溝通互動體現(xiàn)為具有話語博弈特點(diǎn)的法律議論。法官在進(jìn)行審判時必須避免偏私,并充分聽取雙方意見。任何一方的主張無論本身多么正當(dāng)有理,都要允許相對方意見的存在。唯有各方意見得到充分議論,才能避免對待決事項(xiàng)輕率得出結(jié)論的傾向。


司法審判活動中,當(dāng)事人并非冷眼旁觀,而是通過參與法律程序來影響審理結(jié)果。根據(jù)正當(dāng)程序原則,與審判結(jié)果有利害關(guān)系的主體都有參與的權(quán)利,提出有利于自己的主張和證據(jù),同時反駁對方的觀點(diǎn)和證據(jù)。當(dāng)事人的程序參與是審判結(jié)果得以正當(dāng)化的重要理由:在不斷反駁和論證的話語技術(shù)競爭過程中,解決方案的多樣性會逐步淘汰減少,直到最后找出一個大家都承認(rèn)或者接受的正解,至少是唯一的判定答案。因此,司法審判程序的核心價(jià)值在于保證法律議論充分開展。當(dāng)事人經(jīng)由法庭上的互動溝通與交鋒論辯,直接參與判決結(jié)果的形成過程,并建立起對審理結(jié)果的信任。


對社會公眾而言,其對司法審判的信任也在很大程度上源自審判程序的議論功能。并非每個人都有親歷訴訟的經(jīng)驗(yàn),因此,公眾對審判信任的判斷具有一種間接議論色彩。在某種程度上,公眾將當(dāng)事人視為自身的代表,通過觀察后者在審判活動中的行動及其所受對待,形成對司法審判的信任判斷。在最理想的情況下,審判信任能達(dá)到一種勝敗皆服的狀況——即便是承受不利結(jié)果的當(dāng)事人,依然能在抽象公共人格意義上承認(rèn)該結(jié)果符合普遍的公平正義。因此,確保法律溝通議論的公正性、透明性和參與性,不僅對當(dāng)事人至關(guān)重要,也是贏得公眾信任的關(guān)鍵。


人機(jī)協(xié)同審判信任困境的癥結(jié)在于,司法審判中的溝通議論面臨著轉(zhuǎn)型困境。司法人工智能的引入,雖然提升了審判效率,但也可能導(dǎo)致法庭審判形式化,削弱司法過程的公開性和參與性。人工智能對司法審判活動的介入,在辦案法官與人工智能之間形成了一個傳統(tǒng)法庭之外的隔音空間。對法官如何使用算法缺乏明確的規(guī)則或標(biāo)準(zhǔn),會導(dǎo)致人機(jī)協(xié)同審判的黑箱化問題。算法具體介入哪些裁判環(huán)節(jié)、法官對算法建議的采納情況,這些信息均未對外予以披露。在此情況下,很難不使人產(chǎn)生懷疑:一切取決于法官與機(jī)器的私下互動,法庭上的面對面溝通已經(jīng)名存實(shí)亡。


(三)人工智能角色功能的重新定位


目前,人工智能審判輔助系統(tǒng)主要服務(wù)于辦案法官。通過將算法消隱于法官身后,法院保持了傳統(tǒng)審判活動的外觀。法官在明、機(jī)器在暗的互動模式,給審判信任帶來一系列的消極影響。然而,倘若直接披露法官與人工智能的交互內(nèi)容,這種穿透式方案雖然能約束法官對算法的過度依賴,卻可能損害司法審判的效率和權(quán)威性。例如,法官在庭審中利用算法查詢法條或類案時,若直接披露相關(guān)結(jié)果,無疑會對庭審節(jié)奏造成干擾。在裁判文書的制作過程中,亦不宜披露機(jī)器生成的參考意見。否則,若裁判文書與參考建議一致,則使人懷疑法院是否淪為橡皮圖章;若存在偏差,又難免引發(fā)對偏離原因的追問,削弱審判的終局性與權(quán)威性。因此,構(gòu)建符合人機(jī)協(xié)同審判特點(diǎn)的溝通議論機(jī)制,是一項(xiàng)富有挑戰(zhàn)性的任務(wù)。


為推動人機(jī)協(xié)同審判的溝通議論,應(yīng)當(dāng)對司法人工智能的角色功能進(jìn)行重新定位,將其從內(nèi)部辦案工具拓展為外部溝通工具。目前,各級法院在評估司法人工智能的運(yùn)用成效時,主要聚焦于辦案效率的提升。智能類案檢索、爭點(diǎn)梳理、裁判輔助建議等應(yīng)用大多以辦案法官為主要服務(wù)群體。應(yīng)當(dāng)逐步將相關(guān)應(yīng)用服務(wù)向當(dāng)事人、社會公眾等外部用戶開放,使其具備與法官相近的技術(shù)能力,利用人工智能技術(shù)進(jìn)行類案檢索、法條檢索及爭點(diǎn)梳理等操作。當(dāng)事人可對機(jī)器輔助建議的可靠性進(jìn)行評估,及時發(fā)現(xiàn)問題并提交反饋,幫助預(yù)防和糾正人工智能系統(tǒng)的偏誤。與此同時,法官仍可獨(dú)立使用算法進(jìn)行信息檢索、量刑輔助、文書撰寫等活動,而無須擔(dān)心時刻處于外界敞視之下。通過這種方式,人工智能不再是隱藏在法官背后的神秘黑箱,而是成為賦能各方開展溝通與討論的普惠工具,同時也避免了對法院審判權(quán)的過度干預(yù)。


隨著人工智能從幕后走向臺前,基于溝通議論的信任構(gòu)建過程將發(fā)揮作用,整合對法官、法院和算法的信任。當(dāng)事人和社會公眾通過與法官、法院及算法的互動,形成對人機(jī)協(xié)同審判的信任判斷,從而紓解人格信任、制度信任和算法信任的困境。首先,針對法官人格信任的想象斷裂問題,通過引入當(dāng)事人的深度參與,公眾可直接觀察和評估法官的行為,增強(qiáng)對其專業(yè)判斷力的信心。同時,法官的角色從單一決策者轉(zhuǎn)變?yōu)闇贤ㄒ龑?dǎo)者,有助于重塑公眾對法官的信任預(yù)期。其次,針對法院組織的制度信任問題,通過強(qiáng)化當(dāng)事人對法律議論的實(shí)質(zhì)性參與,可以推動法院在制度設(shè)計(jì)上更加透明與包容,降低辦案法官與人工智能之間人機(jī)合謀的風(fēng)險(xiǎn)。最后,通過重新定位人工智能在司法程序中的角色,將其從效率工具拓展為溝通工具,可加強(qiáng)局部算法信任與整體審判信任的互動。當(dāng)事人和公眾能更直觀地了解人工智能在審判場景中的功能定位和性能表現(xiàn),并對其輸出結(jié)果形成更清晰、準(zhǔn)確的信任評價(jià)。


(四)圍繞庭審的人機(jī)協(xié)同法律議論


法庭審判對法律議論具有不可替代的意義,是各方溝通互動的中心舞臺。平等對抗式的辯論原則促進(jìn)了事實(shí)和法律的深入探討,維護(hù)了司法審判的公平正義。因此,以下將結(jié)合庭審活動的相關(guān)階段,說明如何在人機(jī)協(xié)同審判中推動溝通議論的具體展開。


在庭前準(zhǔn)備階段,司法人工智能可為當(dāng)事人的庭審準(zhǔn)備提供服務(wù),并允許其對人工智能的偏誤進(jìn)行糾正。法院應(yīng)向當(dāng)事人提供法律法規(guī)、證據(jù)規(guī)則、類案檢索等方面的人工智能輔助建議,促進(jìn)當(dāng)事人與法官之間的能力平等與信息對稱。若當(dāng)事人及其代理人發(fā)現(xiàn)機(jī)器輔助建議中的偏誤,可及時提供糾正與反饋意見;甚至不妨鼓勵當(dāng)事人主動向法官提供類案檢索報(bào)告等輔助材料,形成與機(jī)器輔助建議的觀點(diǎn)競爭,促使法官實(shí)現(xiàn)兼聽則明。更進(jìn)一步,隨著相關(guān)技術(shù)日益成熟,可以探索由人工智能直接組織雙方進(jìn)行證據(jù)交換、爭點(diǎn)梳理等事務(wù)性工作。在庭前會議結(jié)束后,人工智能可基于案件信息生成輔助調(diào)解建議,并梳理雙方爭議焦點(diǎn)。庭前階段為當(dāng)事人提供了與人工智能的深入互動的機(jī)會,使其得以發(fā)現(xiàn)問題、及時反饋,并能夠?yàn)楹罄m(xù)庭審活動中的溝通議論預(yù)做準(zhǔn)備。


在庭審進(jìn)行過程中,人工智能應(yīng)實(shí)時梳理并展示訴訟雙方的爭議焦點(diǎn),促進(jìn)法律議論的實(shí)質(zhì)化開展。目前,語音識別技術(shù)已經(jīng)實(shí)現(xiàn)了對法庭辯論的如實(shí)記錄。在此基礎(chǔ)上,人工智能技術(shù)可以對法庭爭議焦點(diǎn)進(jìn)行動態(tài)梳理、歸類和可視化展示。通過對訴訟請求、要件事實(shí)、證明反駁等論證因素的協(xié)議化和代碼化,揭示原告與被告之間爭論點(diǎn)和妥協(xié)點(diǎn)的話語互動,促進(jìn)了雙方你來我往的對話溝通。庭審結(jié)束后,將機(jī)器生成的爭點(diǎn)清單連同庭審筆錄一并提供給當(dāng)事人,由后者進(jìn)行查閱。當(dāng)事人發(fā)現(xiàn)有遺漏或差錯的,可借此機(jī)會請求補(bǔ)正。值得注意的是,人類法官在法庭審判中仍具有主導(dǎo)意義。法官應(yīng)綜合運(yùn)用釋明義務(wù)、心證開示等溝通手段,在反思機(jī)器建議對心證影響的基礎(chǔ)上,及時向當(dāng)事人進(jìn)行提示,保障法律議論的充分展開。這不僅有助于保障庭審實(shí)質(zhì)化、避免裁判突襲,也為法官建立人格信任提供了重要契機(jī)。


在判決文書中,法官應(yīng)當(dāng)圍繞案件爭點(diǎn)釋法說理,并對與爭點(diǎn)結(jié)論密切相關(guān)的機(jī)器輔助建議進(jìn)行披露。此時并非披露機(jī)器算法的運(yùn)作邏輯,而是對其輸出結(jié)果進(jìn)行理由說明。例如,若法官裁判時將機(jī)器所薦類案作為對爭點(diǎn)得出結(jié)論的重要參考,則應(yīng)對案例的相關(guān)性進(jìn)行說明。對于涉及數(shù)值計(jì)算的內(nèi)容,如金額或刑期,法官應(yīng)當(dāng)披露人工智能所提供的基準(zhǔn)、公式、參數(shù)等相關(guān)要素。通過在裁判文書中對機(jī)器輔助建議進(jìn)行披露和解釋,可以增強(qiáng)判決的透明度和可信度,允許社會大眾對相關(guān)信息進(jìn)行檢驗(yàn)和甄別。因此,裁判文書是連接法院判決與公眾理解、法律進(jìn)步和社會反思之間的橋梁,對人機(jī)協(xié)同審判贏得公眾的信任和認(rèn)可具有重要意義。


綜上所述,當(dāng)事人與社會公眾通過與法官、法院及算法的互動,形成對人機(jī)協(xié)同審判的信任判斷,同時促進(jìn)法官人格信任、法院制度信任與人工智能算法信任的完善。辦案法官仍是人機(jī)協(xié)同審判的主導(dǎo)者,在庭審指揮、心證開示、釋法說理等活動中發(fā)揮核心作用。法院組織通過對外提供人工智能服務(wù)、保障當(dāng)事人程序參與,鞏固其制度信任基礎(chǔ)。人工智能作為促進(jìn)法律議論的溝通工具,從幕后走向臺前,由當(dāng)事人對人工智能進(jìn)行監(jiān)督與反饋,推動其在準(zhǔn)確性、公正性與可解釋性等方面的持續(xù)優(yōu)化。



六、結(jié)

在人工智能時代,審判信任的構(gòu)建和維系顯得尤為重要。信任存在于信任主體與信任對象的意向性關(guān)系之中,難免受到信任主體的個體知識和生活經(jīng)驗(yàn)之影響,從而呈現(xiàn)出復(fù)雜多變、因人而異的情形。法學(xué)研究者比較了解法律系統(tǒng)的內(nèi)部運(yùn)作,既可能建立起更加堅(jiān)固的信任,也可能認(rèn)識到更多風(fēng)險(xiǎn)和不確定性而難以建立足夠的信任。相比之下,社會大眾可能出于樸素的信任感而對司法審判產(chǎn)生信賴,或基于過往經(jīng)驗(yàn)、道聽途說以及社會輿論形成對審判的總體態(tài)度,而不會大費(fèi)周章地辨析信任到底奠基于何處。本文對人格信任、制度信任、算法信任進(jìn)行了批判性分析,揭示出審判信任的復(fù)雜性和多樣性,并在此基礎(chǔ)上試圖尋找信任得以建立和維系的堅(jiān)實(shí)根基。從短期而言,這些探討恐怕未必能直接影響大眾對人機(jī)協(xié)同審判的信任態(tài)度。但從長期來看,信任的構(gòu)建本就是一個動態(tài)、互動的漸進(jìn)過程。加強(qiáng)社會大眾、法院系統(tǒng)、算法系統(tǒng)之間的溝通議論,可以形成一個允許信任主體親身經(jīng)歷、仔細(xì)驗(yàn)證、審慎反思的信任構(gòu)建機(jī)制。誠然,這個過程無法一蹴而就,但在此基礎(chǔ)上所形成的審判信任,一旦建立起來便不會輕易動搖。




原文刊載于《中國法學(xué)》2025年第2期,感謝微信公眾號中國法學(xué)授權(quán)轉(zhuǎn)載。






运城市| 福鼎市| 琼中| 凌源市| 宣武区| 乐山市| 天柱县| 海淀区| 宁化县| 柘城县| 延津县| 调兵山市| 克什克腾旗| 磴口县| 易门县| 苍山县| 丁青县| 榕江县| 辰溪县| 黄浦区| 广州市| 濮阳市| 华池县| 宣威市| 宜兴市| 清流县| 麦盖提县| 旌德县| 富顺县| 安陆市| 天津市| 涿州市| 鄂州市| 明光市| 乌鲁木齐县| 景洪市| 瓮安县| 绵竹市| 阳城县| 临潭县| 大丰市|