【作者】康允德
【內(nèi)容提要】
目前在探索人工智能與法律之間的關(guān)系方面,有兩種截然不同的觀點(diǎn)。一種是研究法律應(yīng)該如何應(yīng)對(duì)人工智能的開(kāi)發(fā)以及其在特定社會(huì)領(lǐng)域中的應(yīng)用。當(dāng)今人工智能在醫(yī)療、經(jīng)濟(jì)、政治進(jìn)程、軍事、監(jiān)控、金融技術(shù)以及其他眾多領(lǐng)域的出現(xiàn),已足以顯示人工智能給法律帶來(lái)的希望和擔(dān)憂并引發(fā)討論。另一種是研究人工智能如何影響法律,如何將其應(yīng)用于或可能應(yīng)用于法律程序。
一、什么是人工智能?
談及人工智能在法律程序中的作用,面對(duì)的第一個(gè)問(wèn)題是:什么是人工智能?根據(jù)一個(gè)著名但又有爭(zhēng)議的區(qū)分,人工智能可分為弱形式和強(qiáng)形式。在弱形式中,計(jì)算機(jī)程序是強(qiáng)大的工具,我們可以依賴其以更嚴(yán)格更精確的方式來(lái)形成并驗(yàn)證假設(shè)。在強(qiáng)形式中,對(duì)計(jì)算機(jī)進(jìn)行適當(dāng)?shù)鼐幊炭墒蛊渚邆渑c人類思維相同的認(rèn)知能力,因此得以真正智能地運(yùn)作。簡(jiǎn)而言之,弱人工智能是人類代理的工具,強(qiáng)人工智能是與人類代理處于同一層面的主體。John Searle 于1980 年引入了強(qiáng)人工智能和弱人工智能的區(qū)別,并用它來(lái)論證強(qiáng)人工智能的不可能性。
區(qū)別工具和主體有助于構(gòu)建人工智能與法律之間的關(guān)系。首先,這種區(qū)別有助于闡明迄今為止法律和人工智能之間的故事。法律程序中使用人工智能的想法始于 20世紀(jì)70年代的法律專家系統(tǒng)。這一想法的基礎(chǔ)是擁有一個(gè)可以自行解決用戶問(wèn)題的計(jì)算機(jī)程序。因此,這些努力的目的是安裝計(jì)算機(jī)程序作為解決法律問(wèn)題的主體。法律專家系統(tǒng)在某種程度上實(shí)現(xiàn)了這一目標(biāo),直至今日有些系統(tǒng)依然保持運(yùn)行。然而,建造具備人類法律專家水平的強(qiáng)法律人工智能的目標(biāo)顯然還未能實(shí)現(xiàn)。鑒于對(duì)人工智能研究離生產(chǎn)通用人工智能這一目標(biāo)還很遙遠(yuǎn),這種情況并不令人意外。
二、法律人工智能工具及應(yīng)用的研究領(lǐng)域
目前對(duì)法律和人工智能的研究而言,更重要的是了解其表現(xiàn)出不同的趨勢(shì),其核心關(guān)注點(diǎn)并非是設(shè)計(jì)一個(gè)可以模擬法律專家的專家系統(tǒng)。當(dāng)前的研究范式是設(shè)計(jì)人類代理能夠在法律程序中使用的工具。這并未解決一些法律人工智能工具可作為智能工具運(yùn)行因而被視為等同于人類代理的爭(zhēng)議,也未能明確人工智能工具是否可以在某個(gè)時(shí)候與人類法律專家相提并論,也未能對(duì)我們是否應(yīng)該為實(shí)現(xiàn)這個(gè)目標(biāo)而努力的問(wèn)題做出回答。人工智能作為人類法律代理的工具只是標(biāo)志著事態(tài)的發(fā)展。那么,現(xiàn)今有哪些法律人工智能工具可用并能夠?qū)嵤└唧w的工作呢?
一個(gè)重要的研究領(lǐng)域是法律文本分析。因此,需要生產(chǎn)用于從法律文本中檢索信息的計(jì)算機(jī)工具。檢索的信息可能是對(duì)法律概念的使用或某種論證模式。可供選擇的法律文本包括成文法、判例法、學(xué)術(shù)評(píng)論和期刊論文以及立法材料等。研究人員試圖從中提取特定法律信息的文本被排列在語(yǔ)料庫(kù)中并手動(dòng)注釋,以便機(jī)器學(xué)習(xí)。結(jié)果是出現(xiàn)一個(gè)可搜索的法律文本數(shù)據(jù)庫(kù),例如,人們可以用它來(lái)搜索“員工”這一概念會(huì)在哪些語(yǔ)境中出現(xiàn)。分析法定概念的使用語(yǔ)境有助于深入了解手頭的案例中對(duì)這一概念的闡釋。目前,這種語(yǔ)料庫(kù)分析為探究某一法律相關(guān)術(shù)語(yǔ)的實(shí)際使用提供了有用的工具。然而,它并沒(méi)有解決如何理解一個(gè)術(shù)語(yǔ)的規(guī)范性問(wèn)題。在分析論證模式或論證挖掘方面也鮮有作用。其困難與自然語(yǔ)言處理的上下文和語(yǔ)義方面的一般問(wèn)題類似:在一個(gè)和數(shù)個(gè)法律文件中,計(jì)算機(jī)在提取語(yǔ)義內(nèi)容和判斷其相關(guān)性方面仍然存在極大的局限性。
另一個(gè)重要的前沿研究是用計(jì)算機(jī)代碼進(jìn)行法律推理的建模。這是法律專家系統(tǒng)的起源。早期的模型試圖將權(quán)威的法律文本壓縮入形式邏輯的算法中。但在當(dāng)時(shí)已經(jīng)發(fā)現(xiàn),人們也需要對(duì)類比推理進(jìn)行建模,特別是對(duì)于分析判例法。今天,各種法律推理的計(jì)算模型的出現(xiàn),為法定推理和基于判例的推理建立了模型,它們也被用在類比推理甚至政策論證推理中。一些模型可建構(gòu)模擬法律辯論中的正反觀點(diǎn)并預(yù)測(cè)法律案件的結(jié)果。
三、法律人工智能工具的利弊
在當(dāng)前創(chuàng)建法律人工智能工具以支持人類代理的范式中,其目的是將檢索法律信息的工具與法律推理的計(jì)算機(jī)模型結(jié)合在同一個(gè)計(jì)算機(jī)應(yīng)用程序中。這些法律應(yīng)用程序?qū)⒆鳛榉蓪<已芯吭V訟策略、普通民眾判斷其法律立場(chǎng)、法律學(xué)者驗(yàn)證其假設(shè)在某一法律領(lǐng)域中的作用的陪練伙伴,并在未來(lái)發(fā)展為立法者檢驗(yàn)其立法草案的邏輯性和術(shù)語(yǔ)一致性。 即使仍然存在許多技術(shù)困難,但也充滿著希望。
然而,在某些方面,法律人工智能的前景并不明朗。首先,人們沒(méi)有理由相信對(duì)這些新人工智能工具的編程過(guò)程是在脫離了世俗利益而在純粹科學(xué)精神的背景下進(jìn)行的。對(duì)于政治上特別有爭(zhēng)議的法律領(lǐng)域,例如勞動(dòng)法,通常存在分別代表雇主和雇員利益的律師事務(wù)所,那么對(duì)勞動(dòng)法的法律闡釋是否因此會(huì)偏向于一方或另一方的觀點(diǎn)呢?在這種背景下,為什么我們會(huì)認(rèn)為雇傭法的法律應(yīng)用程序就不會(huì)具有偏袒性呢?簡(jiǎn)而言之,我們不能認(rèn)為法律應(yīng)用程序是中立、公正的技術(shù)產(chǎn)品。
即便如此,一款能夠預(yù)測(cè)法院將如何裁決爭(zhēng)議的法律應(yīng)用程序可以給一方帶來(lái)法律和科學(xué)權(quán)威的光環(huán),使其在庭外和解談判中謀取利益,尤其是當(dāng)另一方缺乏經(jīng)驗(yàn)的時(shí)候。人們已經(jīng)遇到了這種情況:我們已經(jīng)用最常用、最先進(jìn)的法律軟件模擬了法庭訴訟程序,您最好接受我們的提議,不必去冒承擔(dān)訟訴費(fèi)的風(fēng)險(xiǎn)。
四、應(yīng)用法律人工智能工具處理法律問(wèn)題面臨的挑戰(zhàn)
隨著這些人工智能工具變得越來(lái)越智能,我們能夠?qū)⒎赏评斫唤o人工智能工具,讓它們成為子代理,或在某種情況下,成為法律程序的代理嗎?如果沒(méi)有法理學(xué)的基礎(chǔ)知識(shí),就無(wú)法有意義地處理這些經(jīng)驗(yàn)和規(guī)范問(wèn)題。
無(wú)論計(jì)算機(jī)科學(xué)的技術(shù)如何進(jìn)步,法律始終都是一個(gè)規(guī)范領(lǐng)域。但法律不僅僅是處理過(guò)去的數(shù)據(jù)以此來(lái)解決當(dāng)前的問(wèn)題,其對(duì)未來(lái)的影響在當(dāng)前的法律程序中以兩種關(guān)鍵方式體現(xiàn)出來(lái):首先,如果當(dāng)前沒(méi)有足夠可借鑒的內(nèi)容,對(duì)手頭案件的裁決需要考慮對(duì)未來(lái)的法律會(huì)有什么影響。其次,原則上,未來(lái)的不確定性也為現(xiàn)有法律規(guī)則無(wú)法解決的手頭案件帶來(lái)了可能性。實(shí)際上,法律的問(wèn)題是由新的事實(shí)情況帶來(lái)的,而并非是由不明確的法律規(guī)則引起的。
因此,要讓法律人工智能代替人去處理法律問(wèn)題,就必須在技術(shù)上模擬規(guī)范的法律推理。換句話說(shuō):法律人工智能不僅要能解釋如何解決某個(gè)法律問(wèn)題,還要能就如何解決某個(gè)法律問(wèn)題進(jìn)行論證。鑒于人工智能技術(shù)的現(xiàn)狀以及在過(guò)去幾十年中經(jīng)歷的發(fā)展,計(jì)算機(jī)能夠有效地進(jìn)行規(guī)范性推理并非不可想象。然而,關(guān)鍵問(wèn)題并非是技術(shù)的可行性問(wèn)題,而是如果將法律問(wèn)題的規(guī)范性推理托付給計(jì)算機(jī),那么人類會(huì)失去什么。
對(duì)此,有兩種截然不同的極端立場(chǎng)。一種擔(dān)心法律喪失獨(dú)特性,并認(rèn)為法律規(guī)則可能會(huì)被計(jì)算機(jī)規(guī)則所取代。另一種則同維森鮑姆一樣認(rèn)為僅僅考慮是否讓計(jì)算機(jī)成為法律判決的代理或子代理都是“可憎的”。簡(jiǎn)而言之:我們需要的論證并非是科幻小說(shuō),而是涉及到更具體的倫理問(wèn)題。這又需要一些更普遍的法理學(xué)和哲學(xué)知識(shí)。
這些問(wèn)題的解決需要這樣一種洞察力,即法律體系不僅僅是一臺(tái)將律師作為其組成部分的機(jī)器。相反,法律反映了一個(gè)社區(qū)或社會(huì)的生活形式。其反映了人類如何與他人共處以及當(dāng)他們對(duì)公正的含義產(chǎn)生分歧的時(shí)候是如何用更文明方式去解決的社會(huì)行為。因此,這種對(duì)法律的理解,也適用于法律實(shí)證主義者,對(duì)法律的推理意味著一種能力:它需要常識(shí)來(lái)理解人類生活的意義。這種能力必須通過(guò)訓(xùn)練并得到重視——這就是為什么我們不僅應(yīng)該關(guān)注法律教育和職業(yè)狀況,還應(yīng)該關(guān)心公眾如何看待他們以及公眾的體驗(yàn)。
那么,人工智能可以復(fù)制這種能力嗎? 撇開(kāi)人工智能在技術(shù)上還不能復(fù)制人類的常識(shí)、情感和智慧的事實(shí),原則上計(jì)算機(jī)不具備人類的條件。 他們不像我們那樣會(huì)瀕臨死亡和經(jīng)受苦痛。即使進(jìn)化的人工智能系統(tǒng)也是如此,與人類不同,它們不會(huì)經(jīng)歷一個(gè)有限的社會(huì)化的過(guò)程。 這種人類特殊性就是為何法律程序保持根植于人類社會(huì)的重要原因。 即使現(xiàn)代法律已經(jīng)具有超出人類個(gè)體控制的社會(huì)屬性,但這并不意味著我們應(yīng)該將人類對(duì)法律的推理完全交由機(jī)器并希望它們做得更好。
因此,當(dāng)涉及到法院時(shí),法治需要人類的反向傳播。 即使我愿意考慮人工智能代理在標(biāo)準(zhǔn)案例中提供法律解釋,并在需要法律論證的情況下作為我們的陪練伙伴,但這些人工智能代理最終仍然是具有透明性、可靠性和安全性技術(shù)標(biāo)準(zhǔn)的工具,并經(jīng)得起法律的質(zhì)疑。