亚洲一线产区二线产区区别在哪,亚洲AV永久无码精品,久久精品国产精品国产精品污,亚洲精品亚洲人成年,青青草视频在线观看综合网,亚洲国产色欲AV一区二区三区在线,亚洲美乳字幕日韩无线码高清专区

當(dāng)前位置:首頁 > 文獻(xiàn)資源 > 研究報告
文獻(xiàn)資源
鄭戈 | 人工智能與法律的未來再思考
2023年09月11日 【作者】鄭戈 預(yù)覽:

【作者】鄭戈

【內(nèi)容提要】


人工智能與法律的未來再思考

 

 

鄭戈 上海交通大學(xué)凱原法學(xué)院教授、上海交通大學(xué)中國法與社會研究院企劃委員會主任

 

 

 

 

摘要:人工智能通常被想象為替代人類的技術(shù),在法律領(lǐng)域,機(jī)器人法官、機(jī)器人律師往往引發(fā)人們的擔(dān)憂,尤其是生成式人工智能的突破性發(fā)展造成了新一輪“機(jī)器取代人”焦慮。但人機(jī)共生和人機(jī)交互才是現(xiàn)在和未來的普遍現(xiàn)象。從人機(jī)交互入手,圍繞“人在回路”原則來發(fā)展相關(guān)規(guī)則,才能對人工智能的風(fēng)險和實(shí)際損害進(jìn)行有效防控和救濟(jì),并充分利用技術(shù)來輔助和強(qiáng)化包括法律工作在內(nèi)的人類工作,使人工智能服務(wù)于增益人類福祉的目的。

 



人工智能已經(jīng)成為我們所處時代的通用技術(shù)。所謂通用技術(shù),是指其用途不止限于一個特定領(lǐng)域,而是可以被用到多個領(lǐng)域(包括人類尚未想到的領(lǐng)域)的技術(shù)。這種技術(shù)必定會影響和改變包括生產(chǎn)關(guān)系在內(nèi)的社會關(guān)系,而社會關(guān)系的改變又會帶來法律關(guān)系上的變化,這種變化中有些可以通過現(xiàn)有法律規(guī)則的解釋和續(xù)造來吸納,有些則需要立法層面的創(chuàng)新。同時,正如電力、通訊和先前的計(jì)算機(jī)技術(shù)一樣,作為通用技術(shù)的人工智能也正在改變法律職業(yè)自身的工作形態(tài)?,F(xiàn)有的討論大多聚焦于“替代”,即人工智能會不會替代律師、公司法務(wù)和法官、檢察官的工作。但現(xiàn)實(shí)和可預(yù)見的未來的普遍情況是“輔助”“賦能”和“強(qiáng)化”。無論是思考如何用法律規(guī)范人工智能技術(shù)的應(yīng)用和發(fā)展(算法的法律),還是討論如何用人工智能賦能法律的制定、解釋和實(shí)施(法律的算法),我們所要面對的一個基本事實(shí)都是數(shù)字化社會中普遍存在的人機(jī)交互現(xiàn)象。一方面,法律需要在人機(jī)交互場景中保護(hù)人的尊嚴(yán)和權(quán)利,防止各種小程序和電商平臺過度采集和濫用個人信息,在算法操縱的線上世界支持人的主體性;另一方面,法律自身的運(yùn)行場景也日益數(shù)字化和智能化,人機(jī)交互成為法律人日常工作的基本特征。智慧立法、智慧政務(wù)、智慧法院、智慧檢務(wù)、智慧公安等概念中的“智慧”都不是指人類智慧,而是指人工智能??梢哉f,人機(jī)交互是當(dāng)下乃至可預(yù)見的未來法律工作的主要形態(tài);人工智能不會取代法律人,但會改變法律人的工作方式;機(jī)器不會替代人,但會使用機(jī)器的人將取代不會使用機(jī)器的人;利用技術(shù)強(qiáng)化自己的專業(yè)能力,對法律人而言十分重要。

 

本文以人機(jī)交互這一數(shù)字社會的普遍現(xiàn)象作為切入點(diǎn),分析在算法的法律和法律的算法兩個維度上如何通過適當(dāng)?shù)囊?guī)則和制度設(shè)計(jì)來發(fā)展以人為本的人工智能(Humancentered AI),從而使技術(shù)服務(wù)于人類的美善生活。

 

一、人工智能的概念和類型

 

從人工智能的概念入手是為了凸顯出本文的基本線索,即人機(jī)交互和以人為本的人工智能設(shè)計(jì)原則。人工智能并沒有統(tǒng)一的定義。軟件工程師群體中流行一個笑話:“人工智能是指計(jì)算機(jī)現(xiàn)在還做不到的事情。如果它做到了,我們就不叫它人工智能,而叫計(jì)算機(jī)科學(xué)?!边@個笑話其實(shí)透露出一個非常專業(yè)的判斷:人工智能實(shí)際上就是我們過去一直稱之為計(jì)算機(jī)科學(xué)的那個專業(yè),它是該專業(yè)的前沿部分,旨在突破現(xiàn)有的邊界,讓計(jì)算機(jī)能夠做之前做不到的事情。人工智能領(lǐng)域的一部影響力廣泛的教材總結(jié)了四種定義人工智能的方式:像人一樣思考的機(jī)器;像人一樣行動的機(jī)器;理性思考的機(jī)器;理性行動的機(jī)器。這種分類基本上能夠概括目前常見的人工智能定義(見表1)。


1

人工智能的定義

定義方式

具體內(nèi)容

像人一樣思考

人工智能是將我們通常認(rèn)為只有通過人類思維才能完成的任務(wù)(比如,決策、解決問題及學(xué)習(xí))加以自動化的技術(shù)

理性地思考

人工智能是研究如何通過計(jì)算模型設(shè)計(jì)使計(jì)算機(jī)能夠感知、思維和行動的一門學(xué)科

像人一樣行動

人工智能是研究如何制造機(jī)器來實(shí)現(xiàn)人類需要動用腦力才能掌握的功能的學(xué)問

理性地行動

人工智能是研究如何讓人造物作出智能行為的學(xué)科

 

人工智能這一概念最早出現(xiàn)于達(dá)特茅斯會議的企劃書中。19558月,數(shù)學(xué)家約翰·麥卡錫、計(jì)算機(jī)與認(rèn)知科學(xué)家馬文·明斯基、IBM系統(tǒng)設(shè)計(jì)師納薩尼爾·羅切斯特和信息論創(chuàng)始人克勞德·香農(nóng)在一起商議次年舉辦一次暑期研討班。研討班的主旨在會議策劃書中得到明確表述:“我們提議1956年暑期在新罕布什爾州漢諾威城的達(dá)特茅斯學(xué)院舉辦一場為期兩月、十人參加的研討會。本次研討會將以這樣一個猜想為基礎(chǔ)而展開:學(xué)習(xí)的每一環(huán)節(jié)及智力的其他方面原則上都可以得到如此準(zhǔn)確的描述,以至我們可以制造出一臺機(jī)器對其進(jìn)行模擬。我們將嘗試發(fā)現(xiàn)如何讓機(jī)器使用語言、提出抽象命題和概念、解決某些目前留給人類去解決的難題及實(shí)現(xiàn)自我改進(jìn)。我們認(rèn)為,只要一群經(jīng)過精挑細(xì)選的科學(xué)家在一起工作一個夏天,我們在這些方面就可以取得一項(xiàng)或多項(xiàng)重大進(jìn)展?!痹跁h邀請函中,“人工智能”(Artificial Intelligence)這一概念正式誕生。由此可見,人工智能從一開始就是一群志同道合的科學(xué)家和工程師有意追求的事業(yè),其目的是讓機(jī)器能夠?qū)W習(xí)并完成人類需要運(yùn)用智能來完成的任務(wù),是對傳統(tǒng)編程模式的革新。人工智能的核心技術(shù)是機(jī)器學(xué)習(xí),其商業(yè)應(yīng)用被稱為預(yù)測性分析(predictive analytics)。但這一事業(yè)并非一帆風(fēng)順,中間經(jīng)歷了數(shù)次“寒冬”,直到最近幾年才開始得到小圈子之外的普羅大眾的關(guān)注,并被認(rèn)為是“第四次工業(yè)革命”的核心技術(shù),具有徹底改變?nèi)祟惿嫣幘车臐撡|(zhì)。

 

造成人工智能這座蟄伏已久的火山突然噴發(fā)的原因是經(jīng)濟(jì)形態(tài)和技術(shù)雙重變革的合力。一方面,互聯(lián)網(wǎng)平臺經(jīng)濟(jì)成為當(dāng)代經(jīng)濟(jì)的主流,谷歌、百度、亞馬遜、阿里巴巴、臉書、騰訊已經(jīng)取代通用電氣等制造業(yè)巨頭成為新時代的商業(yè)霸主,大量的交易在線上而不是線下完成。從可穿戴設(shè)備到家用電器都已智能化和聯(lián)網(wǎng)化,使互聯(lián)網(wǎng)升格為物聯(lián)網(wǎng),人們的線上和線下生活日漸融為一體,越來越多的人成為傳感器測量和監(jiān)督下的“量化自我”,每時每刻都生成著大量可供分析和產(chǎn)品化的數(shù)據(jù),成為“泛在計(jì)算”(pervasive computingubiquitous computing)的追蹤和分析對象。另一方面,英特爾創(chuàng)始人之一戈登·摩爾所提出的“集成電路上可容納的晶體管數(shù)量每1824個月就會翻倍”這一定律不僅應(yīng)驗(yàn)了,而且在計(jì)算機(jī)算力和存儲能力方面都得到體現(xiàn),使得海量數(shù)據(jù)得以低成本存儲處理,為機(jī)器學(xué)習(xí)提供了豐富的資源。大數(shù)據(jù)是人工智能的燃料,應(yīng)用編程界面(API)是人工智能的引擎,再加上商業(yè)應(yīng)用的巨大獲利機(jī)會,共同推動著人工智能的蓬勃發(fā)展。

 

與以往的“非智能”工具相比,人工智能技術(shù)的最大特點(diǎn)在于它的“學(xué)習(xí)”能力。學(xué)習(xí)在這里有著特殊的含義,用人工智能技術(shù)的理論奠基者之一、圖靈獎和諾貝爾經(jīng)濟(jì)學(xué)獎得主司馬賀的話來說:“學(xué)習(xí)是一個系統(tǒng)中的任何導(dǎo)致該系統(tǒng)適應(yīng)環(huán)境的能力發(fā)生或大或小的永久改變的變化?!比斯ぶ悄軐W(xué)習(xí)的素材是人類的行為數(shù)據(jù)和文本、音視頻等內(nèi)容數(shù)據(jù),通過學(xué)習(xí),它能夠分析和預(yù)測人類行為(分析式人工智能),也能夠生成新的內(nèi)容(生成式人工智能)。也就是說,它能夠在與人類進(jìn)行交互的過程中提升自己的能力,能夠發(fā)現(xiàn)海量人類行為數(shù)據(jù)和內(nèi)容數(shù)據(jù)中潛藏的范式和規(guī)律,并基于此來誘導(dǎo)人類行為,生成讓人會誤以為是人類創(chuàng)作的內(nèi)容。這種“活的”或“智能化”的工具是人類以往沒有使用過的,也使得人機(jī)交互變成了真正的“互動”。也正是因?yàn)樗倪@個特點(diǎn),從人機(jī)交互的界面設(shè)計(jì)、過程治理和結(jié)果控制入手來規(guī)制人工智能技術(shù)的應(yīng)用變得十分重要。遺憾的是,現(xiàn)有的涉及包括人工智能在內(nèi)的數(shù)字科技的法律規(guī)則仍然是將人和物(工具)分開來進(jìn)行考量,一部分規(guī)則從技術(shù)對人的影響入手,側(cè)重保護(hù)人的權(quán)利(比如,隱私權(quán)和個人信息權(quán)益);另一部分強(qiáng)調(diào)人對技術(shù)的控制(平臺責(zé)任中的專人負(fù)責(zé)規(guī)則),而缺乏對人機(jī)交互作為一種系統(tǒng)性存在的考量和規(guī)制。

 

人工智能技術(shù)及其商業(yè)應(yīng)用涉及算力、算法和數(shù)據(jù)三大要素,分別對應(yīng)于網(wǎng)絡(luò)架構(gòu)中的物理層、邏輯層(或軟件層)和內(nèi)容層。我國目前已經(jīng)制定了針對每一要素的法律規(guī)范。比如,針對算力的《網(wǎng)絡(luò)安全法》和《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)條例》,針對算法的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》和正在起草的《生成式人工智能服務(wù)管理辦法》,針對數(shù)據(jù)(內(nèi)容)的《民法典》人格權(quán)編相關(guān)條款、《個人信息保護(hù)法》《數(shù)據(jù)安全法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等。其中只有《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》超越了“人—物”二分的思維框架,從生態(tài)和架構(gòu)的角度入手,對人機(jī)交互界面的設(shè)計(jì)提出了要求。比如,其第9條規(guī)定:“網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺應(yīng)當(dāng)建立網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理機(jī)制,制定本平臺網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理細(xì)則,健全用戶注冊、賬號管理、信息發(fā)布審核、跟帖評論審核、版面頁面生態(tài)管理、實(shí)時巡查、應(yīng)急處置和網(wǎng)絡(luò)謠言、黑色產(chǎn)業(yè)鏈信息處置等制度?!?/span>

 

對現(xiàn)有的規(guī)范性文件進(jìn)行梳理,我們可以發(fā)現(xiàn),從人工智能的概念到人工智能(機(jī)器學(xué)習(xí)算法)的類型都已經(jīng)有了相對明確的法律界定(見表2)。


2

人工智能的法律定義和分類

 


人工智能定義

人工智能算法分類

及其定義

1.人工智能,是指利用計(jì)算機(jī)或者計(jì)算機(jī)控制的機(jī)器模擬、延伸和擴(kuò)展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)(《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》)

 

2.人工智能,是指利用計(jì)算機(jī)或者其控制的設(shè)備,通過感知環(huán)境、獲取知識、推導(dǎo)演繹等方法,對人類智能的模擬、延伸或者擴(kuò)展(《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》)

 

分析/推薦類算法

是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)向用戶提供信息的算法(《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》)

深度合成技術(shù)

是指利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)(《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》)

生成式

人工智能

是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)[《生成式人工智能服務(wù)管理辦法(征求意見稿)]

 

在上述分類中,深度合成技術(shù)其實(shí)可以并入生成式人工智能之中,是生成式人工智能之下的一種子類型,這一點(diǎn)在《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第23條的列舉中體現(xiàn)得十分明顯,深度合成技術(shù)包括但不限于:(1)篇章生成、文本風(fēng)格轉(zhuǎn)換、問答對話等生成或者編輯文本內(nèi)容的技術(shù);(2)文本轉(zhuǎn)語音、語音轉(zhuǎn)換、語音屬性編輯等生成或者編輯語音內(nèi)容的技術(shù);(3)音樂生成、場景聲編輯等生成或者編輯非語音內(nèi)容的技術(shù);(4)人臉生成、人臉替換、人物屬性編輯、人臉操控、姿態(tài)操控等生成或者編輯圖像、視頻內(nèi)容中生物特征的技術(shù);(5)圖像生成、圖像增強(qiáng)、圖像修復(fù)等生成或者編輯圖像、視頻內(nèi)容中非生物特征的技術(shù);(6)三維重建、數(shù)字仿真等生成或者編輯數(shù)字人物、虛擬場景的技術(shù)。也就是說,早在ChatGPT等大型語言模型引爆生成式人工智能熱潮之前,我國已經(jīng)有了這個領(lǐng)域的法律規(guī)則。

 

二、回應(yīng)人機(jī)交互問題的法律原則:人在回路

 

所謂人在回路,即英文中的humanintheloop(HITL),是指在機(jī)器學(xué)習(xí)、自動駕駛、自動化武器及自動化決策等人工智能運(yùn)用場景中要求人類的介入。也就是說,即使從技術(shù)上講,機(jī)器已經(jīng)可以自動化地完成所有的感知、決策和執(zhí)行過程,從人本主義的角度出發(fā),仍然需要人作為機(jī)器決策的把關(guān)者。盡管不一定明確使用“人在回路”這個術(shù)語,但要求有人來監(jiān)管和介入人工智能的自動化決策卻是體現(xiàn)在世界各國相關(guān)立法中的普遍原則,以至有學(xué)者提出了“人在回路權(quán)”這一概念,認(rèn)為它是數(shù)字社會中人的基本權(quán)利之一。法律中體現(xiàn)“人在回路”原則的規(guī)則設(shè)計(jì)被內(nèi)化為工程設(shè)計(jì)中的基本原則,催生了“關(guān)注人類因素的工程設(shè)計(jì)”(Human Factors Engineering,HFE),以及研究特定工程設(shè)計(jì)之用戶體驗(yàn)或?qū)θ祟愑脩糁绊懙墓ばW(xué)(Ergonomics)。

 

我國體現(xiàn)“人在回路”原則的法律規(guī)則依循的是傳統(tǒng)的“讓人來負(fù)責(zé)”的思路。比如,《網(wǎng)絡(luò)安全法》第21條要求網(wǎng)絡(luò)運(yùn)營者確定網(wǎng)絡(luò)安全負(fù)責(zé)人;《個人信息保護(hù)法》第52條要求處理個人信息達(dá)到國家網(wǎng)信部門規(guī)定數(shù)量的個人信息處理者指定個人信息保護(hù)負(fù)責(zé)人;《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)條例》第14條要求關(guān)鍵信息基礎(chǔ)設(shè)施運(yùn)營者設(shè)置專門安全管理機(jī)構(gòu),該機(jī)構(gòu)的負(fù)責(zé)人和關(guān)鍵崗位人員要經(jīng)過安全背景審查方可上崗;《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第9條要求網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺設(shè)立網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理負(fù)責(zé)人,配備與業(yè)務(wù)范圍和服務(wù)規(guī)模相適應(yīng)的專業(yè)人員,加強(qiáng)培訓(xùn)考核,提升從業(yè)人員素質(zhì);《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條要求算法推薦服務(wù)提供者落實(shí)算法安全主體責(zé)任,配備與算法推薦服務(wù)規(guī)模相適應(yīng)的專業(yè)人員和技術(shù)支撐。在個人用戶權(quán)益保護(hù)方面,“人在回路”原則體現(xiàn)為要求運(yùn)營者、數(shù)據(jù)處理者或服務(wù)提供者在算法設(shè)計(jì)上要強(qiáng)化用戶的主體意識和選擇權(quán),把人帶進(jìn)算法的閉環(huán),讓用戶能夠自主決策是否接受算法推薦或個性化內(nèi)容,比如,《電子商務(wù)法》第18條規(guī)定,“電子商務(wù)經(jīng)營者根據(jù)消費(fèi)者的興趣愛好、消費(fèi)習(xí)慣等特征向其提供商品或者服務(wù)的搜索結(jié)果的,應(yīng)當(dāng)同時向該消費(fèi)者提供不針對其個人特征的選項(xiàng),尊重和平等保護(hù)消費(fèi)者合法權(quán)益”;《個人信息保護(hù)法》第24條第2款規(guī)定,“通過自動化決策方式向個人進(jìn)行信息推送、商業(yè)營銷,應(yīng)當(dāng)同時提供不針對其個人特征的選項(xiàng),或者向個人提供便捷的拒絕方式”;《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第17條規(guī)定,“算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對其個人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。用戶選擇關(guān)閉算法推薦服務(wù)的,算法推薦服務(wù)提供者應(yīng)當(dāng)立即停止提供相關(guān)服務(wù)”。

 

這種人與算法二分、由人來控制算法或?qū)λ惴ㄘ?fù)責(zé)的機(jī)制體現(xiàn)了傳統(tǒng)的思維,可以解決出現(xiàn)損害結(jié)果后的追責(zé)問題,卻無法起到在確保合理使用、激勵技術(shù)和產(chǎn)業(yè)發(fā)展的同時預(yù)先防止風(fēng)險的作用。換句話說,這種未觸及人機(jī)交互的普遍形態(tài)而僅側(cè)重于讓人進(jìn)入算法自動化決策的閉環(huán)實(shí)施干預(yù)的規(guī)則設(shè)計(jì),未能考慮到人是否有能力進(jìn)行干預(yù)、何時干預(yù)及如何干預(yù)這些操作層面的問題,只是把人安放進(jìn)了算法的回路。人在其中可能扮演的角色包括:(1)糾正算法錯誤的角色,比如,發(fā)現(xiàn)和改正明顯的錯誤、漏洞和偏差,確保算法安全運(yùn)行并實(shí)現(xiàn)其功能,但這個角色在深度學(xué)習(xí)必然蘊(yùn)含的“算法黑箱”情境中很難扮演,實(shí)際上處于虛置狀態(tài);(2)彈性角色,充當(dāng)故障安全機(jī)制,即確保算法失靈時關(guān)閉系統(tǒng)或轉(zhuǎn)入人工處理模式;(3)正當(dāng)化角色,通過為決策過程提供人類因素來增強(qiáng)系統(tǒng)合法性,因?yàn)槿藗兤毡橄嘈胖挥腥瞬庞械赖赂泻偷赖屡袛嗄芰?,事關(guān)是非對錯、公平分配的人類事務(wù)不能交給冷冰冰的機(jī)器;(4)尊嚴(yán)保護(hù)角色,受決策影響(尤其是不利影響)的個人,如果知道該決策是由機(jī)器作出的,會感到受到了冒犯;(5)出現(xiàn)問題時承擔(dān)責(zé)任的角色(又被戲稱為背鍋角色),因?yàn)閼土P機(jī)器沒有意義;(6)代言人角色,作為人類利益的代言人,為自動化決策注入人性因素;(7)增強(qiáng)摩擦力的角色,高速運(yùn)轉(zhuǎn)的算法系統(tǒng)出現(xiàn)問題可能過了很久才被發(fā)現(xiàn),而在此過程中更多的損害已經(jīng)不可避免地造成,人的介入會降低算法運(yùn)轉(zhuǎn)的速度,從而使算法回到人類能夠跟上的速度;(8)在自動化程度日益提高的時代為人類保留一些工作崗位的關(guān)照角色;(9)將系統(tǒng)與人類用戶聯(lián)系起來的接口角色。

 

此種落實(shí)“人在回路”原則的制度設(shè)計(jì)是基于一種基本的假定,即人有人擅長的事情,機(jī)器有機(jī)器擅長的事情,將二者結(jié)合到一起就可以達(dá)致最佳狀態(tài)。這一假定最早由美國工程心理學(xué)家保羅·菲茨提出,被簡稱為MabaMaba假定。菲茨提出這一假定的語境是民用航空和交通控制領(lǐng)域的人機(jī)交互,他所列出的人和機(jī)器各自擅長的事情清單并不能直接適用于如今人和人工智能系統(tǒng)交互的場景,但這一列清單的思路卻延續(xù)下來,成為許多人(包括立法者和政策制定者)思考相關(guān)問題的基本框架(見表3)。在理想情況下,人在回路系統(tǒng)中將實(shí)現(xiàn)兩全其美:人類的靈活性可以緩解算法的硬脆性,算法的速度有助于迅速解決簡單重復(fù)的問題(包括處理大量簡單案件),同時,為速度較慢的人留出空間來權(quán)衡較難的問題(包括處理疑難案件),算法的邏輯一致性和人類的語境敏感性也能互相補(bǔ)充、折沖平衡。


3

菲茨清單

在以下方面人類似乎比機(jī)器做得好(Men are better at,Maba)

在以下方面機(jī)器似乎比人做得更好(Machines are better at, Maba)

1.準(zhǔn)確辨識少量感知信息

1.對控制信號進(jìn)行快速回應(yīng),并流暢、準(zhǔn)確地使用巨大力量執(zhí)行指令

2.分辨光或聲音的模式

2.執(zhí)行重復(fù)性的常規(guī)任務(wù)

3.隨機(jī)應(yīng)變和采取靈活的方法

3.短期儲存信息并完全刪除的能力

4.長期記憶大量信息并在恰當(dāng)時間調(diào)取記憶

4.演繹推理和復(fù)雜運(yùn)算的能力

5.歸納推理

5.處理高度復(fù)雜任務(wù)的能力,即多線程共時操作的能力

6.判斷能力

1.對控制信號進(jìn)行快速回應(yīng),并流暢、準(zhǔn)確地使用巨大力量執(zhí)行指令

 

如今,人工智能領(lǐng)域的專家們已經(jīng)對人所擅長的事情和機(jī)器所擅長的事情有了全新的認(rèn)識。比如,主流的機(jī)器學(xué)習(xí)顛覆了“人擅長歸納推理,機(jī)器擅長演繹推理”這一認(rèn)識,從海量的無結(jié)構(gòu)數(shù)據(jù)中找出模式或規(guī)律——這種歸納推理正是深度學(xué)習(xí)類算法最擅長的事情。該領(lǐng)域的權(quán)威專家寫道:“算法預(yù)測不需要物理學(xué)。未知的結(jié)果,無論它是未來的還是未被觀察到的,總是依循在過去觀察到的現(xiàn)象中發(fā)現(xiàn)的模式?!睂?shí)際上,機(jī)器學(xué)習(xí)的核心機(jī)制就是:從大量數(shù)據(jù)中識別出模式或規(guī)律,然后,將這些規(guī)律遷移適用于其他場景。機(jī)器學(xué)習(xí)從本質(zhì)上講是一種計(jì)算統(tǒng)計(jì)技術(shù),其功能是發(fā)現(xiàn)隱藏的規(guī)律,依據(jù)的是相關(guān)性而不是因果性。目前人工智能的主要商業(yè)應(yīng)用形態(tài),類似于艾薩克·阿西莫夫在《銀河帝國》中所描繪的哈里·謝頓的心理史學(xué)。在這部偉大的科幻小說中,心理史學(xué)被定義為數(shù)學(xué)的一個分支,專門處理人類群體對特定的社會與經(jīng)濟(jì)刺激所產(chǎn)生的反應(yīng)。要使心理史學(xué)對人類行為模式的預(yù)測達(dá)到極高的準(zhǔn)確度,作為研究對象的人類必須足夠多,多到能夠用統(tǒng)計(jì)方法來處理的程度,人數(shù)下限由“謝頓第一定理”決定。此外,人類群體中應(yīng)當(dāng)無人知曉自己本身是心理史學(xué)的分析樣本,如此才能確保一切反應(yīng)皆為真正隨機(jī)。這就是目前各大平臺企業(yè)都在使用的基于大數(shù)據(jù)的深度學(xué)習(xí)算法,旨在準(zhǔn)確預(yù)測人的線上行為。至于說“機(jī)器只能短期存儲少量信息,而人能長期記憶大量信息并在需要時適時調(diào)取記憶”,則早就被數(shù)據(jù)存儲技術(shù)的發(fā)展給拋進(jìn)歷史垃圾箱了。

 

不過,對我們思考人機(jī)關(guān)系問題最有啟發(fā)意義的還是漢斯·莫拉維克在1988年總結(jié)出的一種現(xiàn)象:“很明顯,讓計(jì)算機(jī)在解決智力測試問題或下棋時表現(xiàn)出成人水平相對容易,但很難或不可能讓它們在感知和運(yùn)動方面具備一歲兒童的技能?!边@個表述后來被概念化為“莫拉維克悖論”(Moravecs paradox):推理和復(fù)雜運(yùn)算只需要非常少的算力,但身體技能和直覺卻需要極大的算力。這似乎為如何設(shè)計(jì)人機(jī)交互界面指出了一條明路:讓機(jī)器去做數(shù)據(jù)存儲、信息搜索、模式識別和行為預(yù)測,而由人來做直覺判斷和需要肢體技能的操作。但在總體性的數(shù)字化環(huán)境中,人類何時接管、如何接管,以及接管時能否發(fā)揮出人類的正常水平都是問題。實(shí)際上,人類的接管往往被設(shè)計(jì)為“被動接管”,即在機(jī)器以視覺、聲音或觸覺刺激的方式發(fā)出接管請求時方可接管。而在缺乏外部監(jiān)督的情況下,商業(yè)引用場景中人工智能往往通過誘導(dǎo)性的用戶界面設(shè)計(jì)消解人類接管的可能性。前一種情況的典型例子是自動駕駛汽車,后一種情況的典型例子是暗模式。下面分別加以簡要討論。

 

 

1、自動駕駛汽車場景中的

“被動接管”和“拒絕接管”

 

2017年,德國議會通過了《道路交通法》的第八修正案,允許配備駕駛員的高度自動化和完全自動化汽車上路。其中的§1b(標(biāo)題為“車輛駕駛員在使用高度或全自動駕駛功能時的權(quán)利和義務(wù)”)規(guī)定:

 

(1)車輛駕駛員可以在按照§1a款使用高度或全自動駕駛功能駕駛車輛時不再專注于交通狀況和車輛控制;在這樣做時,他必須保持足夠的警覺,以便可以隨時履行第2款規(guī)定的義務(wù)。

 

(2)車輛駕駛員有義務(wù)在下述情況下立即重新控制車輛:

①如果高度或全自動系統(tǒng)請求他這樣做,或

②如果他認(rèn)識到或由于明顯的情況必須認(rèn)識到高度或全自動駕駛功能的預(yù)期用途之先決條件不再滿足。

 

與這一注意義務(wù)分配模式相配套的責(zé)任規(guī)則是:如果是在§1b(1)項(xiàng)規(guī)定的情況下使用自動駕駛功能時發(fā)生了交通事故,責(zé)任在自動駕駛汽車一方的,由自動駕駛汽車制造商負(fù)責(zé)賠償;如果是在§1b(2)項(xiàng)規(guī)定的情況下,駕駛員應(yīng)當(dāng)接管而未接管,或接管后發(fā)生事故,責(zé)任在自動駕駛汽車一方的,則由駕駛員承擔(dān)責(zé)任。

 

可以看出,§1b(2)項(xiàng)實(shí)際上規(guī)定了兩種人類接管情形:一是被動接管;二是主動接管。但主動接管在高度自動化和完全自動化駕駛汽車(L4以上級別自動駕駛汽車)的場景中實(shí)際上很難系統(tǒng)性地實(shí)現(xiàn)。試想,一位人類駕駛員或“技術(shù)監(jiān)督”在開啟了自動駕駛系統(tǒng)之后,按照法律所允許的行為方式,“不再專注于交通狀況和車輛控制”,開始刷手機(jī)視頻或開視頻會議,其不僅難以做到主動接管,就連接到被動接管請求時恐怕都難以作出及時有效的反應(yīng)。有鑒于此,德國交通部“自動與網(wǎng)聯(lián)駕駛倫理委員會”《倫理原則報告》第17條又對自動駕駛汽車的被動接管技術(shù)設(shè)計(jì)提出了適應(yīng)人類認(rèn)知特性的高要求:

 

高度自動化汽車的軟件和技術(shù)應(yīng)當(dāng)做到實(shí)際上避免在緊急情況下突然將控制權(quán)轉(zhuǎn)交給人類司機(jī)的情況。為了確保有效、可靠和安全的人機(jī)溝通并避免讓人承擔(dān)過重的負(fù)擔(dān),系統(tǒng)應(yīng)當(dāng)更強(qiáng)地適應(yīng)于人類交流行為并且不要求人類的高度適應(yīng)能力。

 

但這個要求在技術(shù)上是不可能做到的。如果機(jī)器能夠預(yù)見到事故即將發(fā)生,并在給人類留下充分準(zhǔn)備時間的情況下請求人類接管,那么這就不是真實(shí)世界的交通事故了。所有的事故都是突發(fā)的,無論人還是人工智能都無法提前很長時間預(yù)見到。如果人工智能系統(tǒng)可以預(yù)見交通事故,那么它就可以采取行動去避免事故,而不是請求人類接管。

 

顯然是意識到了這個實(shí)踐悖論,德國于2021年再次修改《道路交通法》和《強(qiáng)制保險法》,將其中涉及自動駕駛汽車的條款歸并為《自動駕駛法》時,在接管問題上確立了與倫理委員會提出的倫理原則截然相反的“拒絕接管”規(guī)則:

 

本法所稱的最低風(fēng)險狀態(tài)是指這樣一種狀態(tài),在其中,車輛

(3)獨(dú)立將自己置于最低風(fēng)險狀態(tài),如果繼續(xù)行駛只有在違反交通法規(guī)的情況下才能進(jìn)行;

(4)審查技術(shù)監(jiān)督指定的操作并決定不予執(zhí)行,而是獨(dú)立將車輛置于最低風(fēng)險狀態(tài),如果此種駕駛操作會危及交通參與者或無關(guān)人士。

 

從德國這一波三折的接管規(guī)則變化可以看出,如何用法律來確定人機(jī)交互的具體條件和要求是一件異常復(fù)雜的事情。人類理解復(fù)雜的自適應(yīng)系統(tǒng)的能力會隨著系統(tǒng)自動化程度的提高而遞減。如果遵從人類的價值選擇(人的尊嚴(yán)和自主性)和法律邏輯,所設(shè)計(jì)出的規(guī)則可能就很難在高度自動化的實(shí)踐場景中得到執(zhí)行。反之,如果遵從技術(shù)邏輯,人在其中就變成了一個完全被動的存在。

 

2、暗模式治理

通過架構(gòu)設(shè)計(jì)、應(yīng)用編程界面(API)和用戶界面設(shè)計(jì)(UI)而搭建起的電商平臺、社交媒體平臺和內(nèi)容平臺如今已成為人們?nèi)粘I钪胁豢苫蛉钡膮⑴c社會生活和經(jīng)濟(jì)生活的媒介。平臺借助機(jī)器學(xué)習(xí)算法來獲取、分析和使用用戶數(shù)據(jù),對用戶進(jìn)行標(biāo)簽化識別、畫像和行為操縱。在平臺用算法編制成的巨網(wǎng)面前,個人是透明的,而其所面對的界面是平臺設(shè)計(jì)的結(jié)果,其背后的運(yùn)作機(jī)理是普通用戶甚至外部監(jiān)管者都難以知其深淺的。從某種意義上說,數(shù)字社會總體上就是一個算力集中的黑箱社會。而暗模式(Dark Patterns)是這個黑箱上向用戶開放的窗口,其設(shè)計(jì)者故意迷惑用戶,使用戶難以表達(dá)他們的實(shí)際偏好,或操縱用戶付出原本不必付出的額外金錢、時間或個人信息。他們通常利用認(rèn)知偏差,促使在線消費(fèi)者購買他們不想要的商品和服務(wù),或者透露他們在充分知情的情況下本來不愿透露的個人信息。暗模式是用戶體驗(yàn)(User Experience)設(shè)計(jì)界的常用伎倆。在數(shù)字生態(tài)中,一切關(guān)乎設(shè)計(jì),而設(shè)計(jì)是平臺主導(dǎo)的。設(shè)計(jì)師使用暗模式來隱藏、欺騙和誘使用戶泄露。他們通過以非專家無法理解的方式提問來混淆用戶,他們通過隱藏可以幫助用戶保護(hù)其隱私的界面元素來混淆用戶,他們需要注冊和相關(guān)的披露才能訪問功能,并將惡意行為隱藏在法律隱私政策的深淵中。通過將信息共享與應(yīng)用內(nèi)福利聯(lián)系起來,暗模式也使用戶披露個人信息顯得“不可抗拒”。通過此類方式,設(shè)計(jì)者故意讓用戶難以實(shí)現(xiàn)他們的隱私偏好(見表4)


4

常見暗模式類型及其特征

暗模式的類型

特征描述

引誘并偷換

你開始做某件事情,但一番操作后另一種你不想要的事情發(fā)生了

偽裝廣告

廣告?zhèn)窝b成吸引你的內(nèi)容,引誘你去點(diǎn)擊

強(qiáng)迫續(xù)訂

給你一個免費(fèi)試用期,期滿后自動扣款

社交垃圾信息

向你索取通信錄權(quán)限,然后給你的朋友發(fā)垃圾信息

隱藏成本

你開始結(jié)賬,到最后一步時發(fā)現(xiàn)多出了一些收費(fèi)項(xiàng)目,比如,付費(fèi)打折券

聲東擊西

頁面設(shè)計(jì)讓你把注意力集中到一個區(qū)域,而實(shí)際上對你而言更重要的內(nèi)容在別處

阻止比價

零售商通過一定的設(shè)計(jì)使你比對價格變得十分困難

貪婪的隱私攫取

盡可能獲取你的更多信息

蟑螂屋

進(jìn)入容易,離開難

潛入購物籃

你沒選它,它卻悄悄進(jìn)入你的購物籃,要點(diǎn)擊去除已選才能不為它付費(fèi)

誤導(dǎo)性問題

通過提出迷惑性的問題來誘導(dǎo)用戶提供個人信息或作出不理性消費(fèi)

 

暗模式存在于各種類型的平臺和網(wǎng)絡(luò)服務(wù)中,比如,在電商平臺,它主要表現(xiàn)為不合理的差別定價,也就是我們經(jīng)常聽說的“大數(shù)據(jù)殺熟”。一人一價、價格不透明及比價困難是電商、預(yù)訂類平臺和網(wǎng)約車平臺常見的特點(diǎn),而這些平臺是通過架構(gòu)設(shè)計(jì)和用戶界面設(shè)計(jì)來實(shí)現(xiàn)這種特點(diǎn)的。用一篇研究暗模式治理的經(jīng)典論文中的話來說:“決策架構(gòu),而不是價格,驅(qū)動著消費(fèi)者購買決策?!蔽覈南嚓P(guān)立法采取了行為界定的傳統(tǒng)模式,禁止不合理差別定價的行為。比如,《個人信息保護(hù)法》第24條第1款規(guī)定:“個人信息處理者利用個人信息進(jìn)行自動化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正,不得對個人在交易價格等交易條件上實(shí)行不合理的差別待遇。”而《浙江省電子商務(wù)條例》則對此作出了更為具體的規(guī)定:

 

第十四條 電子商務(wù)經(jīng)營者不得利用大數(shù)據(jù)分析、算法等技術(shù)手段,對交易條件相同的消費(fèi)者在交易價格等方面實(shí)行不合理差別待遇。

下列情形不認(rèn)定為不合理差別待遇:

()根據(jù)消費(fèi)者的實(shí)際需求,且符合正當(dāng)?shù)慕灰琢?xí)慣和行業(yè)慣例,實(shí)行不同交易條件的;

()針對新用戶在合理期限內(nèi)開展優(yōu)惠活動的;

()基于公平、合理、非歧視規(guī)則實(shí)施隨機(jī)性交易的;

()能夠證明行為具有正當(dāng)性的其他情形。

本條所稱交易條件相同,是指消費(fèi)者在交易安全、交易成本、信用狀況、交易環(huán)節(jié)、交易方式、交易持續(xù)時間等方面不存在實(shí)質(zhì)性差別。

 

不過,這種針對行為而不是架構(gòu)而確立的法律規(guī)則無法解決普遍存在的暗模式問題,使得不以價格而以過度獲取個人信息為表現(xiàn)形態(tài)的商業(yè)模式無法得到規(guī)制。從域外經(jīng)驗(yàn)來看,美國加州和歐盟的相關(guān)規(guī)范值得參考。美國加州的《隱私權(quán)法》(CPRA)是世界上第一部對暗模式作出明確界定的法律,它將暗模式定義為“一種人為設(shè)計(jì)或操縱的用戶界面,其實(shí)質(zhì)效果是顛覆或損害用戶自主性、決策或選擇”,并規(guī)定受暗模式誘導(dǎo)而表達(dá)的同意不是真實(shí)的同意,合同自始無效。即將于20243月開始實(shí)施的歐盟《數(shù)字服務(wù)法》則對暗模式有更加詳細(xì)的界定。

 

在線平臺界面上的暗模式是有意或?qū)嶋H上嚴(yán)重扭曲或損害服務(wù)接受者作出自主且知情的選擇或決定之能力的做法。這些做法可用于說服服務(wù)的接受者作出其本不想作出的行為或作出會給其帶來不利結(jié)果的決定。因此,應(yīng)禁止在線平臺服務(wù)的提供者欺騙或慫恿服務(wù)的接受者,以及通過在線界面或其部分的結(jié)構(gòu)、設(shè)計(jì)或功能來扭曲或損害服務(wù)接受者的自主權(quán)、決策或選擇。這應(yīng)包括但不限于剝削性的設(shè)計(jì)選擇,以引導(dǎo)接受者采取有利于在線平臺服務(wù)提供者但可能不符合接受者的利益的行動,或當(dāng)要求服務(wù)的接受者作出決定時,以非中立的方式呈現(xiàn)選擇。例如,通過視覺、聽覺或其他組件設(shè)計(jì)更加突出某些選項(xiàng)。

 

在該規(guī)則制定過程中,相關(guān)立法討論提到的暗模式類型主要包括:(1)過載。讓用戶面臨眼花繚亂的請求、信息、選項(xiàng)或可能性,促使他們共享更多數(shù)據(jù),或無意中允許違背數(shù)據(jù)主體期望的個人數(shù)據(jù)處理。(2)跳過。故意通過設(shè)計(jì)讓用戶忽略或無視對其自身數(shù)據(jù)保護(hù)至關(guān)重要的信息。(3)攪拌。通過界面設(shè)計(jì)來實(shí)現(xiàn)用戶情緒調(diào)動或視覺助推,從而影響用戶選擇。(4)阻礙。指通過使操作難以或不可能實(shí)現(xiàn)來妨礙或阻止用戶作出對自己有利而對平臺不利的選擇。(5)變化無常。界面的設(shè)計(jì)不一致且不清晰,使用戶難以尋找到不同的數(shù)據(jù)保護(hù)控制工具,并了解處理的目的。(6)蒙在鼓里。界面的設(shè)計(jì)方式是隱藏信息或數(shù)據(jù)保護(hù)控制工具,或者讓用戶不確定他們的數(shù)據(jù)是如何處理的,以及他們有什么樣的工具選項(xiàng)可以幫助自己保護(hù)隱私或個人信息。

 

通過以上討論的自動駕駛汽車中的人類接管規(guī)則和暗模式治理兩個例子,我們可以清楚地看到:將人和機(jī)器截然二分而分別關(guān)注人類行為和機(jī)器行為的思維方式無法幫助我們有效解決數(shù)字化生態(tài)中的人機(jī)交互問題。這種環(huán)境中的人已經(jīng)是受機(jī)器分析、預(yù)測和引導(dǎo)(或誤導(dǎo))的人;而機(jī)器也不是被動的、中立的工具,是智能化的、內(nèi)化了人類欲望和價值選擇的機(jī)器。體現(xiàn)“人在回路”原則的法律規(guī)則,應(yīng)當(dāng)著力于總體的架構(gòu)設(shè)計(jì)和用戶界面設(shè)計(jì),而不是隨便扔個人進(jìn)去充當(dāng)“橡皮圖章”或“背鍋俠”。在這方面,正在討論過程中的歐盟《人工智能法》草案可以為我們提供一定的參照。該草案序言指出,“人在回路”中的人必須“具備必要的能力、接受過必要的培訓(xùn)并享有必要的權(quán)力來充當(dāng)這一角色”。該草案第14條特別要求“高風(fēng)險”人工智能系統(tǒng)的開發(fā)者在設(shè)計(jì)和開發(fā)此種系統(tǒng)時為人類對其進(jìn)行有效監(jiān)管留下空間?!案唢L(fēng)險”人工智能供應(yīng)商還需要使用“適當(dāng)?shù)娜藱C(jī)交互界面工具”來構(gòu)建系統(tǒng),它們必須使“人在回路”的人能夠理解系統(tǒng)的運(yùn)作機(jī)制并“能夠適當(dāng)?shù)乇O(jiān)控其運(yùn)行”,這需要此種系統(tǒng)具有可解釋性。開發(fā)者還以強(qiáng)化人類自主性的方式來設(shè)計(jì)系統(tǒng),使“人在回路”中的自然人能夠意識到人類服從機(jī)器的傾向并保持警醒。正如歐盟在數(shù)字科技、數(shù)字服務(wù)和數(shù)字市場方面的其他立法一樣,這部法律關(guān)注到了數(shù)字社會的基本特征,提出了有針對性的全新概念和規(guī)制框架。盡管其中的具體規(guī)則設(shè)計(jì)有待商榷,但其思維框架卻無疑值得參考。

 

三、生成式人工智能場景中的“人在回路”

 

最近,一則律師援引ChatGPT編造的假判例來支持己方主張的事件在美國乃至全球法律界引發(fā)了廣泛關(guān)注。一位名叫羅伯托·瑪塔(Roberto Mata)的乘客聲稱自己在2019年乘坐飛機(jī)時膝蓋被機(jī)上的送餐推車撞傷,于是在紐約曼哈頓的紐約南區(qū)聯(lián)邦地區(qū)法院起訴航空公司。航空公司以訴訟時效已過為由請求法院駁回起訴?,斔穆蓭熤皇返傥摹な┩叽?/span>(Steven A. Schwartz,來自Levidow, Levidow & Oberman律師事務(wù)所)向法院提交了一份十頁的書面辯論意見書,反駁了對方的主張。意見書中援引了六個先例,包括瓦吉斯訴中國南方航空公司,這些先例都表明法院在此類案件中不會因?yàn)樵V訟時效已過而拒絕受理案件。但對方律師向法院指出,這些先例都是假的。于是,此案主審法官凱文·卡斯特爾發(fā)出了一份法院令,要求施瓦茨提供理由解釋自己為什么不應(yīng)當(dāng)受到處罰,其中寫道:

 

本院面臨一個前所未有的情況。原告律師提交的反對駁回動議的意見書中充斥著對不存在案件的引用。當(dāng)對方律師提請本院注意這一情況時,本院發(fā)布命令,要求原告律師提供一份宣誓證言書,附上他提交的材料中引用的案例副本,他已經(jīng)照做了。他提交的材料中有六個顯然是偽造的司法判決,包括偽造的引文和偽造的案卷號。本院特此發(fā)布命令,要求原告律師解釋為何自己不應(yīng)受到制裁。

 

施瓦茨在隨后提交的解釋中說自己是用ChatGPT找到的這些案例。他寫道:

 

當(dāng)我在此案中使用ChatGPT時,我了解到它本質(zhì)上就像一個高度復(fù)雜的搜索引擎,用戶可以在其中輸入搜索查詢,而ChatGPT將根據(jù)公開可用的信息以自然語言提供答案。

 

我現(xiàn)在意識到我對ChatGPT工作原理的理解是錯誤的。如果我了解ChatGPT是什么或它的實(shí)際工作原理,我絕不會用它來進(jìn)行法律研究。

 

目前法官尚未決定是否對施瓦茨進(jìn)行制裁。按照美國律師協(xié)會的《職業(yè)行為模范準(zhǔn)則》第3.3(a)條款,律師不得故意:(1)向法庭作出虛假的事實(shí)或法律陳述,或者未能更正自己先前向法庭作出的對重要事實(shí)或法律的虛假陳述;(2)不向法庭披露律師已知的直接不利于委托人立場且對方律師未披露的本司法管轄區(qū)內(nèi)的權(quán)威法律淵源。顯然,施瓦茨的行為客觀上違反了這一規(guī)則,但他是否故意(knowingly)這么做仍有待法官去判斷。

 

的確,施瓦茨對ChatGPT這種新工具的理解是完全錯誤的,它不是一種搜索引擎,而是一種基于對人類日常語言樣本的學(xué)習(xí)而生成新的語言文字內(nèi)容的工具。首先,它不具備實(shí)施搜索功能,它的訓(xùn)練數(shù)據(jù)中不包含2021年之后出現(xiàn)的新內(nèi)容。比如,本文作者曾經(jīng)問它:“《中華人民共和國民法典》第1307條的內(nèi)容是什么?”這可以說是一個非常簡單的客觀題了。我們知道《中華人民共和國民法典》總共就1260條,第1307條是根本不存在的。但它卻言之鑿鑿地回答:“《民法典》第1307條規(guī)定:婚姻的結(jié)束,由雙方當(dāng)事人協(xié)商一致,或者由人民法院裁定?!币簿褪钦f,它對簡單的客觀知識問題一本正經(jīng)地胡說是一種常態(tài)。其次,ChatGPT之類的大型語言模型是使用通用文本來訓(xùn)練的,其中最具知識性的文本恐怕就是維基百科之類的質(zhì)量參差不齊的、沒有經(jīng)過編輯把關(guān)的共享知識內(nèi)容,因此,它回答任何專業(yè)領(lǐng)域的問題都表現(xiàn)得泛泛而談,很難直接采用為可靠的文本。但它在日常對話中和寫一般性的文案及作文方面卻表現(xiàn)得不錯。最后,專業(yè)領(lǐng)域的生成式人工智能工具是下一步可能出現(xiàn)的新事物。比如,已經(jīng)在過去的法律數(shù)據(jù)庫業(yè)務(wù)中積累起了大量法規(guī)、案例、法學(xué)學(xué)術(shù)論文等法律相關(guān)文本的Lexis和北大法寶已經(jīng)或正在開發(fā)專門的法律知識大型語言模型。這種專業(yè)細(xì)分領(lǐng)域的大模型很可能生成較為可靠的法律知識文本,但如果要用于正式的司法程序,還是必須經(jīng)過人類法律職業(yè)人士的核實(shí)。

 

機(jī)器學(xué)習(xí)大模型是人工智能技術(shù)經(jīng)過60余年累積而綻放出的應(yīng)季花朵,令觀賞者贊嘆不已。由于當(dāng)下的多模態(tài)大模型不僅可以生成文字影音內(nèi)容(AIGC),甚至可以生成實(shí)物(借助3D打印技術(shù),比如商湯“日日新”大模型體系中的“格物”),所以被認(rèn)為是生成式人工智能的突破性進(jìn)展。從技術(shù)上講,大模型并非基于任何知識上的創(chuàng)新,而是基于算力、算法和數(shù)據(jù)的規(guī)模升級,是摩爾定律和梅特卡夫定律所揭示的技術(shù)的政治經(jīng)濟(jì)效應(yīng)的表現(xiàn)。換句話說,大模型依靠的是“暴力計(jì)算”,即高性能GPU運(yùn)行千億級參數(shù)模型通過海量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。用OpenAI首席科學(xué)家伊利亞·蘇茨克沃的話來說:“如何解決難題?使用大量訓(xùn)練數(shù)據(jù)及一個大型神經(jīng)網(wǎng)絡(luò)。這樣,你可能得到的唯一結(jié)果就是成功?!睘榇耍?/span>OpenAI的主要投資者微軟投入數(shù)億美元為OpenAI打造了一套超算系統(tǒng),由上萬顆單價為數(shù)萬美元的英偉達(dá)A100芯片組成,這套系統(tǒng)為訓(xùn)練ChatGPT提供了3640PFdays的算力消耗(假如每秒計(jì)算1000萬億次,連續(xù)計(jì)算3640)。由此可見,大模型訓(xùn)練是一個燒錢和耗能的游戲,充滿著重資本的味道,一點(diǎn)兒也不節(jié)能環(huán)保。這時,我們就需要對大模型的商業(yè)和社會應(yīng)用進(jìn)行一番“成本—收益”分析,看看它帶來的收益是否大于成本,以及收益的歸屬和成本的分擔(dān)。在進(jìn)行這種分析的時候,我們應(yīng)當(dāng)注意到尚未被計(jì)入成本的那些外部性,比如,實(shí)際上由公眾承擔(dān)成本的環(huán)境損害。

 

大模型能夠帶來的好處似乎是顯而易見的。雖然訓(xùn)練成本高昂,但一經(jīng)訓(xùn)練成功,它就可以產(chǎn)生巨大的生產(chǎn)力,自動化地生產(chǎn)文字、圖像和音視頻內(nèi)容,比如,幫助文字工作者生成文案和文學(xué)作品,幫助醫(yī)生了解病人的病史和癥狀描述并形成診斷和治療方案,幫助老師、科研人員和學(xué)生閱讀大量文本并提取關(guān)鍵知識點(diǎn)和主要論點(diǎn),幫助法律職業(yè)者審閱法律文件、分析法律問題并形成初步法律意見書等。進(jìn)一步,當(dāng)細(xì)分領(lǐng)域的專業(yè)化大模型出現(xiàn)的時候,它可以改變各行各業(yè)的生產(chǎn)方式和組織形態(tài),大幅度提升制造業(yè)、交通運(yùn)輸業(yè)、農(nóng)業(yè)乃至任何我們能夠想到的行業(yè)的自動化程度和生產(chǎn)率。以商湯的“日日新”大模型體系為例,它包含作為對話和文本內(nèi)容生成平臺的“商量”(SenseChat),可以像ChatGPT那樣跟人進(jìn)行多輪對話,可以寫廣告語、文案、故事、小說和程序代碼,如果用于智慧醫(yī)療,可以提供隨訪、健康咨詢、互聯(lián)網(wǎng)問診和輔助醫(yī)療服務(wù),這些功能已經(jīng)在上海新華醫(yī)院、鄭州鄭大一附院、成都華西醫(yī)院得到實(shí)際應(yīng)用;它還包含根據(jù)文字生成圖像的“描畫”,可以生成圖文并茂的文案、漫畫并輔助其他形式的藝術(shù)創(chuàng)作;還有生成元宇宙3D虛擬場景的“瓊宇”,可以實(shí)現(xiàn)對虛擬空間和虛擬物體的復(fù)刻與交互(比如,耗時兩天即可生成具有厘米級復(fù)刻精度、還原場景的真實(shí)細(xì)節(jié)和光照效果的100平方公里虛擬城市),可用于數(shù)字孿生、建筑設(shè)計(jì)、影視創(chuàng)作、文旅宣傳和電商展示等場景,以及“格物”,即連接3D物體生成與3D打印,將自動生成的物體制造成實(shí)物,可用于制造業(yè)。

 

這些都是大模型商業(yè)模式的從業(yè)者向我們展示的美好前景,在絲毫不否認(rèn)這些場景都有可能在近期實(shí)現(xiàn)的前提下,筆者想指出其另外一面,以便我們的公共選擇能夠促成一種普惠的現(xiàn)實(shí),而不是讓技術(shù)成為“割韭菜”的工具,在給少數(shù)人帶來巨大收益的同時,讓多數(shù)人承擔(dān)成本而只得到極微小的甚至是虛幻的好處。

 

正如前面已經(jīng)指出的那樣,作為一種機(jī)器學(xué)習(xí)方法上的創(chuàng)新,現(xiàn)有的大模型訓(xùn)練方案是對人類已有的創(chuàng)造成果的規(guī)?;瘜W(xué)習(xí),所產(chǎn)生的結(jié)果是已有內(nèi)容的新的表達(dá)形式,它不會帶給我們關(guān)于事實(shí)的新知。已有的實(shí)操都顯示出,ChatGPT更善于回答“主觀題”,而在“客觀題”方面則無法給我們提供準(zhǔn)確的答案。按照悉尼大學(xué)語言學(xué)教授恩菲爾德(N.J.Enfield)的說法,語言是人類社會生活的產(chǎn)物,它的首要功能不是再現(xiàn)事實(shí),而是維系社會關(guān)系和協(xié)調(diào)社會行動。借助語言,我們不僅對其他人產(chǎn)生影響,而且與其他人一起來影響社會。在使用語言時,我們不僅考慮要不要表達(dá)自己的真實(shí)想法,還要考慮其他人會怎么理解我們所表達(dá)的內(nèi)容,以及他們在按照自己的理解消化了我們所表達(dá)的內(nèi)容后會如何回應(yīng)我們。語言的功能塑造著語言的形態(tài),導(dǎo)致所有的人類語言中都包含大量表示人類主觀感受的詞匯,而描述自然事實(shí)的詞匯卻缺乏精準(zhǔn)性。比如,人眼可以辨別幾百種顏色,但描述顏色的詞匯在任何人類語言中都只有屈指可數(shù)的幾個。

 

在社會交往中策略性地使用語言是人本身就很擅長的,我們所需要的人工智能是能夠?yàn)槲覀兝斫庹鎸?shí)世界提供可靠信息的助手,而不是能夠模仿我們熟練使用社交語言的“社牛”。在這一點(diǎn)上,大型語言模型還不如搜索引擎。進(jìn)而,如果人們覺得大型語言模型支撐的各種聊天工具比真人說話更“動聽”,便會減少與親人、朋友、同事或同學(xué)的語言交流,沉浸于跟機(jī)器聊天。這將進(jìn)一步加劇社交媒體興起以來人在自己主觀世界中的沉浸和共同體意識的缺失?!靶畔⒗O房”“過濾氣泡”和“回音室”等概念都描述了這樣一種數(shù)字化時代普遍現(xiàn)實(shí)。但人畢竟生存在真實(shí)世界中,這個世界的客觀事實(shí)總會檢驗(yàn)人的主觀認(rèn)知,一旦面臨生存考驗(yàn),沉浸于主觀滿足感的人類就會顯得十分脆弱。

 

由此我們可以看到,大模型可能對社會有益的應(yīng)用方向是那些不需要新知識的領(lǐng)域,或者說是那些以保守為正面價值的領(lǐng)域,如文化、宣傳、法律和常規(guī)醫(yī)療。法律的主要功能在于維護(hù)既定的社會秩序,需要在既定規(guī)則的大前提下處理大量信息,這恰恰是大型語言模型所擅長的。不過,要把大模型應(yīng)用到法律工作的場景中,尤其是司法過程和執(zhí)法過程中,人類的把關(guān)是十分必要的。司法過程要處理各種各樣的文本和音視頻材料,“按照性質(zhì),這些材料大體分為兩類,一類是解決事實(shí)問題的,也就是各種證據(jù);另一類是解決規(guī)范問題的。前者是解決案件的事實(shí)基礎(chǔ),后者是解決案件的規(guī)范基礎(chǔ)”。無論是幫助裁判者判斷事實(shí)問題的材料,還是裁判者借以解釋和適用法律的材料,真實(shí)性都是首要的要求。虛構(gòu)的法條(比如,法學(xué)院學(xué)生在期末考試時行使“緊急臨時立法權(quán)”編出來的法條)和判例(比如,前面提到的瑪塔案原告律師用ChatGPT編出來的案例)是不能被容忍的,更不能作為裁判依據(jù)。正因如此,生成式人工智能如果要用于法律工作,在設(shè)計(jì)上就需要突出人作為最后把關(guān)者和決策者的角色,使算法無法形成從數(shù)據(jù)采集、數(shù)據(jù)分析、自動化決策和最終文本生成的閉環(huán)。

 

四、結(jié)論

 

我們已經(jīng)進(jìn)入了數(shù)字化時代,以人工智能為典型代表的數(shù)字科技成了這個時代的通用技術(shù),改變著我們的生活方式、工作方式和社會關(guān)系形成方式。與傳統(tǒng)的技術(shù)相比,人工智能技術(shù)的特點(diǎn)就在于它能夠“學(xué)習(xí)”,能夠通過對海量人類行為數(shù)據(jù)的學(xué)習(xí)來實(shí)現(xiàn)自適應(yīng)和自演進(jìn)。也就是說,它不再是一種被動的工具,而是一種“活的”、展現(xiàn)出“智能”的工具。人在使用這種工具的時候,也在被這種工具影響和改變。因此,在思考如何用法律來規(guī)制這種技術(shù)及如何用這種技術(shù)來提升法律工作的效率和品質(zhì)的時候,以人的行為(包括使用工具的行為)為著眼點(diǎn)和著力點(diǎn)的思維方式和規(guī)則設(shè)計(jì)方式已經(jīng)過時了。我們應(yīng)當(dāng)更多地關(guān)注人機(jī)交互和人機(jī)共生的結(jié)構(gòu)性和系統(tǒng)性問題,考慮人工智能不同應(yīng)用場景中人機(jī)交互界面的設(shè)計(jì)原則,比如,在自動駕駛汽車的場景中賦予算法自動化決策以更多的權(quán)重(甚至必要時允許系統(tǒng)拒絕人類接管),而在智慧法院、智慧檢務(wù)、智慧公安、智慧法律服務(wù)這樣的應(yīng)用場景中確保人類的決策能力和機(jī)器的輔助地位。

 

一種以人為本的人工智能法治系統(tǒng)應(yīng)當(dāng)包含這樣一些基本組成部分:一是總體的數(shù)字化生態(tài)治理規(guī)則,包括網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個人信息保護(hù)、可信賴人工智能、內(nèi)容治理和數(shù)字市場公平競爭方面的規(guī)則;二是對人工智能算法實(shí)際應(yīng)用過程的表現(xiàn)評估機(jī)制,包括穩(wěn)健性和靈活性評估、可靠性評估、有用性評估、可測試/可驗(yàn)證/可證明性評估及安全性評估等,以便及時發(fā)現(xiàn)問題,實(shí)現(xiàn)風(fēng)險控制;三是獨(dú)立監(jiān)督機(jī)制,包括算法備案、算法審核、算法影響評估、算法后果溯源、保險、第三方審查等方面的制度;四是確保人工智能對受影響的利益相關(guān)方具有一定透明性和可解釋性的制度保障;五是行業(yè)標(biāo)準(zhǔn),如符合倫理的軟件工程設(shè)計(jì)標(biāo)準(zhǔn)等。只有從生態(tài)、系統(tǒng)、結(jié)構(gòu)和行為層面同時入手,才能搭建起確保科技向善的法律系統(tǒng)。而這個法律系統(tǒng)本身必須由人而不是人工智能來掌握,才能確保人在日益智能化和自動化的社會環(huán)境中保有尊嚴(yán)和自主性。

 

 

原文刊載于《數(shù)字法治》2023年第3期,轉(zhuǎn)自微信公眾號“ 數(shù)字法治雜志”。