2024全球開發(fā)者先鋒大會(huì)(2024 GDC)于3月23日至24日在上海舉行。大會(huì)的重磅活動(dòng)——“大模型前沿論壇”于3月24日上午在上海徐匯西岸舉行。上海交通大學(xué)文科資深教授兼校務(wù)委員會(huì)委員、中國(guó)法與社會(huì)研究院院長(zhǎng)、中國(guó)計(jì)算機(jī)學(xué)會(huì)(CCF)計(jì)算法學(xué)分會(huì)會(huì)長(zhǎng)、人工智能治理與法律研究中心主任季衛(wèi)東出席論壇,并作為嘉賓參與了對(duì)話環(huán)節(jié)。
作為論壇第二場(chǎng)嘉賓對(duì)話環(huán)節(jié),季衛(wèi)東教授與復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授張奇,阿里云通義實(shí)驗(yàn)室首席安全官?gòu)垬s,復(fù)旦大學(xué)研究員、博士生導(dǎo)師馬興軍等多位專家在上海人工智能實(shí)驗(yàn)室治理研究中心副主任研究員王迎春的主持下,就“大模型治理:技術(shù)、生態(tài)與未來(lái)”的話題展開了研討。
在嘉賓對(duì)話中,主持人王迎春首先就大模型時(shí)代的安全問(wèn)題進(jìn)行了提問(wèn)。季衛(wèi)東教授對(duì)此談到“如何應(yīng)對(duì)大模型時(shí)代安全與發(fā)展之間的張力”是大模型治理與人工智能立法所亟需解決的問(wèn)題。雖然自2023年12月12日英國(guó)司法部門允許法官使用AI撰寫裁決后,人們似乎慢慢接受了大模型與人工智能的廣泛應(yīng)用,但其安全保障一直是社會(huì)各界所熱議的話題。在2024年3月13日,歐盟議會(huì)雖然投票通過(guò)了《人工智能法案》,為人工智能系統(tǒng)開發(fā)者制定了全面規(guī)則,以此試圖保障人工智能的安全。但對(duì)此已有150多個(gè)歐洲科技企業(yè)聯(lián)名發(fā)布了公開抵制信,認(rèn)為其會(huì)拖累歐洲的人工智能發(fā)展。據(jù)相關(guān)研究表明,歐盟《人工智能法案》的實(shí)施將會(huì)吞噬人工智能投資的17%,嚴(yán)重阻礙歐盟的數(shù)字化進(jìn)程。此外,人工智能的安全雖然中文統(tǒng)稱為“安全”,但英文里的“safety”和“security”是有嚴(yán)格區(qū)分的。這兩詞也經(jīng)常同時(shí)出現(xiàn)在各國(guó)發(fā)布的人工智能倫理原則之中?!皊afety”往往強(qiáng)調(diào)的是一個(gè)系統(tǒng)、組織或個(gè)人按照自己的機(jī)制正常運(yùn)轉(zhuǎn)的“穩(wěn)定狀態(tài)”,其價(jià)值目標(biāo)在于系統(tǒng)自身的穩(wěn)定運(yùn)行。因此,safety所強(qiáng)調(diào)的安全性可以說(shuō)是大模型性能的根基之一,因?yàn)槭欠衲芫S持系統(tǒng)自身穩(wěn)定運(yùn)行也是大模型性能評(píng)估的重要指標(biāo)之一。而“security”所強(qiáng)調(diào)的是免受來(lái)自外部“蓄意或惡意”的傷害,采取必要的措施防止這樣的傷害發(fā)生。所以,“公共安全”才會(huì)用public security來(lái)表示。這意味著“security”的安全是需要了解外部可能存在的潛在威脅,并采取相應(yīng)的應(yīng)對(duì)與防范措施來(lái)保障的。
在其他幾位對(duì)話專家就人工智能的安全問(wèn)題發(fā)表觀點(diǎn)后,主持人王迎春又對(duì)“如何協(xié)調(diào)不同國(guó)家和地區(qū)在人工智能治理方面的差異,促進(jìn)人工智能的國(guó)際合作”進(jìn)行了提問(wèn)。季衛(wèi)東教授對(duì)此表示“注重溝通與程序,強(qiáng)調(diào)法律多元主義”是推動(dòng)人工智能多元共治的重要路徑。以人工智能倫理與立法為例,若將人工智能倫理視為一種普適性的實(shí)體性道德規(guī)則,將人工智能立法的目標(biāo)設(shè)為制定一套全球通用、全場(chǎng)景適用的實(shí)體法,那么人工智能倫理與人工智能立法就不可能實(shí)現(xiàn)國(guó)際合作,人工智能治理的多元性也就無(wú)法得到體現(xiàn)。因此,有必要強(qiáng)調(diào)多元主體針對(duì)人工智能治理多元價(jià)值的溝通過(guò)程,區(qū)分具有地域、場(chǎng)景和國(guó)別差異性的人工智能道德,與針對(duì)此種差異性進(jìn)行溝通協(xié)商的人工智能倫理,將人工智能倫理理解為一種針對(duì)用于評(píng)價(jià)決策合理性的道德規(guī)范出現(xiàn)不確定性時(shí)進(jìn)行意義處理的程序性規(guī)則。此外,對(duì)于人工智能的可解釋性問(wèn)題,溝通與程序同樣是一個(gè)有意思的切入點(diǎn)。例如近期在Nature出版社旗下人文社科類期刊Humanities and Social Sciences Communications上發(fā)表了一篇題為“理解可解釋人工智能的困境:儀式對(duì)話框架的建議”(Understanding the dilemma of explainable artificial intelligence: a proposal for a ritual dialog framework)的研究,該研究從人機(jī)交互視角來(lái)把握與解釋用戶對(duì)人工智能的“信任”問(wèn)題,這種信任受到用戶與人工智能模型創(chuàng)造者之間對(duì)話的影響。因此,該項(xiàng)研究認(rèn)為,提升XAI的用戶信任需要一個(gè)儀式性對(duì)話框架(RDF)。儀式性對(duì)話框架的重要性在于,不論解釋的性質(zhì)如何,理解應(yīng)當(dāng)是目的論的。儀式性對(duì)話框架基于人工智能模型開發(fā)的社會(huì)環(huán)境,意識(shí)到人工智能系統(tǒng)的可信度常?;谏鐣?huì)對(duì)技術(shù)、權(quán)威和共享經(jīng)歷的集體評(píng)估。因此,儀式性對(duì)話框架不僅是一種溝通策略,而且標(biāo)志著一種獨(dú)特的“儀式”。儀式性對(duì)話框架在這里扮演了一種儀式性的規(guī)范,作為理解到信任之間的中介,幫助實(shí)現(xiàn)用戶與可解釋人工智能及其制造者之間的信任。