文丨曹建峰
人工智能事故的責任是AI時代的核心問題
深度學習的“黃金十年”之后,AI時代已然到來,AI系統(tǒng)已然成為21世紀最顯著、最重要的技術(shù)物之一,不斷催生出各種新的智能產(chǎn)品、服務(wù)和應用,諸如Robotaxi、AI陪伴應用、人形機器人等。而且,在規(guī)模法則(scaling law)的引領(lǐng)下,以大模型為代表的AI技術(shù)仍在加速發(fā)展,甚至引發(fā)了“AI加速主義 VS AI價值對齊”的發(fā)展理念分歧。AI領(lǐng)域的知名專家學者紛紛預言AGI的到來時間,設(shè)想未來十多年的變革與影響。這場AI革命將帶來什么樣的變化和影響,也許是人們現(xiàn)在還無法全面預估的,但我們至少不應低估AI技術(shù)的長期影響。
目前看,AI技術(shù)的發(fā)展和應用,不僅讓各種產(chǎn)品正日益成為具有自主智能的產(chǎn)品,而且讓人們從互聯(lián)網(wǎng)時代加速進入以算法、機器人和AI智能體(AI agent)作出經(jīng)濟和社會決策為核心特征的AI社會或者說算法社會(algorithmic society),算法由此成為支持網(wǎng)絡(luò)化、數(shù)字化、智能化發(fā)展的核心技術(shù)因素。這可以帶來安全和效率的顯著提升,但無法保證消除所有的事故和風險。沒有絕對安全的技術(shù),技術(shù)在減少、消除某些方面的風險的同時,卻可能在其他一些方面制造新的風險。近年來,給他人權(quán)益造成損害的AI事故快速增加,從自動駕駛汽車和有形機器人的安全事故到AI診療軟件的錯誤診斷再到各種自動化決策系統(tǒng)的算法歧視、不公平?jīng)Q策,可以說,AI事故和AI侵權(quán)正日益成為AI社會的“新常態(tài)”。根據(jù)OCED對全球范圍內(nèi)的AI事故的監(jiān)測,2014年1月以來全球AI事故快速增加,截至2023年12月總數(shù)已達7195起。例如,2024年10月以來,AI聊天機器人平臺Character AI面臨導致美國青少年自殺等爭議,已成為至少兩起訴訟的被告,原告主張character AI存在設(shè)計缺陷,屬于缺陷產(chǎn)品,要求其開發(fā)者承擔產(chǎn)品責任。
在人工智能的應用無處不在的今天,人們必須正視AI事故和AI侵權(quán)的法律責任問題。當AI系統(tǒng)造成事故和損害,法律必須給受害人提供公平且有效的救濟。但問題是,誰應為AI事故和AI侵權(quán)負責?高度自主的AI系統(tǒng)可能在沒有直接的人類控制、干預或監(jiān)督下獨立采取行動或作出決策。這意味著,在人工智能語境下,由于相關(guān)的行為和決策從人類轉(zhuǎn)向智能系統(tǒng),事故和損害也開始從由人類和人類行為造成轉(zhuǎn)向由AI系統(tǒng)及其行為造成。這種轉(zhuǎn)變給法律責任的分配和承擔提出了挑戰(zhàn)。相關(guān)挑戰(zhàn)不僅在于識別責任主體的困難,而且在于AI系統(tǒng)的自主性、不可解釋性、不可預測性等諸多特征給證明過錯/缺陷、因果關(guān)系等責任構(gòu)成要件帶來的困難,更在于AI侵權(quán)的責任承擔方式的難題(例如,如何針對AI系統(tǒng)采取行為禁令、關(guān)停等懲罰措施)。
AI侵權(quán)責任的三種新方案真的可行嗎?
為此,有人提議針對AI侵權(quán)建立全新的責任制度,大致包括三種方案。
一是人格方案,簡單來說就是賦予AI系統(tǒng)法律主體地位,從而AI系統(tǒng)可以對自己的行為直接承擔法律責任。將自主的、復雜的AI系統(tǒng)視為獨立的法律主體,從而將侵權(quán)責任從人類轉(zhuǎn)嫁給人工智能,是一個很有誘惑的想法。歐盟立法者曾提議為自主機器人創(chuàng)設(shè)“電子人”的特殊法律地位,但最終否決了這一想法。一些學者提出可以賦予AI系統(tǒng)類似于有限責任公司(LLC)的法人地位,以解決責任承擔的難題。人們設(shè)想,就像大模型可能讓“1人公司”成為現(xiàn)實一樣,未來人工智能的發(fā)展也可能讓“0人公司”成為現(xiàn)實,即具有自主行動能力的AI系統(tǒng)(agentic AI)就可以獨立運營一家公司,而不需要任何的人類雇員。
二是替代責任、基于高風險的無過錯責任等新型責任方案,根據(jù)一種理論,尤其是在替代型人工智能的情況下,如果企業(yè)使用AI系統(tǒng)來替代人類雇員,就應對所謂的“AI雇員”的行為承擔替代責任,因為這符合功能等效原則(functional equivalence)。隨著大模型的能力的持續(xù)增強,可以憧憬,未來人們不僅可能會有可以真正代替自己行事的個人AI助理,而且可能會和所謂的“AI同事”一起工作和協(xié)作。因此,讓經(jīng)營者對“AI雇員”的行為承擔替代責任,似乎合情合理。另一種思路是,立足于基于風險的AI監(jiān)管路徑,讓提供者、所有人、使用者等主體對高風險AI系統(tǒng)造成的損害承擔無過錯責任。例如,歐盟人工智能法案的核心思路就是,基于AI風險類型化,重點對高風險的AI系統(tǒng)采取安全監(jiān)管,并禁止具有不可接受風險的AI系統(tǒng)。
三是保險方案,對于完全自主的AI系統(tǒng)造成的損害,可以考慮用社會保險、賠償基金等基于保險的無過錯賠償機制完全取代現(xiàn)有的侵權(quán)責任制度,因為繞開侵權(quán)法將避免將現(xiàn)有責任規(guī)則適用于人工智能所面臨的諸多困難。在過去,無過錯賠償機制完全取代侵權(quán)損害賠償?shù)睦硬⒉货r見,工傷、交通事故、醫(yī)療傷害、疫苗損害等領(lǐng)域存在類似的做法。
AI侵權(quán)責任制度的構(gòu)建需要走出幾個誤區(qū)
然而,這些關(guān)于AI侵權(quán)責任的新方案過于激進、難以確保安全與自由的平衡,不僅不符合我們依然處于AI革命的發(fā)展早期和弱人工智能時代的社會現(xiàn)實,而且是基于幾個需要避免的歸責誤區(qū)。
誤區(qū)1:針對人工智能自身進行歸責。
針對AI系統(tǒng)自身進行歸責,意味著將AI系統(tǒng)視為法律主體。然而,在現(xiàn)階段,人工智能的法律人格在道德上是不必要的,在法律上是自找麻煩的。支持AI法律人格的大部分論點既過于簡單又過于復雜,過于簡單是因為人工智能存在于一個界限模糊的范圍內(nèi),目前還不存在可以被承認為法律主體的有意義的類別;過于復雜是因為許多論點是“機器人謬誤”(比如認為機器人就像人類一樣)的變體,基于對人工智能未來發(fā)展的似是而非的假設(shè)。目前看,授予AI系統(tǒng)法律人格并非解決它們“行為”責任的“靈丹妙藥”,反而可能打開“潘多拉魔盒”,引發(fā)了一系列新的法律和倫理問題,尤其是,AI法律人格將很容易導致濫用,成為一種避免和轉(zhuǎn)移法律責任和義務(wù)的機制。換句話說,AI法律人格可能是一種“法律黑洞”,一個吸走人類行為者法律責任,從中卻看不到任何問責跡象的實體??傊斯ぶ悄茏鳛槿吮旧淼囊环N活動,即使再復雜、再智能、再先進,也只是服務(wù)于人類、實現(xiàn)人類目的的工具,充分彰顯著作為法律客體、促進人類福祉的需求。在根本上,我們需要發(fā)展工具型AI(tool AI),而非所謂的全面接近人類的主體性AI。
誤區(qū)2:將公法上AI風險類型化理念和AI侵權(quán)責任規(guī)則勾連。
全球人工智能監(jiān)管的一個主要思路是采取“基于風險規(guī)制”,對具有不同風險程度的AI系統(tǒng)采取差異化監(jiān)管。歐盟人工智能法案是這種思路的典型代表,其按照風險高低,將AI系統(tǒng)分為不可接受風險AI、高風險AI、有限風險AI以及最小風險AI等四大類,并重點規(guī)定了高風險AI的要求和相關(guān)經(jīng)營者(提供者、部署者等)的義務(wù)等。其中,高風險AI的判斷標準是,AI系統(tǒng)對自然人的健康、安全、基本權(quán)利等構(gòu)成顯著的損害風險。在這種規(guī)制思路下,人們傾向于將AI系統(tǒng)的風險程度和歸責原則相掛鉤,比如將高風險AI和無過錯責任相掛鉤,而將低風險AI或非高風險AI和過錯責任或過錯推定責任相掛鉤。歐盟立法者此前提出的“人工智能操作責任條例草稿”就是這種歸責思路的典型代表。然而,將公法規(guī)制框架下基于風險的AI類型化一刀切地銜接、匹配到不同的責任規(guī)則并不合理,實際上是一種錯置。主要原因在于,高風險AI和傳統(tǒng)無過錯責任理論所針對的具有異常危險的物體或活動之間并不能簡單畫上等號;相反,人工智能的引入可能改變?nèi)藗儗ξkU領(lǐng)域的認知,所謂的高風險AI實際上可能比人類控制、操作的類似物體或活動更加安全。換句話說,所謂的高風險AI其實旨在減少風險,增加安全性,實際上比其所取代的人類活動要更加安全。
誤區(qū)3:對AI系統(tǒng)的“行為”進行過失評價。
當AI系統(tǒng)引發(fā)事故、造成損害時,如何對AI系統(tǒng)的“行為”或表現(xiàn)進行評價,是一個關(guān)鍵的問題。有人提出將過失責任原則適用于AI系統(tǒng)自身,具體來說,類比用于判斷人類行為人是否具有過失的“理性人”標準,可以采用“理性機器人”標準來判斷AI系統(tǒng)是否存在所謂的“過失”,以此限制相關(guān)主體對AI系統(tǒng)的責任。例如,此前在美國,在Nilsson v. Gen. Motors LLC案中,原告起訴美國自動駕駛汽車公司Cruise,但沒有提出產(chǎn)品責任索賠,而是選擇了基于過失的理論:這位摩托車主聲稱Cruise的自動駕駛汽車以如此疏忽的方式行駛,進入了相鄰的車道并將他撞倒,而沒有考慮到過往的車輛。這可能是歷史上第一次一個機器人被正式指控自身存在過失操作——這一侵權(quán)指控曾經(jīng)是專門針對人類行為人的。然而,這種歸責思路在任何時候都應當被拒絕,即使現(xiàn)代侵權(quán)法對過失的認定已經(jīng)趨于客觀化,但過失的概念始終指向人類行為人的行為,和人的主體性相掛鉤,將過失標準適用于AI系統(tǒng)的“行為”或表現(xiàn)是不切實際的。可以預見,隨著AI系統(tǒng)的自主性的增強,未來在很多人工智能事故中,法院需要從評價使用者(如駕駛員)的行為更多轉(zhuǎn)變?yōu)樵u價AI系統(tǒng)(如自動駕駛系統(tǒng))的行為,而對于AI系統(tǒng)的“行為”或表現(xiàn),應從產(chǎn)品缺陷的角度而不是從過錯的角度來進行評價。這要求我們及時更新面向工業(yè)時代的傳統(tǒng)產(chǎn)品的產(chǎn)品責任制度。
誤區(qū)4:基于功能等效原則對部署、操作AI系統(tǒng)的主體進行替代問責。
功能等效原則(Functional Equivalence)認為,如果AI系統(tǒng)等自主技術(shù)的使用在功能上相當于雇傭人類輔助人員,并由此造成了損害,那么運營者(operators)部署、使用該技術(shù)的責任應當與委托人(Principal)對其人類輔助人員(Human Auxiliary)的既有替代責任機制相對應,也即AI系統(tǒng)的運營者對AI系統(tǒng)造成的損害承擔替代責任。然而,這種思路是自找麻煩的,基于功能等效的責任類推乍看起來似乎很合理,但實際上卻不具有可行性。而且功能等效理論只是在表面上關(guān)注了技術(shù)的替代效應,卻沒有洞察這種技術(shù)現(xiàn)象背后的真實風險制造與控制。例如,在人工智能之前的時代,工廠利用自動化裝置取代工人,如果自動化裝置出現(xiàn)故障并造成損害,受害人會考慮追究自動化裝置的生產(chǎn)者的產(chǎn)品責任,而不是讓工廠對自動化裝置承擔替代責任。雖然AI系統(tǒng)的風險狀況可能不盡相同,但其只不過是比傳統(tǒng)的自動化裝置更高級、更智能的工具而已,這意味著,人們需要撥開功能等效的迷霧,考察哪些主體(一般即工具的提供者和使用者)制造或控制哪些風險。因為最終人們只是希望有人能夠?qū)I系統(tǒng)造成的損害承擔責任,而不是希望像追究人類行為人的責任那樣追究AI系統(tǒng)的責任。
AI時代的侵權(quán)責任制度,路在何方?
雖然人工智能給現(xiàn)行侵權(quán)責任制度的有效適用提出了挑戰(zhàn),但這并不意味著我們需要另起爐灶,采取全新的責任方案。相反,在現(xiàn)階段,通過對過錯責任、產(chǎn)品責任等既有侵權(quán)責任規(guī)則作出必要的調(diào)整,我們就能夠讓侵權(quán)責任制度適應AI時代的發(fā)展需求,并在安全與創(chuàng)新之間實現(xiàn)平衡。
其一,堅持人工智能的法律客體地位,在AI事故和AI侵權(quán)中貫徹人的責任。從技術(shù)現(xiàn)實出發(fā),現(xiàn)在的AI系統(tǒng),無論多么先進和智能,總是需要有人開發(fā)它,并將它投入使用。具體來說,雖然AI價值鏈紛繁復雜,但我們可以相對清晰地區(qū)分出提供者陣營(provider camp)和使用者陣營(user camp)這兩個群體。這種區(qū)分在法律上是有意義的,因為在每個群體內(nèi)部(比如生產(chǎn)者和供應商之間、所有人和使用者之間),責任都可以相對容易地通過合同工具分配給其中一個成員或者在幾個成員之間分擔。例如,歐盟人工智能法案區(qū)分了AI提供者和AI使用者(deployer of AI system),并重點針對這兩類主體施加了相關(guān)的義務(wù)和責任。因此,為了侵權(quán)責任目的,建立AI提供者和AI使用者的識別、確定標準,是必要且重要的。
其二,為AI時代革新產(chǎn)品責任制度。雖然在人工智能應用的很多具體使用場景中,使用者仍需履行一定的注意義務(wù)(諸如按照預期用途使用、確保數(shù)據(jù)質(zhì)量、監(jiān)測、維護等),對人工智能使用中其能夠控制的那些方面承擔責任,但長期來看,使用者的注意義務(wù)將會縮小,這意味著使用者的責任也可能會相應縮小。在AI所有人、使用者的角色和控制力持續(xù)削弱的趨勢下,未來人工智能提供者的責任將可能進入侵權(quán)責任法的中心舞臺。而AI系統(tǒng)作為一種新型的“智能”產(chǎn)品,呼吁對既有的產(chǎn)品責任制度作出必要的革新,包括產(chǎn)品概念、生產(chǎn)者界定、缺陷、可賠償損害、因果關(guān)系、舉證責任等方面。例如,在人工智能監(jiān)管方面,歐盟立法者在制定全球首部全面性的人工智能法案的同時,對1985年出臺的歐盟產(chǎn)品責任指令進行了全面的修訂,旨在為數(shù)字時代和AI時代建立全新的產(chǎn)品責任制度。與此同時,歐盟立法者仍在醞釀“AI責任指令”(AI Liability Directive),旨在針對AI使用者的責任建立更明確、更可操作的規(guī)則。
其三,保險應作為AI責任框架的有益補充機制,而非替代性機制。保險作為風險管理工具,在促進新技術(shù)安全融入社會方面發(fā)揮著不容忽視的重要作用,比如通過提供財務(wù)保障激勵創(chuàng)新并確保新技術(shù)的安全實施。通過適當?shù)恼{(diào)整和監(jiān)管干預,保險能夠繼續(xù)支持技術(shù)創(chuàng)新,并為社會提供必要的保障?,F(xiàn)有的保險制度可以被用來監(jiān)管AI系統(tǒng),但無需制定專門的或全面性的人工智能保險政策。同時應當謹慎針對人工智能應用出臺強制性的保險政策,以免適得其反地阻礙能夠帶來顯著經(jīng)濟和社會效益的AI技術(shù)的推廣普及。
其四,AI侵權(quán)責任制度之外,需要重視并積極應對前沿AI的安全風險。在人工智能治理方面,AI侵權(quán)責任規(guī)則是必要的,但其作用是有限度的,雖然能夠有效應對AI系統(tǒng)可能給人們的人身、財產(chǎn)權(quán)益造成的損害風險,但對于超級智能等前沿AI(frontier AI)可能帶來的極端風險或災難性風險,AI侵權(quán)責任規(guī)則難以起到實質(zhì)性作用。在AI加速發(fā)展趨勢下,超級智能(superintelligence)已經(jīng)呼之欲出,其潛在安全風險日益得到各國政府、研究界、業(yè)界的積極關(guān)注和重視。國外AI專家指出,長期來看,大多數(shù)人都低估了超級智能的安全風險可能有多嚴重。因此,積極倡導、發(fā)展、構(gòu)建福祉型人工智能(wellbeing AI),利用人工智能最大化個人的、社會的以及環(huán)境的福祉,將包括AI價值對齊在內(nèi)的人機對齊理念融入超級智能的發(fā)展,就顯得尤為重要。
( 作者為騰訊研究院高級研究員。文章僅代表作者個人觀點。原文首發(fā)于微信公號“騰訊研究院”。界面新聞獲授權(quán)轉(zhuǎn)載。)