作者:孫良國,系大連海事大學法學院教授
【學術(shù)爭鳴】
人工智能的治理是一項復(fù)雜的系統(tǒng)工程,也是人類面對的核心問題之一。我國人工智能的發(fā)展要引領(lǐng)世界,就必須設(shè)計能夠支撐人工智能可持續(xù)發(fā)展的治理機制。其中,法律作為治國之重器,應(yīng)當在人工智能的治理中發(fā)揮重要作用。在人工智能的法律治理中,一個重要議題是,人工智能是否應(yīng)當成為法律主體。在世界范圍內(nèi),此問題引起了巨大的學術(shù)爭論和社會爭議,不同甚或?qū)α⒌挠^點不斷登場,遠未達成共識。筆者的觀點是,人工智能不應(yīng)當成為法律主體。
從實證法的角度看,立法機關(guān)可以通過法律認可任何組織、實體或者其他事物作為法律主體。任何突破傳統(tǒng)法律制度的新制度,都必須是經(jīng)過價值判斷后的恰當結(jié)果。人工智能是否應(yīng)當成為法律主體,取決于如下價值判斷:既能夠促進人工智能的發(fā)展,同時也能夠消除人工智能的不當風險。技術(shù)變革往往會伴隨風險,但只要風險可控且不會對人類價值產(chǎn)生不可接受的影響,那么法律就應(yīng)采取最優(yōu)措施來抑制風險?紤]當下功用,兼顧長遠影響,總體來看,維持目前法律制度,不賦予人工智能以法律主體地位,是人工智能法律治理的最優(yōu)解。
人工智能的發(fā)展并不需要其成為法律主體
人工智能是概括性術(shù)語,從機器學習到大規(guī)模語言模型等均包括在內(nèi)。人工智能是否需要成為法律主體,可以從法律主體的歷史演進規(guī)律獲得啟示。
整體而言,法律主體演進的基本規(guī)律可概括為從“人可非人”到“非人可人”。即使到近代社會,自然人(公民)之間的權(quán)利也是有差別的。只有在現(xiàn)代法治國家,自然人才享有平等的民事權(quán)利。不僅如此,法律主體也已經(jīng)不再限于生物學意義上的人,公司等實體也獲得了法律的明確承認,同時附之以股東或者出資人以自己對公司的出資為限承擔責任。此種承認促進了現(xiàn)代科學技術(shù)和組織形式的跨越式變革,推進了人類的文明進步。盡管部分學者列舉或者設(shè)想了目前人工智能應(yīng)當作為法律主體的具體場景,然而經(jīng)過仔細分析,這些場景都沒有顯示出人工智能需要作為法律主體的真正客觀需求,也沒有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智能的發(fā)展而通過使人工智能成為法律主體會掃清該障礙。
有學者認為,對社會生活的參與是判斷是否設(shè)定法律主體的重要因素。這一說法值得商榷。因為參與社會生活的身份有主體和客體之分,人工智能是作為客體如機器、軟件、程序或系統(tǒng)而參與的。即使客體很智能,甚至可以在既有技術(shù)設(shè)計下做出獨立判斷,但此種獨立判斷所歸責的主體仍舊是設(shè)置、控制或使用該機器的主體,所代表的依然是設(shè)置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個完全不同的問題。例如,對很多人來說,寵物已經(jīng)成為社會生活的重要部分,其中部分人對寵物的依賴性要遠高于其他事物,但這并不能證成寵物成為法律主體。同理,雖然人工智能非常重要,但法律仍然沒有使之成為法律主體的內(nèi)在需求。
從責任能力視角看,人工智能不能成為法律主體
在民法上賦予法律主體資格的一個重要條件是責任能力。承擔責任意味著,法律主體承受不利的財產(chǎn)負擔,而且該法律主體通常應(yīng)當是最終的責任承擔者。責任能力的一個前提條件是,法律主體必須有獨立的財產(chǎn)。如果沒有獨立的財產(chǎn),那么使人工智能承擔責任就沒有實質(zhì)意義。到目前為止甚或是在相當長的未來,我們都很難設(shè)想人工智能需要或者能夠擁有獨立財產(chǎn)。由于這一前提條件并不具備,那么人工智能成為法律主體也就沒有必要或者可能。從既有的媒體公開報道的人工智能導(dǎo)致人身或者財產(chǎn)損害的案件中,我們均可以根據(jù)既有法律規(guī)定找到需要承擔責任的主體——開發(fā)人、設(shè)計者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智能所引發(fā)的人身或財產(chǎn)損害問題。
進一步說,人工智能成為法律主體甚至有潛在的不可預(yù)計的風險。人工智能成為法律主體的一個自然推論是,它能夠獨立承擔責任。由于人工智能的確會導(dǎo)致傷害甚或大規(guī)模傷害,如隱私泄露、數(shù)據(jù)毀壞、人身損害等——到目前為止,即使是專家也很難完全了解大規(guī)模模型的內(nèi)在運行機制,并準確預(yù)測未來可能發(fā)生的傷害及其規(guī)模,而且對如何抑制未來的大模型傷害尚未形成共識。不僅如此,更危險的情形可能是,人工智能會有意或無意生成執(zhí)行危險行為的能力,甚至“學習掌握”如何影響人類使用者,進而鼓動特定群體以破壞性甚或毀滅式方式行動。此時,人工智能承擔責任就意味著開發(fā)、設(shè)計、運行、使用人工智能的主體將可以逃避法律制裁,這是極不可取的結(jié)果,必須予以避免。盡管“刺穿人工智能面紗”制度可以減緩上述不利后果,但是該制度應(yīng)當有嚴格的適用要件,不可常規(guī)性地使用,否則就有違人工智能作為法律主體的設(shè)計初衷。
情感、理性、意志不證成人工智能成為法律主體
情感、理性、意志與人工智能的法律主體問題有內(nèi)在關(guān)聯(lián)。一種觀點認為,賦予法律主體的一個傳統(tǒng)要素是,其必須能夠有情感、理性、意志。盡管人工智能是以深度學習為基礎(chǔ),然而,既有的人工智能大都不存在情感。盡管有些人工智能的技術(shù)領(lǐng)導(dǎo)者認為,人工智能很快就向有情感的方向發(fā)展。然而,即使有情感,甚或是自主情感,人工智能也不應(yīng)當成為法律主體。因為相比很多人工智能而言,很多動物已經(jīng)具有豐富的情感甚至一定的自我意識。盡管動物可以獲得某些權(quán)利,然而從主導(dǎo)價值觀審視,動物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國民法典也采納了此種立場。從規(guī)范意義上評價,情感、理性、意志并非賦予法律主體的必備要素。與此相關(guān)的是,即使人工智能的推理能力已經(jīng)超過了人類,也無法證成賦予其法律主體地位是一種必備或者最優(yōu)的解決方案。
在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國家通過立法賦予了珊瑚礁、河流或機器人以法律主體資格。然而我們發(fā)現(xiàn),這些特殊事物都沒有在民事法律中成為法律主體,更沒有在民事基礎(chǔ)性法律——民法典中成為法律主體。2017年新西蘭通過立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協(xié)的一部分,是因為毛利人一直認為該河有生命力,該法的通過能夠給毛利人帶來希望。在特別的法律中賦予其某些特殊利益或者權(quán)利,并不能在一般意義上證成其應(yīng)當成為法律主體。
人工智能不作為法律主體并不影響人工智能法律制度的變革
可以預(yù)見的是,人工智能已經(jīng)或者在未來可能會經(jīng)受傷害;谌祟惖膬r值判斷以及現(xiàn)代法治文明,法律制度也不應(yīng)故步自封,一個可能的預(yù)備解決方案是,盡管人工智能不應(yīng)當成為或者不是法律主體,但是有情感的人工智能機器人或者其他產(chǎn)品未來可能會受到法律的特殊規(guī)制,以保護人類對它們的某些情感利益和其他利益。
人工智能的復(fù)雜性也會產(chǎn)生一些現(xiàn)行法很難有效解決的問題。例如,大多數(shù)人工智能系統(tǒng)都是諸多開發(fā)人、設(shè)計者、所有人、經(jīng)營者、用戶之間通過復(fù)雜的跨國協(xié)議產(chǎn)生的產(chǎn)品,在這一相互獨立的關(guān)系的國際化網(wǎng)絡(luò)中,確定某個或者某幾個主體來承擔責任幾乎不可能。不僅如此,基于不透明性以及一些人工智能系統(tǒng)的自我學習性,傷害的風險可能是以一種負責開發(fā)的主體所不可預(yù)見的方式導(dǎo)致的,確定特定實體來承擔責任更是難上加難。這就需要人工智能法律制度的持續(xù)變革。更好擁抱人工智能的方式是設(shè)定適應(yīng)性的治理框架,以保護人類的文明成果。人工智能促進人類向好的方向發(fā)展,就需要通過多層次制度為基礎(chǔ)的有效治理來促使其具有可解釋性、可預(yù)測性、可信賴性。