作者:石冠彬,系華東師范大學(xué)教授
【學(xué)術(shù)爭鳴】
人工智能,從技術(shù)層面而言,特指使計算機程序呈現(xiàn)出人類智能的技術(shù);從客觀存在層面而言,泛指能夠表現(xiàn)出人類智能的機器設(shè)備。一般認(rèn)為,智能機器人是人工智能的最高級形式,但并不限于人形機器人,電影《流浪地球》中的MOSS、2023年引發(fā)全球關(guān)注的ChatGPT也屬于典型的智能機器人。伴隨大數(shù)據(jù)技術(shù)發(fā)展,以深度學(xué)習(xí)和機器學(xué)習(xí)為基礎(chǔ)的傳統(tǒng)人工智能技術(shù)已經(jīng)得到飛速發(fā)展。在此背景下,學(xué)術(shù)界就人工智能是否可以成為法律主體的問題展開激烈爭論。對此,筆者持肯定觀點:不論從哲學(xué)、倫理學(xué)抑或法學(xué)層面來看,人工智能成為法律主體均不存在理論障礙。
哲學(xué)的視角
其一,人工智能成為法律主體與馬克思主義哲學(xué)對“人”本質(zhì)的界定并不矛盾。誠然,馬克思主義哲學(xué)將人的社會屬性界定為社會實踐活動,而人的主體地位表現(xiàn)為人的社會屬性,但這并不意味著不屬于社會關(guān)系總和的人工智能就不能成為法律主體。因為馬克思主義哲學(xué)對人的社會屬性的界定,是針對自然人而言的,人工智能所能享有的法律人格與自然人并不完全等同——以自然人的社會屬性來論證人工智能不能享有法律人格,缺乏說服力。而且,人工智能的程序運算,本身也可視為人類活動的延續(xù)與意思表示,認(rèn)為其不具有人的價值性和實踐性的論斷,值得商榷。
其二,人工智能成為法律主體與哲學(xué)領(lǐng)域?qū)θ酥黧w性要素的認(rèn)識也不矛盾。人是情感、理性及多種元素的復(fù)合體,人的主體性要素在哲學(xué)中被定義為基于需要和自我意識形成的價值觀念,而人工智能只能模擬人的某些特定的功能,無法模擬真正的人,兩者存在本質(zhì)差別。盡管如此,也不能以人工智能不具備自我意識為由,認(rèn)定其不能成為法律主體,因為將人工智能的法律人格與自然人等同,并以此否定人工智能成為法律主體的合理性,這一論證邏輯本身就是錯誤的。從目前學(xué)術(shù)界的爭論來看,肯定論者并未主張要將人工智能完全等同于人類,即使是理論假設(shè)中未來可能出現(xiàn)的具有自我意識的強人工智能,也無法與人類等同。特別值得注意的是,哲學(xué)層面對人主體性要素的認(rèn)識,實際上只限于正常人類,對處于發(fā)病狀態(tài)的精神病患者、植物人等無民事行為能力人,要認(rèn)定其具有心理意識和自我意識、具有法律規(guī)范遵從能力的意志性恐難成立,但這并不影響無民事行為能力人的法律人格。
倫理學(xué)的視角
其一,人工智能成為法律主體并不違反倫理道德。誠然,以人為本是最高的倫理原則,但賦予人工智能以法律人格并非不道德,因為賦予人工智能以法律人格并不會影響人的主體地位,不是要將人作為客體對待,所以不存在所謂的倫理困境;蛘哒f,人工智能成為法律主體這一立場,并不存在混淆主體與客體的錯誤,根本就不會動搖“人是主體”這一定論。而且,法律上的“人”所擁有的主體資格本質(zhì)上是一種社會人格,彰顯的是法律對作為“人”的特定群體所擁有力量和地位的尊重。即使人工智能的這種社會人格是以算法程序、代碼規(guī)則實現(xiàn)的智能,也可以得到法律的肯定——法律上的“人”本身并非均要求具備生理性特征,其本身與現(xiàn)實社會中的“人”就是兩個不同的概念,現(xiàn)代各國民事立法對于法人人格的承認(rèn)足以證明民事主體理論已經(jīng)突破倫理人的范疇。
其二,人工智能成為法律主體也不會貶低人的主體地位。如前所述,賦予人工智能以法律人格,這一立場的根源就是為了更好地服務(wù)人類,且并不意味著要將具有人類智能的機器等同于“自然人”,所以不會導(dǎo)致人的主體地位受到貶低。賦予人工智能以特定的法律人格本身就是基于功利主義的考量,是出于人類利益的最大化追求,既不是要將人工智能上升為哲學(xué)層面的“人”,也不要求人工智能的智能程度和產(chǎn)品外形等同于自然人,而是源于前述被社會現(xiàn)實所需要的社會人格,這從某種程度上恰恰能凸顯人的主體地位。而且,未來立法在價值權(quán)衡的基礎(chǔ)上,完全可以在肯定人工智能享有法律人格的同時,肯定人類就人工智能本身仍能享有所有權(quán),從而將其作為客體對待。
法學(xué)的視角
其一,人工智能成為法律主體與法律人格理論并不矛盾。法律人格理論發(fā)展至今,始終貫徹人類中心主義思維,由此,自然人的內(nèi)涵、外延均無法涵蓋人工智能,法人亦與其背后的自然人密切相關(guān);而且,具有人類智能的機器確實也只是人類活動的結(jié)果,其不具有與自然人類似的內(nèi)在感知、觀察、判斷、選擇等一系列復(fù)雜行為所構(gòu)成的意思能力,也不具有責(zé)任主體必備的道德良知、倫理、規(guī)矩和習(xí)慣,更不具有生命權(quán)能。與此同時,由于“技術(shù)黑箱”的存在,人類確實尚無法解釋相應(yīng)編碼與決策結(jié)果之間的因果關(guān)系。但上述結(jié)論并不意味著賦予人工智能法律人格有違法理,也不意味著混淆了自動化科學(xué)中的工具自動化決策與人類主體性之間的區(qū)別、混淆了人之主體能力本質(zhì)與為人所創(chuàng)造工具的工作能力表象之間的區(qū)別。因為人工智能的自動化決策,是人類所“投喂”大數(shù)據(jù)與計算機程序共同合力形成的結(jié)果,兩者均是人類智性的延續(xù)與“放任”,相應(yīng)結(jié)果可被解釋為“投喂者”與程序設(shè)計者的概括性意思表示。因為所“投喂”的大數(shù)據(jù)中蘊含的價值理念本身就是自然人特有的智性、心性、靈性的外在體現(xiàn),而人類創(chuàng)設(shè)的程序所產(chǎn)生的數(shù)字運算本身,也是基于人類意志所衍生出的意思表示。從這一角度來說,法人本質(zhì)是自然人的集合體,其所做出的決策是人類的直接意志體現(xiàn);而人工智能所做決策也與人類意志緊密相關(guān),與現(xiàn)有法律人格理論并不矛盾。
其二,人工智能成為法律主體與“法律根據(jù)人的理性而設(shè)”這一法理并不矛盾。否定論者認(rèn)為,作為利益負(fù)擔(dān)者的人,會因為自身情緒等的影響做出非理性的錯誤決定,法律也正是因此才有存在的必要;但是人工智能不會出現(xiàn)類似錯誤,其并不具有價值判斷能力和道德感,其所謂的出錯也只是“執(zhí)行算法”中出現(xiàn)的“程序BUG”。筆者認(rèn)為,上述見解將法律完全視為防止人類犯錯的工具,過于片面,比如,法律確認(rèn)權(quán)利歸屬的功能就與人類會犯錯無關(guān)。而且,發(fā)明人工智能本身就是人類理性的體現(xiàn),法律調(diào)整人工智能產(chǎn)生的相應(yīng)法律關(guān)系,本質(zhì)上仍然是調(diào)整人與人之間的法律關(guān)系,仍以人的理性為基礎(chǔ)。
其三,人工智能成為法律主體與民事主體的責(zé)任能力理論并不矛盾。否定論者認(rèn)為,人工智能最終的責(zé)任承擔(dān)者是自然人,故賦予其法律人格純粹多余。這一見解,顯然是錯誤的:一方面,賦予人工智能法律人格與人工智能能否獨立承擔(dān)責(zé)任兩者之間并無因果關(guān)系,不能以人工智能不能獨立承擔(dān)責(zé)任為由否認(rèn)賦予其法律人格的合理性。從現(xiàn)行法角度來看,個體工商戶、合伙企業(yè)、個人獨資企業(yè)均屬于法律主體,但其最終責(zé)任承擔(dān)者并非主體本身。另一方面,從實操層面來看,人工智能也并非不能獨立承擔(dān)責(zé)任。借鑒法人的注冊資本制度,未來立法完全可以在賦予人工智能以法律人格的同時,通過構(gòu)建強制責(zé)任保險制度奠定人工智能獨立承擔(dān)責(zé)任的財產(chǎn)基礎(chǔ)。
其四,賦予人工智能法律人格與現(xiàn)有法律制度體系和結(jié)構(gòu)很難說存在嚴(yán)重沖突。一方面,否定論者認(rèn)為,如果認(rèn)為人工智能是主體或者具有人格屬性,那么就要從根本上改變民法的人與物二分法的基本體系,就要針對人工智能創(chuàng)造出調(diào)整現(xiàn)有人與物之外的第三種基本規(guī)則來調(diào)整人工智能這種存在形式。但是,即使承認(rèn)人工智能具有相應(yīng)法律人格,也并不需要否認(rèn)人類本身對人工智能享有所有權(quán)這一事實;換言之,法律在肯定人工智能可以享有民事財產(chǎn)權(quán)的同時,并不改變?nèi)斯ぶ悄鼙旧硐鄬τ谌祟惗缘目腕w屬性。這一制度構(gòu)建并不存在體系效應(yīng),不會對現(xiàn)有法律制度和結(jié)構(gòu)產(chǎn)生嚴(yán)重影響。另一方面,一國法律體系和結(jié)構(gòu)本身就處于不斷完善的過程之中,以保持現(xiàn)有法律制度體系和結(jié)構(gòu)的穩(wěn)定性為由,否定法律發(fā)展的合理性,存在邏輯瑕疵、缺乏因果關(guān)系。
值得注意的是,否定論者還認(rèn)為,人工智能所引發(fā)的問題,完全可以在既有的法律體系中得到解決,沒有必要通過將人工智能擬制為法律上的主體來予以應(yīng)對。客觀而言,通過重構(gòu)版權(quán)法理論、侵權(quán)法理論,確實能夠解決諸如人工智能生成物能否受到版權(quán)保護、自動駕駛責(zé)任如何承擔(dān)等問題,但是,這種理論重構(gòu)本身與肯定人工智能可以成為法律主體一樣,都屬于解決發(fā)展人工智能所帶來法律問題的可選方案,不能以前者否認(rèn)后者的合理性。換言之,未來立法賦予人工智能以特殊法律人格同樣也是社會的現(xiàn)實需求,不能因為存在其他解決方案就否認(rèn)這一可選路徑本身的合理性。而且,以有無必要來論證是否可行,本身就存在偷換概念的邏輯問題,兩者之間欠缺因果關(guān)系。
綜上所述,人工智能成為法律主體并不意味著其就必須與自然人一樣,其所能享有的只能是有限人格,即在承認(rèn)人工智能可以享有財產(chǎn)權(quán)、能夠作為創(chuàng)作主體的同時,仍應(yīng)認(rèn)可其歸屬于人類這一客體屬性。基于特殊的政策考量,在必要的情況下,可以參照公司法人的資本制度,通過出廠設(shè)定強制責(zé)任保險的方式保障人工智能的責(zé)任財產(chǎn)。這一立場尊重了人工智能的發(fā)展趨勢、符合未來社會的客觀需要,具有法理正當(dāng)性與立法方案的可行性,其本質(zhì)上是為更好地實現(xiàn)人類利益。