人工智能法律主體地位探討

時間:2022-12-28 09:00:02

導語:人工智能法律主體地位探討一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

人工智能法律主體地位探討

[提要]法律主體應當具備類人的自我意志、自律性等主體性要素。人工智能的發(fā)展也許會無限的類人化,但是并不能達到復刻人類必備特質(zhì)程度。盲目將其納入法律主體范圍,無疑會對整個法秩序產(chǎn)生“質(zhì)變”影響。時下,對人工智能體的風險防范應主要致力于如何確保其未來發(fā)展的“可控性”,亦或?qū)で笕斯ぶ悄芗{入法律客觀范圍等其他解決路徑。

關鍵詞:人工智能;法律主體;自主意識

一、問題的提出

隨著國家綜合國力的提高,科技水平的迅猛發(fā)展,與此同時也伴隨著一些憂慮。人工智能是否可以在人類可控環(huán)境下逐步實現(xiàn)技術飛躍仍然是一個未知問題。庫茲韋爾在其奇點理論中提到人工智能在未來的某個時刻極大可能出現(xiàn)發(fā)展的不可控性,并預測在2045年,人工智能將超越人的智能。這種猜測在法律領域也有折射。但在某種意義上說,此舉也確實將人工智能的法律主體資格這一問題擺在了人們面前。我們首先需要明確,法律主體即是在法律規(guī)定的范圍內(nèi)從事社會各項活動的人,是以馬克思主義哲學為基礎認知。可以進一步理解為,法律層面上的主體即為哲學層面上的主體,因而所有的自然人都是法律主體,也是哲學層面上的主體。一個自然人從出生到死亡都是在社會這個大家庭中生活,自始至終是以一個社會人的角色生活著。而法律作為社會生活各方各面的“潤滑劑”,使得所有的自然人在以社會人身份生活的同時,還必須成為法律人,即作為法律主體而存在。既然如此,人工智能是否和應否作為社會甚至是法律意義上的“人”還有進一步探討,不能一概而論的賦予其與人類享有同等地位

二、法律主體的標準

(一)法律主體的哲學意義定位。法律主體即為法律意義上的主體,是以馬克思主義哲學為基礎認知的。在此基礎上,主體即為人,人即為主體,兩者之間是可以畫等號的。作為主體要同時具備三個條件:(1)能掌控自己的生命活動;(2)能左右外部世界;(3)可以控制自己的欲望。上述三點都說明一個特性,即意志。由此可以看出,主體是本身就具備意志存在物的。而同時具備這三點的,即具有意志的主體也就只有人了,人以外的其他生物很難同時做到這三點。意識是人腦的技能是從哲學觀念出發(fā)。馬克思在研究物質(zhì)與意識之間的關系時曾得出:“觀念的東西不外乎是移入人的頭腦并在頭腦中改造過的物質(zhì)的東西”,物質(zhì)是意識的起源,意識是對客觀世界的主觀反映,而人腦是意識的載體。如果脫離人腦,人類將無法認知世界,同時也就沒有辦法形成主觀意識。另外,意識的本質(zhì)特征還在于“意識到必須和周邊的人們來往”,如果不與周圍之人來往,那么他脫離了社會關系,即使他具備一定的人腦的生理機能,也不會有人的意識。是由于人類的行動是由社會關系的需要來決定,因而社會關系的總和是由人的社會性構(gòu)成,在某種程度上,社會性表現(xiàn)在人的行動上,通過社會勞動獲得自我物質(zhì)需求、精神需求,與此同時還能滿足社會、他人的物質(zhì)需求,并獲得自我價值。根據(jù)以上,人工智能體要想擁有人類的意識,第一,應具備意識之載體,即與人腦結(jié)構(gòu)高度相似的人腦仿真;第二,存在相當?shù)纳鐣P系,而事實上,科學技術發(fā)展的有限性及人腦結(jié)構(gòu)的高度復雜性決定了人工智能體無法克隆人類完全一樣的大腦,且仍不能適應社會。另外,從人的經(jīng)驗與情感角度來看,人工智能與人類智能仍有差別。第一,人類的經(jīng)驗具有獨特性和差異性。每個人在生活中的經(jīng)歷各不相同。因此,他們對同一件事結(jié)合個人的經(jīng)驗、常識、直覺等很可能產(chǎn)生不同的看法或者不同的處理方式。而這一點恰恰是強人工智能無法模擬的。通過算法對現(xiàn)存信息的提取、剖析和分類是人工智能做出判斷的方法。然而,人類是通過大量常識性知識進行分析人們所面對的問題,并不是像人工智能通過大數(shù)據(jù)的剖析、提取所得。第二,強人工智能擁有的EQ與人類有較大差距。強人工智能所能體會的“喜怒哀樂”仍然是對數(shù)據(jù)的分析和處理。即使將來真正出現(xiàn)“情感機器人”,這種“情感”仍然屬于“人造情感”,與人類的情緒世界截然相反。明斯基曾指出:智能的與情感、直覺和感情都是相通的,只不過是人類另一種思維方法。理智后于情感而產(chǎn)生,而人工智能只具備智力很難具備情感,因此不是真正意義上的智能。人類的經(jīng)驗和情感的不可復制性也決定了人工智能不能具備人類那樣的意識。

(二)各部門法視角下法律主體的標準。不同部門法之下,法律主體的范圍有所區(qū)別,民法領域包括自然人、法人、非法人組織;刑法領域主要以自然人和單位為主;而在國際法上主要指國家與國際組織。不同部門法之下的法律主體對于人工智能的法律主體資格問題參考意義也有所差別,因此有必要分別討論。

1、民事法律主體標準。參加民事法律關系享受權利和承擔義務的人,即民事法律關系的當事人。一般情況下,享有民事權利和承擔民事義務是民事主體權利能力的體現(xiàn),也即權利義務主體的資格。在民法上,自然人和法人的民事權利能力大致相同,自然人出生時開始享有,死亡時終止;法人則以成立為起點,注銷時終止。人工智能能否享有與人類相同的民事權利呢?筆者認為,人工智能能否具備民事權利可以從以下幾個方面探討:一方面人工智能是否存在與自然人法律人格的共同性?本文談論到,自然人是集理性、道德、情感于一身的存在,自我意識比較顯著。而人工智能則是依據(jù)固定的算法、大數(shù)據(jù)分析來實施人類指令,弱化自我意識,強調(diào)服從意識,其內(nèi)在核心為邏輯運算。強的人工智能可能會做出一些面部表情甚至通過語言來與人類進行溝通,但其內(nèi)在并不知如何定義是非、善惡,即便能夠知曉,也是通過人類輸入的數(shù)據(jù),其進行邏輯運算得出的,缺乏必備的價值感和道德感。依靠一定的手段通過邏輯算法得出的結(jié)果,并按人工輸入的默認程序做出的表示。另一方面人工智能能否具備與人類平等的民事主體地位?筆者對此持否定的態(tài)度。民事主體地位是在法律規(guī)定的范圍內(nèi)享有,以憲法為根本準則。假設人工智能與人類享有平等的民事主體地位,其超強的邏輯運算能力是否會為追逐利益最大化而損害自然人的正當利益?是否會破壞市場正常的經(jīng)營秩序?是否會危害國家的安全?我們并不能對此表示肯定,所以只能對賦予人工智能與人類平等的民事主體地位表示否定。民事主體資格的產(chǎn)生與滅失都是取決于人類社會的需要。法律沒有把現(xiàn)實社會存在的所有實體都確定為法律關系的主體,享有民事主體資格,而是在法律政策的指引之下,挑選一部分實體賦予民事主體資格。由此可以看出,人工智能并不契合人類需要,因此并沒有成為民事主體。但社會中不乏同意人工智能應被賦予民事主體資格的人,在他們看來,人工智能具有極強的自主性,我們不能簡單地將其看成一個供人類操作的一個被動性工具,而應賦予其主體資格,享有特定的權利,履行相應的義務,承擔一定的責任。反之,則有些人認為,人工智能主要靠技術人員輸入數(shù)據(jù)進行邏輯分析,缺乏意志、沒有自主意識,不具備主體條件,仍然是人類開發(fā)利用的工具。面對觀點迥異的兩種主張,如何更加理性地看待問題的本質(zhì),需要從法哲學的層面來探討,將人工智能置于法律主體的哲學基礎之中,為人工智能立法提供理論上的幫助。不可置否,有部分學者認為,法人也并非是真正意義上的人類,將人工智能推理為法人,由此認定其享有法律主體地位。需要注意的是,法人是享有民事主體資格的組織,它和自然人一樣,同屬于民事主體的范圍,是民事主體中的重要組成部分,法人是具有民事權利能力和民事行為能力,依法獨立享有民事權利和承擔民事義務的組織;另一方面,法人有較好的集合能力,在為追求同樣目的的時候,兩個甚至多個可以組成一個團體,可以通過分工協(xié)作的方式完成目的。為實現(xiàn)各項功能、規(guī)范秩序,這個團體就需要由特定的人來行使特定的權利,而特定的人就是為實現(xiàn)團體功能,規(guī)范秩序以章程的方式推選的,如法人代表。其行為是按照章程規(guī)定的方式,由此可見法人的行為可以看成是法人團體的行為,所以法人是可以成為團體的機關。著重在于該行為是由于團體章程規(guī)定的并不是由于法人本身。從這一方面來說,法律擬制的法律人格無法類比于人工智能,人工智能更多的是由于人類預先設定的程序進行的,不能像法人一樣逐漸適應繁瑣的法律活動;另一方面法人可以在其權利受到侵害或者因他人不履行義務時尋求法律保護,該權利是由法律賦予的,然而權利實際是由該團體享有的。從這方面來看,即便賦予人工智能民事權利,也不具備獨立財產(chǎn),更無法承擔民事責任,也就無法真正地融入到民商事活動中。

2、刑事法律主體標準。在今后發(fā)展中,人工智能體即使形成一定獨立意識,但這種意識也非絕對自由的意識。恩格斯之前提出:“道德和法的問題要在研究自由意志、人的責任、必然和自由的關系下探討”。在沒有形成自由意志的情況下,意味著對自身行為無法真正具備控制能力。對于一個犯罪行為的處罰,要求行為主體具備刑事責任能力。而決定刑事責任能力的因素有兩個:一是年齡;二是精神狀況。這兩個原因最終決定刑事責任能力是否存在,同時它們又是刑事責任能力必備要素,究其原因為這兩個因素影響了人的辨認能力和控制能力。只有在行為人具有辨認能力與控制能力時,才能找到對其進行刑事處罰的正當依據(jù)。一方面強人工智能不具備刑事責任能力,自由意志的欠缺決定了它們并不能完全獨立地實施一系列行為;另一方面不具備刑事責任能力,致使其沒有刑事主體資格。根據(jù)犯罪構(gòu)成四要件說:(1)客觀上實施了嚴重危害社會的行為;(2)主觀上存在故意或者過失;(3)客體上侵害了刑法所保護的社會關系;(4)主體即為實施犯罪行為、依法應當負刑事責任的自然人和單位。任何不具備刑事責任能力的主體都喪失了受到刑罰處罰的可能性。人工智能體終究是人類智慧的創(chuàng)造物,因而在任何時候都無法真正脫離人類的控制。人工智能實施的行為在某種程度上仍然夾帶著一些人類的意志。人工智能永遠無法橫跨人類大腦,只能無限的趨近。人工智能體不能擁有與人類相同的自由意識,不能對自身行為做出是非善惡之分,因而也就不是一個適格的刑事責任主體。綜上所述,人工智能不宜成為法律主體,但可以尋求其他解決途徑,對人工智能未來發(fā)展進行風險防控。一方面可以將其定位為法律客體。法律最主要的目的就是達到社會關系鏈條的一種穩(wěn)定性和連貫性,因此這種法律的本質(zhì)變化是一個自相沖突的事實。所以,在仍持有懷疑的態(tài)度下是否進行通用人工智能研究的今天,以穩(wěn)定性和連貫性為主的法律如果帶領人們在法律的框架內(nèi)賦予其主體地位,將會顯得比較草率。在2020年人工智能峰會中,演講嘉賓都不約而同地提到人工智能在數(shù)據(jù)分析、邏輯運算方面的重要作用,人工智能的價值在于為人類所用,凸顯著法律客體地位的充分需求。另一方面保證人工智能在人類可控范圍內(nèi)發(fā)展。人工智能無論是對知識的獲取、對行為的認知還是對情境的反應等,無一不是通過人類輸入的數(shù)據(jù),通過對各項數(shù)據(jù)的分析、運算得出的,并不是實際參與社會生活的結(jié)果,不具備社會性。進而言之,人工智能不能擺脫人類的控制,其本質(zhì)意義上始終是為人類服務的工具。如果說將來人工智能真正實現(xiàn)獨立思考,能夠自主支配行為,對人類能夠?qū)嵤胺纯亍睍r,那么造就這類人工智能體的意義是什么?對人工智能“居安思危”固然是沒錯的,但并非一定要將其推向法律主體。當下,最應當致力于如何保障人工智能在人類可控范圍內(nèi)發(fā)展,這要比增設一個新的法律主體類型更為簡便。“未雨綢繆”未嘗不是一個好的選擇。

主要參考文獻:

[1]劉洪華.人工智能法律主體資格的否定及其法律規(guī)制構(gòu)想[J].北方法學,2019(04).

[2]驍克.論人工智能法律主體的法哲學基礎[J].政治與法律,2021(04).

[3]張鶴鳴.意識是人腦的機能嗎[J].學術研究,1986(03).

[4]白海娟.人工智能“犯罪”之否定[J].蘭州學刊,2020(08).

[5](美)馬文·明斯基,著.情感機器:人工智能與人類思維的未來[M].王文革,等,譯.杭州:浙江人民出版社,2016.

[6]王利明.民法總則研究[M].北京:中國人民大學出版社,2012.

[7]馬克思恩格斯選集(第2卷)[M].北京:人民出版社,1995.

作者:蔡澤男 單位:吉首大學法學與公共管理學院