国产一级a毛一级a看免费视频_一级毛片在线播放免费观看_a级毛片无码免费真人久久_一级a一片久久免费_欧亚一级毛片免费看_免费A级毛片无码免费视频_国产人成无码视频在线观看_一级毛片AAAAAA免费看

中國周刊

數字法治|驍克:人工智能體法律人格化擬制路徑之探究

2021-11-23 10:27:00

圖片1.png


驍克:華東政法大學法律學院博士研究生


本文來源:《法律方法》第34卷


人工智能并非一個近年來才被提出的科技概念。早在1956年達特茅斯會議就提出了“人工智能”的概念,20世紀7080年代,學界更是對其充滿了研究熱情。但受到當時的算法、學習能力等客觀條件限制,人工智能更多呈現出一種“有多少人工就有多少智能”的狀態。隨著算法和深度學習技術的突破性發展,2016年,擁有深度學習能力的人工智能圍棋手Alpha Go(以下稱“阿爾法狗”)以極大優勢戰勝世界級棋手李世石,人工智能展示的威力開始震驚世界;2017年,“阿爾法狗”又再一次完勝圍棋世界冠軍柯潔后,人工智能的發展再次受到全球矚目,成為當時科技界,乃至今日“全場最靚的仔”。因此,2017年被《華爾街時報》《福布斯》和《財富》等世界重要媒體稱為“人工智能元年”。同時,借著我國國家層面第一部關于人工智能發展規劃——《新一代人工智能發展規劃》出臺的政策東風,法學界第一時間秉承對現實社會的強烈關切和對熱點問題的回應,積極地開始了關于人工智能時代的“法學思考”,相關研究成果呈爆炸式增長,“人工智能+”成為如今法學界最耀眼的知識增長點。


一、人工智能體“法律人格論”的學理檢視


目前法學界關于人工智能的研究主要關注其風險防范和規制。而法律如何規制這些未來的“最強大腦”,首先必須要回答它在法律中何以安放的問題,亦即人工智能體能否擁有法律人格、繼而能否作為法律主體。實踐中,隨著有國家授予機器人“公民身份”,并且相關立法草案或建議也擬賦予機器人“主體性”,部分學者亦隨之狂歡,開始新一輪的法律“造人”計劃。主張賦予人工智能法律主體資格的論者認為,自主性是人工智能的核心特征,人類已經失去將其繼續看作僅供人類驅使的被動性工具的理由,而應給予其主體資格,讓其享受特定的權利義務,并對行為承擔責任;人工智能體成為法律主體,不僅有利于解決人工智能體自主行為的法律責任承擔問題和人工智能創作物的產權歸屬問題,還能夠為以后的高端人工智能體(即強人工智能)自主參與社會活動做好準備。目前主要形成了“權利主體說”“擬制主體說”“有限法律人格說”“代理人說”“電子人格說”,本部分將對上述學說逐一展開學理檢視。


(一)權利主體說之檢視


該學說認為人工智能體具備了權利主體的智能性這一本質要素,將人工智能“人格化”不存在法律方法論上的障礙,相反,人工智能體具有適應社會發展的正向功能性。該學說的擁躉者還從權利擴張和“實力”變化的角度,認為在權利主體的發展歷程中,奴隸、黑人、婦女、動物乃至法人等主體,取得權利主體資格,均是“實力影響、界定權利”的反映,機器人廣泛運用于社會中并體現了一定的自主性和社會優勢,故在法律上應當享有權利主體的地位,即便該權利有別于自然人的權利。


“權利主體說”明確了權利主體的本質要素,通過類比推理的法律方法,將人工智能“人格化”,主張應賦予其獨立的權利主體地位;并從法社會學的立場出發,依據“實力界定權利”的原則,認可人工智能在法律上應該享有權利主體的地位。但該推論邏輯上存在兩個問題。其一,智能性是權利主體本質要素的證成是否充分?權利主體是依法享有權利和承擔義務的法律關系的參加者,對于權利主體的核心要求應當是能夠自主依法行使權利、并承擔相應的義務。從民事領域來看,目前人工智能是否具備獨立行使人身權利、財產權利以及其他合法權益的能力?從目前看來,人工智能體僅能夠具備特定的權利,且權利的實現有賴于自然人的幫助,并不具備獨立行使權利的能力。其二,“實力界定權利”原則并非導致權利發生變化的根本原則,亦即“實力”并非權利變化的決定性因素,奴隸、黑人、婦女等法律主體權利的變遷和擴張是社會經濟和文化多種因素共同作用的結果,并且這些主體的變化仍局限于自然人范疇,并未擴充到非自然人領域。因此,根據以上兩個邏輯上的問題,直接賦予人工智能體以完整、獨立的權利主體地位,并不具備說服力。


(二)擬制主體說之檢視


該說認為,人工智能體具備了人類的思維能力,所以超越了傳統意義上“物”的概念范疇,但人工智能擺脫不了為人類服務的工具性附庸角色,所以其非物也非人,我們可以像擬制法人一樣,從法律上擬制一個新的主體,賦予其與法人一樣性質的法律地位。該主體地位依賴于自然人而非獨立于自然人,只是法律的擬制。


關于“擬制主體說”,其承認人工智能體具備超越“物”的屬性,但仍然是為人類服務的“工具”角色,和法人制度一樣“是人的手臂之延展”。因此,即使人工智能體不具備完整、獨立的權利主體地位,但仍可通過法律擬制的方式,賦予其與法人相同性質的法律地位,但人工智能體的權利行使和義務承擔,仍依賴于自然人而非獨立于自然人。這種擬制主體的方式導致人工智能體雖然具備權利與義務,但其權利行使和義務承擔完全依賴于自然人。試舉例,假設人工智能體通過一定的“創作”,取得了作品的著作權。但其權利的行使完全依賴于自然人,機器人意愿的形成和表達仍需要通過自然人的意愿來決定,而并非基于人工智能“主觀意愿的自由表達”,那在法律上建立擬制主體制度的價值何在?


(三)有限法律人格說之檢視


該學說認為人工智能體的本質依然是工具,其為人類社會服務的屬性沒有改變,但鑒于其具有獨立自主的行為能力,應賦予其法律人格;但另一方面,由于其承擔行為能力的后果有限,其僅具有有限的法律人格,這種有限性表現在以下兩個方面:一是人工智能體享有的權利與負有的義務存在有限性。因此,人工智能可被賦權的范圍應集中于虛擬空間、財產權等具有現實利益的經濟類權利上,而不包括基礎性倫理權。而義務內容就是在可控范圍內從事指定勞動,同時此義務需要加以不得傷害人類為絕對性限制,這也是阿西莫夫“機器人三原則”中對于機器人義務的限定。二是人工智能體的行為能力存在有限性。人工智能永遠無法在各個方面均取代人類,基于此類特殊生產工具的屬性,人工智能體的損害賠償責任最終需要由涉及人工智能產業鏈條上不同身份的人類主體承擔。在此基礎上,對于人工智能體仍需要特殊的法律規范予以規制。


關于“有限法律人格說”,其立論的基礎是民法上確認法人的民事主體人格,實質上是一種功利主義視角,是法律人格的工具化。而通過將人工智能與法人的類比推理,認為人工智能與法人一樣,應當具備財產權。同時,由于人工智能基于算法和深度學習,其自主決定的判斷是合理的,但不一定符合倫理。且人工智能雖然具有有限法律人格,但歸根結底依舊是由人類創造并服務于人類社會發展的智慧型工具,這從根本上決定人工智能的發展必須遵循“以人為本”的價值原則,以保護、不侵犯人類為基本底線。因此,賦予人工智能體法律人格具有有限性,并表現為行為能力、權利義務以及責任能力的有限性。其立論即限制了人工智能作為法律主體的權利,這種限制將導致人工智能體與人類在法律關系中處于不平等地位,特別是在極其注重主體平等的民事法律關系中,這種有限人格與自然人的關系展開將帶來很大的問題,且該觀點并不能普適性地運用在民法以外的范疇,如刑法、行政法領域。


(四)代理人說之檢視


該學說源自2017年的《歐盟機器人民事責任法律規則》第52條提出的“非人類的代理人”概念,其將機器人視為一種具有目的性系統的人工智能體,并視其為人類代理人,這種代理人必然是具有法律主體地位且具有行為能力的人,因此機器人的用戶或操作者與機器人的關系可以被看作是法律關系中被代理人與代理人的關系。這一認定幾乎等同于承認人工智能體具有法律人格。這個學說是對代理人概念的擴大解釋,我國民法典中雖未對代理人的資質有明確要求,但民法是調整平等主體的自然人、法人和非法人組織之間的人身關系和財產關系。


而在這個概念下,人工智能體取得法律主體地位、并且具備行為能力是其作為代理人、形成代理關系的正當性前提。但該學說并未論證人工智能取得法律主體地位的正當性,依據一般民事理論,代理人需要具備一定的權利能力和行為能力,機器人的行為能力判斷標準如何界定也未明確。在未論證主體正當性的前提下,將人工智能納入傳統的代理制度,并依此承認人工智能體具有法律人格,存在循環論證的問題。此外,根據現行代理法的規定,代理包括委托代理、法定代理和指定代理,而此時并無法將機器人代理歸入任何一類,一方面既欠缺法律的明確規定,另一方面也根本不存在任何意思表示。


(五)電子人格說之檢視


這一觀點源自歐盟通過的《歐盟機器人民事法律草案》第59f條款:長遠來看,要為機器人創設一個特殊的法律地位,以便至少大多數復雜的自動化機器人可以被確立如電子人(electronic persons)一樣的法律地位,為其制造的大量的損害負責,或者,當機器人可以作出自動化決定或者與第三人自主交流時,要申請電子人格。因此,通過給先進的自動化機器人以“電子人”的身份,賦予其一定的權利義務,以便能夠為其產生的大量損害負責。該法還進一步建議為智能的自動化機器人設定登記制度,以便為其納稅、繳費、領取養老金。該觀點通過對現行權利主體的擴大解釋,形成新的電子人格制度,賦予人工智能體以法律地位。


但是“電子人”這種有別于現有法律人格類別的新型人格類型,并不能因該機器人被生產出來而自動生成,而是需要制造商或所有人提出申請予以確認。此外,就電子人本身,也并沒有明確的內涵和外延。相較于現行的自然人、法人非法人組織,電子人具有的權利能力和義務是否有限?其行為能力應當如何確定?電子人在觸犯法律時,如何處罰?傳統的自由刑、生命刑對電子人是否有效?電子人如果本身作為自然人的財產,則對電子人“生命”與“自由”的剝奪,又間接剝奪其“主人”的財產權,這種法律競合如何處理?


綜上,雖然主張賦予人工智能法律主體資格的觀點眾說紛紜,從某一角度看似乎都有一定道理,但其論證人工智能具備法律人格的路徑,并經不起仔細推敲和認真審視。這就開啟了人工智能體法律人格化的擬制路徑分析。


二、人工智能體人格化之擬制分析


“法律主體和法律規范體系不是自然物而是人造物,是法律擬制的產物。”而這種擬制,并非狹義的擬制,而是關于主體權責、行為規范的設定,是對模糊不清的事實、界限不明的主體身份、難以斷定的行為等予以明晰的規定,是人有意識對認知對象的界定以及對行為方式和思維方式的調整。因此,從這個意義上,所有的法律人格都具有擬制性,是一種人格化擬制。


要理解所有法律人格都具有擬制性這一特征,首先需要區分自然科學意義上的“人”與法律意義上“人”。民法上的法人、自然人等法律主體所具有的法律人格以及所有的民法概念體系,都是民法為了調整不同主體之間的法律關系或進行權利責任配置,所進行的一種法律擬制。分析法學的代表人物凱爾森認為,manperson是兩個完全不同概念,將man用作person的對立表達。在他看來,作為man的人是一個自然科學意義上的生理人,而person是法學、分析法律規范的概念。從manperson的轉變背后承載的是兩種完全不同的分析范式,前者是自然界中的人,后者是規范世界中的人;前者是對客觀事實的描述,后者是對客觀事實的抽象化提煉,而這個轉變的過程,正是法律擬制。“擬制”,并不是指將一個非人的動物、實體假定為人,而是指法律人的成立,首先是源于法律的抽象建構,人之所以為人是因為根據法律規則的觀點,人展現了一種自我目的。


羅馬法認為,享有自由權就是自由人,不享有自由權就是奴隸。就市民法來說,奴隸被認為不是人,不具備法律上的人格。除了基于出生的生來自由人,羅馬皇帝有資格把自由權賜予有功的奴隸(金戒指權),使其成為解放自由人,而得到恩主同意并由恩主發布出生恢復令,解放自由人才能成為生來自由人。在此過程中,羅馬皇帝的金戒指權就是一種法律擬制,而奴隸(自然人)據此取得法律人格。“人”實際上就是“法人”,也即由法律擬制、塑造的人。


法律選擇法律主體的標準存在不同。對生物人成為法律主體,法律并無特殊要求,凡是生物人皆為自然人;但對生物人之外的其他實體則借助擬制成為法律主體,這一擬制主要是借助法定條件實現的,即其他實體要成為法律主體必須滿足法律規定的條件,否則不承認其具有法律主體資格。這些法定條件背后則隱藏著法律所追求的特定目的,只有合乎立法者認定的社會需求的其他實體,才會被賦予法律主體資格。大陸法系的法人制度清晰地說明了這一點,《民法總則》關于法人制度的相關規定即是例證。英美法系同樣如此,馬歇爾在達特茅斯學院案中指出,公司設立的目的通常是政府希望促進的目標。它們被認為對國家有益,這種利益構成了對價,在大多數案件中,授權是唯一的對價。自然人制度背后的立法目的和以法人為代表的非自然人制度背后的立法目的并不相同。康德指出:“那些其實不以我們的意志為依據,而以自然的意志為依據的東西,如果它們是無理性的東西,就叫做物件。與此相反,有理性的東西叫做人身,因為,他們的本性表明自身自在的就是目的,是種不可被當作手段使用的東西,從而限制了一切人性,并且是一個受尊重的對象。”生物人因為有理性而成為目的,成為自然人這一法律主體;除此之外都是物,只是因為人的目的才被擬制為法律主體。從這種意義上說,自然人的判斷標準是理性,非自然人民事主體的判斷標準是合乎人類需求的擬制。


因此,是否應當賦予人工智能以法律人格或獨立的主體地位,無需通過論證其與自然人或法人的相似性或對既有法律主體條款進行擴大解釋的方式來論證其法律人格,而是要看是否有助于調整人工智能產生的法律關系或有助于進行其產生的權利義務關系的配置。而現在不具備生命、意志、情感、道德的人工智能已經為人類提供了便捷服務,為了更好地規范人工智能相關法律問題,明確人工智能的法律定位,從擬制哲學的角度來講,我們完全可以通過擬制法律人格的方式,使之成為法律主體。


即使不考慮未來強人工智能完全自主行為的情況,現有的“深度算法”人工智能,已經存在“算法黑箱”的情況。而在“算法黑箱”的情況下,我們無從得知人工智能的決策中,哪一部分關系需要法律調整,而這一部分又是如何凸顯的。這既可能是設計中的不完備,亦或算法開發的瑕疵,也可能是“深度學習”中數據偏見的作用,甚至是使用者不規范使用所導致的。如現行《侵權責任法》關于產品侵權的規定,在難以界定各方責任的情況下,不能很好地保護自然人的利益。因此,賦予人工智能一定的法律人格,是回應人工智能侵權案件的現實需求。


2017216日,歐盟議會投票通過一項決議,就制定《歐盟機器人民事法律規則》提出具體建議,并要求歐盟委員會提交關于機器人和人工智能民事責任的法律提案。該決議的“法律責任”部分第AD條指出:“在現行法律框架下,機器人不應因其對第三方造成損害的行為或遺漏而承擔責任;在責任保險的現行規定中,機器人的作為或不作為的原因可以追溯到某一特定的人類代理人,如制造商、經營者、所有者或使用者,以及該代理人可以預見和避免機器人的有害行為的地方;此外,制造商、經營者、業主或用戶可對機器人的行為或不作為負有嚴格責任。”而在“民用機器人和人工智能發展的基本原則”部分第59條第f項指出:“從長遠來看,應為機器人創造一個特定的法律地位,這樣至少可以將最先進的自主機器人界定為電子人,從而負責賠償其可能造成的任何損害,并可能將電子人格應用于機器人作出自主決定或獨立與第三人交往的情形。”上述立法建議進一步證明了在機器人可以自主決策的情況下,傳統的規則并不能適用于機器人造成損害而引起的法律責任問題,因為不能確定到底哪一方當事人需要承擔賠償責任,以及由誰應當對機器人自主行為引起的損害承擔賠償責任。


人工智能體法律人格的獲取均建立在自然人法律人格的基礎之上,甚至離不開自然人的支持——無論是何種觀點,均是人類在為人工智能體賦權,而非其他主體在為其賦權。賦予人工智能體以法律人格,哪怕是不完整、不獨立的法律人格,依然有利明確人工智能體行為所產生的權利義務關系配置,有利于調整人工智能體產生的法律關系。因此,從擬制的角度來看,人工智能具備法律人格具有應然性。但人工智能體的法律人格具體應該如何明確,其權利責任究竟如何進行調整或配置,是法律擬制所難以明確的。而面對這種困境,“法教義學是法學研究不可拋棄的立場和方法,當下對人工智能法律問題的研究僅停留在對策論,離開法教義學的精耕細作和理論共識探討必將使人工智能問題研究難以沉淀。”人工智能體的法律人格如何明確,權利責任如何配置,就需要回歸到邏輯的開端和理論建構的基點,進行更細致的法律思維——法教義學。


三、具體法域中人工智能體法律人格的擬制規程


無論從非自然人存在物成為法律主體的擬制理由觀察,還是從人工智能成為法律主體的問題實質考量,人工智能體成為法律主體并不是為了保護人工智能的利益,而是為了保護人類的利益。換言之,人工智能體成為法律主體只是實現人類利益的手段,人本身才是目的。人類為了解決人工智能體引發的相關社會問題,才按照自身利益將其擬制成為法律主體。人工智能的法律主體地位與自然人的法律主體地位具有不同的涵義,人工智能體為人而存在。而從目前來看,人工智能體與人的沖突有很多領域,筆者嘗試從以下三個領域來進行探討:人工智能體的民事法律人格、人工智能體的刑事法律人格、人工智能體的著作權法人格。


(一)人工智能的民事法律人格——類法人的權利能力


法律人格問題是私法中一個最基本的問題,法律人格是法律主體的根基,法律人格、法律主體和權利能力三個抽象的概念在一定程度上能夠進行相互解釋。擁有法律人格即意味著擁有法律主體地位,也意味著能成為法律關系中的權利享有者、義務履行者和責任承擔者。從西方法律人格制度的發展史來看,“法律人格”概念和范疇經歷了不斷發展變化的歷史變遷,呈現出三方面的特征和趨勢:一是依托于“天賦人權”理念的起興和自然法“理性與平等”觀念的勃興,泛靈論和多神論逐漸式微,非人主體如植物、動物、神、上帝等被排除在法律人格和權利主體的范疇之外,自然人成為法律主體;二是法律人格的主體范圍完全覆蓋到所有自然人,自然人法律人格不再局限于羅馬法上有區別、有例外的不平等人格,而是自1804年《法國民法典》始,涵蓋到所有自然人,奴隸、婦女、黑人等不再是“會說話的工具”,所有自然人平等地成為法律主體;三是隨著經濟社會變遷和法律關系理論深入發展,19世紀末的《德國民法典》進一步抽象出權利能力、行為能力的概念,在自然人主體之外擴展擬制出“法人”人格,“法律人格”概念實現了從“生物人”向“法律人”的華麗轉型,現代法律人格制度自此成功建立。


法律人格的發展具有開放性和抽象性,特定的組織通過權利能力的賦予,實現了財產與實體的獨立化,擁有了法律上的人格,成為了“法人”。法人擬制說的主要貢獻是將法律擬制的對象“由自然人擬制為法律人擴展”到“由自然人擬制為抽象實體”。其核心觀點體現為以下三點:第一,將自然人的法律主體資格與法人從根本上區別開,前者才是真正的主體,團體人格并非來自法人本質,而是來自于自然人,也即“權利義務之主體,應以自然人為限”;第二,法人雖有權利能力,但無行為能力,法人的法律行為只能由法定代表人代理;第三,法人機關與法人的關系是雙重人格的代理與被代理關系。法人擬制說中權利能力和行為能力的分離受到了天賦人權影響。以權利為載體的權利能力必然體現和彰顯自然人的人格和意志,而法人顯然不具備這些基本的要素,因此賦予法人權利的資格已經屬于超越自然法的法律擬制,更遑論法人的行為能力賦予。一方面法人有賦予其權利能力的歷史必然性;另一方面法人又無法依賴自身行使權利,權利能力與行為能力二分可以較好地處理以上矛盾。法人不能通過法律擬制獲得如同自然人擬制那樣完整的權利能力和行為能力,但是通過法人背后的人來行使權利能力同樣可以發揮法人在社會經濟運作中的功能。


事實上,我國在部分侵權案件中,已經有限度的涉及了人工智能體。在許霆案中,“自動取款機”憑什么在沒有任何銀行人員在場管理或操作之下,可以與客戶獨立完成一系列存款取款等法律行為?“自動取款機”究竟只是一個機械工具,還是被銀行人員授權的有相對智能性和意思表達性的法律上的“代理人”。從民法教義學的角度來看,人工智能的民事法律人格類似于法人,具備有限的權利能力,但沒有行為能力(至少現在沒有),且其權利的行使有賴于自然人。原因如下:


1.人工智能缺失“意志理性”。意識、意志和理性三者有機內化融合于法律主體之中且密不可分,人作為社會關系的總和,本質上就是意志的存在形式,因而能在有自主意識的基礎上進行有選擇、有目的的認識活動和改造活動。正是基于此,法律通過調整人的意志行為,維護社會公平與秩序,并確認、形成、鞏固和發展社會關系。意志和理性是確認有無法律人格的重要因素。然而,人的意志和理性并不等同于人工智能的邏輯運算,因為決定其發揮功能和作用的算法并不能與作為設計者、制造者的自然人相分離,其擁有的判斷能力來自程序和算法的設置,無法完全進行具有自主意識的思維判斷和行為活動。人工智能缺乏自然生命所與生俱來的“靈性”和“創造性”,無法應對超出其程序之外的突發狀況,不能應對其從未被訓練過之事。而且,人工智能也不具備“喜怒哀樂”的“欲求”,缺乏內在訴求,這種欲望的匱乏不僅在哲學視角下無法成為法律主體,在法律視角下也無法產生民事活動的動機。


2.人工智能缺乏“責任能力”。責任指的是有能力對自己的行為負責,而且只有人才有能力對所做的事情負道德上的責任,這也是人區別于其他生物體所在,這也就是法律上“自己負責”理論。在法律上,承擔責任的方式主要有行為擔責和財產擔責,并且財產擔責占據主要部分。在一定程度上,“人格與人的基本物質條件相連接”,“無財產即無人格”,財產實際上成為決定是否具備法律人格、考察是否具備責任能力的最為重要的衡量因素。從法律主體制度的歷史追溯來看,無論是自然人范疇的擴充,還是法人的擬制,這些法律主體外延的展伸過程都秉持以財產為核心要素的責任能力作為判斷標準。人工智能在相關實踐活動中確實能產生一些財產性收益,但這些應屬于其背后的實際控制人——因為其所作出的行為其實是基于實際控制人的意思表示,所以法律主體應該是控制人本身而非人工智能——其僅是法律活動中憑借的“工具”。在司法實踐中,當人工智能體發生侵權事件后,一般也是由制造商、所有人或控制人根據過錯來承擔相應的賠償責任,人工智能體既無能力也無財產予以賠償。相反,若由人工智能體進行賠償,則可能導致上述主體出現“責任甩鍋”的逃避行為。


(二)人工智能體的刑事法律人格——面向未來的人格化可能性


人工智能可以分為強人工智能和弱人工智能。弱人工智能體是指不能制造出真正地推理(reasoning)和解決問題(problem solving)的智能機器,這些機器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識。“強人工智能是指有自我意識、自主學習、自主決策能力的人工智能,也是人工智能發展的終極目標,但是在意識問題沒有解決之前,強人工智能的實現還有很長的路要走。”在現階段人工智能依然應用在特定技術、特定領域應用,雖然有著一定的學習能力,但是并不能從根本上具有自主意識,仍然屬于學界所說的弱人工智能階段。因此,由于有責性缺失與刑罰無效,賦予現階段的人工智能體以刑事法律人格并不現實,但隨著未來的自主智能機器將有能力完全自主行為,具備不需要人類介入或者干預的“感知—思考—行動”,不排除對其賦予主體地位的可能。但至少目前,“在機器人社會化應用尚未真正實現之前,法律僅允許機器人權利的必要擬制、有益擬制。”


因此,探討人工智能體的刑事法律人格問題,應著眼于現有規范體系難題,尤其是深度算法的獲得以后,機器人具有自我學習或深度學習以后,如何讓其承擔刑事責任的問題。尤其是無人駕駛技術的發展,導致無人駕駛產品的侵權或“犯罪”的增加,現有的研究還主要著眼于讓相關技術人員或產品生產者等環節來承擔民事責任,能否追究該領域的相關產品的刑事責任,以及如何來承擔相關刑事責任,尤其是“刑事責任”的承擔要求行為主體的意識性、自主性以及罪責能力等法律教義學的背景下,如何對該領域,尤其是民事責任承擔無法降低整個社會風向的背景下,刑事責任的承擔也會提升日程。面對未來法治,有學者為人工智能體設計了具體的“刑罰”類型:“適用于人工智能的刑罰可以有三種,即刪除數據、修改程序、永久銷毀。”從形式上,“刪除數據”“修改程序”“永久銷毀”系對于人工智能體實施的技術操作,并會導致其本體的狀況改變。這種觀點有一定的啟發性,尤其是面對日益發展的人工智能體,尤其是深度算法和自主學習能力獲取以后,如何分配無人駕駛等領域的刑事責任問題,也是一個亟需研究的課題。


(三)人工智能的知識產權法律人格——雙重主體共同參與


20175月,微軟小冰在學習了519位詩人的現代詩、訓練超過10000次后,創作完成了詩集《陽光失了玻璃窗》,并正式出版。除了微軟小冰,其他公司也開發了眾多人工智能產品用于創作各類文學和藝術“作品”。例如,谷歌開發的人工智能DeepDream可以生成繪畫,且所生成的畫作已經成功拍賣;騰訊開發的DreamWriter機器人可以根據算法自動生成新聞稿件,并及時推送給用戶。這些由人工智能創作的成果從外觀形式來看,與人類創作的成果沒有任何區別,而且也很難被察覺并非由人類所作。21世紀以來,人工智能在“深度學習”的基礎上,已經完全能夠脫離原有程序設計者,結合外界環境學習經驗并獨立創造出新智力創作的成果。


人工智能獨立創作能力的出現,對當前著作權乃至知識產權領域的法律規則提出了新的挑戰。追溯知識產權制度的產生與發展,其最終目標都是通過賦予權利人獨占性權利及取得利益的期待可能性來鼓勵和促進創新。在目前的著作權法體系中,作品僅是指自然人、法人或其他組織創作的智力成果,作品的權利也只能由上述三者取得。由此出現一個新的難以回避的著作權問題:由人工智能創作出的智力成果能否成為著作權法體系當中的“作品”,以及這種智力成果的權利歸屬由誰來取得。對此,著作權體系必須做出回應,確保其繼續合理保護智力投資、鼓勵計算機自主創造系統發展,同時需要平衡風險,避免計算機自主生成作品的大量出現導致著作權體系的崩潰。


針對人工智能創作物的性質認定與法律保護,在西方國家已出現了相應的法律進展。英國《著作權法》第9條規定,“作者”指的是創作人;在文學、戲劇、音樂等藝術作品來源于電腦的情況下,作者應當是對作品創作做出必要安排的人。該法第178條規定,電腦生成作品是實質上沒有任何其他自然人參與作業、完全由電腦獨立創作產生的作品。根據其規定,即便在人工智能創造出創作物的情況下,也將其視為一般工具,其創作物的權利歸屬只是籠統地賦予“做出必要安排的人”,并未指明是管理人員、設計者還是程序的版權所有者。這實際上已經暗示了計算機作為著作權人的主體地位,只是將其作品的權利歸屬仍然賦予了自然人。它一方面肯定了計算機獨立生成的內容具有獨創性,另一方面又將未參與創作而促成計算機生成作品的主體視為作者。從現有技術出發,促成計算機獨立生成作品的主體一般為程序的創作者或使用者。在美國,一個由人工智能系統設計的衛星天線已被授予了專利權,專利權人是原程序的設計者。20164月,日本政府知識產權戰略總部決定著手保護人工智能創作小說、音樂等方面的知識產權。由于人工智能作品不屬于日本現行《著作權法》適用對象,因此日本將研究制定新法。相關方案也寫入了代表知識產權政策方針的《2016年知識產權推進計劃》,并且“將為運用知識產權進行革新創造的企業和大學等挑戰者提供強有力的支持”。20172月,歐盟議會通過決議并提出:“對于計算機或者機器人創作的可版權作品,需要提出界定人工智能的‘獨立智力創造’的標準,以便可以明確版權歸屬。”


從比較法的角度來看,世界各國目前仍未將人工智能視作獨立的知識產權法律主體,但都認可人工智能治理成果的獨創性,即保護作品不保護“人”。要解決人工智能在知識產權上的主體問題,必須面對兩個問題:財產權利如何保護分配、以及行為責任如何承擔。從目前來看,將權利與責任歸于人工智能本身并無異議,因為即使允許人工智能如同法人一樣,具備獨立的財產權利與責任,但人工智能體并沒有利用財產權利的內在訴求,也缺乏處分財產的制度保障。因此,較為合理的方式是以實行人工智能主體與傳統主體相結合的雙重主體模式,實現權利與義務的合理分配與統一協調。在人工智能未出售給他人之前,其創作物的權利主體地位由原始設計者與人工智能共享,責任義務也由二者共同承擔。在人工智能被出售給他人后,人工智能創作物的權利主體地位由所有者與人工智能共享,責任義務也由二者共同承擔。


綜上,由于目前人工智能體仍不具備完全的自主能力與理性,即處于弱人工智能時代,但是也應看到,自主學習和深度學習能力算法的發展,面對很多對現有法律規范進行沖擊的領域,我們亟需相應的法律方法或方式來進行應對。就人工智能體法律人格化問題,筆者認為,通過擬制的方式,有有限承認其一定的法律人格,可能更有利于規范的完善和適用,尤其民事領域和知識產權領域,實踐逐漸給我提出了很多的問題,也給我們解決問題提供了一些啟示。即使在備受爭議的刑事領域,隨著深度算法的發展,無人駕駛領域能否讓人工智能體承擔相應的刑事責任問題,也有人進行了思考。而且這種討論,會隨著技術和實踐的發展,而不斷走向開放和深入。


結 語


科技的迅猛發展為現代人的生活帶來了極大的便利,也讓我們對未來的生活充滿了愿景。傳統的規則已不能很好地的處理人工智能引起的法律關系與權利義務問題,而目前論證人工智能具有法律人格的幾種途徑,均存在邏輯上的瑕疵。從法律擬制的角度,正因為法律明確了主體權責、行為規范,才有了法律意義上的“人”,因而所有的法律人格都具有擬制性。而設立法律上“人”的定義,正是因為這合乎人類的需求。因此,在有助于調整人工智能產生的法律關系與有助于進行其產生的權利義務關系的配置的前提下,賦予人工智能以法律人格具有應然性。從民法的角度出發,由于人工智能缺乏“意志理性”與“責任能力”,人工智能尚不具備行為能力,但可以賦予其類似于法人的有限權利能力。從刑法的角度來看,人工智能體的發展,其刑事責任能力承擔的問題并不是十分緊迫,但著眼于深度學習能力和某些領域,如無人駕駛等也不斷給傳統刑事責任認定提供很多挑戰。從知識產權的角度出發,應當認可人工智能的“創造物”,但由于人工智能自身權利能力和行為能力的缺失,采取雙重主體共同參與、由人工智能與原始設計者共享主體地位并承擔責任義務更為妥帖。“人工智能并未對法律基礎理論、基本法學教義提出挑戰,受到挑戰的只是如何將傳統知識適用于新的場景”。因此,現階段不宜急于求成、一步到位的賦予人工智能以法律人格,根據人工智能的能力發展與實際場景需求,不斷地完善人工智能的權利能力與行為能力體系,才能更好地解決人工智能發展中不斷出現的新法律問題。


圖片2.png


《數字法治》專題由華東政法大學數字法治研究院特約供稿。專題統籌:秦前松

編輯:海洋

已經到底部