分享縮略圖

分享到:
鏈接已復制
首頁> 智庫中國>

人工智能不應成為法律主體

2024-08-16 16:31

來源:光明日報

分享到:
鏈接已復制
字體:

文 | 孫良國 大連海事大學法學院教授

人工智能的治理是一項復雜的系統工程,也是人類面對的核心問題之一。我國人工智能的發展要引領世界,就必須設計能夠支撐人工智能可持續發展的治理機制。其中,法律作為治國之重器,應當在人工智能的治理中發揮重要作用。在人工智能的法律治理中,一個重要議題是,人工智能是否應當成為法律主體。在世界范圍內,此問題引起了巨大的學術爭論和社會爭議,不同甚或對立的觀點不斷登場,遠未達成共識。筆者的觀點是,人工智能不應當成為法律主體。

從實證法的角度看,立法機關可以通過法律認可任何組織、實體或者其他事物作為法律主體。任何突破傳統法律制度的新制度,都必須是經過價值判斷后的恰當結果。人工智能是否應當成為法律主體,取決于如下價值判斷:既能夠促進人工智能的發展,同時也能夠消除人工智能的不當風險。技術變革往往會伴隨風險,但只要風險可控且不會對人類價值產生不可接受的影響,那么法律就應采取最優措施來抑制風險。考慮當下功用,兼顧長遠影響,總體來看,維持目前法律制度,不賦予人工智能以法律主體地位,是人工智能法律治理的最優解。

人工智能的發展并不需要其成為法律主體

人工智能是概括性術語,從機器學習到大規模語言模型等均包括在內。人工智能是否需要成為法律主體,可以從法律主體的歷史演進規律獲得啟示。

整體而言,法律主體演進的基本規律可概括為從“人可非人”到“非人可人”。即使到近代社會,自然人(公民)之間的權利也是有差別的。只有在現代法治國家,自然人才享有平等的民事權利。不僅如此,法律主體也已經不再限于生物學意義上的人,公司等實體也獲得了法律的明確承認,同時附之以股東或者出資人以自己對公司的出資為限承擔責任。此種承認促進了現代科學技術和組織形式的跨越式變革,推進了人類的文明進步。盡管部分學者列舉或者設想了目前人工智能應當作為法律主體的具體場景,然而經過仔細分析,這些場景都沒有顯示出人工智能需要作為法律主體的真正客觀需求,也沒有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智能的發展而通過使人工智能成為法律主體會掃清該障礙。

有學者認為,對社會生活的參與是判斷是否設定法律主體的重要因素。這一說法值得商榷。因為參與社會生活的身份有主體和客體之分,人工智能是作為客體如機器、軟件、程序或系統而參與的。即使客體很智能,甚至可以在既有技術設計下做出獨立判斷,但此種獨立判斷所歸責的主體仍舊是設置、控制或使用該機器的主體,所代表的依然是設置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個完全不同的問題。例如,對很多人來說,寵物已經成為社會生活的重要部分,其中部分人對寵物的依賴性要遠高于其他事物,但這并不能證成寵物成為法律主體。同理,雖然人工智能非常重要,但法律仍然沒有使之成為法律主體的內在需求。

從責任能力視角看,人工智能不能成為法律主體

在民法上賦予法律主體資格的一個重要條件是責任能力。承擔責任意味著,法律主體承受不利的財產負擔,而且該法律主體通常應當是最終的責任承擔者。責任能力的一個前提條件是,法律主體必須有獨立的財產。如果沒有獨立的財產,那么使人工智能承擔責任就沒有實質意義。到目前為止甚或是在相當長的未來,我們都很難設想人工智能需要或者能夠擁有獨立財產。由于這一前提條件并不具備,那么人工智能成為法律主體也就沒有必要或者可能。從既有的媒體公開報道的人工智能導致人身或者財產損害的案件中,我們均可以根據既有法律規定找到需要承擔責任的主體——開發人、設計者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智能所引發的人身或財產損害問題。

進一步說,人工智能成為法律主體甚至有潛在的不可預計的風險。人工智能成為法律主體的一個自然推論是,它能夠獨立承擔責任。由于人工智能的確會導致傷害甚或大規模傷害,如隱私泄露、數據毀壞、人身損害等——到目前為止,即使是專家也很難完全了解大規模模型的內在運行機制,并準確預測未來可能發生的傷害及其規模,而且對如何抑制未來的大模型傷害尚未形成共識。不僅如此,更危險的情形可能是,人工智能會有意或無意生成執行危險行為的能力,甚至“學習掌握”如何影響人類使用者,進而鼓動特定群體以破壞性甚或毀滅式方式行動。此時,人工智能承擔責任就意味著開發、設計、運行、使用人工智能的主體將可以逃避法律制裁,這是極不可取的結果,必須予以避免。盡管“刺穿人工智能面紗”制度可以減緩上述不利后果,但是該制度應當有嚴格的適用要件,不可常規性地使用,否則就有違人工智能作為法律主體的設計初衷。

情感、理性、意志不證成人工智能成為法律主體

情感、理性、意志與人工智能的法律主體問題有內在關聯。一種觀點認為,賦予法律主體的一個傳統要素是,其必須能夠有情感、理性、意志。盡管人工智能是以深度學習為基礎,然而,既有的人工智能大都不存在情感。盡管有些人工智能的技術領導者認為,人工智能很快就向有情感的方向發展。然而,即使有情感,甚或是自主情感,人工智能也不應當成為法律主體。因為相比很多人工智能而言,很多動物已經具有豐富的情感甚至一定的自我意識。盡管動物可以獲得某些權利,然而從主導價值觀審視,動物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國民法典也采納了此種立場。從規范意義上評價,情感、理性、意志并非賦予法律主體的必備要素。與此相關的是,即使人工智能的推理能力已經超過了人類,也無法證成賦予其法律主體地位是一種必備或者最優的解決方案。

在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國家通過立法賦予了珊瑚礁、河流或機器人以法律主體資格。然而我們發現,這些特殊事物都沒有在民事法律中成為法律主體,更沒有在民事基礎性法律——民法典中成為法律主體。2017年新西蘭通過立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協的一部分,是因為毛利人一直認為該河有生命力,該法的通過能夠給毛利人帶來希望。在特別的法律中賦予其某些特殊利益或者權利,并不能在一般意義上證成其應當成為法律主體。

人工智能不作為法律主體并不影響人工智能法律制度的變革

可以預見的是,人工智能已經或者在未來可能會經受傷害。基于人類的價值判斷以及現代法治文明,法律制度也不應故步自封,一個可能的預備解決方案是,盡管人工智能不應當成為或者不是法律主體,但是有情感的人工智能機器人或者其他產品未來可能會受到法律的特殊規制,以保護人類對它們的某些情感利益和其他利益。

人工智能的復雜性也會產生一些現行法很難有效解決的問題。例如,大多數人工智能系統都是諸多開發人、設計者、所有人、經營者、用戶之間通過復雜的跨國協議產生的產品,在這一相互獨立的關系的國際化網絡中,確定某個或者某幾個主體來承擔責任幾乎不可能。不僅如此,基于不透明性以及一些人工智能系統的自我學習性,傷害的風險可能是以一種負責開發的主體所不可預見的方式導致的,確定特定實體來承擔責任更是難上加難。這就需要人工智能法律制度的持續變革。更好擁抱人工智能的方式是設定適應性的治理框架,以保護人類的文明成果。人工智能促進人類向好的方向發展,就需要通過多層次制度為基礎的有效治理來促使其具有可解釋性、可預測性、可信賴性。


【責任編輯:申罡】
返回頂部
主站蜘蛛池模板: 6080夜福利| 久久久一本精品99久久精品88 | 国产香蕉一区二区在线网站| 久久久久久夜精品精品免费啦| 欧美成人精品第一区二区三区| 午夜性色吃奶添下面69影院| 麻豆91免费视频| 国内精品一区二区三区在线观看| 中文字幕一区二区三区久久网站 | 欧洲美女与动性zozozo| 免费91麻豆精品国产自产在线观看| 试看120秒做暖暖免费体验区| 国产精品亚洲专一区二区三区 | 欧美成人aa久久狼窝动画| 免费黄色一级电影| 草莓视频色版在线观看| 国产欧美va欧美va香蕉在线观看| 99久久99久久免费精品小说| 成人午夜视频免费| 久久午夜福利无码1000合集| 欧美一级久久久久久久大片| 人人色在线视频播放| 美女网站在线观看视频免费的| 国产成人AV三级在线观看按摩| 44444色视频在线观看| 女人l8毛片a一级毛片| 中文字幕制服诱惑| 日本高清色www网站色| 亚洲国产一区二区三区在线观看| 狠狠色综合7777久夜色撩人| 又粗又黑又大的吊av| 视频一区二区三区欧美日韩| 国产无套在线观看视频| 2021三级a电影大全| 在线观看无码av网站永久免费| 一级特黄录像在线观看| 日本一区免费观看| 久久精品国产一区二区三区| 欧美aa在线观看| 亚洲欧美一区二区三区二厂| 狠狠噜狠狠狠狠丁香五月|