文秘之友|原創(chuàng)|范文|素材|寫作|PPT|
?
?
?2018年法院遴選熱點:人工智能影響現(xiàn)行法律制度前瞻
?人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?、改變世界。甚至可以說,未來世界的爭奪就是科技的爭奪,為了能夠搶占先機,構(gòu)筑我國人工智能發(fā)展的戰(zhàn)略框架,按照黨中央的部署,國務(wù)院制定了《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》),按照《規(guī)劃》勾勒的宏偉藍圖,可見未來我國將逐步進入人工智能時代。而現(xiàn)實中的人工智能發(fā)展對現(xiàn)行法律制度的挑戰(zhàn)已初現(xiàn)端倪,那么,未來如何在法律框架內(nèi)應(yīng)對則成為重要的理論課題。
就民法而言,首先涉及到的最為重要的問題便是,人工智能是“人”嗎?從傳統(tǒng)意義上來看,關(guān)于民事主體的界定早已蓋棺論定。也即,民事主體是指能夠參與民事法律關(guān)系,享有民事權(quán)利和承擔(dān)民事義務(wù)的當(dāng)事人。在我國目前法律體系中主要包括自然人和法人兩種類型。按照傳統(tǒng)觀點來看,人工智能并不符合民事主體的資格。但是,隨著人工智能的發(fā)展,特別是在未來其智慧可能大大超過人類的情況下,是否應(yīng)該賦予人工智能法律主體資格便成為目前需要解決的重要問題之一。對于該問題的爭論由來已久,2016年歐盟委員會法律事務(wù)委員提交的一項“將最先進的自動化機器人的身份定位為“電子人”(electronicpersons)”動議更加表明,該爭論并未消解。如果該項動議獲得通過,則意味著該電子人不僅具有特定的權(quán)利和義務(wù),而且還需要像人類一樣進行登記、納稅、繳費等,從而使人工智能獲得民事主體的地位。
其實,從民法進化發(fā)展的歷史進程中也可以看出,關(guān)于民法主體的范圍也是隨著時代發(fā)展不斷自我突破,傳統(tǒng)的主體與客體的范圍界限也是不斷被打破。雖然從目前來看,賦予人工智能的“人”的主體資格與目前的法律規(guī)定存在較大沖突,但并不意味著我們對民事主體的資格承認依然應(yīng)當(dāng)采取固步自封的態(tài)度。例如,在較早時期,對于法人能否成為民事主體資格也是存在較大的爭議。而在目前來看,似乎一切早已順理成章。那么,既然民事主體資格是一種開放的概念體系,也就沒有必要將人工智能排除在民事主體之外。這是其一。其二,未來賦予人工智能民事主體資格也能更好地服務(wù)社會。例如,隨著農(nóng)業(yè)文明向工業(yè)文明讓步而催生的法人制度不僅迎合了時代的要求,而且也為自然人輸送了各種利益,更好地服務(wù)于社會、回報社會。同樣,在工業(yè)文明向人工智能時代讓步的過程中,積極承認人工智能的民事主體資格并不意味著人工智能必然成為毀滅人類的“罪魁禍?zhǔn)住?,相反,人工智能能夠更好地拓展人類的社會能力,可能更好地服?wù)社會、造福于人類。
此外,人工智能還會對現(xiàn)行勞動法、交通法等帶來挑戰(zhàn)。根據(jù)我國相關(guān)的勞動法規(guī)定,未來的人工智能將對我國現(xiàn)行勞動制度產(chǎn)生的挑戰(zhàn)主要體現(xiàn)在以下幾個方面:第一,我國勞動法原則上規(guī)定了八小時工作制,那么對于人工智能是否應(yīng)當(dāng)堅持八小時工作制度;第二,在從事勞動之后,勞動者有獲得勞動報酬的權(quán)利,那么人工智能是否也應(yīng)獲得勞動報酬。
關(guān)于人工智能對道路交通法的挑戰(zhàn),存在兩個截然相反的例子:其一,2016年在美國,Google無人駕駛汽車在加州山景城測試時,不幸與一輛公交大巴相撞發(fā)生了車禍。對此,如何認定其交通事故責(zé)任,美國公路交通安全管理局(NHTSA)表示,谷歌駕駛系統(tǒng)可以被視為“司機”。其二,2017年百度李彥宏乘坐一輛百度和博世一起開發(fā)的自動駕駛汽車試駕時,被交警視為“違法”。因為按照我國現(xiàn)行法規(guī),機動車上路需要相關(guān)證件、檢核合格等,而百度無人車無疑不具備相關(guān)條件,因此有交通業(yè)內(nèi)人士稱“肯定違法”。顯然,美國與我國在對待人工智能運用于無人駕駛領(lǐng)域的態(tài)度截然不同。這些都是未來人工智能帶給我們需要思考的問題。
就刑法制度而言,未來的人工智能將會導(dǎo)致刑法制度在兩個方面發(fā)生重要變化:第一,未來的人工智能是否具有犯罪主體資格。即如果未來的人工智能犯了罪是否像自然人犯罪一樣承擔(dān)相應(yīng)的刑事責(zé)任。第二,如果社會中的其他人對人工智能的機器人造成傷害,是否應(yīng)當(dāng)承擔(dān)刑事責(zé)任以及承擔(dān)何種刑事責(zé)任。沙特賦予機器人Sophia以國籍,很好地解決了這個問題,因為此時Sophia具有公民身份,無論是她對別人造成傷害還是別人對她造成傷害都需要依據(jù)刑法的規(guī)定進行處罰。
那么問題是,在其他國家尚未承認人工智能擁有國籍的情況下,又該如何應(yīng)對呢?筆者認為,首先,從理論上來看,未來人工智能有可能成為犯罪的主體。就我國目前刑法規(guī)定來看,不僅規(guī)定了自然人犯罪,而且也規(guī)定了單位犯罪主體,與自然人相比,單位認識能力和意志能力明顯不同。那么,從理論上來說,人工智能的機器人可能是直接對他人人體造成侵害,而且在認識能力和意志能力方面,都可能接近甚至超越人類,所以完全有成為犯罪主體的余地。眾所周知,我們對單位的處罰采取的是罰金刑,如果是基于人工智能的機器人從事勞動可以獲得勞動報酬的前提之下,也可以設(shè)定罰金刑制度,讓其對自己造成的危害結(jié)果承擔(dān)罰金刑的刑事責(zé)任。其次,如果其他主體對機器人造成傷害也應(yīng)承擔(dān)刑事責(zé)任。如果機器人尚未獲得主體資格,只是普通的產(chǎn)品,對其造成損害可以根據(jù)刑法按照故意毀壞財物罪定罪處罰。如果賦予了機器人民事主體資格的情況下,行為人應(yīng)當(dāng)承擔(dān)故意殺害罪或者故意殺人罪的刑事責(zé)任,因為此時刑法保護的“人”不再局限于單一的從母體中出生并擁有獨立呼吸的主體。
總之,雖然法律制度具有滯后性,但是面向智能革命時代,我們需要尋求前瞻性解決方案。只有充分認識人工智能對相關(guān)的法律制度可能帶來的各種挑戰(zhàn),才能探索出與之相適應(yīng)的制度,才能最終真正促進人工智能的發(fā)展、促進科技的進步。