综合亚洲,,,色,真人做爰视频,真实国产老熟女无套中出,永久黄网站色视频免费,亚洲人成电影网站色

首頁>委員建言

探索構建符合中國國情的人工智能治理框架——全國政協(xié)“人工智能發(fā)展中的科技倫理與法律問題”雙周協(xié)商座談會發(fā)言摘登

2020-12-25來源:人民政協(xié)報
A- A+

■編者按:

任何一項重大科技創(chuàng)新都會促進社會生產(chǎn)力和生產(chǎn)關系的變化,也會影響社會生活方式和倫理秩序的調(diào)整。人工智能技術具有廣泛滲透性和顛覆性,帶來的科技倫理與法律問題更加復雜多元,可能引發(fā)潛在倫理和法律風險,需要引起高度重視。12月23日,全國政協(xié)召開雙周協(xié)商座談會,專門就此問題進行協(xié)商議政?,F(xiàn)將有關發(fā)言摘登如下——

 

全國政協(xié)副主席,民盟中央常務副主席陳曉光作主題發(fā)言

全國政協(xié)將“人工智能發(fā)展中的科技倫理與法律問題”作為雙周協(xié)商座談會的主題,緊扣關乎國家發(fā)展的前瞻性、戰(zhàn)略性問題協(xié)商議政,是充分發(fā)揮政協(xié)人才庫、智慧庫優(yōu)勢的一次生動實踐。

結合參加調(diào)研的感受和委員們的發(fā)言,我談以下幾點意見。

一、充分認識人工智能科技倫理與法律建設的戰(zhàn)略意義

人工智能的健康發(fā)展,必須回答人工智能到底該由誰掌控、人工智能發(fā)展的基本準則是什么、人工智能發(fā)展的禁區(qū)在哪里等問題,必須通過建立理性的倫理規(guī)則和法律規(guī)范為人工智能發(fā)展的風險防范設置“控制閥”。

在發(fā)展人工智能技術的同時,必須同步開展倫理和法律層面對人工智能的引領和規(guī)范工作,改變“先發(fā)展后治理”的模式和“重科技研發(fā)、輕治理研究”的思維,大力加強人工智能倫理和法律相關問題的研究。

二、構建多元主體共同參與協(xié)同合作的治理體系

充分發(fā)揮我國國家制度和國家治理體系優(yōu)勢,在國家層面加強頂層設計,統(tǒng)籌多方力量,構建多元主體共同參與、協(xié)同合作的人工智能治理體系。通過制定政策和法律,明確政府對人工智能發(fā)展的監(jiān)督管理和規(guī)范指導職責,健全人工智能治理的資源統(tǒng)籌、部門協(xié)作、信息共享的工作機制,搭建人工智能治理的框架。鼓勵行業(yè)協(xié)會、標準化組織、產(chǎn)業(yè)聯(lián)盟等社會團體,制定人工智能產(chǎn)業(yè)標準、技術標準和行業(yè)規(guī)范,不斷加強行業(yè)自律。倡導企業(yè)率先開展相關研究,制定企業(yè)倫理規(guī)則、建立內(nèi)部審查機制,進行自我監(jiān)管。建立公眾參與人工智能治理機制,保障公眾的知情權、參與權、表達權、監(jiān)督權。

積極推動國際社會在人工智能倫理和法律建設中凝聚共識、開展合作。鼓勵國內(nèi)研究機構、智庫等利益主體多方參與人工智能治理。與多國多方多邊加強人工智能技術、標準等方面的合作、共享,探索人工智能在應對全球性問題方面的應用。

三、構建遠近結合的綜合規(guī)制體系

總的來看,人工智能治理需要在充分發(fā)揮技術手段的基礎上,注重倫理與制度的結合,逐步形成“技術防范+倫理規(guī)范+法律規(guī)制”的綜合規(guī)制體系。

從近期看,應著重加強技術應對和倫理規(guī)范。遵循市場規(guī)律,堅持應用導向,完善人工智能標準體系,將基礎安全,數(shù)據(jù)、算法和模型安全,技術和系統(tǒng)安全,安全管理和服務等作為人工智能安全與隱私保護技術標準的重要發(fā)力方向。

從中長期考慮,全面研究和論證人工智能法律規(guī)制體系,制定立法策略。圍繞國家和社會層面的數(shù)據(jù)安全、數(shù)據(jù)權利等進行立法。在人工智能發(fā)展相對成熟的領域,適時開展相關的規(guī)范立法。

四、廣泛開展人工智能知識宣傳教育活動

在全社會,全面、客觀、深入宣傳人工智能發(fā)展將給人類社會帶來的根本性變革,促使公眾形成對人工智能的科學、理性認識。抓好學校教育,將人工智能知識、計算機思維普及教育納入國民教育體系,“從娃娃抓起”,培養(yǎng)良好科技倫理素養(yǎng)。抓好勞動技能培訓教育,著眼于人工智能時代對勞動者的要求,積極應對人工智能帶來的就業(yè)替代。

加強對科研人員的科技倫理和法律教育培訓,從源頭防范人工智能風險。將科研人員職業(yè)道德、學術道德規(guī)范等相關內(nèi)容作為上崗前的重要培訓內(nèi)容,在項目申請、管理中,加大對人工智能科技倫理、法律法規(guī)的考核比重。強化大學科技倫理教育,建立系統(tǒng)性、多維度科技倫理人才培養(yǎng)體系,設置科技倫理專業(yè)方向;將人工智能倫理法律等課程納入與人工智能開發(fā)、運用相關專業(yè)的核心課程,完善教學體系。

全國政協(xié)委員、社會和法制委員會副主任,公安部原副部長陳智敏作調(diào)研情況綜述:高度重視人工智能健康發(fā)展和風險防范

為做好本次會議籌備工作,今年9-10月,陳曉光副主席、汪永清副主席分別率專題調(diào)研組赴安徽、江蘇、北京開展4次調(diào)研,深入26家企業(yè)、科研院所和高校,與企業(yè)負責人、一線科研人員、專家學者和相關部門廣泛交流。

調(diào)研中看到,新一代人工智能正在與實體經(jīng)濟深度融合,廣泛應用于社會民生領域,激發(fā)創(chuàng)新活力和社會潛能,成為經(jīng)濟發(fā)展新引擎。我國人工智能發(fā)展勢頭迅猛,但發(fā)展機遇與風險并存,對人類社會發(fā)展也可能帶來重大風險和潛在威脅。一是數(shù)據(jù)信息采集應用可能侵犯公民權利,威脅隱私。二是算法偏好可能加劇社會偏見或歧視,威脅公平。三是機器深度學習難以理解人性和道德,無人駕駛汽車緊急避險等智能決策可能危及特定人群生命,威脅安全。四是人機交互式產(chǎn)品廣泛應用帶來的工作生活高度依賴,對人類情感體驗、家庭社會關系等帶來了一定沖擊,可能影響未來社會塑造,威脅倫理。

當前,人工智能發(fā)展的科技倫理與法律問題研究已經(jīng)在實踐中逐步探索和實施。2017年,國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出了人工智能治理體系建設的時間表和路線圖。但總體來看,已經(jīng)開展的研究和探索基本上還處于自發(fā)和分散狀態(tài),缺乏規(guī)劃和統(tǒng)籌,難以形成合力;社會各方面對倫理和法律促進和保障人工智能健康發(fā)展的基礎性作用,重視不夠、認識不足;科技研發(fā)和應用中的風險意識、規(guī)則意識不強,“科技向善”的融合度、共識度和實踐性都有待提高。建議:

一、從國家發(fā)展戰(zhàn)略高度制定人工智能發(fā)展規(guī)劃,引導人工智能發(fā)展與國家創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略相銜接,特別是高端制造業(yè)。重視人工智能紅利形成的“數(shù)字鴻溝”“貧富鴻溝”等社會財富分配問題、人工智能發(fā)展引發(fā)的就業(yè)問題等科技倫理和法律問題研究,構建多部門協(xié)同、多學科融合、多元主體參與的風險治理和規(guī)則治理研究框架和工作體系。

二、弘揚“科技向善”理念,在科研人員中樹立揚善避惡、造福人類的道德準則,明確道德底線。針對深度偽造技術可能引發(fā)政治風險、個人信息被竊取倒賣引發(fā)刑事犯罪、“數(shù)據(jù)投毒”導致人工智能系統(tǒng)誤判等問題,建立數(shù)據(jù)安全保障、算法安全審查等制度,為人工智能發(fā)展形成正確價值導向和穩(wěn)定社會預期提供有力保障。

三、立足先發(fā)優(yōu)勢,積極參與和引領人工智能治理國際規(guī)則制定,為構建適應人類命運共同體安全發(fā)展需要的人工智能全球治理新規(guī)則新秩序新格局,貢獻中國智慧和中國方案。

全國政協(xié)常委,湖南省政協(xié)副主席,九三學社中央常委、湖南省委會主委張大方:警惕人工智能發(fā)展所帶來的社會公平問題

人工智能主要以大數(shù)據(jù)和深度學習為基礎,從理論上來說,客觀的數(shù)據(jù)和理性的算法沒有情緒也沒有偏好,不會帶來偏見。但是,往往數(shù)據(jù)的缺失、數(shù)據(jù)的質(zhì)量、算法的歧視和人工的變化,會導致一些偏見出現(xiàn)。也許,人類真正優(yōu)越于人工智能的,不是更強大的邏輯運算能力或創(chuàng)造力,而是崇高的道德感和同情心。

面對人工智能發(fā)展所帶來的潛在與現(xiàn)實的社會公平問題,我個人的思考與建議是:

一、“上限”不能過。人工智能發(fā)展應該公平地服務于人類的公共利益,而不應該侵害甚至顛覆人類社會的公平與正義。人工智能應該被合乎倫理的設計開發(fā)與利用,一切有悖于科學倫理、加劇社會不平等、拉大貧富差距的技術研發(fā),應該受到限制。

二、“底線”不能破。應致力于幫助每個人做好應對的準備,包括幫助學生應對未來的職業(yè)挑戰(zhàn),幫助勞動者應對不斷變化的行業(yè)形勢,以及建立相關制度以幫助勞動者和就業(yè)機會進行匹配。應大力推廣計算思維普及教育,讓每一個人都能成為人工智能的理解者與受益者;大力推動各行業(yè)數(shù)字化轉(zhuǎn)型,讓每一家公司都能成為人工智能的使用者與創(chuàng)造者。

三、“紅線”不能踩。必須加強政府引導、行業(yè)自律、企業(yè)自覺及公民共識的氛圍營造,從設計研發(fā)之始,就要在技術標準化上加以規(guī)范,下大力氣培養(yǎng)一線從業(yè)人員遵從科學道德倫理,自覺規(guī)避好奇與邪惡,并從中獲得職業(yè)釋懷的幸福感,從而使人工智能在政策、法律和規(guī)范的指導下更具效能。

全國政協(xié)常委,湖南省政協(xié)副主席,九三學社中央常委、湖南省委會主委張大方:警惕人工智能發(fā)展所帶來的社會公平問題

人工智能主要以大數(shù)據(jù)和深度學習為基礎,從理論上來說,客觀的數(shù)據(jù)和理性的算法沒有情緒也沒有偏好,不會帶來偏見。但是,往往數(shù)據(jù)的缺失、數(shù)據(jù)的質(zhì)量、算法的歧視和人工的變化,會導致一些偏見出現(xiàn)。也許,人類真正優(yōu)越于人工智能的,不是更強大的邏輯運算能力或創(chuàng)造力,而是崇高的道德感和同情心。

面對人工智能發(fā)展所帶來的潛在與現(xiàn)實的社會公平問題,我個人的思考與建議是:

一、“上限”不能過。人工智能發(fā)展應該公平地服務于人類的公共利益,而不應該侵害甚至顛覆人類社會的公平與正義。人工智能應該被合乎倫理的設計開發(fā)與利用,一切有悖于科學倫理、加劇社會不平等、拉大貧富差距的技術研發(fā),應該受到限制。

二、“底線”不能破。應致力于幫助每個人做好應對的準備,包括幫助學生應對未來的職業(yè)挑戰(zhàn),幫助勞動者應對不斷變化的行業(yè)形勢,以及建立相關制度以幫助勞動者和就業(yè)機會進行匹配。應大力推廣計算思維普及教育,讓每一個人都能成為人工智能的理解者與受益者;大力推動各行業(yè)數(shù)字化轉(zhuǎn)型,讓每一家公司都能成為人工智能的使用者與創(chuàng)造者。

三、“紅線”不能踩。必須加強政府引導、行業(yè)自律、企業(yè)自覺及公民共識的氛圍營造,從設計研發(fā)之始,就要在技術標準化上加以規(guī)范,下大力氣培養(yǎng)一線從業(yè)人員遵從科學道德倫理,自覺規(guī)避好奇與邪惡,并從中獲得職業(yè)釋懷的幸福感,從而使人工智能在政策、法律和規(guī)范的指導下更具效能。

全國政協(xié)委員,北京搜狗科技發(fā)展有限公司首席執(zhí)行官王小川:以未來之眼光看待人工智能

人工智能是引領新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術,這要求我們跳出今天的思維定式,以未來的眼光看待人工智能。

我想先區(qū)分開大數(shù)據(jù)和人工智能。算法、算力和數(shù)據(jù)是人工智能的三大驅(qū)動力。今天的人工智能是建立在數(shù)據(jù)智能基礎上,數(shù)據(jù)對人工智能的發(fā)展更容易產(chǎn)生作用,但是數(shù)據(jù)本身涉及個人信息保護等問題,現(xiàn)在已經(jīng)引起了人們的高度重視。我先拋開大數(shù)據(jù)不談,談人工智能,集中談算法。

算法在短期內(nèi)能實現(xiàn)如人們期待的突破嗎?當前算法已經(jīng)取得了一定突破,但短期看突破還不夠。長期看,算法能不能實現(xiàn)預期中的突破是不可預測的一件事,需要長時間的思考和科研。因此,我們應該有規(guī)劃、有規(guī)模地開展人工智能技術普及工作,分層次地推進全社會人工智能普及教育。

人工智能是一個未來命題,教育同樣也是,需要長遠布局。立足當下,我們看到的是人工智能對就業(yè)帶來影響。越來越多簡單的重復性勞動,逐步被人工智能取代,后者甚至達到人類難以企及的速度和精準度。而長遠地看,尚沒有充分研究成果顯示人工智能可以替代人完成創(chuàng)造性的勞動。我們更需要關注如何在教育中鼓勵創(chuàng)造,改革那些交給機器做可以更高效、更精準的工作。通過轉(zhuǎn)變教育方式、推動學科改革,實現(xiàn)對人才培養(yǎng)方向的引導,以優(yōu)化的人才結構適應未來的需要。

以未來的眼光看待人工智能,還意味著要更多關注取舍兩難的問題。取舍兩難的問題,不是直觀的惡與善,他們會伴隨人工智能與社會經(jīng)濟發(fā)展的深度融合,以穿透科學與人文的復雜方式呈現(xiàn)出來。從社會治理的角度看,這些更需要我們提前去思考和關注。

全國政協(xié)委員,九三學社重慶市委會副主委,重慶醫(yī)科大學校長黃愛龍:加強人工智能應用中的個人隱私保護

人工智能需要大量個人數(shù)據(jù)支撐,其中很多是個人隱私。隱私信息一旦泄露,可能對消費者人身、財產(chǎn)安全及企業(yè)、公共利益造成嚴重威脅。加強隱私保護,不但是人工智能開發(fā)、應用中的倫理道德底線,還是保障公民依法享有《憲法》《民法典》等所規(guī)定的人格權、隱私權的重要體現(xiàn)。

從2020國家網(wǎng)絡安全宣傳周“App個人信息保護”發(fā)布活動上了解到,工業(yè)和信息化部聯(lián)合相關單位連續(xù)兩年開展App違法違規(guī)收集使用個人信息專項治理。2020年累計巡查4.8萬余款App,專項檢查了200余款App,依法處置了7000余款存在違法違規(guī)行為的App??梢?,問題App占比很大。各部門下了很大力氣,制定技術規(guī)范、建立舉報平臺、督促問題整改,取得了很好的效果。

App安全認證制度是一項很好的措施。但目前認證的App數(shù)量較少,需要進一步推廣,提升實施效果。希望監(jiān)管部門持續(xù)開展治理工作,進一步擴大工作范圍,加大處罰力度,提高違法違規(guī)成本,對違法違規(guī)行為形成有力震懾。加強對舉報平臺的宣傳推廣,鼓勵公眾積極參與提供問題線索,完善公眾權益救濟渠道,形成全民監(jiān)督的良好社會氛圍。在《App違法違規(guī)收集使用個人信息行為認定方法》統(tǒng)一標尺的基礎上,針對金融、安防、醫(yī)療、教育等重點領域,出臺有針對性的細化辦法。

另外,我建議隱私信息采集應區(qū)分“戰(zhàn)時”和“平時”,并堅持“最小夠用”原則,比如,“健康碼”采集的信息,疫情過后再使用的話,要有相關規(guī)定;“行程碼”顯示的行程信息,建議由逐一列出手機使用者去過的地區(qū),調(diào)整為只列出去過的中高風險地區(qū)。

同時,建議構建“制度+科技”治理機制,政府、司法、行業(yè)、企業(yè)等多方協(xié)同治理,在推進人工智能應用的同時有效保護隱私。

全國政協(xié)委員,上海眾人網(wǎng)絡安全技術有限公司董事長談劍鋒:支持人工智能發(fā)展 數(shù)據(jù)管控需先行

一旦個人隱私數(shù)據(jù)泄露,就是重大的社會事件,不僅會危及老百姓的財產(chǎn)和生命安全,而且會影響社會穩(wěn)定。更進一步來看,隨著人工智能數(shù)據(jù)收集、分析以及信息生成技術的不斷發(fā)展,很多東西可以被仿造,信息仿造不僅會侵蝕社會的誠信體系,還可能會給國家的政治安全、經(jīng)濟安全和社會穩(wěn)定帶來巨大的負面影響。

在海量大數(shù)據(jù)中,尤其需要關注的是不可再生性數(shù)據(jù),比如人臉、指紋、DNA等生物特征數(shù)據(jù),以及個人醫(yī)療檔案數(shù)據(jù)等。這些數(shù)據(jù)具有唯一性,是無法更改的,一旦被采集到不安全的網(wǎng)絡上,極有可能帶來災難性后果。

人工智能技術的發(fā)展是趨勢,應該予以支持。但針對個人生物特征、醫(yī)療數(shù)據(jù)等唯一性、不可再生性的重要數(shù)據(jù),必須提前設防。生物識別技術應當成為“最后的救濟手段”,在使用規(guī)范上要有更加嚴格的要求,防范各類風險。建議采用負面清單制,明確禁止具有唯一特征的不可再生性數(shù)據(jù)在互聯(lián)網(wǎng)上的應用,切斷風險源頭。

我還有一點思考,建議國家設立“數(shù)據(jù)銀行”,成立專門機構來統(tǒng)一管控、存儲和應用不可再生性大數(shù)據(jù),從而限制企業(yè)自行采集收集和壟斷,并運用區(qū)塊鏈技術分布式存儲,運用密碼技術嚴格保護數(shù)據(jù)。

作為一名數(shù)據(jù)安全領域的工作者,我認為必須嚴控大數(shù)據(jù)的使用場景??萍夹枰獜?到1的創(chuàng)造,而不是濫用場景式的所謂“創(chuàng)新”。要對互聯(lián)網(wǎng)企業(yè)的信息采集進行嚴格的管理規(guī)定,只可針對企業(yè)產(chǎn)品的特性進行相關必要的數(shù)據(jù)采集,不得過度、無序、隨意地采集,并出臺相關條例,明確規(guī)范由誰來采集、如何采集等相關安全技術規(guī)范和流程標準,采取嚴格的安全防范措施。

全國政協(xié)委員,最高人民法院副院長姜偉:盡快出臺數(shù)據(jù)權利保護類法律

我們在調(diào)研中發(fā)現(xiàn),因數(shù)據(jù)的權屬不明確,有三個問題困擾著有關企業(yè):一是創(chuàng)新難,數(shù)據(jù)企業(yè)之間爬取數(shù)據(jù)、濫用數(shù)據(jù)的現(xiàn)象普遍存在。二是交易難,因數(shù)據(jù)價值缺乏統(tǒng)一評估標準,需要逐一談判,數(shù)據(jù)交易成本高。三是維權難,數(shù)據(jù)平臺遭到侵權的問題時有發(fā)生。

建議盡快出臺數(shù)據(jù)權利保護類法律,主要有以下幾點考慮:

一、數(shù)字經(jīng)濟需要法律保障。在信息化時代,迫切需要建立一個安全、有序的數(shù)據(jù)流通環(huán)境。明確數(shù)據(jù)產(chǎn)權,就是建立一套公平合理的法律規(guī)則,規(guī)范數(shù)據(jù)的權屬、使用、交易、共享機制,激發(fā)市場主體的積極性和創(chuàng)造性,促進數(shù)據(jù)開放、流動、共享。

二、數(shù)據(jù)屬性需要制度創(chuàng)新。數(shù)據(jù)形態(tài)與現(xiàn)有法律客體的形態(tài)和性質(zhì)均有不同,其權利主體是多元的,權利內(nèi)容是多維的,涉及個人信息、企業(yè)利益、政府資源、數(shù)據(jù)主權、國家安全等多重維度,無法將數(shù)據(jù)所有權絕對化,不能簡單地套用傳統(tǒng)的物權規(guī)范。需要根據(jù)數(shù)據(jù)的屬性特點建立數(shù)據(jù)產(chǎn)權制度,破解“個人數(shù)據(jù)與企業(yè)產(chǎn)權”的矛盾、平衡“數(shù)據(jù)安全與數(shù)據(jù)利用”的沖突,對各種類型數(shù)據(jù)合理確權,解決數(shù)據(jù)屬誰所有、數(shù)據(jù)如何使用、數(shù)據(jù)收益歸誰等問題。

三、司法實踐需要法律依據(jù)。民法典總則編第127條規(guī)定:“法律對數(shù)據(jù)、網(wǎng)絡虛擬財產(chǎn)的保護有規(guī)定的,依照其規(guī)定。”表明法律保護數(shù)據(jù)權利的鮮明態(tài)度,關鍵是現(xiàn)有法律規(guī)范不健全,后續(xù)立法應細化數(shù)據(jù)權利保護規(guī)則,落實這個原則性規(guī)定,為司法裁判提供依據(jù)。

全國政協(xié)委員,香港中文大學工程學院副院長,香港計算機教育學會榮譽會長黃錦輝(視頻連線):加強對可解釋權的立法

人工智能的任務是仿效人類的行為,并以機器代人為終極目標。醫(yī)療及教學是常見的人工智能應用,但不少現(xiàn)有的系統(tǒng)都未能為決定作出合理解釋,使用戶質(zhì)疑其效能。比如在沒有病征的情況下被確診為肺炎,但醫(yī)生沒有解釋;比如一名學生很努力地寫了論文,老師卻評為不及格又沒有說出理由根據(jù)。遇到上述場景,當事人必然感到無奈,從而對醫(yī)生及老師失去信任。而在這些醫(yī)療及教學的人工智能應用背后,所使用的大數(shù)據(jù)分析算法,都會用到深度學習。

深度學習是制造人工智能系統(tǒng)的關鍵技術。它利用神經(jīng)網(wǎng)絡算法對輸入數(shù)據(jù)進行表征分析及學習,從而構建出一個對應的信息處理模型。神經(jīng)網(wǎng)絡是一套端對端的學習運算方法,換言之,當操作者輸入了數(shù)據(jù),網(wǎng)絡便會自動學習,找出最佳結果作為輸出。盡管如此,它的自動學習算法以黑箱式作業(yè),并不透明,剝奪了數(shù)據(jù)擁有者的權利。歐盟于2016年推出的《一般數(shù)據(jù)保護規(guī)范》當中,可解釋權是一項重要法規(guī)。理論上,可解釋權是對算法(例如深度學習)輸出進行解釋的權利。

提兩個建議:一是建議國家在人工智能方面加強對可解釋權的立法。二是建議國家有關部門邀請香港代表一起,參與聯(lián)合國在人工智能倫理和治理方面的國際標準制定工作。

全國政協(xié)委員,北京市通州區(qū)人民法院副院長、民事審判一庭庭長李迎新:為人工智能把好“運行控制關”

如果將“人工智能產(chǎn)業(yè)”比作高速行駛的汽車,那么在努力踩好“油門”不斷加速的同時,更應提高風險防控意識,把好運行控制關,確保人工智能產(chǎn)業(yè)發(fā)展始終在造福人民正軌上行駛。

作為一名法律人,我對人工智能系統(tǒng)致人損害時引發(fā)的侵權責任問題,談一點思考。人工智能基于神經(jīng)網(wǎng)絡的深度學習,具備自我學習和進化的能力,擁有不斷迭代的自主性。以無人駕駛汽車為例,假設車輛在無人駕駛中發(fā)生事故致人傷害,那么事故原因究竟是無人車的生產(chǎn)設計者過錯導致的產(chǎn)品瑕疵或缺陷?還是無人汽車使用者自身操作不當?又或者是人工智能系統(tǒng)超越原控制方案通過自主學習而引發(fā)的“自身危險行為”?從法律思維角度,應當明確分析原因,界定責任主體。對于人工智能存在的無法歸責于生產(chǎn)設計者也不宜歸責于使用人的侵權責任,或可考慮設立類似于交強險的“人工智能責任險”,以便及時對被侵權人提供救濟,同時分擔生產(chǎn)設計者的創(chuàng)新風險。實踐中廣泛存在的其他人工智能產(chǎn)品可能帶來的侵權損害,可以參照上述責任分配機制。請教司法部的領導同志可否借鑒道交中的交強險做法,設置人工智能責任險?

再就人工智能可能帶來的“數(shù)字鴻溝”“發(fā)展鴻溝”談一點思考。數(shù)據(jù)是人工智能不斷進化的“燃料”。目前主流觀點表明,數(shù)據(jù)集合會產(chǎn)生市場價值倍增。巨型網(wǎng)絡交易平臺作為原始數(shù)據(jù)的搬運者和收集者,通過多種渠道獲取原始數(shù)據(jù),匯總后加工并最終獲得價值密度極高的“大數(shù)據(jù)”,進而以“精準營銷”等方式,獲取商業(yè)利潤。就此類因數(shù)據(jù)產(chǎn)生的利潤分配機制是否公平?是否可能導致收入差距進一步加大?目前多國已經(jīng)針對大型互聯(lián)網(wǎng)企業(yè)及電商交易平臺開征或正考慮開征數(shù)字稅。想請教發(fā)改委和工信部的領導同志,如果時機成熟,是否對巨型互聯(lián)網(wǎng)企業(yè)相關互聯(lián)網(wǎng)業(yè)務產(chǎn)生的利潤征收適當“數(shù)字稅”?

全國政協(xié)常委,民盟中央副主席、上海市委會主委,上海市副市長陳群:加快構建人工智能健康發(fā)展治理體系

隨著人工智能賦能百業(yè)態(tài)勢的不斷發(fā)展,隱私保護、安全可控、公平公正等法律倫理問題逐漸成為社會關注焦點和影響人工智能產(chǎn)業(yè)可持續(xù)發(fā)展的關鍵。結合上海的探索實踐,提三點建議。

一是加快構建促進人工智能健康發(fā)展的良好生態(tài)。上海近年來探索表明,要推動人工智能健康發(fā)展,除了加大科研投入、推動人才集聚、豐富應用場景和政策供給外,還需要著力構建良好的發(fā)展生態(tài),目前上海正積極建設人工智能綜合性研究機構,打造人工智能算法評測和交易平臺,建設面向人工智能主流技術的算法評測標準體系和通用算法庫,開展算法知識產(chǎn)權保護;推動制定人工智能應用的企業(yè)標準、行業(yè)標準和地方標準;加快制定醫(yī)療、交通等重點領域人工智能產(chǎn)品和服務責任認定條例,開展人工智能產(chǎn)業(yè)發(fā)展監(jiān)管、人工智能數(shù)據(jù)安全等立法調(diào)研。

二是加快構建以人為本的人工智能治理體系。下階段,人工智能將進一步深入社會生活,需要政府在堅持包容審慎原則的同時,更加積極作為。建議在國家層面搭建人工智能治理框架,設立專業(yè)管理機構,加強風險和挑戰(zhàn)研判,推動全國性治理原則制定,并探索出臺相關法律法規(guī)。

三是發(fā)聲人工智能全球治理。在國家層面加快相關制度創(chuàng)新,布局建設人工智能認證體系和全球賦碼系統(tǒng)。同時進一步加強人工智能國際對話合作。

全國政協(xié)委員,民盟北京市委會副主委,中科院理化技術研究所副所長汪鵬飛:加強科技倫理宣傳教育

先進科技在推動人類社會迅速發(fā)展同時,也帶來科技重大倫理風險。特別是近年來生物醫(yī)學科技、人工智能技術的快速發(fā)展與普及已引發(fā)廣泛的倫理與風險問題。就加強人工智能科技倫理風險意識的宣傳方面提三點建議。

一、加強宣傳力度,提高全社會對科技風險的敏感性以及對科技風險的認知水平和能力。首先強化對教師及科研人員的宣傳教育。將教師與科研人員職業(yè)道德、學術道德規(guī)范等相關內(nèi)容作為上崗前的重要培訓內(nèi)容,在項目申請、管理中,承擔單位應加強宣傳教育與培訓,提高科研人員在科技倫理、科技安全等方面的責任感與法律意識。強化國家科技倫理方面的法律法規(guī)在高校、科研院所及企業(yè)等單位的宣傳與推廣,建立相關宣傳體系,推動科技倫理科普宣傳,將科技倫理納入公民科學素質(zhì)建設中。

二、強化對高校學生的科技倫理教育。建立系統(tǒng)性、多維度科技倫理人才培養(yǎng)體系,強化專業(yè)化、多元化人才培養(yǎng);探索完善科技倫理課程內(nèi)容設置、教學方法創(chuàng)新,如:將科技倫理法規(guī)規(guī)范、倫理哲學道德、生物與臨床醫(yī)學倫理、人工智能工程倫理等相關學科課程納入高校教育核心課程。

三、加強對黨政領導干部的人工智能倫理風險教育培訓。領導干部需要對人工智能這一科技倫理方面發(fā)展的風險有較科學理性的看法,從發(fā)展角度辯證、客觀地看待發(fā)展中存在的問題。

清華大學法學院院長申衛(wèi)星:關于對人工智能進行多重規(guī)制的建議

人工智能是一把雙刃劍,深刻改變?nèi)祟惿鐣?、改變世界的同時,其發(fā)展的不確定性也給個人隱私、經(jīng)濟安全和社會穩(wěn)定乃至全球治理帶來前所未有的新挑戰(zhàn)。

針對人工智能技術發(fā)展中的風險,應落實以人民為中心的發(fā)展思想,在大力發(fā)展人工智能的同時,高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險、化解風險,從技術、倫理和法律三個路徑共同構建符合人工智能運作基本邏輯的規(guī)制體系,確保人工智能安全、可控發(fā)展。建議:

一、通過技術手段防范人工智能帶來的風險和損害。遵循市場規(guī)律,堅持應用導向,完善人工智能標準體系,將基礎安全,數(shù)據(jù)、算法和模型安全,技術和系統(tǒng)安全,安全管理和服務等作為人工智能安全與隱私保護技術標準的重要發(fā)力方向。

二、制定促進人工智能發(fā)展的倫理規(guī)范。倫理準則是保障個人智能安全可靠可控發(fā)展的重要措施,要加強人工智能相關倫理和社會問題研究,建立保障人工智能健康發(fā)展的倫理道德框架。開展人工智能行為科學和倫理等問題研究,建立倫理道德多層次判斷結構及人機協(xié)作的倫理框架。制定人工智能產(chǎn)品研發(fā)設計人員的道德規(guī)范和行為守則,加強對人工智能潛在危害與收益的評估,構建人工智能復雜場景下突發(fā)事件的解決方案。

三、構建綜合性立法和具體場景立法相結合的“總-分”式立法體系。綜合性立法是進行人工智能頂層設計的最佳形式,通過專門的中央立法可以強有力地指導各地、各領域的人工智能發(fā)展。具體場景分別立法的領域包括自動駕駛、自動化決策、精準醫(yī)療等,區(qū)分不同行業(yè)和場景對人工智能技術進行規(guī)范。“總-分”的立法體系設計將有利于增強國內(nèi)外對于中國人工智能技術的信任度,提升人工智能國際競爭中的軟實力。為保障立法的科學性,可以分別構建高級別的人工智能發(fā)展協(xié)調(diào)機構和安全治理機構,共同牽頭立法組織工作,按照分別起草、逐個審議、匯編成法的思路開展立法工作。同時積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應對全球性挑戰(zhàn)。

 

 

 

版權所有:中國人民政治協(xié)商會議全國委員會 京ICP備08100501號

網(wǎng)站主辦:全國政協(xié)辦公廳

技術支持:央視網(wǎng)