> 通信 >

      世界快資訊:透視歐盟人工智能法草案

      時(shí)間:2023-03-17 08:49:47       來(lái)源:光明網(wǎng)-《光明日?qǐng)?bào)》

      【環(huán)球視野】?

      作者:柳建龍(中國(guó)社會(huì)科學(xué)院大學(xué)法學(xué)院教授)


      (資料圖片)

      隨著人工智能技術(shù)的應(yīng)用和發(fā)展,人們對(duì)它可能帶來(lái)的收益和風(fēng)險(xiǎn)的認(rèn)識(shí)日益深刻。當(dāng)下,人工智能的跳躍式發(fā)展在給人類(lèi)社會(huì)帶來(lái)廣闊前景的同時(shí),也給個(gè)人安全和保障帶來(lái)很大風(fēng)險(xiǎn),增加了侵犯人類(lèi)基本權(quán)利的可能性。然而,各國(guó)政府卻普遍存在欠缺權(quán)力、程序框架和資源以確保人工智能的發(fā)展和使用符合法律規(guī)定的能力。

      如何從立法著手促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展,成為迫在眉睫的課題。

      從跨國(guó)視角來(lái)看,碎片化的監(jiān)管措施會(huì)妨礙跨境人工智能市場(chǎng)的形成,并威脅到數(shù)字主權(quán)。為此,歐盟出臺(tái)了一系列措施鼓勵(lì)企業(yè)發(fā)展人工智能解決方案。本月底,《關(guān)于制定確立人工智能統(tǒng)一規(guī)則(人工智能法)以及修改部分聯(lián)盟法律的歐盟議會(huì)和歐盟理事會(huì)的條例的提案》(以下簡(jiǎn)稱(chēng)“草案”)將提交歐盟議會(huì)表決。如獲通過(guò),意味著該法案將成為具有拘束力,可在歐盟成員國(guó)內(nèi)直接適用的法律。

      目前,草案已提交歐盟議會(huì)一讀。草案為調(diào)和人工智能的發(fā)展和利用與歐盟國(guó)家社會(huì)價(jià)值觀和公民基本權(quán)利保障,對(duì)人工智能的概念和分類(lèi),高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者、使用者及其他人的義務(wù)、法律后果等作了詳細(xì)的規(guī)定。鑒于當(dāng)下人工智能技術(shù)的發(fā)展、利用以及流轉(zhuǎn)程度的加深,特別是在日益復(fù)雜的全球科技格局和國(guó)際關(guān)系背景下,有必要對(duì)相關(guān)動(dòng)態(tài)予以進(jìn)一步關(guān)注。

      1.監(jiān)管“黑箱”技術(shù)的核心訴求

      統(tǒng)一人工智能立法對(duì)于歐盟而言,最重要的訴求就是要確保投放到歐盟市場(chǎng)的人工智能系統(tǒng)及其使用的安全性。近來(lái),人工智能系統(tǒng)的平民化使得藏在“黑箱”里的新技術(shù)變得觸手可及。人工智能變得可以與普通人“交流”,但是它的好多“想法”卻讓人產(chǎn)生不安。

      怎么才能確保人工智能尊重現(xiàn)行法律中所包含的價(jià)值觀和基本權(quán)利成為一個(gè)現(xiàn)實(shí)問(wèn)題。人工智能可以“理解”歐盟社會(huì)的價(jià)值觀嗎?如何讓一個(gè)智能系統(tǒng)符合歐盟對(duì)于建立一個(gè)包容、寬容、公正、團(tuán)結(jié)、非歧視的社會(huì)的期待?尊嚴(yán)、自由、平等、民主、法治、人權(quán)保障等理念如何經(jīng)由對(duì)人工智能系統(tǒng)的分類(lèi)處理、細(xì)化各類(lèi)主體的職責(zé)和義務(wù)、完善有關(guān)程序,進(jìn)而被強(qiáng)化、具體化、內(nèi)化到人工智能安全規(guī)定本身之中?《歐盟基本權(quán)利憲章》所保障的基本權(quán)利又如何能通過(guò)人工智能系統(tǒng)得到推進(jìn),如:人性尊嚴(yán)、尊重私生活和保護(hù)個(gè)人數(shù)據(jù)、不受歧視權(quán)和男女平等、獲得有效救濟(jì)和公平審判的權(quán)利、辯護(hù)權(quán)和無(wú)罪推定等以及一些特殊群體的權(quán)利,如工人享有公平和公正的工作條件的權(quán)利、消費(fèi)者權(quán)益保護(hù)、兒童權(quán)利和殘疾人的復(fù)歸社會(huì),與人們的健康和安全有關(guān)的,如獲得高水平的環(huán)境保護(hù)和改善環(huán)境質(zhì)量的權(quán)利。

      從更宏觀的層面來(lái)看,人工智能沒(méi)有國(guó)界,未來(lái)它很可能被用于不同國(guó)家的經(jīng)濟(jì)和社會(huì)部門(mén),在整個(gè)歐盟內(nèi)或者跨境進(jìn)行流轉(zhuǎn)。部分成員國(guó)已經(jīng)制定了相應(yīng)的法律,但這種做法對(duì)于人工智能的經(jīng)營(yíng)者而言,容易欠缺法律的穩(wěn)定性。因此,制定統(tǒng)一的法律框架、確保法律的確定性和可預(yù)見(jiàn)性,進(jìn)而促進(jìn)人工智能的投資和創(chuàng)新成為迫在眉睫的問(wèn)題。

      歷史上,各自為政的立法措施造成市場(chǎng)碎片化的案例屢見(jiàn)不鮮。制定統(tǒng)一的法律框架,可以促進(jìn)合法、安全和可靠的人工智能的應(yīng)用,確保基于人工智能的貨物和服務(wù)的跨境自由統(tǒng)一市場(chǎng)的形成。不過(guò),值得注意的是,草案旨在確立統(tǒng)一的法律框架,而非具體法律規(guī)范,這為成員國(guó)在不損害立法目標(biāo)的情況下采取不同程度的行動(dòng),特別是市場(chǎng)監(jiān)督系統(tǒng)的內(nèi)部組織和促進(jìn)創(chuàng)新措施的采納,留下了空間。

      2.從寬泛界定到細(xì)化指引

      最初的“草案”對(duì)人工智能系統(tǒng)作了寬泛界定,將其界定為采取一種或多種技術(shù)和方法開(kāi)發(fā)的軟件,并且能夠針對(duì)一組特定的人工定義的目標(biāo),產(chǎn)生諸如內(nèi)容、預(yù)測(cè)、建議或決定等影響其互動(dòng)環(huán)境的輸出。不過(guò),歐盟理事會(huì)認(rèn)為,標(biāo)注過(guò)于寬泛難以提供清晰的指引,為此,進(jìn)一步將人工智能的范圍縮小,即通過(guò)機(jī)器學(xué)習(xí)以及以邏輯和知識(shí)為基礎(chǔ)的方法發(fā)展起來(lái)的系統(tǒng),以區(qū)別于一般軟件系統(tǒng)。

      按照對(duì)個(gè)人人身和安全、基本權(quán)利可能造成的風(fēng)險(xiǎn)高低,《歐盟人工智能法》將人工智能系統(tǒng)分為三類(lèi)加以區(qū)別處理,分別是禁止、高風(fēng)險(xiǎn)、非高風(fēng)險(xiǎn)三類(lèi)。

      草案禁止人類(lèi)的人工智能實(shí)踐及實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng)的運(yùn)用作了規(guī)定。首先,禁止在市場(chǎng)上投放、交付使用的包括:以個(gè)人無(wú)法認(rèn)知的方式,采用潛意識(shí)教化技術(shù)嚴(yán)重扭曲個(gè)人行為或者利用特定群體的年齡、殘障或者特定社會(huì)或經(jīng)濟(jì)處境等弱點(diǎn),其目的旨在或者效果為嚴(yán)重扭曲與該群體相關(guān)的人的行為,業(yè)已或可能對(duì)個(gè)人生理或心理造成傷害的人工智能系統(tǒng),以及根據(jù)自然人的社會(huì)行為或者已知或預(yù)測(cè)的個(gè)性特征或人格特征,在一定時(shí)期內(nèi)對(duì)自然人進(jìn)行評(píng)估或分類(lèi),但其所產(chǎn)生的社會(huì)評(píng)分可能造成自然人或其整個(gè)群體在社會(huì)環(huán)境中受到不利或不適宜待遇的人工智能系統(tǒng)。

      與此同時(shí),草案對(duì)實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng)的使用作了一般性禁止規(guī)定。其例外情形作了嚴(yán)格限制,當(dāng)且僅當(dāng)其使用存在絕對(duì)必要性時(shí),執(zhí)法機(jī)關(guān)或受其委托者可在公共場(chǎng)所訴諸前述系統(tǒng)。

      高風(fēng)險(xiǎn)的人工智能指可能對(duì)個(gè)人健康、安全及基本權(quán)利產(chǎn)生重大有害影響的人工智能。草案雖然未作明確界定,但給出了高風(fēng)險(xiǎn)人工智能系統(tǒng)的判斷標(biāo)準(zhǔn)。具體而言,下列人工智能系統(tǒng)應(yīng)視為高風(fēng)險(xiǎn)人工智能系統(tǒng):根據(jù)歐盟統(tǒng)一立法清單,相關(guān)產(chǎn)品或者作為其安全部件的人工智能系統(tǒng)本身,在投放市場(chǎng)或者投入使用前需要接受第三方合規(guī)評(píng)估的,如運(yùn)輸、機(jī)械、電梯、壓力設(shè)備、醫(yī)療設(shè)備、安全設(shè)備、無(wú)線電設(shè)備的人工智能系統(tǒng);旨在用于包括自然人的生物識(shí)別和分類(lèi)、關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)作、教育和職業(yè)培訓(xùn)、就業(yè)、執(zhí)法、移民、難民和邊境管制以及司法和民主過(guò)程等領(lǐng)域的人工智能系統(tǒng);就其嚴(yán)重程度和發(fā)生概率而言,其對(duì)個(gè)人健康、安全和基本權(quán)利造成不利影響的風(fēng)險(xiǎn)極大的人工智能系統(tǒng)。

      與前述相比,諸如聊天機(jī)器人之類(lèi)的非高風(fēng)險(xiǎn)人工智能技術(shù),只需要滿足最低限度的透明性要求。草案起草者認(rèn)為,只要告知用戶(hù)他正在與人工智能進(jìn)行互動(dòng)就可以減少潛在風(fēng)險(xiǎn),故其對(duì)個(gè)人的健康、安全及基本權(quán)利造成損害的可能性較小。

      3.高風(fēng)險(xiǎn)技術(shù)需要全過(guò)程監(jiān)管

      對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng),草案設(shè)計(jì)了全過(guò)程監(jiān)管制度。高風(fēng)險(xiǎn)人工智能系統(tǒng)“從搖籃到墳?zāi)埂薄酝斗攀袌?chǎng)或投入使用前直至整個(gè)存續(xù)期間——都要接受審查,以確定其是否遵守強(qiáng)制性的風(fēng)險(xiǎn)管理系統(tǒng)、嚴(yán)格的數(shù)據(jù)和數(shù)據(jù)治理規(guī)定,技術(shù)文件和日志保存的規(guī)定及上市后監(jiān)測(cè)和事故報(bào)告的規(guī)定。與之相應(yīng),草案對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者課以較重義務(wù)。

      提供者負(fù)有合規(guī)義務(wù)。提供者應(yīng)確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期使用目的符合規(guī)定,按照規(guī)定建立、運(yùn)行、記錄并維持風(fēng)險(xiǎn)管理系統(tǒng),并確保人工監(jiān)管的準(zhǔn)確性、韌性和安全性。

      提供者應(yīng)建立合理的質(zhì)量管理系統(tǒng),并以書(shū)面政策、程序和指令的形式系統(tǒng)、有序地載明該質(zhì)量管理系統(tǒng),確保合規(guī)程序的執(zhí)行、相關(guān)文件的草擬以及強(qiáng)有力的售后監(jiān)管制度的建立;確保高危人工智能系統(tǒng)在投放市場(chǎng)或投入使用前,經(jīng)過(guò)相關(guān)的評(píng)估程序。在高風(fēng)險(xiǎn)人工智能系統(tǒng)投放市場(chǎng)或投入使用前,提供者應(yīng)起草并持續(xù)更新技術(shù)文件。技術(shù)文件的編制方式應(yīng)能證明高風(fēng)險(xiǎn)人工智能系統(tǒng)符合歐盟人工智能法的要求,并為國(guó)家主管部門(mén)提供全部必要的信息,以評(píng)估人工智能系統(tǒng)是否符合這些要求。

      提供者有記錄保存義務(wù)。在人工智能系統(tǒng)投放市場(chǎng)或者投入使用之日起的10年內(nèi),提供者應(yīng)保存技術(shù)資料、質(zhì)量管理系統(tǒng)相關(guān)文件等以備檢查。依照與用戶(hù)的協(xié)議或法律規(guī)定由其控制高危人工智能系統(tǒng)自動(dòng)生成的日志的,則提供者有義務(wù)保存上述日志。保存期限根據(jù)高危人工智能系統(tǒng)的預(yù)期使用目的、歐盟或成員國(guó)的法律規(guī)定予以確定。在投放市場(chǎng)或投入使用前,提供者應(yīng)依法向歐盟委員會(huì)在成員國(guó)協(xié)助下設(shè)立的歐盟數(shù)據(jù)庫(kù)申請(qǐng)登記。歐盟數(shù)據(jù)庫(kù)應(yīng)只包含根據(jù)本條例收集和處理信息所必要的個(gè)人數(shù)據(jù)。這些信息應(yīng)包括負(fù)責(zé)注冊(cè)系統(tǒng)的以及有權(quán)代表供應(yīng)商的自然人的姓名和聯(lián)系方式。倘若提供者認(rèn)為或有理由認(rèn)為其投放市場(chǎng)或投入使用的高風(fēng)險(xiǎn)人工智能系統(tǒng)不符合規(guī)定,應(yīng)立即采取必要的糾正措施,酌情撤回或召回。他們應(yīng)告知有關(guān)高風(fēng)險(xiǎn)人工智能系統(tǒng)的經(jīng)銷(xiāo)商,并在適用時(shí)告知授權(quán)代表和進(jìn)口商。

      4.人工智能發(fā)展違法必究

      一旦草案獲得批準(zhǔn),成員國(guó)應(yīng)根據(jù)相關(guān)規(guī)定和條件制定相應(yīng)罰則,采取必要措施確保這些規(guī)定得到適當(dāng)和有效的執(zhí)行。所規(guī)定的處罰應(yīng)是有效的、相稱(chēng)的和教育性的,并應(yīng)特別考慮到小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟(jì)生存能力。

      草案規(guī)定,提供者違反有害的人工智能禁止性規(guī)定和數(shù)據(jù)治理義務(wù)的,可以處以最高3000萬(wàn)歐元的罰款或全球年?duì)I業(yè)額的6%(以較高者為準(zhǔn));高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用違反其他規(guī)定的,可以處以最高2000萬(wàn)歐元或營(yíng)業(yè)額的4%的罰款;向成員國(guó)主管機(jī)構(gòu)提供不正確、不完整或具有誤導(dǎo)性的信息,將被處以最高1000萬(wàn)歐元或營(yíng)業(yè)額2%的罰款。

      草案規(guī)定,歐盟機(jī)構(gòu)、機(jī)關(guān)違反有關(guān)禁止性人工智能和數(shù)據(jù)治理義務(wù)規(guī)定的,可以處以最高50萬(wàn)歐元的行政罰款;違反其他規(guī)定的,可以處最高25萬(wàn)歐元的罰款。

      草案試圖在促進(jìn)人工智能的發(fā)展和利用與歐盟價(jià)值觀和基本權(quán)利保障之間尋找平衡:首先,其對(duì)人工智能采取了較確切的定義并對(duì)禁止的和高風(fēng)險(xiǎn)人工智能系統(tǒng)作了詳細(xì)的規(guī)定,課予提供者較大的義務(wù),并對(duì)包括歐盟機(jī)構(gòu)、機(jī)關(guān)在內(nèi)的義務(wù)主體設(shè)定了高額的罰款,可以在較大程度上確保人工智能的發(fā)展和利用不至于嚴(yán)重?fù)p害歐盟價(jià)值觀和基本權(quán)利;其二,前述規(guī)定同時(shí)也構(gòu)成了對(duì)歐盟和成員國(guó)的限制,非有授權(quán)其不得干預(yù)和限制人工智能的發(fā)展和利用,并要求在適用相關(guān)罰則時(shí),應(yīng)考慮小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟(jì)生存能力,這為人工智能的發(fā)展預(yù)留了一定空間;同時(shí),為保護(hù)重要的公共利益和個(gè)人權(quán)利,草案對(duì)公權(quán)力機(jī)關(guān),尤其是執(zhí)法機(jī)關(guān)使用的人工智能系統(tǒng)預(yù)留了較多空間,并對(duì)訴諸禁止的人工智能系統(tǒng)的例外情形作了規(guī)定,這可以確保公權(quán)力職能的實(shí)現(xiàn)。

      不過(guò),正如批評(píng)者所指出,鑒于基本權(quán)利侵害風(fēng)險(xiǎn)主要來(lái)自于國(guó)家,尤其是例外情形和對(duì)公權(quán)力使用的人工智能系統(tǒng)的差別對(duì)待,也使得上述平衡處于危險(xiǎn)之中。正因?yàn)榇耍壳皻W盟議會(huì)尚未能達(dá)成一致意見(jiàn),以至于不少人擔(dān)心草案可能流產(chǎn)。

      《光明日?qǐng)?bào)》( 2023年03月16日?14版)

      標(biāo)簽:

      消息推送
      首頁(yè)
      頻道
      底部
      頂部