●一、全球人工智能監(jiān)管格局●
目前,立法機(jī)構(gòu)對(duì)監(jiān)管人工智能的興趣日益濃厚,根據(jù)斯坦福大學(xué)以人為本人工智能研究所(Stanford HAI)最近發(fā)布的一份報(bào)告,從2016年到2023年,32個(gè)國(guó)家通過了148項(xiàng)有關(guān)人工智能的法律。2023年,48個(gè)國(guó)家的立法機(jī)構(gòu)在聽證會(huì)和會(huì)議上提到了這一術(shù)語。此外,2024年7月13日,《人工智能法案》在《歐盟官方公報(bào)》上公布。
●二、新出現(xiàn)的人工智能監(jiān)管方法●
全球人工智能治理框架由不同的利益相關(guān)者和機(jī)構(gòu)安排組成,規(guī)定了如何開發(fā)和使用人工智能系統(tǒng)。它們包括有約束力(如條約、合同)和無約束力的文書(如指南、標(biāo)準(zhǔn))。例如,聯(lián)合國(guó)教科文組織的《人工智能倫理問題建議書》,旨在確保人工智能治理促進(jìn)負(fù)責(zé)任、合乎倫理和尊重人權(quán)的人工智能系統(tǒng)開發(fā)和采用。此外,聯(lián)合國(guó)大會(huì)最近通過了兩項(xiàng)有助于人工智能全球治理建設(shè)的重要決議:2024年3月21日《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機(jī)遇,促進(jìn)可持續(xù)發(fā)展》決議和2024年7月1日《加強(qiáng)人工智能能力建設(shè)國(guó)際合作》決議。
下面介紹受人工智能治理框架影響的9種監(jiān)管方法。在對(duì)人工智能進(jìn)行監(jiān)管時(shí),可以將不同的方法結(jié)合起來。大多數(shù)人工智能法規(guī)都綜合使用了這幾種方法。
2.1 基于原則的方法
基于原則的方法為利益相關(guān)者提供了一套基本原則,為通過合乎道德、以人為本和尊重人權(quán)的程序開發(fā)和使用人工智能系統(tǒng)提供指導(dǎo)。例如聯(lián)合國(guó)教科文組織的《人工智能倫理問題建議書》和聯(lián)合國(guó)經(jīng)濟(jì)合作與發(fā)展組織(OECD)的《人工智能原則》。基于原則的方法并不對(duì)公共機(jī)構(gòu)、私人組織或個(gè)人規(guī)定具體的義務(wù)或限制,也不規(guī)定不遵守的后果。法律主體可自行判斷如何根據(jù)原則調(diào)整自己的行為。然而,基于原則的方法可以與其他規(guī)定了具體的義務(wù)和權(quán)利的監(jiān)管方法相結(jié)合。
2.2 基于標(biāo)準(zhǔn)的方法
基于標(biāo)準(zhǔn)的方法將國(guó)家的監(jiān)管權(quán)力下放給標(biāo)準(zhǔn)制定機(jī)構(gòu),這些機(jī)構(gòu)可以是公共、私營(yíng)或混合機(jī)構(gòu)。這種方法使專業(yè)和行業(yè)組織可直接或間接參與制定有關(guān)程序和活動(dòng)的技術(shù)標(biāo)準(zhǔn)。人工智能標(biāo)準(zhǔn)中心(AI Standards Hub)已經(jīng)確定了近300項(xiàng)人工智能相關(guān)標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)涉及眾多領(lǐng)域,如人工智能采購(gòu)、人權(quán)、以人為本的設(shè)計(jì)、人工智能的發(fā)展和應(yīng)用。
2.3 基于實(shí)驗(yàn)主義的方法
在電信和金融等不同經(jīng)濟(jì)部門以及數(shù)據(jù)保護(hù)、隱私法和公共采購(gòu)等橫向立法中,已采用靈活制定的監(jiān)管方法。監(jiān)管沙盒(Regulatory Sandboxes)的主要目標(biāo)是為公共和私營(yíng)組織創(chuàng)造測(cè)試新商業(yè)模式的空間。最近,這種方法也被用于人工智能監(jiān)管。如歐盟的《人工智能法案》,該法案建立了人工智能監(jiān)管沙盒的創(chuàng)建框架。此外,英國(guó)的《支持創(chuàng)新的人工智能監(jiān)管方法》提案還包括開發(fā)沙盒和測(cè)試平臺(tái)。
2.4 基于促進(jìn)和扶持的方法
基于促進(jìn)和扶持的方法旨在促進(jìn)和營(yíng)造一種環(huán)境,鼓勵(lì)私營(yíng)和公共部門開發(fā)和使用負(fù)責(zé)任的、符合道德和人權(quán)的人工智能系統(tǒng)。例如,在這方面,聯(lián)合國(guó)教科文組織制定了準(zhǔn)備情況評(píng)估方法(RAM),旨在幫助各國(guó)了解自己在為其所有公民實(shí)施人工智能方面的準(zhǔn)備程度,并在此過程中強(qiáng)調(diào)需要進(jìn)行哪些體制和監(jiān)管變革。
2.5 基于調(diào)整現(xiàn)有法律的方法規(guī)則
一些地區(qū)傾向于調(diào)整特定部門的規(guī)則(如衛(wèi)生、金融、教育、司法)和橫向規(guī)則(如刑法、數(shù)據(jù)保護(hù)法、勞動(dòng)法),而不是發(fā)布人工智能法案。這種方法的一個(gè)潛在好處是,它允許立法者根據(jù)他們對(duì)人工智能的了解,討論并逐步改進(jìn)監(jiān)管框架。適應(yīng)橫向規(guī)則的一個(gè)例子是哥倫比亞參議院的第225/2024號(hào)法案,該法案將修改《刑法典》,以加重對(duì)人工智能系統(tǒng)(例如,通過深度偽造)冒名頂替罪(the crime of impersonation)的處罰。
2.6 基于信息透明度的方法
要使用這一方法,需采用透明披露的基本信息。披露信息的范圍可包括人工智能系統(tǒng)生命周期的各個(gè)方面,包括模型是如何開發(fā)的、使用了哪些數(shù)據(jù)對(duì)其進(jìn)行訓(xùn)練、系統(tǒng)如何運(yùn)行、系統(tǒng)的性能、系統(tǒng)對(duì)其支持的程序有哪些影響、人們?nèi)绾螌?duì)根據(jù)系統(tǒng)輸入信息做出的決定進(jìn)行質(zhì)疑等等。例如,歐盟《人工智能法案》第50條規(guī)定了人工智能系統(tǒng)提供商的透明度義務(wù),旨在確保與自然人直接互動(dòng)的人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)方式應(yīng)使相關(guān)自然人知曉他們正在與人工智能系統(tǒng)互動(dòng)。該條款還規(guī)定了用戶的義務(wù),如果部署的人工智能系統(tǒng)“生成或處理構(gòu)成深度偽造的圖像、音頻或視頻內(nèi)容,應(yīng)披露該內(nèi)容是人工生成或處理的”或“生成或處理以向公眾通報(bào)公共利益事項(xiàng)為目的而發(fā)布的文本,應(yīng)披露該文本是人工生成或處理的”。
2.7 基于風(fēng)險(xiǎn)的方法
基于風(fēng)險(xiǎn)的方法旨在根據(jù)各方對(duì)監(jiān)管機(jī)構(gòu)實(shí)現(xiàn)其目標(biāo)所帶來的風(fēng)險(xiǎn)的評(píng)估,確定監(jiān)管行動(dòng)的優(yōu)先次序。這種監(jiān)管方法已在不同部門實(shí)施,包括環(huán)境部門、稅收部門、食品安全部門和消費(fèi)者保護(hù)部門。基于風(fēng)險(xiǎn)的方法側(cè)重于預(yù)防問題和控制與使用人工智能系統(tǒng)相關(guān)的風(fēng)險(xiǎn)。因此,其目的是根據(jù)不同類型的人工智能系統(tǒng)所造成的風(fēng)險(xiǎn)程度來調(diào)整法規(guī)的義務(wù)或要求。該方法根據(jù)風(fēng)險(xiǎn)水平,確定目標(biāo)的優(yōu)先次序,區(qū)分風(fēng)險(xiǎn)類型,并選擇干預(yù)措施。這種監(jiān)管方法的一個(gè)例子是歐盟的《人工智能法案》。該法規(guī)定了基于不同風(fēng)險(xiǎn)等級(jí)的義務(wù):不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、系統(tǒng)性風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和最低風(fēng)險(xiǎn)。與歐盟的《人工智能法案》類似,世界各國(guó)的立法機(jī)構(gòu)也在討論以風(fēng)險(xiǎn)為基礎(chǔ)的人工智能法案。例如,巴西、智利、哥倫比亞和厄瓜多爾的人工智能法案包含了“不可接受”和“高”風(fēng)險(xiǎn)類別,完全或部分采用了屬于這一類別的人工智能系統(tǒng)清單,并包括了一些針對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的義務(wù)。
2.8 基于權(quán)利的方法
基于權(quán)利的方法旨在確保人工智能法規(guī)保護(hù)個(gè)人的權(quán)利和自由,強(qiáng)調(diào)人權(quán)。這種方法假定,市場(chǎng)失靈不是監(jiān)管的唯一理由,監(jiān)管的合理性在于保護(hù)權(quán)利、促進(jìn)分配公正和推進(jìn)社會(huì)目標(biāo)。基于權(quán)利的方法制定了強(qiáng)制性規(guī)則,以保證在人工智能系統(tǒng)的生命周期內(nèi)尊重、保護(hù)和促進(jìn)權(quán)利,包括人權(quán)和其他經(jīng)濟(jì)或社會(huì)權(quán)利。例如,《通用數(shù)據(jù)保護(hù)條例》(GDPR)中與使用自動(dòng)決策系統(tǒng)(ADM)處理個(gè)人數(shù)據(jù)相關(guān)的規(guī)則。只要這些系統(tǒng)被用于處理個(gè)人數(shù)據(jù),就會(huì)被普遍強(qiáng)制執(zhí)行。
2.9 基于責(zé)任的方法
這種方法旨在規(guī)定強(qiáng)制性行為標(biāo)準(zhǔn)以刑事、行政或民事責(zé)任為后盾。在這種監(jiān)管方法中,法律的力量被用來禁止某些形式的行為,要求采取某些積極行動(dòng),或規(guī)定進(jìn)入某個(gè)行業(yè)的條件。例如,歐盟的《人工智能法案》規(guī)定了適用于違反該法規(guī)的處罰措施。此外,歐洲議會(huì)正在審議關(guān)于人工智能造成傷害的民事責(zé)任新規(guī)定的提案。