目次
一、監(jiān)管人工智能難題:算法黑箱
二、歐盟人工智能分級(jí)監(jiān)管
三、可解釋人工智能及其應(yīng)用于分級(jí)監(jiān)管
一、監(jiān)管人工智能難題:算法黑箱
人工智能驅(qū)動(dòng)系統(tǒng)的復(fù)雜性迅速激增,已經(jīng)發(fā)展到人類不了解人工智能系統(tǒng)如何工作和做出決策的程度。人工智能系統(tǒng)中不斷增長(zhǎng)的自主性、復(fù)雜性和模糊性持續(xù)增加對(duì)人工智能產(chǎn)品或輸出,如預(yù)測(cè)、決策、行動(dòng)和建議的可解釋性、透明度、可理解性和可解釋性的需求。規(guī)制人工智能的最主要難題之一為算法黑箱,算法黑箱是指算法提供了聚類或預(yù)測(cè)結(jié)果,卻不能解釋這些結(jié)果是如何形成的,錯(cuò)誤的輸出結(jié)果正是源于錯(cuò)誤、不準(zhǔn)確、有偏見的訓(xùn)練數(shù)據(jù),計(jì)算機(jī)術(shù)語將其俗稱為“無用數(shù)據(jù)入,無用數(shù)據(jù)出”(garbage in, garbage out)。[[]1]
例如依賴于機(jī)器深度學(xué)習(xí)的深度神經(jīng)網(wǎng)絡(luò)(deep neural networks)可能有數(shù)百萬個(gè)參數(shù),人類根本無法理解網(wǎng)絡(luò)中每個(gè)個(gè)體值,使用神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程可能導(dǎo)致網(wǎng)絡(luò)參數(shù)設(shè)置為難以與結(jié)果相關(guān)的數(shù)值。此外,有時(shí)數(shù)據(jù)值的微小變化可能會(huì)導(dǎo)致解釋的巨大變化,導(dǎo)致系統(tǒng)將校車與鴕鳥混淆。OpenAI開發(fā)的大型語言模型ChapGPT-3有1750億個(gè)參數(shù),[[]2]其大型模型的內(nèi)部訓(xùn)練更超出人類理解范疇。人工智能有可能在某些指標(biāo)上實(shí)現(xiàn)高水平性能,卻未實(shí)際學(xué)習(xí)正確的區(qū)辨。例如,圖像分類器可以通過觀察背景顏色而不是動(dòng)物區(qū)分老虎(背景是草)和北極熊(背景是雪),這類圖像分類器的正確率可達(dá)95甚至更高,但它卻無法正確識(shí)別雪地里的老虎。[[]3]
此外,算法黑箱還易引發(fā)算法偏見。用于訓(xùn)練人工智能算法的數(shù)據(jù)可能因其屬于受版權(quán)保護(hù)的表達(dá)而讓人工智能使用該訓(xùn)練數(shù)據(jù)受到限制,諸如Facebook或IBM等大公司可通過取得用戶授權(quán)組建訓(xùn)練數(shù)據(jù)或合作購(gòu)買訓(xùn)練數(shù)據(jù),以盡量形成龐大的訓(xùn)練數(shù)據(jù)解決使用訓(xùn)練數(shù)據(jù)受限的問題。但即使訓(xùn)練數(shù)據(jù)龐大,仍因用戶性別、年齡、種族、職業(yè)等因素不同帶有用戶自身表達(dá)的偏見;而眾多中小公司只能使用不受版權(quán)保護(hù)限制、已過版權(quán)保護(hù)期、處于公有領(lǐng)域的作品作為訓(xùn)練數(shù)據(jù)。[[]4]如果人工智能以公有領(lǐng)域文學(xué)作品為訓(xùn)練數(shù)據(jù)進(jìn)行分析處理,可能會(huì)產(chǎn)生二十世紀(jì)前的社會(huì)偏見,忽視黑人、女性和少數(shù)群體的觀點(diǎn)和意見。[[]5]現(xiàn)實(shí)中人工智能已出現(xiàn)預(yù)測(cè)偏差的情形,COMPASS是一款用于評(píng)估美國(guó)刑事被告的算法風(fēng)險(xiǎn)分?jǐn)?shù)工具,根據(jù)刑事被告對(duì)問卷的回答預(yù)測(cè)被告再犯刑事案件的危險(xiǎn)程度,這款工具將種族和性別特征作為了預(yù)測(cè)的主要指標(biāo),導(dǎo)致預(yù)測(cè)結(jié)果更偏向于認(rèn)定黑人和女性被告更危險(xiǎn)。[[]6]
監(jiān)管人工智能的主要目的是實(shí)現(xiàn)預(yù)期目的的安全最大化和危害最小化,這需要在監(jiān)管不足和過度監(jiān)管之間實(shí)現(xiàn)巧妙的平衡。監(jiān)管不足會(huì)使公眾面臨人工智能潛在的危害,過度監(jiān)管又無法發(fā)揮人工智能企業(yè)的創(chuàng)新,阻礙人工智能產(chǎn)業(yè)的發(fā)展速度和實(shí)現(xiàn)人工智能的真正潛力。監(jiān)管人工智能的最大挑戰(zhàn)在于,每一人工智能系統(tǒng)都有其復(fù)雜性和程序性。從監(jiān)管角度看,人工智能系統(tǒng)不僅包括程序本身,還包括訓(xùn)練數(shù)據(jù)以及現(xiàn)實(shí)世界中的使用邊界等,因此不可能簡(jiǎn)單地依據(jù)人工智能模型類型或使用算法進(jìn)行監(jiān)管,相同類型模型可能被應(yīng)用于非常不同的場(chǎng)景,產(chǎn)生非常不同的影響。例如深度卷積神經(jīng)網(wǎng)絡(luò)可被用于檢測(cè)癌癥,也可被用于人群監(jiān)測(cè)。以相同監(jiān)管程度審查人工智能系統(tǒng)在每一處不同場(chǎng)景中的應(yīng)用顯然是不恰當(dāng)?shù)摹?/p>
二、歐盟人工智能分級(jí)監(jiān)管
2021年4月21日,歐盟委員會(huì)公布了名為“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts”的提案(以下稱《人工智能法案(提案)》),延續(xù)“基于風(fēng)險(xiǎn)”的監(jiān)管理念,對(duì)人工智能技術(shù)應(yīng)用進(jìn)行風(fēng)險(xiǎn)劃分。[[]7]《人工智能法案(提案)》將人工智能應(yīng)用場(chǎng)景分為“最低風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、不可接受的風(fēng)險(xiǎn)”四個(gè)風(fēng)險(xiǎn)等級(jí),等級(jí)越高的應(yīng)用場(chǎng)景受到的限制越嚴(yán)格。歐盟議會(huì)于2023年6月14日通過《人工智能法案(審議稿)》,歐洲議會(huì)、歐洲理事會(huì)和歐盟委員會(huì)于2023年12月8日就審議稿達(dá)成協(xié)議并進(jìn)入下一步立法程序,歐洲議會(huì)于2024年3月13日正式通過《人工智能法案》,預(yù)計(jì)法案將于2025年初生效,2026年正式實(shí)施。[[]8]
《人工智能法案》建議對(duì)人工智能進(jìn)行一種平衡和相稱的橫向監(jiān)管方法,僅限于解決與人工智能相關(guān)風(fēng)險(xiǎn)和問題最低必要要求,而不過度限制或阻礙技術(shù)發(fā)展,或以其他方式不成比例地增加在市場(chǎng)上提供人工智能解決方案的成本。法案明確禁止“不可接受風(fēng)險(xiǎn)”人工智能在歐盟境內(nèi)使用;對(duì)高風(fēng)險(xiǎn)類人工智能使用規(guī)定有風(fēng)險(xiǎn)管理;有限風(fēng)險(xiǎn)類人工智能系統(tǒng)需滿足透明度義務(wù),例如告知用戶某項(xiàng)內(nèi)容是人工智能生成的;最低風(fēng)險(xiǎn)類人工智能系統(tǒng)可在歐盟境內(nèi)使用,無需遵守任何法律義務(wù)。[[]9]
需要注意的是,法案尚缺乏實(shí)質(zhì)性的理由判定如何確定將一個(gè)人工智能系統(tǒng)分配到特定的風(fēng)險(xiǎn)類別,這種缺乏明確風(fēng)險(xiǎn)分類標(biāo)準(zhǔn)是有問題的,尤其是將某一新人工智能系統(tǒng)界定為高風(fēng)險(xiǎn)系統(tǒng)時(shí)。[[]10]因此,如何界定高風(fēng)險(xiǎn)人工智能系統(tǒng)成為監(jiān)管人工智能的關(guān)鍵點(diǎn)之一,人工智能風(fēng)險(xiǎn)分類應(yīng)基于人工智能的性質(zhì)以及人工智能對(duì)人類和社會(huì)的影響,包括風(fēng)險(xiǎn)和危害的可預(yù)見性,以及為減輕這些可預(yù)見風(fēng)險(xiǎn)所采取措施的合理性。可解釋人工智能技術(shù)可輔助區(qū)分風(fēng)險(xiǎn)監(jiān)管人工智能系統(tǒng)。
三、可解釋人工智能及其應(yīng)用于分級(jí)監(jiān)管
可解釋人工智能技術(shù)(Explainable Artificial Intelligence,簡(jiǎn)稱XAI)是指產(chǎn)生準(zhǔn)確、可解釋的人工智能算法為什么以及如何做出特定決策的方法和技術(shù),以便人類能夠理解人工智能解決方案的結(jié)果。[[]11]可解釋人工智能技術(shù)提供了區(qū)分風(fēng)險(xiǎn)監(jiān)管人工智能系統(tǒng)所需的可理解性和透明度,通過以下屬性來提升信任度:1)可信度,通過解釋人工智能輸出可轉(zhuǎn)移性的原理和特征來獲得人類對(duì)人工智能模型的信任,其中對(duì)人工智能模型的解釋可使人類更好地理解模型,從而將模型準(zhǔn)確轉(zhuǎn)移至另一應(yīng)用或領(lǐng)域上;2)信息性,告知用戶人工智能模型如何工作,以避免任何誤會(huì);3)信心,通過擁有一個(gè)穩(wěn)健、穩(wěn)定和可解釋的模型來支持人類部署人工智能模型的信息;4)隱私意識(shí),確保人工智能和可解釋人工智能技術(shù)不會(huì)泄露隱私數(shù)據(jù),可通過數(shù)據(jù)匿名化實(shí)現(xiàn);5)可操作性,可解釋人工智能技術(shù)除了提供結(jié)果的原理外,還提供關(guān)于用戶如何更改操作以產(chǎn)生不同結(jié)果的指示;6)量身定制(以用戶為中心)的解釋,允許人類(作為不同知識(shí)背景的人工智能系統(tǒng)用戶)通過基于角色、目標(biāo)和偏好的量身定制的解釋來理解基于人工智能系統(tǒng)的行為和預(yù)測(cè)。[[]12]
因此,可解釋人工智能技術(shù)為復(fù)雜模型的決策提供了解釋的工具,解釋的目的是促進(jìn)人類對(duì)決策過程的理解,解釋增強(qiáng)了人類對(duì)人工智能系統(tǒng)的信心,促進(jìn)了人工智能系統(tǒng)監(jiān)管的安全、道德與公平,強(qiáng)化了可解釋性在人工智能監(jiān)管中的運(yùn)用。解釋應(yīng)用人類的術(shù)語和概念,而不是技術(shù)性的話語。解釋不僅應(yīng)說明哪些數(shù)據(jù)要素被用于決策,還應(yīng)分析這些數(shù)據(jù)支持的不同結(jié)果,因?yàn)椴煌畔⑼鶎?dǎo)致不同甚至相互沖突的結(jié)果。解釋還應(yīng)考慮到監(jiān)管機(jī)構(gòu)、人工智能系統(tǒng)開發(fā)者和用戶之間不同的解釋要求。例如,數(shù)字關(guān)鍵基礎(chǔ)設(shè)施在歐盟《人工智能法案》中被列為高風(fēng)險(xiǎn)人工智能系統(tǒng),企業(yè)應(yīng)實(shí)施風(fēng)險(xiǎn)合規(guī)管理,可解釋人工智能技術(shù)首先對(duì)于更廣泛層面的監(jiān)管機(jī)構(gòu),可詳細(xì)說明人工智能開發(fā)過程和做出的重大選擇,這些選擇包括在設(shè)計(jì)人工智能時(shí)做出的選擇、人工智能決策的廣泛架構(gòu)以及考慮的重要因素??山忉屓斯ぶ悄芗夹g(shù)其次可向法院解釋人工智能系統(tǒng)如何以及為什么造成道路事故,以及在進(jìn)一步迭代中采取補(bǔ)救的方法。[[]13]可解釋人工智能技術(shù)同樣可降低算法偏見風(fēng)險(xiǎn),如果使用可解釋性工具,潛在算法偏見可能在該工具投入使用前就已經(jīng)暴露出來,并且可在數(shù)據(jù)訓(xùn)練前采取適當(dāng)?shù)拇胧?,如從?shù)據(jù)中編輯任何與性別相關(guān)的術(shù)語,消除此類偏見。
可解釋人工智能技術(shù)可在不同風(fēng)險(xiǎn)場(chǎng)景中解釋人工智能系統(tǒng)如何工作,是否符合預(yù)期。例如在醫(yī)學(xué)成像中,醫(yī)生已經(jīng)知曉他們?cè)趯ふ沂裁?,如果得到人工智能系統(tǒng)的解釋,可以驗(yàn)證人工智能系統(tǒng)是否學(xué)會(huì)了正確的規(guī)則。[[]14]在人類無法預(yù)測(cè)結(jié)果且不知道最佳應(yīng)對(duì)策略的開放領(lǐng)域中,例如某些博弈游戲中,人工智能系統(tǒng)的表現(xiàn)會(huì)超過人類,盡管人類不知道人工智能系統(tǒng)是如何做出決策的,可解釋性有助于揭露和驗(yàn)證人工智能沒有做壞事,增加人類對(duì)某一領(lǐng)域的了解,且從監(jiān)管角度而言確保人工智能系統(tǒng)與人類的目標(biāo)保持一致,通過揭示如何實(shí)現(xiàn)良好績(jī)效來提高行業(yè)標(biāo)準(zhǔn)和人類知識(shí)。[[]15]此外,可解釋性技術(shù)能保證人工智能系統(tǒng)在遇到不可預(yù)期情形時(shí)正確行事,當(dāng)人工智能系統(tǒng)遇到這類情形時(shí),會(huì)產(chǎn)生不可預(yù)見的影響,如果內(nèi)部的決策系統(tǒng)通過可解釋性工具來理解,則可預(yù)見人工智能系統(tǒng)會(huì)按預(yù)期方式工作??赡墚a(chǎn)生不可預(yù)見影響的場(chǎng)景主要包括醫(yī)療和交通,可解釋人工智能技術(shù)對(duì)此類場(chǎng)景至關(guān)重要,該類技術(shù)可檢查人工智能系統(tǒng)如何對(duì)不可預(yù)期場(chǎng)景做出反應(yīng),在失敗的情景盡可能多的進(jìn)行測(cè)試,以及在錯(cuò)誤不可避免時(shí)審查和修改系統(tǒng)。[[]16]
歐盟委員會(huì)設(shè)立的人工智能高級(jí)別專家組發(fā)布的《值得信賴的人工智能道德準(zhǔn)則》將可解釋人工智能技術(shù)納為構(gòu)建值得信賴的人工智能系統(tǒng)技術(shù)性方法之一。其提到,為了使人工智能系統(tǒng)值得信賴,必須理解該系統(tǒng)以何種方式表現(xiàn),可解釋性涉及解釋人工智能系統(tǒng)的技術(shù)過程和相關(guān)人類決策的能力,其要求人工智能系統(tǒng)所做的決策能夠被人類理解和追蹤。必須在增強(qiáng)系統(tǒng)的可解釋性(這可能會(huì)降低其準(zhǔn)確性)和提高其準(zhǔn)確性(以可解釋性為代價(jià))之間進(jìn)行權(quán)衡。每當(dāng)人工智能系統(tǒng)對(duì)人們的生活產(chǎn)生重大影響時(shí),應(yīng)該可以要求對(duì)人工智能系統(tǒng)的決策過程做出適當(dāng)?shù)慕忉?。此類解釋?yīng)及時(shí),并根據(jù)利益相關(guān)者的專業(yè)知識(shí)進(jìn)行調(diào)整。此外,應(yīng)提供關(guān)于人工智能系統(tǒng)影響和塑造組織決策過程的程度、系統(tǒng)的設(shè)計(jì)選擇以及部署技術(shù)理由的解釋,從而確保商業(yè)模式的透明度。[[]17]
[[]1] Lucy Brown, “Garbage In Garbage Out: the Dangers of Training Algorithms on Biased Data” (22June2017),https://www.thinkdigitalpartners.com/news/2017/06/22/garbage-garbage-dangers-training-algorithms-biased-data/.
[[]2]Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan et. al, “Language Models Are Few-Shot Learners” (2020), https://arxiv.org/pdf/2005.14165.pdf.
[[]3] Keri Grieman Jeseph Early, “A Risk-based Approach to AI Regulation: System Categorisation Explainable AI Practices”, SCRIPTed, Vol.20 No.1 (2023).
[[]4] Amanda Levendowski, “How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem”, Washington Law Review Vol.93 No.2 (2018).
[[]5] 注釋4.
[[]6] 注釋4, 599-601.
[[]7] 程瑩、崔赫,“歐盟高風(fēng)險(xiǎn)人工智能監(jiān)管的五個(gè)特點(diǎn)——?dú)W盟人工智能法案(草案)初步解讀”,《互聯(lián)網(wǎng)天地》2021年第6期,第38頁(yè)。
[[]8] 網(wǎng)絡(luò)法前哨,“歐洲議會(huì)正式通過《人工智能法》,附主要內(nèi)容概覽”(2024年3月13日),https://mp.weixin.qq.com/s/BoeT81UOybTevsx4ljQJNA。
[[]9]鄭孜青,“解讀歐盟《人工智能法案(審議稿)》”,《中國(guó)外匯》2023年第18期,第29-30頁(yè)。
[[]10] Alexandru Circiumaru, “Three Proposals to Strengthen the EU Artificial Intelligence Act” (13 December 2021), https://www.adalovelaceinstitute.org/blog/three-proposals-strengthen-eu-artificial-intelligence-act/#:~:textIn advance of the legal analysis, we are,Reshaping the AI Act to be truly ‘risk-based’.
[[]11]“Explainable AI – how humans can trust AI”, https://www.ericsson.com/en/reports-and-papers/white-papers/explainable-aihow-humans-can-trust-ai.
[[]12]注釋11.
[[]13]注釋3, 82.
[[]14]注釋3, 84.
[[]15]注釋3, 85.
[[]16]注釋3, 87.
[[]17]High-level Expert Group on Artificial Intelligence set up the European Commission, “Ethics Guidelines for Trustworthy AI” (8 April 2019), https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
邦信陽律師事務(wù)所 兼職律師 ??上海
華劼,同濟(jì)大學(xué)上海知識(shí)產(chǎn)權(quán)學(xué)院副教授、博士生導(dǎo)師,邦信陽律師事務(wù)所兼職律師。
聲明:本文僅代表作者本人觀點(diǎn),不得視為邦信陽律師事務(wù)所及律師出具的正式法律意見或建議。如需轉(zhuǎn)載或引用本文的任何內(nèi)容,請(qǐng)完整注明作者及出處等信息。如您有意就相關(guān)議題進(jìn)一步交流或探討,歡迎與我們聯(lián)系,電話: 8621 23169090,郵箱:shanghai@boss-young.com
點(diǎn)擊“閱讀原文”,登錄邦信陽律師事務(wù)所官網(wǎng)了解更多資訊。