引言:2024年12月2日,歐洲委員會的人工智能委員會發布了《人工智能系統風險及影響評估方法(HUDERIA方法)》,旨在評估人工智能(AI)系統對于人權、民主和法治的風險及影響。HUDERIA方法是一種獨立的、非強制性的指導意見,不具有法律效力,也不作為解釋工具,適用范圍也較為廣泛。
雖然該方法不具有法律約束力,但是該方法體現了歐盟對于人工智能風險監測的基本趨勢和方向。且該方法對于目前人工智能系統監測和調試以及后續應用階段的風險防控都有一定參考意義。
目 錄
一、HUDERIA方法簡介
二、HUDERIA方法的組成要素
三、HUDERIA方法的具體步驟
四、迭代審查
01
HUDERIA方法簡介
HUDERIA是一種結構化方法,用于評估AI系統對人權、民主和法治的影響。既適用于公共機構,也適用于私人主體,可以用來幫助識別和解決AI系統在其生命周期中對人權、民主和法治的負面風險或影響。
HUDERIA方法以眾所周知的風險評估變量、概念等作為基礎來評估人工智能對人權的潛在負面影響(如風險等級、影響范圍、發生概率和可逆性等)。鑒于人工智能全生命周期活動的復雜性,其旨在通過提供額外的指導來加強或促進對于人工智能的評估。
02
HUDERIA方法的組成要素
HUDERIA方法有以下四個組成要素:
基于上下文的風險分析(COBRA):識別AI系統可能對人權、民主和法治造成的風險。
利益相關者參與過程(SEP):與可能受影響的利益相關者進行互動,以獲取信息并驗證潛在風險和緩解措施。
風險和影響評估(RIA):評估AI系統對人權、民主和法治的潛在和實際影響。
緩解計劃(MP):制定緩解和補救措施。
一般而言是首先使用COBRA進行分析,但是測試者可以根據模型的不同以及需求的不同,選擇調整上述組成要素的順位以及實際應用。
03
HUDERIA方法的具體步驟
實施HUDERIA(人工智能系統風險和影響評估方法)涉及一系列步驟,這些步驟旨在評估AI系統對人權、民主和法治的潛在影響。以下是實施HUDERIA方法的步驟:
(一) 基于上下文的風險分析COBRA
1. 初步范圍界定(Preliminary scoping):進行初步背景研究,了解AI系統的目的、關鍵組件、預期使用環境、操作領域/域名、人為干預程度以及數據處理和訓練的性質。
2. 分析風險因素(Analysis of risk factors):收集與AI系統的應用背景、設計和開發背景、部署背景相關的風險因素信息,這些因素將有助于反映對人權、民主和法治的潛在影響。
3. 映射潛在影響(Mapping of potential impacts):確定可能受影響的人群或團體,并初步評估關鍵風險變量(嚴重性、范圍、可逆性和可能性)。
4. 分類(Triage):根據之前COBRA階段收集的信息進行整理,一方面促進對重大風險和要素的識別及分類,避免HUDERIA要素的重復應用,另一方面可以對于AI系統是否存在對人權、民主和法治構成重大風險因素,以及是否該系統帶來的收益會遠超其造成的不良影響進行初步判斷。
(二) 利益相關者參與過程(SEP)
該步驟指的是采取各種形式讓AI可能影響的利益相關者參與進來,具體參與程度應根據COBRA階段確定的風險因素以及潛在/實際影響來確定。在整個人工智能系統生命周期中涉及利益相關者的充分參與,也可以帶來很多有利于AI發展的效果,例如促進透明度,建立信任以及提高人工智能系統的可用性及自身性能。
具體步驟包括:
1. 利益相關者分析:涉眾分析確定可能受到AI系統生命周期內活動影響的涉眾群組,尤其關注以下群組:A.因使用該AI系統而可能面臨不成比例的風險之群體;B.易受潛在危害影響的群體;C.在有限范圍內可以影響系統設計和使用的群體。例如,目前或歷史上被邊緣化、處于不利地位或代表性不足的群體或處于弱勢或有特殊需要的群體或個人。
2. 定位反思:下一步對受影響的利益攸關方的對立面進行分析和反思,認識到HUDERIA用戶觀點的局限性,并查明對該系統潛在/實際影響的評估的缺失觀點。根據在COBRA過程中確定的風險因素,使用HUDERIA方法的主體還應考慮聘請具有特定專業知識的外部利益相關方或顧問,如在評估該系統對于人權的影響時應當聘請具有人權法專業知識的人員。
3. 參與目標建立:為利益相關者的參與設定明確的目標,目的是讓他們清楚地了解參與活動是如何以及為什么進行。這有助于這些群體能夠達到包容、知情和有意義的參與。
4. 參與方式確定:在確定具體參與方式時應當考慮以下幾個要素:有效參與度、平等及禁止歧視、根據群體特征對其進行能力提升以使其實現有效參與、評估者和參與者之間信息透明、責任落實到具體個人。
5. 最終實施:在完成了前面的四個活動之后,就可以執行適當的業務流程了。它應與上述四部涉及的目標及評估結果一致,并形成適當的文件。
(三) 風險及影響評估(Risk and Impact Assessment, RIA)
這一階段是為了更加詳細的評估AI系統可能對人權、民主和法治產生的影響。風險和影響評估的基礎是:COBRA階段初步確定的風險因素以及潛在影響的繪圖,以及SEP階段中綜合各方見解對人工智能系統的潛在和實際影響的分析。風險和影響評估主要分為兩步:
第一步,重點是識別出潛在的影響,或者更準確的說,是識別這種在COBRA和SEP步驟中確定的潛在/實際存在的影響最終發生的可能性,以及發生的全部過程,從而可以用一種更加開放的、更加具有探索性的路徑來更深入地分析影響的具體背景、范圍、規模和可逆性。
第二步,對潛在或實際影響的規模、范圍、可逆性和概率等風險變量進行評估。對這些變量進行全面的上下文響應性分析,有助于通過區分人工智能系統影響的嚴重程度來確定緩解措施的優先次序。
在完成這一階段用于識別和評估負面影響的問題及提示之后,就可以啟動預防以及減輕負面影響的優先次序排列和規劃。從而進入下一階段的制定緩解計劃及補救措施的環節。
(四) 制定緩解計劃(Mitigation Plan, MP)
根據識別和評估的潛在及實際負面影響,制定緩解措施,并考慮為受影響者提供補救措施。
這一階段的實施有以下要點:
范圍和優先級確定:勤勉的風險和負面影響預防及緩解計劃需要先確定范圍和優先級。根據參與的受影響人員的意見,仔細檢查每一個已確定的潛在/實際負面影響,并繪制出它們之間的相互關系和依賴路徑,以及在COBRA階段確定的周圍社會風險因素。在需要確定預防和緩解行動的優先次序的情況下,應根據所審議負面影響的相對可能性和嚴重程度來指導決策。
法律義務的兼顧:在制定對應緩解計劃的過程中,應考慮到適用的國際法和國內法所規定的關于尊重人權、民主和法治的法律義務。即對應的緩解計劃如果要有效實施,需要考慮在對應的國家關于保護人權、民主和法治的國內立法以及適用的國際規則下,該等計劃是否可行,對應的法律補救措施或者賠償機制是否在國內立法框架下可以實現。
緩解措施的層級:在人工智能系統生命周期的早期階段,由于潛在/實際負面影響尚未發生,因此“避免”和“減輕”的選項在該階段處于優先適用層級。在隨后的監測、審查和重新評估階段(即在部署階段),負面影響可能已經發生,此時“恢復”和“補償”等備選方案與“避免”和“緩解”備選方案一樣具有高相關性。以下為不同措施層級的梳理:
在任何情況下,采取何種預防和(或)緩解措施的決定都應以優先保護人權、民主和法治為指導,并應優先選擇避免和減輕負面影響,而不是選擇補償或賠償可能受影響的人所遭受的傷害。
賠償的獲取:解決負面影響的措施不僅限于法律補救措施。此類影響可通過其他緩解措施加以解決,例如政策、指導意見或其他措施。
在實施賠償措施時應當考慮以下幾點:
1. 現有體制是否已經存在保護人權、民主和法治的相關問責措施;
2. 一些人工智能系統的技術復雜性、不透明性和數據驅動性質會限制它們的透明度。這可能會在AI系統生命周期中涉及的各方之間造成信息訪問、理解或控制方面的嚴重不平衡。記錄和提供有關人工智能系統及其對受影響人員之影響的信息,可以促進提供有效補救措施;
3. 這些措施中提供的資料應適合具體情境、表述清楚并有意義,確保人們在做出涉及影響其自身的決定時能夠有效地利用這些資料;
4. 在適當的情況下,可能需要根據適用的國際法和國內法,向受影響的人提供進一步有效的程序保障。
04
迭代審查
迭代審查指的是:在AI系統的整個生命周期中進行持續的風險和影響評估,以應對隨時間變化的內外部因素。它是HUDERIA方法中的一個重要環節,它確保風險和影響評估在整個人工智能(AI)系統生命周期中持續有效。
迭代審查實施過程中需要兼顧以下原則:
1. 持續審查HUDERIA在保持其有效性和可靠性中發揮關鍵作用。
2. 建立監測影響和在項目生命周期的每個階段重新評估及評價HUDERIA的計劃。
3. 用于迭代審查的過程應盡可能靈活積極的響應AI系統與其操作環境以及受影響人群的互動方式。
4. 在快速發展或變化的環境中,可能需要更頻繁的重新評估和重新評價的干預。
作者簡介
師亞楠
國浩北京律師
業務領域:私募、投資并購、爭議解決
郵箱:shiyanan@grandall.com.cn
相關閱讀
【 特別聲明:本篇文章所闡述和說明的觀點僅代表作者本人意見,僅供參考和交流,不代表本所或其律師出具的任何形式之法律意見或建議。】