中華民國(臺灣)歐洲研究協會

European Community Studies Association Taiwan (ECSA-Taiwan)

歐洲短評

建構「以人為本」的歐盟AI法案

洪德欽

中央研究院歐美研究所研究員/台大及政大法律系兼任教授

    歐盟執委會將AI定義為:透過整合機器、軟體、資料及數位科技等運用,展現智慧行為的系統,具有分析環境,並在一定程度自主基礎上,採取行動以達成目標。歐盟「人工智慧法案」(Artificial Intelligence Act),將AI系統界定為:運用機器學習與深度學習,並結合一項或一組邏輯及知識智能、統計、概率、搜尋、改善處理等方法或技術,所開發之軟體系統,用以針對一組人類設定目標,產生預測,建議或決定等內容之產品或服務。

    2019年4月8日通過的歐盟AI倫理指引,乃為建立一個「以人為本」的可信任AI體系,尤其應該:(1) 合法,遵守相關法律;(2) 倫理,尊重道德原則、基本權利及歐洲價值;以及(3) 健全,從技術創新出發,又考量社會環境,平衡AI的永續性發展。

    可信任AI倫理指引包括七項原則:

(1)人類及機構監督:

    AI系統應該透過適當監管機制,由人類負責監管,使AI做出明智決定,並遵守相關法律,確保人員健康、安全、財產等保障,並增進人民及社會福祉;

(2) AI技術穩健性及安全性:

    AI系統須具備彈性及安全性,以及預防障礙或意外風險的救援方案及管理計畫,確保AI系統的準確、可靠及可重複驗證;

(3)隱私保障及資料治理:

    確保隱私資料及基本權利之保障,建置資料治理機構,確保資料品質完整性,並對抗網路攻擊,確保資料安全性;

(4)透明性:

    AI資料、系統及商業模式應該確保透明性,建立解釋技術及追溯機制。AI監管機關須建置資料資料庫、技術設備及專業人員等,強化建構AI治理能力及基礎設施;

(5)多元及公平:

    AI系統應避免偏見,尤其在軟體設計更應如此,並應留意避免發生對特定或弱勢群體的歧視或不公平待遇,以增加AI系統的多元及公平使用,造福多數人群;

(6)社會及環境福祉:

    AI系統應重視環境保護及生物多樣性,考量AI系統對社會及環境影響,以造福全人類及後代子孫,促進永續發展;以及

(7)問責機制:

    AI系統應建立完善的問責機制,以明確各利害關係人的法律責任,以利AI的創新及發展、審慎設計及操作、風險管制及預防,以及有效遵守及執行AI法規,建立一個可信任的AI系統及監管機制。

    歐盟執委會於2021年4月21日提出一項AI法案之提案:“COM (2021) 206 final”,其立法宗旨是:促進AI在歐洲的發展、創新及使用,確保基本權利、歐洲價值、內部市場AI產品及服務的自由流動、公平競爭、公平、合理及不歧視使用,建立以人為本並增進人類福祉的歐盟層級統一法律,提高AI在歐盟內部27個會員國間法律關係的明確性、適用一致性及適當的管制及責任機制。

AI法案具體目標包括:

  1. 解決部分AI系統的不透明性、複雜性、偏見、歧視、一定程度不可預測性及部分自主行為等,以確保AI系統的合理使用及適當管制;
  2. 確保AI產品與服務在歐盟市場中的安全性,並遵守歐盟基本權利及歐盟價值相關規定;
  3. 強化對AI系統在基本權利及安全要求的監管及治理機制及有效執行;
  4. 促進合法、安全及可靠的AI系統,以及單一數位市場的開發及創新;以及
  5. 提高AI法律關係的明確性,以及歐盟AI法規在內部市場適用的一致性,以確保公平競爭。

    在「以人為本」的AI理念,歐盟採取「高風險管制」法理,以確保AI系統的安全,並符合倫理要求及法律規範。AI法案第5條規定,禁止使用下列AI項目:

  1. 將潛意識技術(subliminal techniques)應用到人的意識(consciousness),並以特定方式嚴重扭曲他人行為,從而導致或可能導致對方或他人生理或心理傷害;
  2. 將AI系統用於特定人群,因年齡、身體或精神障礙等不同特定人群的脆弱性,產生重大扭曲或影響,從而導致或可能導致對方或他人生理或心理之傷害;
  3. 政府部門或委託單位將AI系統用於評估自然人社會行為、預測個人行為,或在一定期間對自然人信用進行評估或分類特徵,而導致對該人或整個群體有害或不利之影響。因此禁止將AI用於社會評等,以維護人類尊嚴及社會公平性 。
  4. 在公共場所(publicly accessible spaces)使用即時處理(real time)遠程生物特徵辨識AI系統。但可以經由授權,在以下情形中例外使用:(a)針對性搜尋潛在犯罪受害人,包括失蹤兒童;(b)針對具體、實質及迫切的威脅,以預防對自然人的生命、人身安全或恐怖攻擊等威脅;以及(c)依據2002/584/JHA  偵測、定位及辨別特定犯罪人、嫌疑犯,或在該會員國罪刑3年以上的罪犯或嫌疑犯。上述例外使用並應符合「必要及比例」(necessary and proportionate)條件,並符合暫時性、一定區域內及特定個人等限制。

    綜上,歐盟針對AI發展策略,乃建立在「以人為本」原則以及風險管制為基礎,避免AI歧視、壟斷、不當使用、濫用,甚至違法使用。歐盟AI策略,在促進AI的發展及使用之外,同時重視AI為人類服務,以增加人類生活及社經活動的福祉。歐盟針對AI的規範,乃以風險為基礎,針對高風險AI系統、產品及服務,上市之前及在整個生命週期,皆需經過嚴格的評估,以及上市後的監測,以確保其安全性、合法性、公平透明、合乎道德且受人控制。歐盟透過倫理指引與法律建構,以建立一個可信賴AI體系,提高人類對AI的信心,並提供AI活動的一個高標準「制度保障」。歐盟以「風險管制」為中心建構的AI法案,有助於建立一個可信任的AI體系,提高AI的發展與應用,並增進歐洲人民的福祉。

 

進一步閱讀文獻

  1. 洪德欽,2021年12月,〈歐盟有關人工智慧的倫理指引與法律規範〉,王震宇(主編),《科技 ‧人文 ‧ 數位貿易:2021數位貿易政策論壇》,台北:五南出版,頁1-35。
  2. 洪德欽,2020年6月,〈歐盟自動駕駛車之發展策略與法律規範〉,《歐美研究》,第50卷第2期,頁349-431。