
從本周日起,在歐盟內部,歐盟的監管機構可以禁止他們認為構成“不可接受風險”或危害的AI系統的使用。
2月2日是歐盟AI法案的首次遵守截止日期,這是歐洲議會在經過多年發展後,在去年三月終於批准的綜合AI監管框架。該法案正式於8月1日生效;現在要遵守的是首個遵守截止日期。
具體細節已列在第5條中,但廣泛而言,該法案旨在涵蓋AI可能出現和與個人互動的無數用例,從消費應用到物理環境。
根據該區域的方法,有四個廣泛的風險級別:(1) 最低風險(例如,電子郵件垃圾郵件過濾器)將不受監管機構監督;(2) 有限風險,包括客服聊天機器人,將受到輕度監管監督;(3) 高風險-用於醫療保健建議的AI是一個例子-將受到嚴格的監管監督;和(4)不可接受的風險應用程序-本月符合要求的焦點-將被完全禁止。
一些不可接受的活動包括:
- 用於社會評分的AI(例如,根據個人行為建立風險文件)。
- 以潛意識或欺騙性的方式操縱人的決策的AI。
- 利用年齡、殘障或社會經濟地位等漏洞的AI。
- 試圖基於外表預測人們犯罪的AI。
- 使用生物識別來推斷個人的特徵,如其性取向。
- 在公共場所收集“實時”生物識別數據,用於執法目的。
- 試圖在工作或學校推斷人的情感的AI。
- 通過從線上或監控攝像頭中抓取圖像創建-或擴展-面部識別數據庫的AI。
在歐盟發現使用以上任何AI應用程序的公司將受到罰款,無論其總部位於何處。他們可能面臨高達3500萬歐元(約3600萬美元),或上一個財政年度的年收入的7%中更高的一項罰款。
根據英國律師事務所Slaughter and May的技術主管羅伯·桑羅伊(Rob Sumroy)在接受TechCrunch采訪時指出,這些罰款不會立即生效。
“組織預計將在2月2日全面遵守,但…公司需要意識到的下一個重要截止日期是在8月,” Sumroy 說道。“屆時,我們將知道誰是主管機構,罰款和執法規定將生效。”
初步承諾
2月2日的截止日期在某種程度上是一種形式。
去年9月,超過100家公司簽署了歐盟AI協議,這是一項自願承諾,在AI法案生效前開始應用AI法案的原則。作為協議的一部分,簽署者-其中包括亞馬遜、谷歌和OpenAI-承諾辨識AI系統可能會被歸為AI法案高風險類別。
一些科技巨頭,特別是Meta和蘋果,跳過了這項協議。法國人工智能初創公司Mistral,AI法案的最烈批評者之一,也選擇不簽署。
這並不意味著蘋果、Meta、Mistral或其他未同意該協議的公司不會履行他們的義務-包括禁止不可接受風險的系統。 Sumroy 指出,鑒於列出的禁止用例的性質,大多數公司本來也不會從事這些實踐。
Sumroy 說:“對於組織而言,圍繞歐盟AI法案的關鍵擔憂是,明確的指南、標準和行為守則是否會及時出台-關鍵在於,這些是否會為組織提供遵守方面的明確性。”“然而,截至目前,工作組正在份指南上進度符合行為守則的截止日期。”
可能的豁免
AI法案的幾項禁止部分設有例外。
例如,該法案允許執法部門使用某些在公共場所收集生物識別數據的系統,如果這些系統有助於進行“有針對性的搜索”,比如搜索一名綁架受害者,或幫助防止對生命構成“特定、重大且即時的”威脅。這個豁免需要得到適當治理機構的授權,該法案強調,執法機構不能僅基於這些系統的輸出做出對一個人產生“不利法律效果”的決定。
法案還為在工作場所和學校推斷情感的系統設有豁免,這些情感系統有“醫療或安全”理由,比如為治療性用途設計的系統。
歐盟執委會,即歐盟的行政部門,表示將在“2025年初”後跟持份者協商後發布更多指南。然而,這些指南尚未公布。
Sumroy 說,其他現有法律與AI法案的禁止條款和相關規定之間的互動方式尚不清楚。在執行窗口逼近時,清晰性可能要等到年底才能出現。
“組織應該記住,AI監管不是一個孤立存在的項目,”Sumroy 說。“其他法律框架,如GDPR、NIS2和DORA,將與AI法案互動,潛在挑戰-特別是重疊的事件通知要求的挑戰-將同樣重要。了解這些法律如何相互配合將與理解AI法案本身一樣重要。”