自歐盟官方發佈《人工智能法案》的最終完整版本滿三周不到,全球首個綜合性的人工智能監管法規於當地時間8月1日正式啓動實施。
此法案致力於使歐盟內的 AI 技術既可靠又安全,同時保護人們的基本權利,同時促進市場統一,推動技術應用,並為創新和投資營造有利環境。
《人工智能法案》對違規行為實施嚴厲的經濟制裁,違禁 AI 應用罰款最高可達年營收的7%,其他違規和錯誤信息分別面臨 3% 和 1.5% 的罰款。此法案條款全面生效需兩年,但部分條款將提前啓動。
《人工智能法案》基於歐盟的產品安全對人工智能提出了前瞻性定義,匯總如下:
① 最小風險類 AI(如推薦系統、垃圾郵件過濾器)對公民權利和安全風險低,不受《人工智能法案》強制義務約束,公司可自願採納額外准則。
② 特定透明度風險要求:AI 系統(如聊天機器人)需明確告知用戶為機器交互,標記 AI 生成內容(含深度偽造),使用生物識別或情感識別時通知用戶,且內容需標記為機器可讀並可檢測其人工生成或操縱。
③ 高風險AI系統需遵循嚴格規範:風險緩解、高質數據、活動記錄、詳盡文件、明確用戶資料、人工監督及高穩健性、準確性、網絡安全。監管沙盒促負責任創新與合規 AI 開發,涵蓋高風險領域如招聘 AI、信貸評估 AI 及自主機器人 AI。
④ 不可接受風險 AI 禁:威脅人權者禁。含操縱意志 AI(如誘導未成年人玩具)、社會評分系統、預測性警務等。另禁生物識別濫用,如情緒識別於職場、人員分類系統、公共執法實時遠程識別(少數例外除外)。