歐盟通過監管 AI 草案,能否保障人類權利?

A+A-
6 月 14 日歐洲議會全體會議上,議員通過監管 AI 的「人工智能法」。 圖片來源:FREDERICK FLORIN/AFP

身處 AI 元年,人工智能席捲不同產業領域,眾多專家先後警告 AI 可威脅人類生存,但如何有效監管又不扼殺生產力,各國政府始終未能交出功課。前日歐洲議會終於通過「人工智能法」(A.I. Act)草案,可望年底正式生效,或成為監管 AI 的全球模範。究竟法例將如何管制 AI,行內專家又有何評價?

歐盟的立法工作始於 2019 年,但眾所周知,這幾年發佈的 AI 技術不斷突破,潛在風險也愈來愈具體,以致草案都要不斷追趕時代步伐。譬如說,早期版本不涉及生成式 AI,但隨著生成文字工具 ChatGPT、生成圖像工具 Midjourney 等應用風行互聯網,同樣使得草案不得不作回應。

有關草案在前日(6 月 14 日)經歐洲議會通過,但議會仍然要跟歐盟委員會和歐洲理事會三邊談判,以敲定最後細節。負責法案的議會聯合報告人 Brando Benifei 揚言,當科技龍頭對自己創造的科技提出警告,歐洲已經領先具體回應 AI 的風險。儘管最終版本預計年底才面世,但歐盟確實領先多國。在彼岸的美國,白宮最近亦有提出政策構想,在 AI 系統正式推出前加以規管,以保護公民的私隱權為目的。

歐盟「人工智能法」把重點放在風險管理,將 AI 系統分為 4 個風險等級:不可接受(unacceptable)、高風險(high)、有限風險(limited)和最低風險(minimal),內容與相應管制如下:

  • 不可接受:對人類安全、生計和人權構成明顯威脅,將一律被禁止,包括政府用的社會評分系統、鼓勵危險行為的語音輔助玩具、未經司法授權使用實時臉部識別技術等。
  • 高風險:牽涉多項敏感應用範疇,譬如可危及公民性命與健康的應用,如 AI 交通管理系統,其餘還涉及教育或職業培訓、人力資源管理、融資服務、邊境管理、司法與民主行政程序等,推出前一律受嚴格法律約束。管制措施包括適當風險評估、保留數據記錄、經由高質素數據庫訓練、運作要經適當人為監督等。只有少數例外情況可放寬規限,如尋找失蹤兒童、防止具體又緊迫的恐襲威脅、識別嚴重刑事案疑犯等。
  • 有限風險:法律要求披露的資訊最少,其中生成式 AI 系統營運商,譬如 ChatGPT 必須提示用戶正在與機器互動,以便用戶可自主決定是否繼續對話。
  • 最低風險:這類 AI 獲准在不受約束下自由應用,例如電子遊戲中的 AI、過濾垃圾郵件的 AI。目前歐盟境內使用的絕大多數 AI 系統都屬於這類。

歐盟草案勝在寫得夠籠統?

雖然草案強調風險管理,但英國巴斯大學人工智能教授 Nello Cristianini 指出,與早前有聯署信要求減慢 AI 開發以免人類「滅絕風險」不同,歐盟草案聚焦在較短期和實在的風險上,包括可能傷害人類的 AI 應用,如司法層面應用、政府福利分配、能源基建操作等。

其中一個爭議焦點在於臉部識別技術,歐洲議會投票禁止使用實時臉部識別,但是否允許基於國家安全和其他執法目的而豁免限制,仍然存在爭議。另一項規定是禁止公司從社交媒體收集生物識別數據,以建立自身的數據庫,相關爭議由臉部識別公司 Clearview AI 採用有關做法而起。

與此同時,科技界領袖一直試圖影響討論方向。ChatGPT 營運商 OpenAI 行政總裁奧特曼(Sam Altman)近幾個月拜訪至少 100 名美國議員,還有南美、歐洲、非洲和亞洲的政策制定者。美國電腦與通訊行業協會(CCIA)亦警告歐盟,不要過分擴大監管範圍,以免扼殺創新。

與此相反,Cristianini 提醒我們,歐盟是在 2019 年夏季提議立法,「時間還早於疫情大流行、戰爭和能源危機,早於 ChatGPT 讓政治家和傳媒擔憂 AI 構成生存威脅之前」。這在在說明技術發展正在加速,但歐盟法例生效後還有 2 至 3 年緩衝期,2027 年歐盟境內企業接受監管時,說不定 AI 技術可能又變了樣,但歐盟草案優勢在於「寫得夠籠統」(written in a sufficiently general way),相信有足夠彈性應付短期挑戰。