要監管 AI 公司,可由此路進

A+A-
馬斯克據報將推出 ChatGPT 的對手 TruthGPT。 圖片來源:Jaap Arriens/NurPhoto via Getty Images

人工智能(AI)系統發展一日千里,監管措施卻相對落後。專門研究 AI 對社會影響的 AI Now Institute 近日發表報告,作者 Amba Kak 和 Sarah Myers West 根據以往為聯邦貿易委員會主席 Lina Khan 擔任顧問的經驗,建議現時政策制定者可採取的具體措施,以防科技公司發佈具風險的 AI 系統。

目前只有少數公司擁有足夠資源開發頂尖的 AI 系統,它們動輒花上數百萬美元來遊說政府,甚至可自行訂立各種條款,而幾乎無需問責。報告指出:「少數私人機構透過開發和傳播 AI 以建設社會的重要基礎設施,同時也累積了與國家相抗衡的權力和資源」,是「隱藏在眾人視線下的荒謬」;人們將權力拱手相讓給非民選機構,並由它們定義何謂「造福全人類」,更忽略了其可能傳播虛假信息而破壞民主社會等風險。

報告稱,現時已錯失收回公司權力的時機;一旦 AI 系統造成任何損害,只能靠研究人員、傳媒和公眾監察並推動變革,無形中加重社會負擔,且只能事後作修補。故首要是制訂政策讓公司承擔責任,例如藥廠必須經美國食物及藥物監督管理局(FDA)審批才能推出產品;又建議可對 AI 系統進行審計,確保不涉及任何偏見或安全問題才准發佈。

然而,上述政策可能誤導人們將「偏見」單純地視為有待解決的「技術問題」,但其實這還視乎現實世界中如何運用 AI。就如社運人士 Zoé Samudzi 於 2019 年在美國新聞網站 The Daily Beast 指出,改善面部識別軟件辨認黑人的能力,未必帶來社會進步,反而可能成為對付黑人的武器。報告提醒,與其將 AI 視為既定工具並尋求改善,不如從根本探討:在某些情況下 AI 是否必要;該進行審計,還是暫停或禁止?

又例如 2017 年,美國史丹福大學研究聲稱有一種算法能根據頭像照片來分辨同性戀者,在男性當中的準確度達 81%,而女性為 74%。該算法是以約會網站中的照片作訓練數據,惟只適用於白人,因其聲稱欠缺足夠的有色人種數據進行測試。人權運動(Human Rights Campaign)公共教育和研究主任 Ashland Johnson 指出,該算法可能成為某殘暴政權用來打壓同性戀者的工具,史丹福大學應與偽科學保持距離,不應跟這種可能影響數百萬人安全的研究扯上關係。

該報告又建議,監管機構還需發揮創意,運用現有政策來監管 AI。例如公眾有時會以為人工智能政策與數據私隱等其他政策有別,但人工智能不過是結合了數據、算法和運算能力,所以數據政策也就是人工智能政策。政策制訂者可考慮限制數據收集的方法,不僅有助保護消費者私隱,還可減輕某些 AI 應用程式的風險;而限制其運用數據,即等同於限制其所建構的內容。

同樣,人們可能不習慣將人工智能與競爭法或反壟斷法相提並論。但拜登政府已表示願意「跳出框架」,運用這些現有法律來解決 AI 公司的權力集中問題。報告強調,所謂「技術必然性」並非牢不可破的事實,公眾可重新掌控部署的技術及時間,例如近年已有一些地方暫停或禁止使用面部識別技術。

報告總結指:「人工智能沒甚麼是無可避免的,只要我們不再將人工智能視為進步的同義詞,才能廣泛監管這些技術的發展。」