比起人,人類更相信演算法

A+A-
電視劇「黑鏡」(Black Mirror)劇照。

由推薦歌曲、電影,到網頁橫幅廣告,演算法不知不覺間收集大眾的習慣及喜好,並替人類作出決定,但其用途愈見廣泛,人們又不由得擔心日常生活會就此被干預及控制。不過,美國喬治亞大學(UGA)數據學家近日發表的研究顯示,比起同伴,人們其實更願意相信電腦程式,工作變得過於艱鉅時尤甚。

這次研究由 UGA 商學院(Terry College of Business)管理資訊系統學系進行,參與研究的博士生 Eric Bogert 解釋:「演算法能夠執行大量任務,而實際上它們所能執行的任務,每天都在增長。隨著任務變得愈來愈困難,人們更傾向於依賴演算法,其影響力更勝於他人的建議。」論文發表於期刊 Nature 旗下的 Scientific Reports

這次研究找來 1,500 名志願者接受照片評估測試,研究員由此分析人們是如何及何時使用演算法來處理資訊及作出決策。研究小組要求志願者點算群體照片中的人數,並分別提供由一組人產生的建議及由演算法生成的建議。測試結果發現,人們更傾向於遵循演算法生成的建議,而較少靠自己計算或遵循「群體智慧」。

參與研究的助理教授 Aaron Schecter 指出,一般人會認為電腦善於處理計算任務,但事實上,電腦也很容易受偏見影響。「問題經常出現於使用人工智能給予信貸或批准某人貸款的時侯。雖然這是主觀決定,但當中涉及許多數字,例如收入及信用評分,所以人們會覺得這是一項適合用演算法計算的工作。但我們知道,在不少情況中,只依賴數字就會引致不公,因為過程中未有考慮社會因素。」

他補充,近年來人臉辨識及公司招聘時使用演算法也備受質疑。因演算法收集資訊期間,可能已出現文化上的偏見,所以系統要配對面孔與身份,或篩選合格的求職者時,最終結果可能未必準確。他認為,有必要理解人們在做決策時,到底有多依賴演算法。

這項研究屬於 Schecter 人機協作(Human-machine collaboration)研究計劃的一部分,該計劃希望了解人與機器如何能互相信任,及彼此如何改變對方行為。美國陸軍研究辦公室(U.S. Army Research Office)更提供 30 萬美元資助相關項目。