廖康宇:AI 無人汽車的道德兩難

A+A-
各大車廠正積極研發無人駕駛技術,但當中涉及不少道德問題。 圖片來源:路透社

日前陶傑先生提及 AI 無人汽車發展,筆者認為論述相當有趣,並希望於本文略略討論相關道德議題。

學術界的普遍共識是人工智能發展會取代社會中一部分的職業,當中最常引用的例子就是司機。無人駕駛技術在近年相繼取得技術上突破,在路試情況下,車輛自動操作已非天方夜譚。但這是否代表在未來不再需要人類司機?這一點筆者並不認同,因為 AI 不能(亦不應該)代替人類作出道德判斷,這是科技應有的界限。

對哲學有興趣的讀者,可能已經聽過這個著名的道德兩難議題 —— 電車實驗(The Trolley problem):假設一架電車失控將會撞死前方 5 個路人;但你可以拉動一個手掣令電車轉向,改而撞死 1 個路人。無論拉還是不拉,當中都涉及複雜的道德倫理思考和批判。

圖片來源:Wikimedia Commons

以色列殿堂級學者哈拉瑞(Yuval Noah Harari)在著作「21 世紀的 21 堂課21 Lessons for the 21st Century)」中,提出了人工智能版的電車實驗:假設一架無人駕駛汽車失控,快將撞向前方 5 個亂過馬路的路人,但電腦程式可以將車轉向,改為撞死在行人路上等候燈號的 1 個路人,汽車生產商有權/應該將汽車永遠預設撞向人少的方向嗎?人工智能應該用甚麼準則去決定誰人該死?

在另一個假設情況,無人駕駛汽車將失控墜崖,車內的乘客必然喪命,此時電腦程式可以將汽車轉向,改為撞向前方私家車,人工智能又該如何決定犧牲哪一個人?假設人工智能汽車已經連接大數據,得知前方私家車乘客為 70 歲曾經做過心藏手術的老翁,車禍後死亡機率為 99%;而失控汽車乘客為任職警察的年青男性,體格強健兼佔中清場有功,但他墜崖後身亡機率為 97% 略低於老翁,人工智能汽車是否應該直衝落懸崖?假設失控汽車受陶傑先生文中的 50 歲東尼監督,東尼又可否/應否在兩條人命中做決定?

本文提到的問題,讀者心中可能會有不同答案。但唯一肯定的是,道德思考不應該假手人工智能作最後決定。雖然理論上 AI 沒有人類的主觀(Subjectivity)影響,但近年多個學術研究清楚指出,電腦程式在編寫的時候已經因為程式員的主觀性或數據可用性(Availability)的偏差而存在偏見。例如 Google 曾經將同性戀者及性罪行犯關聯;又例如因為視像數據不普及,所以人面析別技術(Facial recognition)對於黑人準確度較白人低。醫生、律師等其他職業當中所牽涉的道德問就更加複雜,我預期人工智能可以在各行各業減少人力資源及提高生產力,但大多數行業都不會被 AI 輕易取替。

※ 此欄文章為作者觀點,不代表本網立場。 ※
廖康宇 創意經濟

作者為香港大學媒體、文化及創意城市碩士,2017 年赴英國華威大學媒體與文化政策研究院深造,現為英國劍橋大學社會學系博士生。 曾任職媒體公司及公關部門,對創意經濟發展略知一二。熱愛香港文化,深信香港能成為亞洲最有文化實力的國際大都會。