以人工智能模擬死者言行,是否道德?

A+A-

在早前熱播的香港電視劇「IT 狗」中,人工智能能夠逼真模擬死者,持續與生者對話。原來現實中確有類似的聊天機械人,但由於人工智能讀取了死者大量個人數據,最終引起連串道德爭議,該聊天機械人最終被迫停運。加泰隆尼亞公開大學博士後研究員 Sara Suárez-Gonzalo 就分析背後的多重道德隱患。

Suárez-Gonzalo 在學術交流平台 The Conversation 分享,她曾經在比利時天主教魯汶大學(UCLouvain)向年輕工程師講授「道德、訊息與通信技術課程」,堂上引述一個讓她印象深刻的案例 —— 33 歲網民 Joshua Barbeau 透過網站 Project December 創造一個聊天機械人,模擬已故未婚妻 Jessica 說話,讓他可與未婚妻「再續未了緣」。

Project December 由獨立遊戲開發商 Jason Rohrer 開發,用戶可付費自製聊天機械人,可隨意自訂個性,服務建基於人工智能研究公司 OpenAI 的文本生成語言模型 GPT-3。

然而,OpenAI 有使用條款規定,嚴禁以 GPT-3 用於性、戀愛、自殘或欺凌目的,意味著 Barbeau 的聊天機械人違反規定。Rohrer 曾經批評 OpenAI 道德主義氾濫,又指該聊天機械人經成年用戶同意下設計,但最終 Project December 還是取消 GPT-3 版本服務。

假如 AI 言行有損死者聲譽

雖然我們可以憑藉直覺,判斷應否讓 AI 模擬死者,但要闡明箇中論據卻殊不容易。Jessica 作為曾經真實存在的人,Barbeau 的意願並不足以為創造其虛擬版本提供合理依據。即使逝者已矣,也不代表生者可以隨心所欲,否則就不會有不尊重死者的指責。這意味著我們基本同意,生者對死者有特定義務。

首先,聊天機械人要深度學習死者說話,必先讀取其生前大量個人數據,如社交媒體數據等。可是,我們既然有共識認為,要得到當事人同意才可使用其個人數據,沒理由這項道德規範會隨當事人離世而失效 —— 言下之意,我們最起碼要取得 Jessica 生前同意,方可讓 AI 模仿其言行。

不過,有鑑於機械學習有不可預測的結果,可冒認死者發放不似預期的訊息,內容或有損死者聲譽或尊嚴,甚至傷害其在世親人,因此確實存在 AI 操作與死者生前意願不相符的風險,意味著單憑死者生前同意,也不能確保計劃完全符合道德。

再者,一旦 AI 對他人造成傷害,誰要承擔責任?人工智能專家通常有兩種答案:第一,責任在系統設計及開發人員,前提是機械人行事是依據開發人員的利益與世界觀;第二,由於 AI 是依據情境學習,意味著與 AI 互動的所有單位都要分擔道德責任。單單就處理上述問題,業界尚未能達成共識。

進一步說,應否容許 AI 全面取代人類,譬如充當生者的替代親人,背後牽涉貶低人類價值的隱憂,同樣說明模仿死者的聊天機械人,關係到 AI 更廣泛的道德爭議,仍然有待社會辯論,既要建立相應法律保障,亦要讓 AI 技術發展保持開放。