
已故著名科幻作家艾西莫夫(Isaac Asimov),曾在 1940 年代提出「機械人三原則」:
- 機械人不得傷害人類,或坐視人類受到傷害;
- 機械人必須服從人類命令,除非命令與第一法則發生衝突;以及
- 在不違背第一或第二法則之下,機械人可以保護自己。
跨國企業諮詢公司安永(EY-Parthenon)合夥人小林暢子形容,艾西莫夫早預料到,機械人未來發展,可能偏離協助人類此一目的,由是設計著名的機械人三原則。但對當下的社交機械人而言,小林認為艾西莫夫的法則仍過於空泛,無法避免機械人成為跟人類情感平等的存在,而導致微妙、複雜的後果。小林在「日經亞洲」(Nikkei Asia)撰文,提醒社會必須注意,過於親近人類的機械人會引發甚麼意外後果。

各種家居雜務機械人進駐不同家庭,為家居生活平添便利。小林強調,她關心的是那些正在生活上與人為伴的社交機械人(social robot)。它們作為人類的同伴而面世,但「同伴」意味著人類容易將其擬人化。她引用大阪大學教授、機械人學學者石黑浩提出:假如人視機械人有靈魂,機械人就有了靈魂。問題在於人們應否如此看待機械人。
吊詭之處在於,人們都瞭解機械人的溝通交流只是演算結果。若有人認為與這樣的溝通是一種欺騙,便否定了社交機械人本身「培養有意義的關係」這個目的;但如接受這種交流,小林憂慮人們久而久之會變得愚蠢。因為機械人精確掌握普遍通行的交流模式,而貶抑了獨特情境中的特異性,人們在交流過程中,有機會就盲目了跟從一個會忽略重要信息的機械人。
隨時間推移,過度依賴機械人的人類,可能喪失解讀細微差別及微妙信息的能力。她反問:「一個只和機械人做玩伴的孩子,可以發展出靈活情感,以駕馭人與人複雜的互動網絡嗎?孩子能否明白,容易得來的愛,其實不是愛?」
問題在長者身上可能尤其嚴重。小林指,長者是社交機械人的主要目標,而長者消費品更是商品市場為數不多一直增長的領域。她擔心,可愛動物外形的機械會收集長者情報,從而推薦一系列適合老人需求的產品和服務。如此一來,便會產生代理問題(agency problem)—— 機械人推薦背後的計算及動機,未必是老人家真正想要的。
那麼,一個不那麼順從或體貼,甚具「個性」的社交機械人,能否改善上述問題,抑或產生其他問題?小林舉例,日本 AI 初創公司 Groove X 推出機械人 LOVOT;據 Groove X 指,LOVOT 的深度學習技術可以使其發展出獨特性格,因應人類主人如何對待而作出反應。對象若是脾氣暴躁的孩子,LOVOT 可能會無視主人的指示。小林質疑,以上設定違反艾西莫夫的第二原則:機械人必須服從人類命令,除非命令與第一法則發生衝突。她認為,像 LOVOT 這樣的社交機器人,顯然比工具更富人性色彩,已大大超出「原則」的涵蓋範圍。
由此看來,哪個程度仍為機械,到哪個程度已屬人類意識的開端,實在引人深思。小林認為人們應該考慮,社交機器人發展下去,潛在危機何時會超過短期好處。