由價值編程至自我價值建構,從佛學角度是思考如何在當中培植或培育仁慈。但仁善跟效率不同,並不能簡單轉化為行動原則,再且對於看重本意的佛家而言,跟從已定的編程原則,與自我生成的仁善,絕非一樣。前者只反映了工程師的本願,後者才是人工智能的自發所得,那才是人工智能的業。
先在公園吹吹風
我們在按自己的形象製作東西前,必須了解自己,為了能夠做到這一點,我們需要知道自己是誰,才能讓某物像我們。但是人類不止是一個演算法,也不是一組演算法。因為人類有時就是不按理出牌,而人工智能則能永遠保持高效和理智。受訪的香港大學佛學研究中心助理教授 Georgios T. Halkias 舉了一例:「當我們問人工智能要如何去目的地時,它會給出最快的路線。但我們可能會在途中巧遇一個非常美麗的公園,然後便走進去散步了 —— 我們不會每次都按效率高低進行選擇。」
人們編程時,總要求人工智能有高效率、尋找解決方案、找最短距離、有理智。但是人類自身是不理性的,因此世界現在一團糟。如果我們是理性的,我們就不會遇上現今社會中的所有問題。「有時,其他因素會成為我們的原動力,而非效率。即使我們知道有些做法更有效,我們也不會那樣做。為何我們不做?因為效率不會每次都是我們的首要考慮。你如何編寫出非理性的部分?這對我來說是一個有趣的問題。」
理智與否,在乎處境
處境影響理智的定義,即就算人工智能是以「效率」先行,但在不同處境之中,最有效率的方法也有不同。教授望向天花的煙霧感應器舉例道:「例如這裡起火了,我們都被困在這個房間裡。你通常需要用錘子打破玻璃,但這裡沒有錘子。人工智能當然會知道,巴士上經常有能夠打破窗戶的玻璃手錘。現在我們可能會想到用任何可以打破窗戶的東西。當人工智能試了所有可能性,它會否想到你需要一個錘子?」教授透過此例說明人工智能的「理智與選擇」,「除非編程時註明它可以使用任何其他物品,否則它將無法找到方法解決。換句話說,這意味著工程師必須考慮所有可能性,但你不可能想到所有可能出現的限制。」
不只是效率
人類的價值體系,當然不只講求效率,如以「變人」為前提開發通用人工智能,理解這點也至關重要。「一個社會不只按效率運作,的確,我們確實希望巴士準時到達;但真正讓社會和諧的,是我們的同理心及利他主義,這是人工智能所沒有的。現階段開發出來的算法,大部分基於以自我為中心和自戀的價值觀。如何讓人工智能對世界或慈悲做出具同情心的回應?」佛陀教導的四無量心,不論是對個人修行及社會和諧也有巨大的正面作用,但能否為人工智能注入佛學教導,減輕人類對人工智能未來發展的恐懼,同時也讓他們更好地在社會與人類良性互動?
如將這四無量心(Brahmavihāras,即慈、悲、喜、捨)化作指導及標準,如艾西莫夫的三定律一樣,編程於人工智能,又是否等於該人工智能具有四無量心?「它們可以成為人工智能內的道德規範,使其永遠不會傷害人類。但不傷害人類並不能取代真正的同情心,這不是同一回事。四無量心可以作為編程的指導方針,但我不知道機器如何擁有慈悲及同情心。佛教當然有很多方法鍛煉人的慈悲。機器可以用相同的方法訓練嗎?如冥想,人工智能可以冥想嗎?人工智能能否審視自己並嘗試變得更慈悲?」
捨身餵虎
另一重點是利他主義。因為生存理應為第一優先,我們可以為我們所愛的人犧牲,那是完全不理智的。「如果你跟全香港人,只能二選一,不然你的家人或你的朋友全也死掉。有人可能會決定犧牲自己。你如何灌輸這種利他主義?」於「賢愚經」卷一「摩訶薩埵以身施虎品」便有著佛陀前生捨身餵虎的事蹟:當佛陀看見母虎餓得要吃掉當中一頭小老虎以求活命,並有力氣照顧餘下的小老虎時,佛陀獻出了自己的身體。「如何達到那種無量的、超越生死的慈悲呢?人工智能可以為他人犧牲自己嗎?因為當我們說梵天時,我們會談到無量心。換句話說,要到放下自尊和自我的地步,對他人有極大的同情心,以至於你會因為同情他人而犧牲自己。」
從佛學而言,人工智能「變人」之意在於其具備自我意識,能主動做業(不論善惡,當然最好為善),參與輪迴,甚或有機會脫離輪迴成佛。所以,其能自主做出非預設的行動及能違背其自主成立的原則至關重要。對人保持慈愛,幫助別人脫離苦境,為別人離苦得樂而高興,並能以平等心對待眾生,知難行也難,那其實本來就不限於人類或人工智能,皆是人生甚至物種的課題。