GPT-4 真的理解我們在說甚麼嗎?

A+A-
圖片來源:Jaap Arriens/NurPhoto via Getty Images

GPT-4 真的理解我們在說甚麼嗎?

科學雜誌「鸚鵡螺」(Nautilus)最近向演化論家、研究複雜系統科學的美國聖菲研究所主席 David Krakauer 提出這個問題

Krakauer 曾追訪不少大型預訓練語言模型如 GPT-4 等的研究人員,卻未能得出一致結論。因此他指出,首要是釐清「理解」的定義,例如美國電機工程師 Claude Shannon 在提出資訊理論時就表明,他著重信息的「交流」,而非「意義」;即使是兩條具同等資訊量的信息,一條可能有豐富意義,另一條卻不然。

Krakauer 解釋,「理解」可以是關乎配合、協作,例如當你問某人拿湯匙,對方把湯匙遞給你。但這有別於對衍生意義的理解,例如當你教會某人一些算式,然後要求對方應用於日常生活或你不曾談及的問題上,就已超乎互相協調的範疇。他認為大部分語言模型也能理解協作層面上的內容,但卻未必能掌握衍生的意義。

此外,機器學習模式與「科學的標準模型」(standard model of science)相反。後者追求簡約(parsimony),盡量以最少資源 —— 如參數、定律或初始條件 —— 來解釋最多的事件。語言模型則是從龐大的文本庫中學習,因此亦有所局限;因它們不像人類般在理解文本時,會聯想到情感或自身體驗,例如當它們讀到「那很痛苦」時,只能把它連繫到另一個詞語上。

Krakauer 強調,演算法在訓練過程中的進化,跟人類在物理世界中學習生存,有著根本的差異。人類認知功能的演化,以至發展成智能,是透過與環境的豐富互動所產生。而算法的學習素材僅源於人類,它們不必確實地在世上求存,只須讓人們相信它讀起來有趣。為彌補它們與人類的差異,研究員採用龐大數據 —— 任何人即使有無限生命也比不上的經歷 —— 來訓練它們。它們就像活於作家 Jorge Luis Borges 筆下的巴別塔圖書館,能盡得館內知識,人類在這方面望塵莫及。

然而,語言模型會犯下人類通常不會有的錯誤,因為人類在理解事物時往往會運用推理。例如一個問題:「有一輛手推車從山上滾下來,路上有一隻貓,然後會怎樣?」語言模型會估計下一個相關詞,但人們還會於腦內建構該事件的心理和物理模型,並反問更多相關資訊,如「路面是否光滑」、「手推車輪子是怎樣的」等。換言之,人類的語言是建基於物理模型之上,並以此方式進行推理。語言系統則沒有這樣的物理模型。

有趣的是,Krakauer 認為現今人們或可在龐大的語言數據庫中,找到隱含其中的物理模型。但語言系統不會主動運用到該模型,而需由人們提問如「這個決定是基於怎樣的物理模型」,來引導它們建構背後的理解邏輯。所以他並不認同某些人提出如「語言系統有助重新理解人類推理方式」的說法,認為當中很多方面皆被誤導,更是理解現今語言模型的一個錯誤方向。