自動駕駛釀交通意外,可向 AI 問責?

A+A-
2019 年 7 月美國維珍尼亞州的 IIHS-HLDI 車輛研究中心,公關人員展示 2018 Tesla Model 3 駕駛系統可如何避免正面碰撞。 圖片來源:路透社

今年 3 月,澳洲發生首宗自動駕駛汽車的嚴重意外,有途人被撞至危殆。但在追究責任的法律程序上,人工智能作為不透明的汽車「黑盒」,即使是製造商亦無法完全掌握其運算,結果造就新研究領域「可解釋人工智能」(Explainable AI),將為未來交通意外調查的關鍵。

昆士蘭科技大學 3 名法律與數據科學專家撰文指,即使自動駕駛技術如何嶄新,畢竟都是製造商的產物,當系統造成人命傷亡,我們便要追問製造商或軟件開發商,有否肩負應有的安全責任。澳洲昆士蘭有經典案例,一名婦女在薑汁啤酒樽發現一隻腐爛的蝸牛,製造商被裁定疏忽過失罪成,原因不是製造商應當預知或控制蝸牛的行為,而是製造商在裝瓶過程沒有做足安全措施。

按同樣邏輯,即使汽車製造商不可預知或控制人工智能行為,但他們仍然有必要採取措施降低風險,假如風險管理、測試、審計及監控不足,便應當承擔一定法律責任。然而,在複雜軟件的開發過程中,製造商不可能預測所有錯誤,於是我們便要追問:「多少風險管理才算足夠?」

從外部破解人工智能運算

在國際上,有些標準可以相當嚴格,譬如歐盟的人工智能規範草案,便要求製造商不惜工本「盡可能」降低風險;有些較寬鬆的標準,可按照危險程度放寬風險管理要求。一旦訂立標準,便需要賦予監管機構執法權力,受害者亦將有權追究製造商責任。

然而,法庭審理相關案件時,必須理解人工智能運算的流程細節和技術參數,而製造商總是基於商業利益,不願意披露這些細節。另一個挑戰在於,人工智能本身是一個不透明的「黑盒」,譬如說 Tesla 自動駕駛模式啟用的「深度神經網絡」,是流行的人工智能系統,但即使是開發商也無法完全掌握其思路。

解讀這個人工智能「黑盒」,就牽涉電腦科學與人文學的全新焦點:「可解釋人工智能」,其目標是要協助開發人員和用戶本身,了解人工智能如何思考決策。最經典的案例,來自人工智能把雪橇犬誤認為狼,「可解釋人工智能」便發現,原來系統把焦點誤放在圖像背景的雪,而不是前景的動物。

文章作者的最新研究就提到,澳洲聯邦法院在 2022 年 4 月裁定,預訂酒店公司 Trivago 在網站和電視廣告就酒店房價誤導客戶,對公司罰款 4,470 萬美元。案中關鍵在於 Trivago 複雜的排名演算法,如何選出最優惠酒店房間。

在法庭提供的知識產權保護下,澳洲競爭及消費者委員會(ACCC)與 Trivago 同時召集專家證人,解釋人工智能系統的操作方式。雖則 ACCC 未能取得進入 Trivago 系統的所有權限,但仍然能夠提供令人信服的證據,證明系統運算方式與公司聲稱「最優惠價格」說法不符。

這宗案例證明,技術專家與律師可以如何合作,克服人工智能運算的不透明問題,但整個過程卻所費不菲。作者認為,在自動駕駛當道的未來,監管機構應當採取措施,要求人工智能公司為系統留下透明記錄,以方便在發生意外後釐清法律責任。