陳帆川:AI講道理勝過人類 因為缺乏感情
文章日期:2024年9月19日

【明報文章】跟網民講道理,一直被視為不可能的任務,因為大家躲在屏幕後放縱不拘、情緒高漲、立場偏激。如果我們邀請毫無情緒的人工智能(AI)聊天機械人介入講道理,會否更有效?

學術期刊《科學》上周的封面故事,報道了幾名學者如何利用AI令人們減少相信陰謀論。他們邀請了2000多名相信陰謀論的美國人,跟大型語言模型GPT對話,再量度他們對陰謀論的信任度。結果發現,相關指標平均下降了20%,而且效力持續至少兩個月。

參加者所相信的陰謀論,包括牽涉甘迺迪遇刺、外星人和光明會的經典陰謀論,以及跟新冠疫情與2020年美國大選相關的陰謀論。部分人對陰謀論深信不疑的程度,甚至影響他們的身分認同。

過程中,參加者首先跟AI機械人講述自己所相信的陰謀論;由AI機械人略作總結後,AI機械人再附上理據,解釋為何該陰謀論不可信。文字對答的過程,驟眼看跟真人對話無異。

解釋事實比謙恭態度更重要

跟GPT互動過的人都知道,AI機械人一般非常有禮貌,常常「唔該前,唔該後」;即使用戶的觀點再荒謬,它都會首先表示理解。是次參加者聽信GPT,會否是出於它的循循善誘?研究團隊於是「解除」GPT的禮貌,調整其態度以陳述事實為主。結果發現GPT一樣能夠說服參加者,顯示解釋事實比起謙恭的態度更重要。不過團隊預料,如果GPT態度惡劣的話,則會大削說服力。

團隊亦發現,對AI本身抱懷疑態度的人,雖然會比較不信任AI機械人的解釋,但並非決定性,GPT仍能夠有效地減少他們對陰謀論的信任。團隊進一步向參加者表明,是次對答的AI機械人並非中立,它們的立場是說服參加者不要相信陰謀論。結果發現,參加者明知對方有立場,但仍能被說服。

團隊表示,這是全球首次以一對一的方式,為參加者解釋陰謀論的研究。過往要邀請專家替每一名參加者詳細解釋無限量的陰謀論問題,根本不可能。學者呼籲大眾正視正確應用AI的好處,同時警惕一旦不當使用的惡果。

團隊將參加者與GPT的對答悉數放上網,供人閱覽。有趣的是,AI不但彬彬有禮,而且耐性無限,善於不厭其煩地再三拆解哪怕再荒誕的觀點,而不勞氣傷神。我們常說人類最大的優勢是創意和情感,惟這同時也是弱點——向相信假新聞和陰謀論的人說理,最後一定是罵戰收場。

作者是新聞工作者、文化評論人

(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)

[陳帆川]