前一陣子美以伊的戰爭成為了熱門話題,在YouTube等社交媒體上許多人紛紛發表評論。坦白說,若果以學術標準去衡量,許多評論都是不合格的。我這樣說並不是針對那些網紅的立場,關鍵問題是:許多主要意見領袖連基本歷史都搞錯了。
亨利八世提出宗教改革和邁向政教分離?
例如一位擁有三十幾萬訂戶的網紅談論伊朗的神權統治,他指出:在政教合一下,人民的基本權利受到壓制,伊朗的出路應該是脫離政教合一,走向世俗化。他說西方社會也走過這條漫長的道路,天主教、基督教在千多年來亦是政教合一,直至英國亨利八世提出宗教改革,才漸漸淡化下來。
聽見這話的時候我幾乎昏到,稍為熟悉宗教歷史的人都知道,發起宗教改革的是馬丁路德。亨利八世與天主教會決裂,神學思想、政治主張並不是雙方的爭拗點,這主要是因為亨利八世想離婚,但教宗不批准。隨後英國國教擺脫了梵蒂岡,但政教合一的基調完全沒有改變。在宗教改革期間,其實加爾文在日內瓦亦是搞神權統治。西方世俗化的真正思想源頭是啟蒙運動,推動者包括伏爾泰、洛克、孟德斯鳩、盧梭,例如洛克極力主張容忍不同宗教思想,政府不應該干涉人民的信仰。而將政教分離落實的是美國獨立革命之後成立的新政府,美國憲法第一修正案標明:國會不得制定法律去確立國教或者禁止信仰自由。
列根售賣武器給伊朗去打擊伊拉克?
此外,一位網台政治評論員在回顧美國與伊朗的歷史時提出「伊朗門事件」,他說美國的列根總統秘密售賣武器給伊朗,是為了打擊伊拉克,但伊拉克挺過來,直至老布殊、小布殊總統上任,美國才能夠襲擊和摧毀伊拉克政權。
這是完全顛倒過來的!1979年高美尼成功奪取伊朗統治權之後,對外輸出什葉派革命,在兩伊戰爭期間,列根政府支持伊拉克,從而對抗日益向外擴張的伊朗勢力,列根政府對伊拉克提供經濟援助,共享情報,並且間接運送武器。列根政府也向伊朗出售武器,但這是因為伊朗支持的黎巴嫩民兵挾持了美國人質,列根政府公開宣稱不會與恐怖份子談判,故此只能夠暗地裡通過伊朗的渠道營救人質,而販賣軍火得來的資金,則用來資助對抗蘇聯陣營的尼加拉瓜反共游擊隊。
什葉派好戰,遜尼派愛和平?
在另一個中文頻道中,一位網紅提及伊朗神權政府的什葉派背景,他說什葉派是好戰份子,而遜尼派是和平的。此話真是不知從何說起?哈馬斯、基地組織、伊斯蘭國、曾經入侵科威特的薩達姆都是遜尼派穆斯林。事實上,兩個派系的極端份子都不斷地互相仇殺,舉例說,2003年美國入侵伊拉克並推翻薩達姆政權之後,遜尼派叛亂份子(尤其是伊拉克基地組織)將什葉派平民和聖地作為攻擊目標,其中最臭名昭著的一次是2006年轟炸阿斯卡里清真寺,這次攻擊引發報復性殺戮,並將伊拉克推向內戰。
在敘利亞內戰期間,阿拉維派(什葉派分支)阿薩德政權得到了伊朗和真主黨的支持,從而對付包括伊斯蘭國在內的遜尼派反叛組織,後者經常襲擊什葉派社區和標誌性建築。在巴基斯坦,「虔誠軍」等遜尼派武裝組織經常針對什葉派穆斯林發動炸彈襲擊和槍擊,造成大量平民傷亡。阿富汗也發生了類似的暴行,遜尼派極端組織「伊斯蘭國呼羅珊派」(ISIS-Khorasan)多次轟炸什葉派學校和清真寺。在波斯灣區域,沙地阿拉伯鎮壓什葉派異見人士。在也門,伊朗支持的什葉派胡塞武裝與沙地阿拉伯領導的遜尼派聯盟進行了多年的殘酷鬥爭。以上例子只是冰山一角而已。
網紅應該知道查證資料和社會責任
在資訊封閉的國家,人民固然會受困於愚民教育。然而,資訊發達和自由的國家卻好像發生了殊途同歸的現象,如今互聯網上充斥著錯謬的資訊,有些是故意的歪曲,有些是「無心」之失,我將無心這兩個字放入引號裡面,因為這情況發生在有意無意之間。許多網紅都受過大學教育,有些甚至擁有碩士、博士學位,他們所受的學術訓練包括了蒐集和查證資料,也包括了研究倫理,例如錯誤資訊對社會的負面影響。他們應該知道這一切,但仍然如此粗疏,故此無心並不是開脫的藉口。
人工智能與人類的共通點:想當然耳
而很多讀者、聽眾也不會花時間核實資料,結果整個社會出現了人類集體幻覺這怪現象。現在很多人擔憂「人工智能幻覺」(AI Hallucination)這問題,人工智能幻覺是指大型語言模型產生的訊息看似很有說服力,但有時候是錯誤,甚至是憑空捏造的。之所以會發生這種情況,是因為大型語言模型是一種基於或然率的預測模型,即使資料不足,它仍然會猜測可能的答案,從而填補空白。從這個角度來看,人工智能是很人性化的,這種「有斷估、冇辛苦」的做法是普遍的人性,《後漢書.卷七十.孔融傳》記載:孔融與曹操談論歷史問題的時候,孔融說:「武王伐紂,以妲己賜周公。」曹操從未聽聞過這段歷史,於是追問孔融這是出於何經何典,孔融回答:「以今度之,想當然耳。」
機械學習會不斷自我完善
不過,「人工智能幻覺」與人類幻覺有一個很大不同的地方,那就是前者會認錯和修正,畢竟,機械學習的特徵就是檢討錯誤、不斷吸收新資訊、不斷完善自己。有好幾次人工智能向我提供錯誤的資訊,我向它反駁,並且提出證據,人工智能馬上道歉,跟著認真地重新搜集資料,最後生產出正確的答案。
但人的反應卻截然不同,在大多數情況下,無論我舉出幾多有力的證據,對方仍然堅持自己是對的,而往往提出的理由是千奇百怪,例如說「現在傳播的資料都是被深層政府操控」、「你已經被洗腦」、「你已經中了毒」等等。
而且,人工智能的錯誤目前還偏向個體使用情境下的問題,但通過社交媒體而傳播的人類集體幻覺,往往導致的是社會撕裂、人民支持錯誤的政策、歷史錯誤不斷循環,從這個角度說,人類幻覺的社會成本其實更高、更難修正。