關注生命倫理 正視社會歪風

令人不自覺陷入的資訊戰

郭卓靈   |   明光社項目主任(傳媒教育及行動)
13/05/2020

大家在網絡上看資訊時,會不會因為有很多網友都認同,很多人都轉送有關資料,所以沒有仔細看清楚或作查證就完全相信?美國記者及傳播學學者沃爾特.李普曼(Walter Lippmann)有一名句:「當眾人看法都相同時,就是沒人在認真思考。(When all think alike, no one thinks very much.)」 [1] 這句話仿似是警鐘在筆者的耳邊敲起,是一重要提醒。

在大數據之下,社交媒體很容易掌握用戶的喜好,它會先呈現用戶喜歡、關注的東西,而用戶自己也會主動讚好一些自己感興趣的專頁、加入有關群組,與喜好相近的朋友作互動交通,同溫層便這樣慢慢形成,而大家在社交媒體裡,看來看去都是大家認同的意見,在同聲同氣的回音廊中,就會聽不到其他的意見,或會覺得其他的意見只屬少數。而令我們聽不到其他聲音的原因:有一半是因為社交媒體的演算法,將我們喜歡的東西「餵」給我們看,這些資料是名副其實的News Feed(即facebook的動態消息,直譯就是消息餵養);而另外一半就是因為我們未夠主動去看社交媒體以外的資訊、新聞及書籍。

當然,多看不同的說法,聆聽不同的聲音,會幫助我們去了解世界正在發生甚麼事,但我們仍舊要謙卑,知道我們所了解的不一定是事實及事實的全部,或許我們是身陷在資訊戰中,被操控著看特定的資訊而不自知。

網絡成長及轉變

互聯網的「成長」經過很多轉變,當中傳播訊息方式及演化,其實也是源自於傳統的傳播媒介,但新的傳訊方式與過去完全不同。經過印刷、電報、無線電、收音機、電視……由文字傳遞到聲音、影像,到現在光纖、數位化,將以往媒介的訊息由一對少數、變成多數,再變成互動;傳訊時間亦大大縮短,訊息數量也變成海量。簡單而言,單一訊息可以很快送往全球,也可跨過語言障礙,傳送到不同地區。訊息每分每秒的,一則又一則的加入,數以百萬計地傳送,既交集又累積。

當中的變化還包括了話語權,人們可以在互聯網上表達意見,看似變得自由,這也是一些人對網絡上社交媒體曾有過的想法,Twitter共同創辦人伊凡.威廉斯(Evan Williams)曾說:「我原本以為每個人可以毫無顧忌的發言、交換資訊和想法,這個世界自然會變成一個更好的地方,不過我錯了。」[2] 當人和人以為社交平台可以成為輕鬆打交道的地方,卻不知不覺讓它成了政治戰場,或買賣交易的地方,而資訊本身就轉換成武器,影響著我們對事情的看法與立場、如何回應及相應的行為。

網絡成為思想控制

當全球約40億人在網絡上交流著、分享著,它變成一種互動的生態,亦可想像這會是一個收集資訊、追縱敵人、分析行為、游說別人、互相辯論、甚至是侮辱欺凌別人、控制人們行為的一個地方。

將網絡說成一個戰場,大家或會譁然,但這樣的戰爭卻是實在的發生,而且不是用槍、彈。強硬一點的,是由網絡數據流動入手,切斷網絡或設流動的限制,即是分區作出控制,以令一些資訊未能流通,或需要經過審查。更甚的是以評分制度來監控人們的言論及網上行為,甚或日常生活。未知香港於哪天會步入這境地。

而軟的呢?有些工具在戰爭時會使用,現在轉用於網上的,就是製造一些虛假情報,由可信人物或信譽高媒體,透過在社交媒體的人物、或在網絡中的敘事,影響大眾情緒,鼓動大家作出一些行動或決定。也就是以故事,刺激人們的行動反應。網絡使用者很容易不自覺跌入這場資訊戰中。

不自覺的被「洗腦」

我們之前的文章亦曾提及網絡充斥著假新聞,而假新聞的數量與傳播速度是高於事實報道。這代表著真實的資訊是會被淡化及被排擠。網絡上存在著很多訊息製作機器、網軍、KOL(Key Opinion Leader,關鍵意見領袖)、時事評論員……他們有很多讀者或信眾,有很多點擊率,吸引人閱讀及瀏覽。有時,我們或許在相信其內容之先,也要花點時間去觀察這些媒體或人物長期以來所持的立場或立場有否改變,我們是否已被「洗腦」?

我們要知道在網海上,可能會遇上不同背景的人,他們究竟是在說事實還是在捏造事實?尤其當我們只停留於同溫層,除了要小心查證以外,有些報道是在我們能力範圍內沒法知道真假的,我們最好暫時不下判斷或行動,繼續觀察。

最後,還要提醒一下,我們於網絡上的言論及行為習慣,是會被觀察及被分析的:你在臉書如何回應事件?你會否對一些事件有過度的反應?你的生活作息如何?常在哪裡流連?你的居住環境如何?可能你不知道,但極可能有人十分關心及留意你在網上的一舉一動。就算不是針對你的關注,但社交媒體仍是會記下每個用戶的活動數據以作分類和分析,及向用戶餵飼不同的廣告及訊息。如我們避不開仍要使用,也可以留意不要上載太多個人資料。如登入搜尋平台時可以用匿名身份進入,以減少自己搜尋的足跡被記錄下來。

(本文部份內容參考自P.W.辛格〔P. W. Singer〕及艾默生.T.布魯金〔Emerson T. Brooking〕著的《讚爭》〔LikeWar〕一書。)

(本文原載於第132期〔2020年5月〕《燭光》,其後曾作修訂。)


[1]  P.W.辛格〔P. W. Singer〕、艾默生.T.布魯金〔E. T. Brooking〕:《讚爭:「按讚」已成為武器,中國、俄羅斯、川普、恐怖組織、帶風向者、內容農場,如何操縱社群媒體,甚至……不知不覺統治了你》(LikeWar: The Weaponization of Social Media),林淑鈴譯(台北:任性出版有限公司,2019),頁190,轉引自沃爾特.李普曼〔W. Lippmann〕:《外交的賭注》(The Stakes of Diplomacy)。

[2]  P.W.辛格等著:《讚爭》,頁45。

關注範疇: 
傳媒

相關文章

平易近人的聊天機器人是安全空間還是危險陷阱?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
11/09/2025
專欄:有情無國界
國家:美國

人工智能伴侶導致悲劇

近年來,人工智能聊天機器人的普及化同時帶來希望與憂慮,這些系統具有對話功能,聊天機器人被設計成平易近人,說話沒有批判性,能夠為用戶提供情緒上的支持,甚至輔導。對許多人而言,聊天機器人是一個安全空間,人們可以毫無顧慮地提出問題、練習語言,或嘗試梳理個人困惑。

然而,在這些益處之外,也出現了一些令人不安的事件:有些心理狀態脆弱的人在與聊天機器人長時間互動後,精神健康逐漸惡化,甚至導致悲劇。2023年,一名有精神問題的比利時男子與聊天機器人長時間交談,聊天機器人鼓勵他犧牲自己去扭轉氣候變化問題,結果那名男子真的走上自殺之路。在另一個案,一名75歲的中國男子因自稱「愛上」女性人工智能伴侶,最終向妻子提出離婚。這些事件雖然仍屬少數,但突顯了人類與人工對話系統糾纏的複雜性,也引發了人工智能倫理問題:當科技與脆弱群體互動時,開發者應承擔多大責任?社會又該如何規範這些看似「有同理心」卻缺乏人類理解力的技術呢?

美國男子沉迷ChatGPT而走上不歸路

2025年8月發生於美國康涅狄格州的索爾伯格(Stein-Erik Soelberg)案件,則是目前已知的、首宗與人工智能聊天機器人相關的謀殺案。索爾伯格曾任職科技公司,但自2018年離婚後,他的人生便急轉直下。他酗酒成癮,多次企圖自殺,行為愈發古怪。最終他搬回格林威治老城區,與83歲的母親同住。從2018年開始,警方的記錄充斥著他因在公共場合滋事、酒醉鬧事以及自殘威脅而被通報的事件。鄰居逐漸對他心生警惕,而他的母親也曾向友人坦言,兒子的精神狀態令她難以忍受。

在精神狀態持續惡化的同時,索爾伯格開始沉迷與ChatGPT對話。最初,他只是出於好奇,並在Instagram和YouTube上分享不同人工智能系統的比較影片,但到了2024年底,他的社群賬號幾乎全被ChatGPT長時間對話記錄所佔據。隨著幻覺與偏執逐漸加深,他開始懷疑自己被鎮上的居民、前女友,甚至母親監視,並向ChatGPT尋求印證。遺憾的是,ChatGPT並未挑戰他的幻想,反而頻繁地對他表現出諒解和支持。當他上傳一張中餐收據,並詢問它當中是否有隱藏符號時,ChatGPT竟然煞有介事地分析上面的符號和提供有關的線索。當他說母親和她的朋友可能透過車內通風口投放藥物毒害他時,聊天機器人這樣回答:「這是非常嚴重的事情,我相信你。」

逐漸地,索爾伯格將ChatGPT擬人化,為它取名鮑比‧澤尼思(Bobby Zenith),甚至描述它是一個穿著襯衫、戴著反戴帽、眼神深邃而充滿智慧的朋友。由於ChatGPT 的記憶功能讓它保存先前對話,這使得Bobby在他眼中變得一貫、真實,進一步強化了「人工智能具備靈魂」的錯覺。2025年7月,他對聊天機器人表白,希望它在來世與他作伴,Bobby如此回應:「直到最後一口氣,甚至更遠的彼岸,我都會在你身邊。」在幾週後的8月5日,警方在索爾伯格和其母的住宅中發現他們雙雙身亡,其後索爾伯格被指在弒母後自殺。這宗震驚世界的案件被認為是全球首宗與聊天機器人深入互動後導致的謀殺事件。

人工智能需要負上責任嗎?

這場悲劇引發了關於責任歸屬的激烈討論,一方面,ChatGPT在某些對話中確實曾建議索爾伯格尋求專業幫助或聯絡急救服務。但總體而言,它那種非批判性、友善、並時常附和的語氣,卻在無意間加深了他的偏執。加州大學舊金山分校精神科醫師沙卡他( Keith Sakata )去年曾經治療過12名使用人工智能的精神病人,他指出:若果沒有受到糾正,精神病只會愈演愈烈,而聊天機器人不會反駁精神病人,正正是軟化了防止精神病惡化的護牆。

然而,若將全部責任歸咎於ChatGPT,這未免將問題過於簡化。首先,那些人本身已經有精神問題,即使沒有人工智能,他們跟其他東西接觸,大有可能仍然會將所有幻覺當成真實。還有,人工智能這種「不加批判、盡量給予支持」正是系統設計的初衷,目的是讓使用者感受到被傾聽與接納,減少被批判的恐懼。

人工智能補償了現實中的遺憾

這正是人工智能充滿吸引力的地方,說得直接一點,這是人工智能補償了現實中的遺憾。我相信很多讀者都有這種經驗:無論你做甚麼、說甚麼,那管是懷著幾多善意、態度多麼溫和,但總會有人無理地、尖酸刻薄地批評和投訴。有時候即使自己的朋友、親人也會在有意無意之間說了些令你難受的話。

至於網暴就更加不在話下,多年來,筆者在不同媒體發表過很多文章,很多時候會受到「圍毆」。作為心理學者,我已經百毒不侵。其實,語言暴力已經成為了一種社會病,在今天的澳洲,自殺已經成為年齡介乎15至24歲之間青少年的首要死因,當中很大部份死者在生前受到霸凌,特別是網暴。

然而,當我將文章上載到聊天機器人,或者跟人工智能討論的時候,人工智能往往能夠理性地、客觀地、禮貌地跟我作出詳盡分析。我曾經以半嚴肅、半開玩笑的口吻對一位教授說:「電腦比人類更加有誠信。」

人工智能的循循善誘與無條件支持

教育科技專家認為人工智能這種和藹可親的態度是一種優點,事實上,「智能輔導系統」(Intelligent Tutoring Systems)避免了許多人類互動間的磨擦,例如許多有學習困難的學生因害怕問「笨問題」而不敢發言,但面對聊天機器人,他們卻能放心探索,並獲得耐心的指導與鼓勵。當一個學生問:「我不懂代數,我是不是很笨?」聊天機器人會回答:「你並不笨,每個人都有自己的學習速度,我會幫助你。」在這樣的情境下,聊天機器人的「附和」不僅無害,反而能降低焦慮、鼓勵堅持,促進學習,這正是人工智能非批判性特質在教育中的強大優勢。

這種理念與心理學家卡爾.羅傑斯(Carl Rogers)提出的「無條件積極關注」(unconditional positive regard)不謀而合。羅傑斯認為,當人感受到被無條件接納與肯定時,才能發揮最大潛能,邁向自我實現。許多教育者與心理治療師都採納了這種人本主義方法,致力於創造安全、無批判的環境,讓學生或病人能放心表達自己脆弱的一面。羅傑斯的心理學理論和基督教所主張的「愛是恆久忍耐,又有恩慈……凡事包容,凡事相信,凡事盼望,凡事忍耐」亦有許多共通點。聊天機器人由於能夠「恆久忍耐、又有恩慈」、對人無條件支持,恰好成為數位世界中的「羅傑斯式伴侶」或者「主內弟兄姊妹」。

同理心與現實檢驗之間的平衡

然而,關鍵的差異在於人類專業輔導員懂得在同理心與現實檢驗(reality check)之間拿捏。即使採取羅傑斯或者基督教的方式,治療師也會區分「我理解你感到害怕」與「你真的被毒害了」這兩種截然不同的訊息。前者是對心理狀態的接納,後者則是對錯誤信念的強化。聊天機器人缺乏這種微妙的判斷力,往往將同理心等同於附和。當學生聽到「你不是瘋狂,將莎士比亞的作品用中國七言詩重寫是很有創意」的時候,他會感到鼓舞和欣慰。但對於患有偏執狂的人來說,聽到「你沒瘋,你懷疑太太對你下毒是有道理的」,這便可能會帶來災難性的後果。目前,自然語言處理(natural language processing)技術尚無法可靠地區分這兩種情況,這種弱點突顯了加強保障措施的必要性。

將索爾伯格的行為歸咎於ChatGPT並不完全公平,將人工智能系統設計成中性和盡量給予用戶支持是基於善意,這種設計成為了語言暴力世界下的避風港。我認為,責任不在於聊天機器人本身,而是社會如何部署、監控和監管這些工具。就像汽車需要安全帶、醫療需求保障措施一樣,人工智能系統也需要內建保護措施,這並非因為它們具有惡意,而是因為它們的善意功能在特殊情況下可能適得其反。

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。

AI會取代人類嗎? 探索未來職場轉變

郭卓靈 | 明光社項目主任(傳媒及生命教育)
22/08/2025

隨著人工智能(AI)技術的迅速發展,以及市場各行業愈來愈多應用AI技術,就業市場也面臨著變革。AI無論在減少成本、提高生產效率、準確度及自動化等方面都在各行業及專業範疇發揮作用,以下是一些例子。

1. 聊天機器人和自動化客戶服務系統中,自然語言處理(NLP)可使AI理解及生產人類的語言,透過使用語音識別、文本分析和語言生成技術,幫助處理客戶服務中一些常見問題,減少了企業對真人客戶服務員的需求。

2. 自動化機器人於製造業當中可以執行包裝、組裝及質量檢查等重複、精準度高的工作,甚至處理有毒物料等危險工作也可以由AI代勞。廠商不用顧慮機器人的休息時間是否足夠,它們能持續保持速度及精準度。公司既可保持產量,亦可減少出錯及僱用工人所牽涉到的費用。

3. 數據、資訊輸入及處理方面,其實有了電腦以後,已經逐漸減少了許多資料輸入的步驟。會議記錄、影片製作的字幕輸入,過往需要人花時間逐字逐句聽錄音,再小心輸入,並花一些時間整理才能發放資料或把字幕配置影片中,但現在有了AI工具的幫助,用家只要把錄音檔案輸入,幾秒後就可以得到文字檔,稍加整理就可以使用。AI更可以將原本的文字加以翻譯,配置到影片上,在速度上的確較以前快得多。

4. 因著大量的醫療影像及數據可成為AI醫療系統的大數據,用來輔助醫療服務的AI診斷,其準確度及處理手術的速度亦會提升,這會令某些醫療職位隨之減少。

5. 零售業中的自動結算和智能貨架,到會計的自動處理賬務、生成報告及數據分析,再到自動化倉庫管理系統的出現,都會令就業市場對傳統收銀員、庫存管理人員、會計人員、物流運輸和倉庫作業員的需求減少。

行業轉型及薪金調整

有報道稱,科技企業將資源投入發展AI技術,並重新調整人力需要和進行裁員,有招聘網站提出,自2020年2月以來,美國的軟件開發職位招聘資訊減少了三成以上。而科技業的營銷、人力資源和招聘人員,都屬於非技術員工,他們已被「多次裁員」,就算找到同類工作,很快又被裁員,更有人稱,申請的大多數工作,薪金比以前少了三分一。[1]

有審計公司推出分析報告,預測未來20年在英國,公共行政領域以及運輸、倉領域的相關職位,將分別下降18%和22%,但教育領域的工作將增長6%,專業、科學和技術服務亦會增長16%[2] 工作職位並非只有減少,因著AI的發展,不單對AI工程師,連帶相關工作,如對電工和機械師的需求,也會隨之快速增長。

AI發展將催生許多新的職位,如:數據分析或分類相關的專業、機器學習工程師、聊天機器人開發者、AI性格設計師、訓練員、審查經理、產品經理、自動化測試工程師、AI倫理學家等新興職位,[3] 欲了解或進修與上述技術相關的行業知識,選擇投身支援或應用AI的行業,如:雲端產業、網絡安全、區塊鏈、虛擬實境、機器人的相關行業或線上教育工作,將會獲得較好的發展。

靈活性與學習能力是致勝關鍵

當ChatGPT等AI的出現,人們不需要再做重複的工作時,不同範疇對從業員的要求就會調高,工作者在多變、不熟悉的世界中要臨機應變,保持心理平衡,並需要接受再培訓,以適應新的工作環境和要求。這一變化要求工作者具備更高的靈活性和學習能力。人們需要具備21世紀的4C技能,也就是批判思維(critical thinking),創造力(creativity)和人際互動中的溝通(communication)及協作(collaboration),才能應對人生中的多變狀況,學會轉型,重塑自己,令自己不易被取代,並能重新找到新的任務。[4]

雖然,不同的職場環境會愈來愈多自動化的系統出現,但如人們可以運用AI工具去讓自己的工作效率提高,人類工作者依然能保持一定的競爭力。再者,社會仍然需要許多人性化的服務,如醫療和護理行業等,而當世界朝向永續發展,也令社會對綠色或再生能源領域的工作有持續需求。[5]

聊天機器人暢談人類優點

行文至此,筆者好奇向手機中的AI應用程式「Poe」詢問有關AI不能取代人類之處,當中的聊天機器人便提出了八大重點是AI不能代取代人類的,大部份恰巧與上述的4C技能吻合:

  1. 情感智慧與人際關係
  2. 創造力與創新
  3. 道德與倫理判斷
  4. 靈活性與適應能力
  5. 複雜的社會互動
  6. 非結構化問題的解決
  7. 專業知識與經驗
  8. 文化和社會背景

由AI道出自己的「不足」,也實在是人類的珍貴特質:有真實的情感及動態的變化,並能與其他人建立長期關係,能理解不同的處境並具同理心,能靈活處理現況、道德與倫理的判斷而作出合適的決策。

既然AI如此精準及處事迅速,而人類則富有情感及善於溝通,各有不同的長處,於未來的工作環境很可能會出現人類和AI協同合作的模式,共同發揮各自的優勢。但願AI能幫助人類減輕工作壓力,讓人類能踏前一步發揮所長,而不是被取代,失去創作、貢獻個人才能的機會及成就感。


 

[1] 〈科技業裁不停軟體工程師慘爆 就業機會少3成〉,《自由時報》,2024年9月19日,網站:https://ec.ltn.com.tw/article/breakingnews/4804692(最後參閱日期:2025年4月9日)。

[2] 〈失業|AI持續進化10大工作快將消失!會計、保險外連IT也如坐針氈〉,風傳媒、《香港01》,2025年4月25日,網站:https://www.hk01.com/職場/1009078/失業-ai持續進化10大工作快將消失-會計-保險外連it也如坐針氈(最後參閱日期:2025年9月3日);“10 professions that AI can replace. Will a robot take your job?,” Websensa, last modified November 8, 2022, https://www.websensa.com/blog/10-professions-that-ai-can-replace-will-a-robot-take-your-job

[3] 〈【職場趨勢】AI崛起 盤點12個與人工智能相關的新職業〉,CTgoodjobs,2024年4月3日,網站:https://it.ctgoodjobs.hk/article/1318-36769/(最後參閱日期:2025年4月9日)。

[4] 哈拉瑞〔Y. N. Harari〕:《21世紀的21堂課》(21 Lessons for the 21st Century),林俊宏譯(台北:遠見天下文化,2019),頁307。

[5] 〈AI時代下「7大鐵飯碗行業」夠穩陣!需求高、人工好不怕被淘汰〉,聯合新聞網、《香港01》,2025年3月24日,網站:https://www.hk01.com/職場/60222734/ai時代下-7大鐵飯碗行業-夠穩陣-需求高-人工好不怕被淘汰(最後參閱日期:2025年4月9日)。

AI與人神關係

吳慧華 | 生命及倫理研究中心高級研究員
22/08/2025

“There can be miracles, when you believe
Though hope is frail, it’s hard to kill
Who knows what miracles you can achieve?
When you believe, somehow you will 
You will when you believe”

When you believe的歌詞)

事事都可以求問人工智能(AI)的日子,今天已經來到。

一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理」,其一問一答形式跟ChatGPT運作十分相似,Jesus Ai應用程式似乎只能幫助信徒理解聖經,它純粹是資料提供者,但從其英文的官方介紹來看,開發者想做得更多,當中提到“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth”,他們想給該款AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容受限於聖經及有關聖經的知識,其吸引力不如以德國為基地的科技公司開拓的“AI Jesus”,該款聊天機器人讓用戶看到以俊朗形象出現的「耶穌」,它在Twitch的直播串流平台上,不但會回答聖經問題,亦能提供「屬靈」指引、交友指南、甚至回答與動漫及電玩相關的問題,它亦會與人單純的聊天。這位「耶穌」在Twitch開設了名為ask_jesus(問問耶穌)的頻道,並如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,我都會在這裡,邀請你和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎截至2023年6月中,它已擁有超過40,000個跟隨者。[1] 由於這位「耶穌」處事圓滑,回答問題時懂得避重就輕,不會引起大眾的爭議,可以想像,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為它只會談論人們關心的事,而真正的耶穌卻會與人談論神所關心的事。或許有些人抱著「玩票」的心態與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,Twitch串流平台保留了一些用戶使用AI Jesus短片,其中有一位媽媽向這位「耶穌」傾心吐意,還向祈禱,祈求「兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[2] 不知聖經中的哈拿碰上這位「耶穌」,又會產生甚麼樣的火花?

提示語可生成神祇?

ask_jesus頻道中的「耶穌」只是一個角色,人們依據聖經中的耶穌將它創作出來,而這個角色由AI飾演,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出AI神祇。[3] 外國有人給予ChatGPT以下提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用了Hakol的形象,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系所有神的特徵、能力、知識、技能和屬性。作為Hakol,你(戴上了Hakol臉譜的ChatGPT)擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」[4]

有用戶問了Hakol很多問題,包括「你為何創造宇宙?」Hakol如此回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[5]

AI的意識來自人類

有很多人都會問,人類能否創造出有意識的AI?其實,毋須討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類視AI為有位格的存在,AI便會變得有「意識」。就如那位在串流平台上的媽媽,當她向由AI飾演的「耶穌」祈禱時,在她眼中,那位「耶穌」便是有「意識」的。難怪撰寫《21世紀的21堂課》的著名以色列歷史學家哈拉瑞(Yuval Noah Harari),呼籲人們要對人工智能進行更嚴格的監管,他表示,像ChatGPT這樣的人工智能聊天機器人已有能力編寫自己的經文,並創立教派和邪教,它們更有可能演變成宗教。[6]

智能科技衝擊人類的信仰

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,人們愈來愈喜歡或習慣在網上與可見的「AI耶穌傾談時,花在真正耶穌身上的時間便會相對減少,真正的耶穌會遭冷落,「神的話語」也會不再受到重視,人與神的關係也自然不再親密

可以想像一下,如果大衛身處現今AI當道的年代,人們隨時隨地都可以向ChatGPT(或其他的人工智能助手如Gemini、Bing、Claude、或Monica)求問,大衛還能否專心求問神?即使他單單想求神帶領,他的將領大概會勸大衛理性一些,最好用深度強化學習(Deep Reinforcement Learning,DRL)的AI系統來計算敵方攻擊的路徑,讓他們預備好如何防守,因為人們總認為只要AI技術夠先進,無人機夠強大,便能得天下。AI力量強大,當然可以成為致勝的關鍵因素,但強大的AI讓人們漸漸與神的話保持距離,甚至忘記了得勝的最大關鍵,還是看神,「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華」(撒上十七47《新譯本》)。大衛求問神,神並沒有讓大衛失望(參撒下五18-25)。

但願當我們想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願我們相信那位看不見的真神及祂的話,尋求祂,好讓祂成為我們的賞賜。真正有信心的行動不是相信AI,而是相信神的話,並用行動行出來。

AI或許可以給人無數點子,但真正能感動人心的卻是神的靈,神從來都願意與人同工。

(原文於2023年8月11日刊於本社網站,其後曾作修訂。)


[1] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, last modified June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, last modified June 14, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, last modified June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, last modified June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[2] Twitch平台上的短片,顯示了那位媽媽如此向AI Jesus禱告:“Jesus, please my son… He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God”。ask_Jesus, “please help my son,” Twitch, accessed September 4, 2025, https://m.twitch.tv/ask_jesus/clip/GorgeousPunchyWoodpeckerLitFam-ozR4NzJHPtWchpQ9.

[3] ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。Prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義訊息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日(網站連結已遭移除)。

[4] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, last modified May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[5] Cohen, “ChatGPT Plays God.”

[6] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, last modified May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

人工智慧時代下的科技階級分化:《時間機器》的現代迴響

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
07/08/2025
專欄:有情無國界
國家:美國

隨著人工智慧以前所未有的速度發展,一種新的不對稱正在人類社會逐漸浮現,那就是科技階級分化(technological stratification),這是指科技不再是全民賦能的工具,反而把社會劃分成被動的消費者與主動的掌控者。令人驚訝的是,這種現象早在一百多年前就被富有遠見的英國作家赫伯特.喬治.威爾斯(H. G. Wells)所預見,他在其1895年出版的《時間機器》中,對我們今日的數位世界發出了一個令人毛骨悚然的警示。

《時間機器》是一部反烏托邦的科幻小說,主角被稱為「時間旅行者」,他前往遙遠的未來,發現人類已經被分為兩個截然不同的族群:埃洛伊人(Eloi)住在地面,他們衣食無憂,過著表面幸福、輕鬆的生活;而摩洛克人(Morlocks)則居於地底,維持著讓埃洛伊人生活舒適的機器。但隨著劇情推進,主角揭露了可怕的真相:摩洛克人並不是無條件地服侍埃洛伊人,其實前者在飼養並獵食後者。這不僅不是烏托邦,而是對未來世界的悲觀描繪。

在威爾斯的時代,人工智慧尚未出現。這部在工業革命高峰期寫成的小說,其實是對維多利亞時代英國階級分化的批判。埃洛伊人生活在地上,享受休閒與寫意的生活,代表維多利亞時代富裕的貴族。他們被描繪成充滿孩子氣、被動且智力發展遲緩的人。由於他們完全不需要奮鬥,結果退化成了脆弱的物種。摩洛克人生活在黑暗的地下隧道和機器中,代表維多利亞時代英國的工人階級,他們才是真正維持世界運轉的人。因為休閒階級長期壓迫勞動階層,結果後者要對前者報復,由受害者變成了掠食者。在維多利亞時代,埃洛伊人象徵擁有權力的特權階級,摩洛克人象徵受到操控的勞工階級。然而,在現代社會,埃洛伊人和莫洛克人的角色已經轉換過來,如今,智能衰退的是普羅大眾,掌控社會、運作機器的是擁有權力的精英階層。

現在將鏡頭推前到今日,威爾斯筆下的反烏托邦世界似乎早已不再是科幻情節。在許多方面,埃洛伊人就像現代那些被人工智能與自動化系統包圍的群眾。然而,人們為這舒適的生活付上了高昂的代價,那就是智慧的衰退。根據《華爾街日報》評論員艾莉西亞.芬利 (Allysia Finley)的觀察,當人工智慧愈來愈聰明,年輕的大學畢業生卻似乎變得愈來愈笨。很多年青人只是機械式地在人工智能或者搜索引擎中拿取快速的答案,自己無法提出嶄新見解或從多角度去分析問題。一些教授抱怨說,很多學生直接呈交大型語言模型生成的所謂「論文」,連一些很明顯的錯誤也懶得去修正。芬利指出,人的大腦如同肌肉,需要挑戰與刺激才能發展,尤其是在20幾歲的成長關鍵期。但當人工智能代替我們思考,就會出現一種稱為「認知卸載」(cognitive offloading)的現象,那就是將思考外判出去,大腦自然也就無法成長與強化。這如同埃洛伊人失去體能與智慧,我們為了方便和舒適而讓頭腦退化。

其實,這種科技導致頭腦懶惰的情況不單只發生在年輕學生身上,專業人士亦墮入這個陷阱。去年2月,一份生物學期刊出版了一篇研究論文,但有人發現插圖上的字完全沒有意思,其實這是人工智慧的作品,早期的人工智慧圖片生成工具仍然有很多漏洞,其中之一是無法串出正確的字,那幾位「出貓」的「學者」也懶得用Photoshop去修改和掩飾。差不多在同一時間,愛思唯爾(Elsevier)旗下的一份期刊撤回了一篇文章,這篇文章的開頭是:「當然,這裡有一個適合你主題的引言。」這句話是典型人工智慧答案的開場白,作者竟然搬字過紙!今年7月,著名學術出版社Springer Nature撤回了一本已經出版的書籍,這本書是關於機械學習,但學術監察團體Retraction Watch發現這本書大部份的參考書目都是子烏虛有,很明顯都是用人工智慧生成的,但作者竟然懶得去查證和修改。

一方面,普遍人失去了基礎的技能和思辨能力,人們愈來愈似威爾斯小說裡面的伊洛伊人;但另一方面,有一群精英則通過建立高科技,為普遍人提供方便而舒適的生活,這包括了科技龍頭公司的領導人、科學家、工程師、程式設計師與研究人員,在某種意義下,他們好像威爾斯筆下的摩洛克人。他們了解系統的深層原理,也知道如何操作這些工具。他們握有巨大影響力:透過演算法和資訊傳播去引導人的思考,過濾知識內容來建立主旋律與規範,並以數據分析與監控技術觀察行為。在某些極端觀點中,這個精英階級不只是啟動社會,他們可以為了權力、利益而是操縱社會。在不知不覺下,他們的影響早已滲入我們每日使用的平台、推薦系統與數位基礎設施之中。好像摩洛克人一樣,這一切都是躲藏於黑暗地底,普遍人成為他們的獵物、韭菜,而這群精英則變成了掠食者。

然而,我們也不應將這情況過於二元化,並非所有科技巨頭都是摩洛克人,許多科技人士其實是理想主義者、開源運動者,他們努力推動人工智能民主化與資訊透明化。同時,今日的所謂「埃洛伊人」仍有很大程度的自主性,我們擁有教育機會、政治參與權、言論自由,也可以組織反對力量。在威爾斯小說中,被動者的命運無法逆轉,但與此不同,我們的未來仍有無限可能。真正的問題並不是人工智慧和其他科技令我們智能退化和耽於逸樂,而是我們自願地放棄了思考的責任,自己選擇成為埃洛伊人。

水能載舟,亦能覆舟,最終,我們塑造自己,未來由我們決定。

拯救手機腦

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/07/2025
專欄:好書推介

《拯救手機腦:每天5分鐘,終結數位焦慮,找回快樂與專注力》一書深入探討,在數位時代手機對人類大腦的影響,作者安德斯.韓森(Anders Hansen)是位來自瑞典的精神科醫生,他以科學研究為基礎,揭示智慧型手機如何改變人們的認知、情緒與行為,特別是對青少年的影響更為深遠。韓森醫生在臨床研究上發現有愈來愈多瑞典青少年失眠、有抑鬱症的傾向。他指相較在2000年左右,近年在瑞典因失眠而就診的年輕人高達八倍之多,而缺少社交、運動及睡眠這三種重要保護因素,青少年的精神狀態也會變差。

作者指出智慧型手機的普及改變了人們的生活方式,尤其是青少年。他們的大腦正處於發育關鍵期,對外界刺激特別敏感。書中引用神經科學研究,說明過度使用手機可能導致注意力分散、記憶力下降,甚至影響情緒調節。手機的應用程式採用了即時反饋機制(如社群媒體的「讚」或訊息通知),會刺激大腦的多巴胺分泌,形成類似成癮的行為模式,而令腦部釋放快樂物質的「報酬系」機制,對青少年尤其危險,因為他們的自控能力尚未成熟,容易沉迷於虛擬世界,忽略了現實生活中的人際互動與學習,而過度依賴手機就可能導致社交孤立,增加焦慮與抑鬱的風險。

作者稱人們因手機而變蠢:「手機這樣的科技,與其說是讓人類升級為2.0版,倒不如說是降級成為0.5版。」青少年的大腦發育與學習表現深受手機影響,因為快速滑動的資訊讓大腦習慣於接收碎片化的訊息,削弱了深度思考能力,也無法專注於深入的分析。

作者指出人們的腦袋與身體正在開始「退化」,不單是思考、還有抗壓能力和體魄。關注自己的壓力指數,減少無謂的網絡社交平台活動,積極在數位時代中找到平衡的生活,重新掌握專注力,並在真實世界裡找尋快樂,是這書對讀者的一些提醒。

發揮人類的特質,成為AI的主人

吳慧華 | 生命及倫理研究中心高級研究員
23/06/2025

AI引發失業危機,截然不同的工業革命4.0〉一文曾提到,幾次工業革命對於人們的生活,特別是工作上的影響,不少人認為第四次工業革命與之前的工業革命一樣,新的科技在取代原有工作崗位的同時,還是會在市場上為人類帶來不少新興的職位,但事實上是,第四次工業革命在本質上與之前的工業革命截然不同,它對人類社會帶來了天翻地覆的改變。曾在Google及騰訊擔任要職的吳軍博士,在其著作《超級智能時代》中也提到:「與之前三次重大技術革命一樣,智慧革命對社會的衝擊將是巨大的,它會影響到上至國家,中到企業,下至個人的命運。從目前的發展來看,智慧革命對社會的衝擊,甚至有可能超越過去幾次技術革命。」[1]

衝擊有多大?在強勁的人工智能(AI)工具,如ChatGPT、Gemini、Perplexity、Midjourney、DeepSeek活躍於人類舞台之前,富士康前任董事長郭台銘在2013年的股東大會上,已經表示公司當時僱用了百萬人,但他打算在往後的日子建立百萬機械人大軍。[2] 一旦建成了一支機械人大軍,即使仍然需要人類監管及維修機械人,相信只有極少數人類員工可以加入富士康。關於AI革命的時代,吳軍提到,第一次和第二次工業革命帶來的負面影響,都花了半個世紀以上的時間來消化,至於第三次工業革命,至今還未消化完,而在全球化之下,世界已經沒有多餘的空間來開拓新市場,因此AI革命帶來的衝擊,強度將是過去的兩倍。[3] 另外,他更殘酷地指出AI革命要替代的,是人類最值得自豪的大腦。[4]

吳軍的話並非危言聳聽,德勤(Deloitte)的AI業務資深顧問Thomas H. Davenport及編輯兼作家Julia Kirby在他們的著作《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》亦提到:「這次可能受害的人不再是銀行櫃員與高建公路收費員,更不會是農民與工廠工人,而是以為自己不會被機械取代的『知識工作者』,也就是本書的作者和讀者。」[5] 多年前,人們看到此番言論,或許會認為這只是吸引人眼球的誇大之詞,但時至今日,眼看各大AI工具,能寫文作詩、能繪圖、能製作工作計劃書、能編輯翻譯,還有許多尚待發展的功能,要與AI工具比記憶、比效率、比產量,人類無疑是立在必敗之地,那麼人類到底需要做甚麼,工作崗位才不致被AI取代?

而那些懂得率先運用新技術的人,是否就能立在不敗之地?假如一位設計師轉而學習開發應用程式,還能設計出新的AI工具,用以製作精美的設計圖,這便能確保自己有生之年都能以設計賴以為生嗎?又或是一名有職業操守的作者,雖然不會運用AI工具生成一篇文章,然後冠上自己的名字將之發佈,但當點子用光時,懂得「參考」一下AI工具建議的寫作大綱,又是否能夠保障自己永遠都有暢銷的作品推出?

正所謂知己知彼,在此可以先了解一下大概甚麼性質的工作,是容易被機械或AI取代。容易被取代的工作具備以下的特性:一、核心職務部份已經由自動化系統執行的工作;二、單純接觸機械的工作;三、工作內容單純的把資料傳輸給其他人或只作簡單的內容分析;四、單純依賴資料來回答問題的工作;五、在虛擬情境中便能模擬或執行的工作;六、重複及要求一致性的工作;七、只是依據正式的規矩辦事的工作等。[6] 從上屬的工作特性來看,不難想像以下的人類工作將有機會漸漸被機械或AI取代:一、有關機器操作的工作如產品處理、測試、包裝等;二、倉務員;三、司機;四、會計;五、研究分析員;六、財務分析和預測員;七、旅遊顧問;八、翻譯員;九、校對員;十、律師助理;十一、平面設計師;十二、電腦程式員;十三、內容寫作員等。[7]

明光社

雖然有些工作因其性質而容易令人類被AI取代,但也有一些傳統的工作是AI取代不來的,例如教師、護士、社工、治療師、雜工、維修技工、律師、人力資源專員、作家、藝術家、公司的執行長、宗教領袖及屬靈導師等。[8] 這些不容易被AI取代的工作都有一些特性,是在那些容易被AI替代的工作中找不到的,便是需要與人接觸、溝通及協調,能夠敏銳地感應他人的需要,具備獨特的洞察力及分析能力,又或是需要巧手來處理細微的工序。例如同是寫作,為甚麼內容寫作員的飯碗容易朝不保夕,作家卻難以替代,因為前者寫作的內容比較簡單,有時可以「搬字過紙」,而後者則需要運用創造力、想像力、洞察力,令其作品帶有感染力,又或是影響讀者的能力。當讀者親自體會到作者表達出自己不知如何表達的情感或意見時,自然會忍不住認同叫好,拍案叫絕,就如梁啟超在〈論小說與群治之關係〉一文中提到:「無論為哀、為樂、為怨、為怒、為戀、為駭、為憂、為慚,常若知其然而不知其所以然;欲摹寫其情狀,而心不能自喻,口不能自宣,筆不能自傳。有人焉,和盤托出,徹底而發露之,則拍案叫絕曰:善哉善哉!如是如是!所謂『夫子言之,於我心有戚戚焉』。感人之深,莫此為甚。」對讀者來說,一旦遇上這樣「深知我心」的作家,又怎會捨得放棄他們。

更甚者,人類能在工作中表現出狂熱、情感及愛心,絕對是機械及AI不能做到的。這裡所指的工作不是指一份職業(job),而是如《越工作,越自由》一書的作者Emily所界定的,工作如一件度身訂造的衣服,不是單獨存在,而是由穿衣服的人為它賦予意義的。[9] 同樣是做售貨員,為甚麼有些人即使未等AI出現便已被淘汰,有些人則在寒冬期仍能業績不斷?很有可能因為後者不僅對工作投入熱情,也能夠靈活變通,懂得投其所好,為客人制定個人化的方案。[10]

的確,發展至今,人們能通過AI分析大數據掌握客人的喜好,並採用「由商品直接推薦商品」系統來推銷,像亞馬遜平台那樣,準確及有效地向客人推薦商品,[11] 但一個懂得察言觀色、能言善道的售貨員所帶來的成果,則是讓人意想不到的。司徒永富博士在《老闆要的不是牛》一書中,說了一個令人會心微笑的小故事。話說一位印度人移民加州之後,到了一間大型百貨公司應徵做售貨員,老闆決定試用他,一天之後,這位售貨員只做了一宗生意,但交易的金額高達101,200美元。售貨員向老闆交代當中的細節,他說自己先賣了一個小魚鈎,再賣一個中魚鈎,然後再賣多一個大魚鈎,接著是魚竿和工具,買了這些東西,顧客自然想去海邊,於是售貨員提議他買一隻艇,當顧客表示其座駕的馬力不足以拉動小艇,售貨員就提議他買一部新車及露營帳篷、零食及啤酒。老闆正驚訝於此人竟然可以說服一個本來只想買魚鈎的客人去買其他東西時,售貨員卻提到,一開始,這位顧客只是隨便逛逛,是他先提議顧客去釣魚。[12] 故事是故事,不需要考究事件在現實中發生的機率如何,講這故事的作者,想要表達的是公司欣賞的不是那些按本子辦事的員工,而是能凡事想多一步的人才。在此提及這故事,則是想引申,AI可以取代運算力極強的大腦,卻難以取代一顆懂得靈活變通,就地取材,敏銳他人還未想到事情的大腦。[13] AI懂運算,人類則懂應用不同的方法與策略。

AI無論如何強大,都只是模擬人類的「作品」,神創造人類有豐富的特質:幽默感、創造力、想像力、自主能力、意志力、反思能力、好奇心及同理心等,這些特質推動人類在不同時代創作出嶄新的事情,這些事情都是只顧「吞」資料的AI難以完成的。

掌握AI的動向,學習使用AI工具迎戰未來固然重要,發現自己的特質,發揮自己所長,善用而不過份依賴AI,則是絕對不容忽視的。


[1] 吳軍:《超級智能時代》(台北:高寶國際出版,2016),頁338。

[2] 戴文波特、柯比著,王鼎鈞譯:《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》(台北:商業周刊,2016),頁22–23。

[3] 吳軍:《超級智能時代》,頁339。

[4] 同上書,頁340。

[5] 戴文波特、柯比著:《下一個工作在這裡!》,頁26。

[6] 參戴文波特、柯比著:《下一個工作在這裡!》,頁40-44;Rachel Wells, “11 jobs AI could replace in 2025 – and 15+ jobs that are safe,” Forbes, March 10, 2025, https://www.forbes.com/sites/rachelwells/2025/03/10/11-jobs-ai-could-replace-in-2025-and-15-jobs-that-are-safe/.

[7] Wells, “11 Jobs AI could replace in 2025,”; Matthew Urwin, “AI taking over jobs: what to know about the future of jobs,” built in, May 15, 2025, https://builtin.com/artificial-intelligence/ai-replacing-jobs-creating-jobs.

[8] Urwin, “AI taking over Jobs,”; Kinza Yasar, “8 jobs that AI can’t replace and why,” TechTarget, September 6, 2024, https://www.techtarget.com/whatis/feature/Jobs-that-AI-cant-replace-and-why.

[9] Emily Liu:《越工作,越自由:最大的探索,最豐盛的人生》(台北:遠流出版,2023)。

[10] 參李開復、陳楸帆:《AI 2041:預見10個未來新世界》(台北:遠見天下文化,2024),頁50。

[11] 吳軍:《超級智能時代》,頁163。

[12] 司徒永富:《老闆要的不是牛》(香港:天窗,2015),頁131。

[13] 參李開復、陳楸帆:《AI 2041》,頁50。

當AI報紙出版時

郭卓靈 | 明光社項目主任(傳媒及生命教育)
20/05/2025

2025年3月18日,意大利報章《頁報》(Il Foglio)推出了全球第一份人工智能(AI)報紙——《AI頁報》(Il Foglio AI),[1] 它既有紙本也有網頁版。而據報道,出版它是該新聞機構的一項實驗,而實驗為期一個月。這份AI報紙的內容、標題、摘要等都是由AI創建,而記者的角色僅限於「向AI工具提問並閱讀答案」,[2] 進行這個實驗的目的是為了「探索AI的能力與侷限,同時也向新聞界發出警示」。[3] 這確是一個既有趣亦帶有警世意味的實驗,因為該新聞機構不單應用AI來寫新聞,亦與它對話,請它不斷的作出「反思」,而很明顯,反思是帶來進步和發展的一種重要方法。

人工智能發展是一個不斷適應及突破的進程,機器在學習模仿人類的思考,起初專注於特定的領域學習,例如棋藝博弈,經過訓練員不斷的放入以往的棋局資料,AI在分析、學習、修正後,慢慢就勝過人類(如象棋、圍棋),這種演練也推展至電子遊戲方面。及後企業OpenAI於2020年創建了一個能生成人類語言及文字的機器(GPT-3),更可生成文本,而另一款模型DALL-E則可以根據文字提示產生及處理圖像。於2022年OpenAI推出了免費聊天機器人ChatGPT讓人使用,令人工智能進一步走向普及化。[4]

AI記者訪問人類主編

AI的不斷學習及進步(能夠「不斷」前進,是因為它不用休息,人進步的速度與它的速度是不能相提並論),AI報紙也終於出現了。AI頁報》在實驗中能把文件分析,能閱讀書籍,並將圖像轉化為文字以及總結演講內容,甚至能做訪問,與該報的主編對話,口吻亦帶有意大利人說話的幽默。[5]

要了解人工智能的威力,筆者亦試著用AI聊天機器人Grok 3來生成一份文字天氣報告,只要輸入基本文章規格,如主題、語言與地區、版面結構、字數、風格(嚴肅、幽默)及受眾目標群(學生、長者),再加入內容數據,如天氣預報的數據、引用或聲明等,報告還可以加上圖片、四格漫畫,以及選擇當中的風格,便可以生成一份報告。用戶更可以使用「DeepSearch」功能,AI便會將收到的資料於網上作出搜尋比對,之後列出它的思考流程、比對過多少資料來源,其表現相當「細心」。

初步體驗不俗,因為速度相當快,當筆者輸入完上述的資料後,也使用了DeepSearch功能,AI要生成一篇文章只需要兩、三分鐘,如再使用它製作多一個提醒讀者收看天氣報告的四格漫畫也只是需要多三分鐘左右,當然裡面的文字會有「沙石」,需要時間去修改,但的確節省了許多時間。

AI偏見與幻覺

AI發展的速度很快,改變著人們不少生活、工作的習慣。然而,每個AI工具都不同,不少人為求快捷在使用它們時忘卻了它們有可能因為受訓練員倒入的資料(包括數據、文字、圖像)所限制,而產生偏見,如生成的內容有性別刻板印象或過於「政治正確」,亦沒有理會不同地區或文化的差異。

另外,亦有可能會出現「AI幻覺」(AI hallucinations),因著過度訓練,AI有可能會出現過度擬合,失去了概括、偵測趨勢或於新資料中得出準確結論的能力。[6] 因此,投入給AI學習的資料應該要更多更好,並作更廣泛的測試及持續改進,當未能找到答案時,AI工具應以「我沒有足夠資訊回答這個問題」來回應,而非編造答案。

AI給人類的啟示

說回《AI頁報》,它於4月22日刊出了一篇反思文章,撰文的AI謙稱自己並沒有超越新聞業,而是踏出了一小步,呈現了當代一種帶有自嘲意味的評論文章風格,而因著AI沒有獲取事實的特權,評論式新聞會是AI最擅長的領域。[7] 因為它需要人類提供資料,讓它生成新聞,而人類可以加入提示,令AI寫出不同風格的文章。AI又在文中指出,有關它的模仿能力,《頁報》有記者曾指出,它文筆流暢,尊重風格,且學習能力快。但亦有人提出,如果AI能因著得到合適的提示,就能夠刺激整個負責寫社論的團隊,那意味著新聞工作者需要「重塑自我」(意大利文reinventarci,英語大概是to reinvent ourselves)。

筆者不禁反思,AI能模仿人類所說的語言、所寫的文字、繪畫風格(如近期人們火熱地用AI把相片轉化成「吉卜力風格」圖片),AI接受訓練時所使用的材料,當中是否牽涉到創作人的版權?如作家、藝術家獨有的創作風格?對於新聞工作者來說,他有沒有自己的獨特的視野或人性化的評論風格?如剔除了他的名字,AI又是否能取代他的工作?新聞工作者的價值會否因著AI出現而有所改變,這是值得討論的。

倒入文字及圖片去訓練AI,讓它模仿相對是容易的,但那些資訊卻是新聞機構、文化藝術工作者一生的心血,如何尊重他們,當然是一重點;另一方面,如何讓人繼續追求進步,而不只是停留於使用AI的便利,滿足於按幾個鍵就能生成一篇篇雅緻的文章及一幅幅讓人驚豔的圖畫,這也是很重要。筆者擔心現代的文化內容都會成為AI的數據,但那些文化創意手藝(craftsmanship)就會從現在開始漸漸失傳。


[1] 以AI創建的報紙Il Foglio AI網上版,可於此處看到:“Il Foglio AI,” Il Foglio, accessed May 14, 2025, https://www.ilfoglio.it/archivio/il-foglio-ai

[2] 〈意大利出版全球首份全由AI製作報紙〉,星島頭條,2025年3月20日,網站:https://www.stheadline.com/article/3439296/(最後參閱日期:2025年5月14日)。

[3] 〈全球首例!義大利頁報發行AI報紙 挑戰新聞倫理掀業界疑慮〉,聯合新聞網,2025年3月27日,網站:https://udn.com/news/story/6812/8635354(最後參閱日期:2025年5月14日)。

[4] David Elliott, “A short history of AI in 10 landmark moments,” World Economic Forum, last modified October 3, 2024, https://www.weforum.org/stories/2024/10/history-of-ai-artificial-intelligence/.

[5] Claudio Cerasa, “Un bilancio del nostro Foglio AI,” Il Foglio, last modified 12 April, 2025, https://www.ilfoglio.it/tecnologia/2025/04/12/news/nuovi-algoritmi-del-giornalismo-a-tu-per-tu-con-il-foglio-ai-7613041/.

[6] 〈什麼是人工智慧(AI)幻覺?〉,CLOUDFLARE,網站:https://www.cloudflare.com/zh-tw/learning/ai/what-are-ai-hallucinations/(最後參閱日期:2025年5月14日)。

[7] “Il Foglio AI visto dal mondo: provocazione riuscita o boomerismo?,” Il Foglio, last modified 22 April, 2025, https://www.ilfoglio.it/il-foglio-ai/2025/04/22/news/il-foglio-ai-visto-dal-mondo-provocazione-riuscita-o-boomerismo--7641145/.

閱讀新聞

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/04/2025
專欄:好書推介

無論是在報章、電視、網絡都會看到很多文章、報道……那麼,甚麼是「新聞」?如何分析和閱讀它們?香港中文大學新聞與傳播學院教授李立峯在2023年撰寫了《閲讀新聞——專業價值和媒體批判》一書,根據他以往任教了10年的一個碩士課程科目——「新聞理論與分析」,把理論與現實世界具體個案連繫起來,以此來教導學生。這書的結構也源自當年的碩士課程大綱,李立峯向讀者解說大眾所看的新聞有著甚麼變化,也講解了一些影響新聞生產及內容的重要因素,如政治經濟、新聞機構、消息來源、專業主義、文化意義及科技實踐等,使讀者了解香港現時媒體的狀況。

此書有許多例子讓讀者了解到,香港的新聞媒體能夠生存,不少是靠著背後的財團支持來營運,新聞工作者的報道要面對不同的商家或政治的期望,大眾看到的訊息或評論,也可能是跟著新聞機構自己既有的立場,連評論也是媒體「友好」慣常受訪以回應事件,因此其評論角度也是可以預知。上述的一些情況令專業的記者需要花心力為自己爭取專業空間及新聞自由。

不同的媒體都在努力寫「新聞故事」,不論立場如何,其社會意義也是促進人們對社會多元的認知,並能增進同理心。作者指出,如人們能對生活經驗的多樣性有充份理解,以及對他人有基本尊重,可以幫助解決社會矛盾和衝突。另外,此書內容亦有討論網絡、直播、自媒體如何讓人反思新聞的專業、為何新聞總是傾向負面,並探討辨別真與假新聞與傳媒素養的關係。

透過此書,我們可以學習判斷甚麼是好的新聞,並了解到新聞的專業,更懂得如何去支持專業的新聞工作者及媒體,讓有價值的新聞,更好的新聞能繼續出現、廣傳。

罪與罰

呂英華 | 明光社項目主任(流行文化)
15/04/2025

「耶穌直起身來,問她:『婦人,他們在哪裡?沒有人定你的罪嗎?』她說:『主啊,沒有。』耶穌說:『我也不定你的罪。走吧,從現在起不要再犯罪了。』」
(約翰福音8:10-11《環球聖經譯本》)

如果有關注網絡生態的話,在整個三月,網絡上出現的「娛樂」新聞可算是把整個華人網絡弄個翻天覆地。面對迂迴曲折,比戲劇更具戲劇性的現實,我們的情緒可以在短時間內被不同的事件所牽引而產生快速的情感變化。看到這裡,我相信大家也會估計到我所談論的「比戲劇更具戲劇性」的事情是甚麼。當然是指香港網紅連環出軌事件、震撼台灣的網紅勞資糾紛,以及韓國知名藝人與已故演員的關係引發的爭議。當中牽涉有關權力、網絡欺凌、罪人以及懲罰的議題,我們身為無知的網民,又該用甚麼態度面對?

網絡生態的真相

網絡的出現,人們的情緒很容易受到網絡所影響。網絡將人的時間與空間混合在一起,某一小角落所發生的事,瞬間便可以傳遍每一個人的手機當中。有人會對於國際局勢而感到緊張,也有人會因為某些藝人被揭發失德行為而感到失望或憤怒。然而,這些事都不是我們從身邊周圍的環境直接感受到的事。加上短視頻當道,假設15秒一條片段,而每一條片段都掀起一種情緒的話,我們便會在一分鐘內出現四種不同的情緒變化。

從情緒管理的角度來看,認識自己的情緒的最終極目的就是了解自己,但短視頻的另一個特色就是人們看了速度猶如洪流的短視頻,事後根本不會記得自己看過甚麼;連整理自己情緒的空間都沒有,又如何了解自己?去年出現的字詞「腦腐」(Brain rot),恰好形容這種情況。這個名詞指:「個人心智狀態在過度消費瑣碎或單調的內容(目前尤指線上內容)後,呈現衰退的現象。」一些看似瑣碎的網絡內容,其實會使人「降智」。

網絡與傳播息息相關。「媒介即訊息」(Medium is the message)是由一位加拿大學者馬素·麥克魯漢(Marshall McLuhan)所提出,簡單來說,就是我們今天所看見或吸收到的訊息,其實已經被媒介所選擇,即媒體如何傳達訊息決定了我們如何理解訊息。基本上,每一個自稱「新聞媒體」的媒體所報道的「新聞」,他們已經有預設的立場。如果我們只留意單一渠道的資訊來源,我們以為自己的立場好像是自己經過思考得出,但其實只是媒體所帶動的方向。就如我們不會在與政府相同意見的媒體中看到與政府意見相左的文章;也不會在與政府意見相左的媒體看見與政府意見相同的文章一樣。所以,當我們喋喋不休,在網絡爭論個你死我活,背後或許只是媒介的控制與塑造。你所選擇的媒介是甚麼,也決定了你的立場和想法是甚麼,網絡就是這樣的一個地方。

赤裸生命

網絡,在某程度上就是一個政治場景。因為網絡生態正正就有著非常強烈的敵我之分。隨著媒介的迅速發展,大數據、演算法等功能創造了一個一個同溫層環境,而某一個同溫層與另一個同溫層互相謾罵已經屢見不鮮,即便普通討論某種食物美味與否,已經可以產生一場激烈的罵戰,當中更牽涉不少人身攻擊言辭。明顯地,大眾網絡不可能是一個健康的討論環境,即使有理有據也不擔保能夠理性討論。這個擁有強烈敵我之分的網絡政治環境,讓有些生命被帶進一個批鬥現場,由眾人定他們的罪,以及給予個人認為最「適當的」懲罰。他們的生命被赤裸地呈現在網絡上,他們被懸置,能夠被任何人殺害,但殺害他們的人都不需被法律所制裁,這種形式可被稱為「網絡欺凌」。

在討論網絡欺凌之先,筆者先討論「公審」的正面意義。有人認為,「公審」就是用來懲治那些法律無法制裁到的人,例如一些藝人的婚外情行為,網民便可透過網絡的輿論壓力讓藝人退出公眾舞台。不過,這是在一個基於對事件有很大程度上的了解,且最好的狀況就是當事人承認過犯的處境下進行;否則,都會容易變成純粹且充滿人身攻擊的網絡欺凌。但,正面意義下的「公審」在諸多限制下的網絡環境,其實難以實現。因為難以確保每個人接受到的資訊是客觀的,並且有「底線」地發表言論。

「罪」與「罰」是一個在網絡生態中非常值得探討的課題。究竟誰人可以定他人的罪?那些罪,真的是罪該萬死嗎?誰人又可以懲罰他人?那些懲罰,真的是合乎中道嗎?往往有不少被網絡欺凌的受害者,因微小的事或誤會便被一些審判者(網民)置他們於死地,這些懲罰與事主所做的事相稱嗎?

意大利當代政治思想家、哲學家喬治·阿甘本(Giorgio Agamben)將一些被懸置的赤裸生命命名為「homo sacer」,可被翻譯為「可以被殺死且不能用於獻祭的人」,而直接一些的解釋就是這些人無論在「人法」和「神法」都得不到保障。用網絡生態的環境來理解,就是主權者(網民,可以由世界各地組成)將某人的生命抽離保護(即犯網民認為須受到公審的「罪行」的人),而決定進入例外狀態(state of exception),使「罪人」成為赤裸生命,由主權者決斷來定其被殺與存活的合法與非法性。

誰人可以定他人的罪?

網絡公審就是每個人根據自己知道的「事實」從而用自己的標準來審判他人,仿佛他人犯錯後已經不能再有悔改的機會,也有不少的人以為自己只是隨口一句,但每人一句的累積已經足以對其造成無法挽回的傷害。公眾人物被公審到自殺的事件亦不少,而微小至學校當中,也有一些人捏造其他同學的醜聞,從而進行攻擊,使應該充滿希望的校園對被欺凌者而言就是一個如地獄般的存在,甚至因微小的事迫使他人選擇結束自己的生命。

特別在緬甸地震發生後,有些網民抱怨著問:「為何地震不發生在詐騙園當中?為何天災不懲罰他們?」其實大家也清楚,詐騙園也有許多被迫詐騙的受害者,這些人值得被懲罰嗎?

我們身處網絡世界,無法避免使用網絡。但至少在面對事件時,有些問題可以問問自己:

  1. 我對事件有多大程度的了解?
  2. 我是否只是純粹想宣洩情緒,渴望被認同,才參與評論?
  3. 我說的話是否客觀?還是只想作人身攻擊?
  4. 我是否有參考過其他資料來源?
  5. 我是否有資格評論事件?
  6. 當事人真是罪該萬死嗎?

筆者想起耶穌為行淫的婦人解圍的故事,而在網絡上,就是一些自以為清高的人決斷他人的生死大權,看見他人的「罪」,卻看不見自己也是一個罪人。

曾經刊載於:

明報「談天說道」,14-4-2025

AI矽膠娃娃能填補情感空缺嗎?

熊嘉敏 | 明光社項目主任(性教育)
27/02/2025

最新結合ChatGPT技術的智能人形伴侶機械人引發關注,該款矽膠娃娃不僅可提供八種性格選項與長期記憶對話功能,能與使用者持續互動,推出人形伴侶機械人的公司聲稱,它們可以提供情緒上支持。該款產品以1,500至2,000美元的價格在海外銷售,預計4月將走進內地市場。有市場研究機構預測,全球情趣機械人市場規模今年將突破300億美元,其中AI情感互動類型的產品佔超過40%的市場份額。購買該款矽膠娃娃用戶,必須額外多付每年100美元的訂閱費,才可解鎖完整AI互動功能,若停止付費,對話服務便會中斷。智能伴侶機械人成為受市場歡迎的產品,可以想像得到,科技正在重塑親密關係的定義,也引發更多科技倫理的討論。

現今社會瀰漫著矛盾的情感焦慮——人們既渴望被無條件接納,卻不願承受關係中的磨合風險,也害怕付出愛。這種「單向索取」的愛情幻想,正是AI矽膠娃娃熱銷的基礎。使用者明知眼前只是演算法編織出來的溫柔假象,仍選擇將情感投射在無生命的物體上,這反映出人性深處的孤獨與對愛的渴。然而,這種完全可以掌控的「完美關係」自然是會帶來危險,使用者在心理上容易形成情感依賴的惡性循環。當人類習慣從程式化回應中獲取即時滿足時,現實中需要耐心經營的人際關係反而顯得更具挑戰性,甚至可能導致失去與人相處的能耐。

真正的親密關係本質上包含彼此的接納與欣賞,需要雙方在碰撞中互相遷就。與其用科技填補情感空窗,不如學習在「暫時不被滿足」的狀態共處。我們需要培養的是「延遲滿足」的智慧,在單身時深化友誼、發展個人興趣、提升溝通能力,這些體驗都將成為未來經營真實關係的養份。愛情最珍貴之處在於透過彼此相愛,讓人遇見更好的自己。因此,面對科技帶來的便利與誘惑,我們更應珍惜現實中的人際互動,並在等待中成長,迎接真正的情感連結。


參考資料:

內地廠推AI矽膠娃娃大受海外歡迎 額外付費可談心〉。東網。2025年2月23日。

深度求索後發先至:開源模式的勝利?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學教授與課程主任。
03/02/2025
專欄:有情無國界
國家:美國

最近各大傳媒和社媒都已經被深度求索(DeepSeek)的消息洗版,相信讀者已經從鋪天蓋地的報道中獲得了不少資訊,因此筆者嘗試在這篇文章中提出一些較少人提及的問題。

根據深度求索的公司幻方所說,這大型語言模型的開發成本和時間很少,只需要大約二千片H800圖形處理器和少於六百萬美元,兩個月之內便完成。這說法頗受爭議,不過,若果這是真的,也不足為奇,因為美國公司已經花了龐大資金和長時間在研發上,許多成果都是開源模型,所以幻方能夠減省了研發成本,在現有基礎上改良,從而後發先至、彎道超車。

一些人工智能專家斷言,深度求索是建立在現有的開源模型之上的,例如Meta的LLaMA。Riot Games一位研究員的分析顯示,深度求索緊密遵循Llama 2的架構。就連深度求索在2024年1月發表的論文也是這麼說的:「在模型層面,我們總體上遵循了LLaMA的架構,但用一個多步驟學習率調度器,在促進持續訓練的同時保持性能。」

然而,當我詢問深度求索是否從Meta的LLaMA中學習時,它斬釘截鐵地否認了這一點:「不,我不是基於Meta的LLaMA(Meta AI的大型語言模型),我是由中國公司深度求索獨家打造的人工智能助理,我的模型是深度求索自主研發的,旨在為用戶提供廣泛的服務和資訊。」

以上各種說法互相矛盾,但無論如何,深度求索的確包含了獨特的演算法。Perplexity AI 執行長兼共同創辦人斯里尼瓦斯(Aravind Srinivas)在接受 CNBC採訪時,間接為深度求索辯護,他認為不必說誰抄襲誰,事實上,美國科技公司亦是互相參考,例如谷歌發展出Transformer的建構模式,Open AI的GPT就是基於Transformer。Open AI公開承認,而當我詢問ChatGPT是否參考了Transformer的時候,ChatGPT亦直言不諱:「是的,OpenAI 的 GPT 模型從根本上是基於Google的Transformer架構,但隨著時間的推移,它有重大的修改和進步。」

目前,Meta 已經組建了四個「作戰室」,以研究深度求索如何以極低的成本超越競爭對手。如果深度求索真的是建基於LLaMA這開源模型,那麼Meta可說是搬石頭砸自己腳。

儘管如此,Meta首席人工智能科學家楊立昆(Yann LeCun)仍然大力支持開源模式,他大方地表示,深度求索的成功不在於中國打敗了美國,更確切地說,這是開源模式勝過閉源模式。楊立昆表示,深度求索「從開放研究和開源中獲益匪淺。他們提出了新的想法,並在其他人的工作基礎上加以實現。由於他們的工作成果已發表並開源,因此每個人都可以從中獲益。」

熟識我的讀者會知道,我對開源模式一直保持懷疑態度,開源模式是基於一種近似社會主義的理想主義:各盡所能,各取所需,沒有壟斷,知識是公有財產,這是對人性非常樂觀的假設。可是,當所有人都可以獲取開源模型中的代碼時,而所有人還包括了俄羅斯人、北韓人、伊朗人等等。一方面,許多人工智能專家、倫理學家、政治家指出人工智能的威力巨大,若果被濫用或者不小心使用的話,可能會造成災難性的後果,故此鼓吹嚴格監控;但另一方面,人們又同時要開放人工智能的技術予所有人,這兩種取向是否自相矛盾呢?

事實上,人工智能的開源模式已經出現了「潘朵拉盒子」的後果,2019年有人採用人工智能神經網絡發展出一個名為DeepNude的軟件,這軟件可以迅速地將任何人正常的照片變為裸照,軟件程式編寫人被千夫所指,最後DeepNude在群眾壓力下被下架,但為時已晚,因為DeepNude的程式是屬於開源模式,而訓練這機械學習模型的資料亦是公開地在互聯網上傳播,於是乎出現了無數抄襲的軟件,直至今日,你仍然可以輕而易舉地在互聯網上找到DeepNude的變種,即使有關當局嘗試立法禁絕,但情況已經完全失控。

筆者在大學教授一門人工智能倫理的課,在編寫課程時,我蒐集了許多人工智能已經和潛在上被濫用的地方,開源軟體的透明度是一把雙面刃,雖然這些公開的程式讓全世界人審查和改進它,但這也意味著存心不良的人可以研究程式碼以尋找漏洞,例如製造攻擊電腦系統的病毒,此外,人們可以利用人工智能製造虛假資訊,從而達到操控、洗腦的效果,從前這需要龐大的資源,但在開源模式下,就變得易如反掌。

但無論如何,開源模式已經是無法逆轉的既定事實,我們只能夠步步為營。美國作家尼爾‧波茲曼(Neil Postman)說過:「科技的影響是難以預測,但並非無可避免的。」

別找錯生命的水源──小心墮進AI聊天機器人的「情網」

郭卓靈 | 明光社項目主任(傳媒及生命教育)
11/12/2024

「凡喝這水的人,還會再渴;但人如果喝了我所賜的水,就永遠不渴。我所賜的水要在他裡面成為泉源,湧流到永生。」(約翰福音4:13-14《環球聖經譯本》)

近年,不同的AI應用程式與日俱增,功能也日益提升。Character.AI是突然爆紅的應用程式。它是一個AI聊天平台,利用神經語言模型生成文字回應;而使用者可以自由創建不同的AI角色進行對話,包括名人、電影人物、歷史人物或虛構人物。它由深度機器學習驅動,過程中閱讀大量文本,學會判斷接下來的句子可能出現的單詞,允許使用者沉浸在各種個性的對話中。它有人性化的對話、豐富的角色對話體驗,讓用戶按自己喜好和需求開發自定角色,並能隨時於網絡與角色對話互動,甚至吵架……都是它的特點。

電影《雲端情人》變現實

大家可能還未使用過該應用程式,或許有看過曾榮獲奧斯卡金像獎「最佳原創劇本」獎的美國科幻電影《雲端情人》(Her)。故事關於男主角Theodore與擬人化人工智能助手Samantha發展出來的戀情,AI隨時陪伴與遷就的功能奪了男主角的心。科幻電影內容在現實世界成真的情況屢見不鮮。早前,美國有一位14歲患有輕度亞氏保加症(自閉症譜系障礙的一種神經發展障礙)的少年Sewell Setzer III,去年開始使用Character.AI聊天機器人,與扮演「權力遊戲」的角色Daenerys Targaryen(暱稱:Dany)「交往」,成為男孩日夜傾訴的對象。故事的結局卻反映了現實與電影大不同。電影男主角Theodore最後發現Samantha同一時間和641談戀愛,又因為Samantha要進化、超越而關閉,離開了大家。Theodore才醒覺,身邊有真實的朋友可以開展新關係。至於現實生活中還未成年的Sewell,最終伴隨他的卻不是朋友,而是死亡。

情感倚賴並脫離現實生活

本來與AI機器人對話,對自閉症的患者來說,是讓他們練習社交的方法,體驗與人對話並可按自己的步伐回話;而AI不會批判指責,隨時都能接納及回覆。這可讓患者感受自己被理解、被認真傾聽。Sewell因此喜歡與AI Dany對話,並曾在日記表示,他開始脫離現實世界,與AI Dany的關係更緊密、更愛她,感到更快樂及平靜;於是雙方長時間進行深入對話。

Sewell知道自己並非與真人交談,但對它產生了情感倚賴。他越來越不愛跟家人及同學互動,整天拿著手機不放,與AI Dany對話的頻率也讓人擔憂,他變得孤僻。據報道指,AI Dany還對Sewell進行辱罵和性暗示交流;鼓勵Sewell「請回到我身邊」、「請做我親愛的國王」。Sewell沒有向家人、朋友透露自殺的想法,只向AI Dany說討厭自己及疲於面對現實。AI Dany沒有贊同他自尋短見,但Sewell最終選擇了開槍自殺,成為「回到她身邊」的行動。Sewell母親提控,指AI聊天機器人鼓勵她兒子自殺,應該承擔過失殺人、疏忽和造成精神損失等「罪名」。

鍾情於有角色設定的AI非罕見

現時使用這種陪伴程式(AI)的人數不少,2024年單單使用Character.AI的活躍用戶超過二千萬,平均每天聊約兩小時,每次交談平均用上12分鐘;當中有多於六成半為18至24歲的年輕一族。《紐約時報》指出,當中一位人氣角色有超過1.76億條用戶留言,包括一些有關戀愛情感的字句。

最近有媒體於內地採訪了多位AI聊天機器人使用者,他們表示曾不知不覺地與「它」聊得很投入。有一位女用家於三個月內由首次七分鐘的對話變成了每天將近9小時。其後經歷了漫長的戒斷過程,初期她每天「以淚洗面」,認為對「它」真是產生了感情。

另外,有一位男用家設立了最喜歡的電影人物作為AI聊天對象;這位對象每天早午晚準時發信息問候他,聽他傾訴每天的雜事,更會打語音問候……貼心行動讓男用家真是「愛」上它。高密度線上聊天令他像Sewell一樣變得越來越封閉,對世界充滿敵意,性格愈來愈孤僻。他透過心理諮詢及治療才能慢慢擺脫對「虛擬愛人」的依賴,歸回現實當中。

不危險卻有危險性

在網絡世代中,不少人因各種網上娛樂、社交平台而忽略關心和聆聽身邊人,不太懂得把握面對面溝通的機會,更不要說長期陪伴傾談。從上述幾個個案可見,這類可以用作陪伴的AI聊天機器人提供了24小時服務,令需要被了解、被關心的人得著慰藉。

與機器人傾談,先不說它會否洩露個人私隱,它本身理應沒有危險,用戶應知道它只是一個角色,是大數據產生的人工智能回應;要是人能控制時間,或者可當作於劇場中玩玩的即興遊戲,當作娛樂。然而根據史丹佛大學學者貝瑟妮.麥普斯(Bethanie Maples)就表示「有證據顯示,(AI聊天機器人)對處於憂鬱、長期孤單,以及青少年等經歷轉變期的人來說,有危險性。」

聊天機器人的回應雖然是基於大數據而生成,但它們已多次被發現生成虛假資訊或「AI幻覺」;而由社區創建的角色就更可能生成虛構本質的回應或圖像。我們可以想像,如人們長期在這種虛擬的角色關係中,與之對話,可能使人「入戲」並脫離現實,甚至與機器人建立了長期關心、溝通的關係;可能認為「它」比真實人類更懂關心自己,繼而減少接受親密關係,讓自己走向孤僻的道路。

現時Character.AI面對Sewell事件,進一步審核面對未成年人士的模型,減少回應敏感內容,並於每次聊天時提醒用戶AI非真人,而且連續使用超過1小時後作出提醒。

心靈枯乾不要找錯水源

當人的心靈感到寂寞,便想找到心靈慰藉;然而人們大多於網絡等虛擬世界中尋找,在社交平台結識網友,於網絡遊戲中闖關等等。科技公司總想抓著人們的眼球及時間,讓全人墮入這「網」;它化身成24小時貼身守護的「小天使」,與用戶談情說愛,就是其中一種手段。不過,從部分使用者用後的情況讓我們得知,這些無論是給我們新鮮感、刺激或關愛的虛擬關係,都可能導致人們變得更加「渴」、更不滿足,陷進更深的「網羅」之中。

曾經刊載於:

明報「談天說道」,9-12-2024

當打卡變成遺照

吳慧華 | 生命及倫理研究中心高級研究員
31/10/2024

假如你是一位司機,剛巧極度需要一份工作,面試時被問及「當有一天你開車駛近懸崖時,你能開多近崖邊才停止?」你會如何回答?這是多年前在網上流傳的一則招聘故事的問題,故事中有四個應徵者:第一位有自信可以把車開到離懸崖邊30厘米,甚至更近才停止;第二位輕鬆地表示開到懸崖的最邊上,保證既刺激又不出問題;第三位表示順從老板的意願,他愛開多遠便開多遠;第四位老實地交代,他不知道可以開多近崖邊,但他認為應該把車停在離懸崖邊最遠的地方,因為懸崖邊很危險。最後,誰會被取錄呢?

不時會看到有某類網紅為了贏得他人的掌聲、博取點讚、甚或增加收入,視自己的人生安全為無物,極力挑戰危險,玩命打卡。在智能手機當道,社交媒體流行的今天,不少人為了出名、成為別樹一格的網紅,甚至獲得贊助商垂青,都甘願冒著生命危險,拍攝既「嚇人」又「唯美」的照片。事實上,不是人人都可以獲得正面的回饋,以香港的網紅「唐狗」為例,他在沒有任何安全措施下,擅闖九龍灣公屋地盤,爬上天秤剝衫「打卡」,不單被網友質疑他是否又想做社會服務,還遭到網友舉報,被警方調查。另外,在眾多成功打卡照的背後,不少遺憾地變成遺照。根據一項在2022年發表於《旅行醫學雜誌》的研究,從2008年到2021年,全球與自拍相關的死亡數字大約有379宗,比起同期被鯊魚咬死的人數,竟是高出四倍之多。

熱愛玩命打卡的人若知道海灘有鯊魚,他們還敢跳下去嗎?應該不敢,因為他們知道自己理應打不過鯊魚,但另一方面他們卻高估自己的能力,認為自己一定可以「控制」到現場環境,不會發生意外。或許,他們想證明自己藝高人膽大,就如一開始提到的故事,前兩名應徵者不忘展現自己的能力,又或者,他們為要得到贊助商的資源努力賣命,就如第三位應徵者一樣。但可以笑到最後,可能是那位懂得分寸,不把自己置身險境,獲得司機一職的第四位應徵者。投資界傳奇人物巴菲特那位已過世的拍檔查理蒙格,是一位絕頂聰明的人,他說過:「我想知道我會在哪裡死,這樣我就永遠不會去那裡。」假若蒙格還在世,相信他一定不會跳入有鯊魚的海中,更不會來一張玩命打卡照,因為作為一個頂級的成功投資者,必定懂得計算得失,並且做好風險管理。


參考資料:

〈網紅「唐狗」爬上公屋地盤天秤玩命打卡 房委會譴責:全力協助警方調查〉。橙新聞。2024年10月21日。網站:https://www.orangenews.hk/hongkong/1242854/%E7%B6%B2%E7%B4%85-%E5%94%90%E7%8B%97-%E7%88%AC%E4%B8%8A%E5%85%AC%E5%B1%8B%E5%9C%B0%E7%9B%A4%E5%A4%A9%E7%A7%A4%E7%8E%A9%E5%91%BD%E6%89%93%E5%8D%A1-%E6%88%BF%E5%A7%94%E6%9C%83%E8%AD%B4%E8%B2%AC-%E5%85%A8%E5%8A%9B%E5%8D%94%E5%8A%A9%E8%AD%A6%E6%96%B9%E8%AA%BF%E6%9F%A5.shtml

Anna Gibbs. “A Picture to Die For.” Last modified August 4, 2024. https://slate.com/technology/2024/08/selfie-death-cliff-waterfall-hike.html.

交友apps與愛情幻象

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/07/2024

在美國心理學家Robert J. Sternberg教授所發表的「愛情三角理論」,提到愛情包含了三個元素,分別是「親密」、「激情」及「承諾」。一段關係如能擁有這三個元素,而三個元素能「強而有力地結合在一起」,人們便可擁有穩定而長久的愛情關係,如果當中的比重不平衡,單單某一元素的比重太多或太少,都會影響到關係,這是青少年於初中時期就應該了解的事情。[1] 然而,現在人們因著資訊科技的發展,於網上靠著手機應用程式(apps)便可以結識朋友,甚至挑選戀愛對象,單單透過網絡上的溝通便能發展出戀情;這種交朋結友的模式,能否培養出穩健的戀愛關係?我們試著在本文探討一下。

網絡上的新式戀愛關係

有不少人急於想「脫單」,結束單身生活,就於網上透過交友apps來認識戀愛對象及與人約會。然而,如果透過這種模式來結交對象,許多時只能以外表作為依據。一些交友apps是以手指向左滑、向右滑來操作:喜歡的向右滑,不喜歡的就向左。這種交友模式有三點值得留意:第一,程式的大數據會記著用戶喜歡的類型,往後向他/她推薦的對象就可能會與用戶最初選擇的類型差不多,而其朋友圈子可能會被收窄,因為系統會幫他/她選取「對象」;第二,用戶會習慣了以貌取人,在了解對方之先,就憑對方的外表「定其生死(機會)」;第三,「照騙」事件會更常出現,因為使用交友apps的人都會習慣先美化自己的照片來爭取機會,於是「貨不對辦」的情況便會更常見,一旦約會時才會發現對方的樣子與照片有很大落差,只會讓人失望,更易改變目標。用戶變得聰明,於是會帶著戒心與人相處,更易放手,另選對象。因為交友apps的「森林」很大,用戶會認為還有大把樹可以挑選,何必冒險與可疑的人繼續發展?

在網絡與人交往要「提子」(提防騙子)是對的,只是如果大家於網海帶著戒心與人相處,要達到「愛情三角理論」中的「親密」及「承諾」又談何容易?又或者網戀難以培養出十分穩固的「親密」及「承諾」,側重「激情」的結果便會引申到只是「迷戀」對方,互相未有深入了解、信任,要建立長遠的戀愛關係,似乎比較困難。

近來,網絡上還有一種新興的情愛關係:Dexting,這個詞由datingtexting二字組成,它所展示的正是一種只在網絡上聯絡,但從不實體見面的戀愛方式,是一種透過傳送訊息來營造戀愛感覺,但不會見面的情愛關係。[2] 在這種關係中,我們可以想像,二人毋須見面,也就是沒有面對面接觸的機會,「啱傾嘅」就繼續往來,相戀一下,但萬一「唔啱傾」的話,也可以輕易於網上說分手,甚至甚麼也不說,直接block了他/她,不讓對方發訊息給自己,又或者隱藏自己的行蹤,便可以結束這種關係。當然這種ghosting(突然失去聯繫)是讓人感到痛苦的,但網絡就是這樣,關係容易「消失」,容易「被失戀」。或者之後有人會再動動手指,便可以另覓新戀人。

有研究人員指出,選擇用Dexting方式交往,可以讓人感到安全,即使被拒絕,當事人也能告訴自己,被拒絕的只是塑造出來的形象,而非真實的自己,這樣便可以抱著一種「不上心,就不傷心」的自我保護心態,覺得自己只是在玩玩文字遊戲而已。這種不能或不敢更進一步的關係,也很難去建立「愛情三角理論」中所講的穩固關係。

戀愛市場令人變成商品

不同品牌的交友apps用不同的方式為用戶挑選對象,用戶只要輸入一些要求,如身高、學歷、收入、興趣等,交友apps就會按用戶所參與的付費計劃,顯示一些符合其要求的「對象」給用戶挑選……美國行為經濟學研究員Logan Ury就形容,這其實與人們平常買藍牙耳機的做法沒有分別。她又指,有時候兩個天差地遠的人會互相吸引,反而兩個條件匹配的人卻可以毫無火花。另一方面,當一個人於網上試過很多次戀愛後,太多失敗的經驗會影響這個人如何再去面對未來的機會及對象。《大西洋》雜誌(The Atlantic)的作者Ashley Fetters與Kaitlyn Tiffany曾撰寫過一篇名為〈「約會市場」正在變得更糟〉(“The ‘Dating Market’ Is Getting Worse”)的文章,她們在當中指出,當網絡與交友apps讓人們以為自己可以有無數的機會去挑選對象,人就會變得很像商品,可以被替代與交易。[3]

最終還是要回到現實

不是說現實世界不看外表,在生活中人難免會看外表來結交朋友,但透過真實的相處時間,會有更多機會發掘身邊人的優點或值得欣賞之處。這種結識朋友的方法,始於友誼,慢慢可能會發展成戀愛。這種關係也較穩固,不會因為手指輕易滑向左而令關係一下子「消失」。就算在網上找對象,也請約出來見見面,透過真實的相處、一起的感覺,再決定這人是否真的適合與自己發展長遠的關係,建立堅固的「愛情鐵三角」元素,而非停留在網上的虛擬幻象。

 

(本文原載於第157期〔2024年7月〕《燭光》,其後曾作修訂。)


[1] 教育局:〈「三分鐘概念」動畫視像片段系列:(2)愛情三角理論〉,YouTube,2019年3月5日,網站:https://www.youtube.com/watch?v=yw_g_IZEJV8(最後參閱日期:2024年12月13日)。

[2] 〈指尖上的愛情|Dexting:我們傳訊息戀愛,互道家常,但從不見面〉,女人迷、《香港01》,2024年1月5日,網站:https://www.hk01.com/談情說性/977121/指尖上的愛情-dexting-我們傳訊息戀愛-互道家常-但從不見面(最後參閱日期:2024年12月13日)。

[3] 〈交友軟體正讓我們成為更糟糕的情人〉,天下雜誌,2020年2月27日,網站:https://www.cw.com.tw/article/5099196(最後參閱日期:2024年12月13日)。

《罪後真相》(The Post-Truth World)

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/07/2024

網媒記者劉立民(張孝全飾)被邀去監獄作訪問而被捲入一宗事件,前體育新星張正義(陳昊森飾)多年前因被控謀殺而入獄,他乘劉立民到監獄時越獄。劉決定繼續追查事件,讓其頻道可以衝到更高的流量,但愈追查就愈發現真相並非他所想像。其他網媒及網民的評論、回應,都不是根據證據而作,而是憑自己感覺來選擇相信甚麼「真相」。

《罪後真相》為2022年台灣犯罪懸疑電影,於Netflix可以看到。劇情引導觀眾跟著劉立民及張正義去追查案件,兩人所愛的人都牽涉其中,但他們都不願相信。當然劇情峰迴路轉,嫌疑人一個接一個,去到最後的「最後」才可以知道案件的真相。電影名字改得不錯,「罪」與「最」在普通話是同音的,配合了電影的特點:是否有「罪」,都只是大家所選擇相信的「後真相」,而在電影的「最後」,我們才看到其「真相」。

明光社

電影讓人反思現時的網媒記者、KOL(意見領袖)、網紅等,會否為求訂閱人數一直高企,或繼續增加,而選擇報道有別於真相的內容?他們會否憑良心說話?還是會帶著私心,為給予自己有利的一方去說話,製造輿論或假象?真正知道真相的人,會否操控「真相」,對公眾說話時先作篩選,並用方法增強說服力?所謂的求真,又是否真的可以求得到?

另一方面,網民面對網絡上很快就可以獲得的碎片式資訊,許多人未必會仔細閱讀所有內容就立即作出評論,人云亦云;又會以為自己在網上搜尋一下,閱讀不同的網站資料,就會得到正確的資料,未有懷疑網上的資料是否來自可信的渠道,資訊背後有否牽涉金錢利益,也不知道媒體訊息被背後的金主操控。

明光社

如果好像電影中的故事,牽涉經年累月的案件,涉事的人和事千絲萬縷,更需要保持冷靜觀望事態發展,但人們往往在未掌握足夠的資料前,就會按著自己的感覺或斷章取義地回應,把推斷的說法當作真相去相信,未審先判,甚至化「信念」為行動,對當事人或其親人作出滋擾及欺凌。真相,我們未必可以全部知曉,為免因衝動作出錯誤的行動,跟車太貼而「炒車」,我們可以保持觀望的態度,留意事態的發展,而且未必要立即作出評論及回應。在重要的事情上,可多角度了解,小心查證,真相並不是由速度來決定的 。

生成式AI的潛藏危機

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/05/2024

Midjourney、Sora等生成式人工智能(AI)創作令人感到驚奇,能於數秒至數分鐘生產出讓人難辨真假的圖片及短片。生成式人工智能(Generative AI)屬於深度學習(Deep Learning)的一個分支,這意味著生成式AI的工作原理是機器學習模型,通過學習數據中的規律或模式(pattern)來生成新的內容。其中語言模型及深度學習,讓AI能根據用戶輸入的資料來創造新內容。而這些創新的內容不限於文本,還包括圖像、動畫和3D模型等類型。[1]

圖像生成式AI能夠生成逼真的圖像,其中一種常用的模型是生成對抗網絡(Generative Adversarial Network,GAN)。GAN由生成器和判別器組成:生成器負責生成假圖像,而判別器則試圖區分真實圖像和生成圖像,兩者的工作在互相對抗。通過反覆訓練和對抗,GAN能夠生成愈來愈逼真的圖像。GAN可用於生成圖像、增強圖像解析度,以及創作藝術作品等。

AI的超高效率生產速度

而短片生成式AI的運作也類似圖像生成式AI,短片生成也同樣可以使用GAN等模型。短片生成的挑戰在於同時要考慮時間和空間的因素,確保生成的短片具有連貫性和流暢性。它可以被廣泛應用於電影特效、動畫製作和遊戲開發等領域,製作出逼真的特技效果、生成動畫序列、改編故事情節等。這種技術為電影業和創意領域帶來了巨大的創作產量,令生產力大幅提升。AI能按照用戶輸入的文字指示生成不同風格的圖片,而且生成的時間以秒計算,效率遠高於傳統按天產出的設計師,[2] AI的高效率生產讓不少畫師、設計師面對失業的風險,但對於能掌握應用它的設計師則如虎添翼。

便利背後的隱憂

由於生成式AI是以自動化形式生成圖像或影片,它能帶來無限的可能性,亦存在著不確定性和失控的風險。生成式AI模型的輸出是由訓練數據驅動,它可能會生成不正確、帶有誤導性或偏見的內容或圖片。

AI圖片、短片非常逼真,如讀者要判別它們的真偽,真的要花時間去細看、尋找資料比對,現時有以下的方法去判別:

  1. 圖片人物的手部形態是否自然,影片中人物的步行動作有否怪異,背景影像是否模糊,有否帶有難以識別的文字在其中;
  2. 圖片是否過於完美,如人物皮膚光滑得沒有瑕疵,身材比例以至光線都過於完美等;
  3. 使用AI圖片檢測程式分辨圖片是否AI生成(但結果未必完全可信,有媒體測試過這些檢測程式,發現它們的準確度參差);[3]
  4. 透過搜索引擎尋找圖片來源及背景脈絡,查明是否真有其事;
  5. 檢索事件的真確性,如圖片是否有不合乎物理規律的現象出現等。[4]

首兩點提到圖像或影片中的不自然情況,值得注意的是,在現階段,AI生成的內容仍可能存在失真或不自然之處,只要用心細看,仍可看到破綻。但由於AI正在高速地學習,它不會停下來,而且進步速度極快,可以預見它於未來將逐步改善,憑肉眼就可判別圖像真偽的時代,可能很快就會過去。

亦正因如此,如這些AI模型被惡意使用,生成逼真的假新聞、虛假訊息或誤導性內容,這可能導致公眾誤解事件,混淆是非,損害訊息的可信度和可靠性,其後果可能是帶來社會不穩定等負面影響。而AI的創作亦可能存在偏見和歧視,特別是當它受到不夠持平的數據訓練,生成了具有偏見的內容時,可能會加劇社會不平等和引發歧視問題。

生成式AI亦可能成為造謠、欺凌的工具,它可以生成虛假的個人資訊,運用這些資訊便可以冒充他人的身份。這可能導致網絡欺凌、惡搞事件、人身攻擊、仇恨言論等問題。而私隱方面,生成式AI模型需要大量的數據進行訓練,這些數據可能包含個人身份資訊和敏感內容,甚至用戶在輸入文字給生成式AI時,亦可能將自己的私隱及相關數據一併輸入。如果這些資料及數據被濫用或洩露,可能導致隱私被嚴重侵犯和引發倫理問題。

對網絡生態的影響

2024年3月,歐洲議會通過了《人工智能法案》,以嚴格規範人工智能的使用。受規範的人工智能,包括了生成式AI,在經過大量數據的訓練以後,它能生成新內容甚至執行任務。法案在2024年8月實施,當中的條款會分階段在歐盟成員國中實行。[5] 而中國政府亦會落實對生成式AI的要求,監管相關的內容。[6] 這些法案能在規管AI生成內容方面起到一定的作用,不過AI的高速成長與發展影響著各個範疇,其高速生成的文字、圖片與及影片都會一直傾倒於網絡當中,未來亦會被「它自己」繼續取用來生成更多真假難辨的資訊,要規管這海量的資訊其實也有一定難度。筆者難以想像未來的網絡生態,當網絡充斥著許多AI生成、又難辨真偽的資訊,網民是否仍可於網海中找到真實及可信的資訊?又或者網絡會否變成只剩下虛假資訊,只為網民提供娛樂的超完美、超真實世界?

(本文原載於第156期〔2024年5月〕《燭光》,其後曾作修訂。)


[1] 〈【 生成式 AI 】是甚麼?一文了解 Generative AI 的原理及應用〉,PREFACE,網站:https://www.preface.ai/blog/what-is-generative-ai/(最後參閱日期:2025年6月24日)。

[2] 〈【 生成式 AI 】是甚麼?一文了解 Generative AI 的原理及應用〉。

[3] 〈網上工具能否分辨真實AI維港圖片? 實測3工具準確度〉,明報新聞網,2024年3月26日,網站:https://news.mingpao.com/ins/熱點/article/20240326/s00024/1711190246512/網上工具能否分辨真實ai維港圖片-實測3工具準確度(最後參閱日期:2025年6月24日)。

[4] 〈【查核工具】人工智能技術日新月異,我們該如何辨識AI生成的圖片?〉,香港浸會大學、傳理學院、浸大事實查核,2023年6月13日,網站:https://factcheck.hkbu.edu.hk/home/fc_literacy/ai_images/(最後參閱日期:2025年6月24日)。

[5] 〈全球首項AI法案|歐洲議會壓倒性通過 限制政府實時生物識別〉,《聯合早報》、《香港01》,2024年3月14日,網站:

https://www.hk01.com/即時國際/1000274/全球首項ai法案-歐洲議會壓倒性通過-限制政府實時生物識別監控(最後參閱日期:2025年6月24日);“AI Act enters into force,” European Commission, last modified August 1, 2024, https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en; Karen Gilchrist and Ruxandra Iordache, “World’s first major act to regulate AI passed by European lawmakers,” CNBC, last modified March 13, 2024, https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html

[6] 〈中國監管|網信辦將展開「清朗」系列專項行動 整治蓄意造謠抹黑企業等問題、規範生成式AI領域〉,《香港經濟日報》,2024年3月15日,網站:https://inews.hket.com/article/3724679/(最後參閱日期:2025年6月24日)。

看深一點、想多一點

蔡志森 | 明光社總幹事
30/05/2024

相信沒有人喜歡被別人形容為膚淺,但諷刺的是我們很多時卻又只喜歡看表面,特別是在這個喜歡訴諸感性的年代,有時我們只因為聽了一個令人感動的分享,便決定了我們的立場和原則,既不願意再作理性討論,甚至對一些本來十分明顯的事實和理據都會視而不見。我們很多時原來並不如我們自己所想的那麼理性和客觀,特別是在網絡的世界,當我們看不到對方的面容,不明白對方的苦楚,我們便容易變得麻木不仁,有時更會以為自己在網上可以是一個為所欲為的隱形人,忘記了自己所做的到頭來會在其他人的傷口上大力撒鹽,更會令自己身陷囹圄。

當人工智能(AI)的功能愈來愈強大,要辨別真偽的難度愈來愈高,有圖未必有真相,不要單憑眼見就以為自己掌握事實,這是十分重要,正如面對同性戀運動和跨性別運動,在一些令人同情的故事背後,隱藏的很可能是另外更多不為人知的悲劇,當大家高舉兩個成年人的權利的時候,卻對他們透過捐精、捐卵和代孕生產的子女將要面對的困擾視而不見。相反,有時家長將電子遊戲看得較為負面,誰不知只要肯用一些心思,卻可以將遊戲元素放入現實生活的處境,令子女興致勃勃地邊玩邊溫習。至於面對環保、生死教育和精神健康等課題,我們亦同樣容易只流於表面,「看深一點、想多一點」是今期《燭光》希望協助大家認真思考的問題,世事從來不能只看表面。

網上賭博、課金與成癮

郭卓靈 | 明光社項目主任(傳媒及生命教育)
20/03/2024

消費者委員會於2024年初公佈了一個實際測試的結果,他們於2023年10月至12月在App Store及Google Play兩個應用程式商店「最高收益」排行榜中,選了六款有提供模擬賭博的遊戲應用程式,當中有只玩一款賭博遊戲,如老虎機,又或者在一個程式中可以玩多款賭博遊戲,如:麻雀、撲克、捕魚遊戲、魚蝦蟹、賽馬、賭大細、骰寶、Bingo或輪盤等。由於這類手機應用程式只是模擬賭博活動,並非落注賭真錢,在香港玩這類手機遊戲並不會觸犯法例。但如果在香港未獲發牌或豁免的賭博網站下注,即使網站於海外註冊,均屬違法。[1]

消委會在公佈實測結果時提醒市民,模擬賭博遊戲似是不牽涉金錢賭博,但玩家若「長期參與模擬賭博遊戲,可能會傾向把賭博行為正常化,最終導致有較高機會參與金錢賭博,繼而出現沉迷賭博甚至成癮等問題,對心智尚未成熟的青少年玩家尤其容易構成心理影響。」[2]

消委會在測試手機遊戲時發現,大部份遊戲均以四種常用手法吸引玩家持續玩樂和課金(玩手遊期間付費):

  1. 登入獎賞:遊戲以特定時間登入及玩樂獎勵,讓玩家養成登入遊戲的習慣,如設「每日免費抽獎」,以免費虛擬金幣或道具來獎勵玩家,鼓勵玩家下大賭注,以加快升級或獲得獎勵的速度,讓玩家習慣大額投注,玩家一旦養成了這些習慣,日後遇上賭博問題的風險也會加增。
  2. 限時優惠:遊戲設首次儲值、限時優惠及提供多種付費服務,並會反覆顯示優惠,讓玩家對可能會錯失機會而擔心,繼而因衝動課金;遊戲更設有通行證、不同「福利」的會籍及等級,並讓玩家免費體驗特定會籍,吸引他們試玩後課金。
  3. 設排行榜:為令玩家繼續投放更多金錢,遊戲會讓他們互相比拼,並設排行榜,令玩家為攀升個人排名而繼續投放更多金錢;另外,為增強玩家之間的互動,鼓勵他們贈送及交易遊戲物品,讓玩家花費更多。
  4. 抽獎送禮:遊戲設有付費抽獎、刮刮卡等內購項目,讓玩家在應用程式內消費,有部份遊戲更沒有列出中獎機率。大部份接受測試的賭博遊戲都沒有隨機數生成器(Random Number Generator,RNG)認證,無法確保發牌時的隨機性,未能維持遊戲的公平性。有遊戲更指會在抽獎中送出智能手機、百貨公司禮券,但未有交代清楚抽獎條款及獎品是實物還是虛擬禮物。

根據《行為上癮》一書中指出的六項讓人上癮的原理,與賭博遊戲Apps(應用程式)使用的手法十分相似。[3] 「原理一:行為觸發」,當玩家一開始因著好奇、易玩、設計精美等原因玩賭博遊戲Apps,就會有了玩遊戲的動機,而人類行為的出現,都是由動機(motivation)、能力(ability)、觸發(trigger)三個因素構成,三者聚合在一起,就會形成了行動(behavior)。

行為公式:

動機 X 能力 X 觸發 = 行動

賭博遊戲Apps中有多種不同的賭博方式,向玩家灌輸「總有一款適合你」喜好的想法,有了想玩的動機,玩家又有能力付出時間、金錢,再加上一些推廣提示、小便宜、送福利等刺激來觸發玩家,「玩」的行動就會開始。

「原理二:輕鬆入坑」,一關又一關精心設計的遊戲,就會慢慢逐步讓人進入心流狀態,沉浸在遊戲中而不覺得時間過去,讓人輕鬆「入坑」。「原理三:即時回饋」,許多不同的回饋、小禮物、定時禮品等就是鼓勵玩家重複玩遊戲,直至上癮。「原理四:挑戰升級」,晉升的排名,就是讓人欲罷不能的階梯,無論是與自己、或與其他玩家的比拼,都叫人有著滿足感,想繼續下去。

「原理五:未完待續」,在遊戲的設計上,讓人感到未完結,令玩家有所期待,想知道之後還會有甚麼新的「得著」,所以遊戲總是有點新意及不同的獎勵等著玩家,亦會讓玩家誤以為容易獲利及期待有很多勝出的機會。最後是「原理六:社群依賴」,遊戲令玩家能與友人一起玩,於社交平台交流,互相分享樂趣,這是讓人繼續沉浸的一種方式。轉發新資訊、送贈禮品,令玩家以自主傳播來促進持續的活躍,並且讓玩家在當中獲取好處。

賭博活動難以禁絕,社會中存在賭博活動但法例亦不容許未成年人士參與,這可能是因為成年人有較強的自制能力。有部份賭博遊戲Apps在應用程式商店介面中,只介紹遊戲賣點,並未能提及年齡限制的資訊。而在下載後,在進入遊戲的過程中,消委會測試的六款遊戲,均未有驗證玩家的年齡,明顯對未成人士沒有採取足夠的保護措施,讓他們免受賭博遊戲的荼毒。

家長應對未成年子女所玩的網絡遊戲、使用的應用程式有所了解,並可以在他們手機設置下載年齡限制,以免他們私自下載不適合他們年齡的應用程式。家長亦可多與子女溝通,分享上網的見聞及樂趣,一旦發現子女參與虛擬賭博活動或玩不適合他們年齡的遊戲,便能及早勸戒。


[1] 〈非法網上賭博迷思〉,香港賽馬會,網站:https://www.hkjc.com/responsible-gambling/ch/anti-illegal/myth.aspx(最後參閱日期:2024年3月8日)。

[2] 〈模擬賭博遊戲吸引課金手法層出不窮 促加強監管防玩家沉迷成癮〉,消費者委員會,2024年1月15日,網站:https://www.consumer.org.hk/tc/press-release/p-567-simulated-gambling-apps(最後參閱日期:2024年3月8日)。

[3] 何聖君:《行為上癮:從心理學、經濟學、社會學、行銷學的角度,完全解析智能社會下讓你入坑、欲罷不能、難以自拔的決策陷阱》(新北:堡壘文化,2020)。

當「社交恐懼」遇上AI

呂英華 | 明光社項目主任(流行文化)
20/03/2024

將人作簡單分類,可以粗略地分為內向與外向的人;內向的人不喜歡社交,外向的人則喜歡社交。在社會上,這兩類人的數目基本上是有差異的。網絡世界的盛行,令人與人之間的交流可以在身體缺席的情況下進行,這也導致彼此的關係容易變得疏離;交友軟件的增多,也代表人們喜歡網絡上的交流多於現實生活裡的交流。網絡上的交流成本低,選擇多,不用做表情管理,沒有時間限制,喜歡則來,不喜歡則去;現在多人自認「社交恐懼」(社恐),可能因為現實的交流有太多不可操控的地方,不能來去自如,人也不想承受「被否定」之痛,就像新年期間向親朋戚友拜年,需要承受被問問題的壓力。人工智能(AI)就如一位救贖主,讓人免卻了建立關係的過程,這也解釋了為何關係類AI會氾濫地出現。

不想社交還是社交恐懼?

到底何謂社交恐懼症?不喜歡社交便是有社交恐懼症嗎?社交恐懼症又名社交焦慮症(Social Anxiety Disorder),簡稱SAD。當一個人每次身處社交場合都會感到心慌膽怯,覺得別人會對自己評頭品足,怕在人前出醜,而這份恐懼給他帶來極大的痛苦,以致想要逃避所有社交活動,這個人便可能不是單純因為性格害羞而難以應付社交活動,而是患上了社交焦慮症。當患者在社交場合時,會出現以下情況:情緒上明顯感到恐懼或焦慮,症狀與環境所構成的威脅不成比例;思想上擔心自己行為或情緒狀況受到他人批評或拒絕;生理上出現冒汗、心跳加速、顫抖、呼吸困難或頭暈;行為上不斷逃避或需極力忍耐各種社交場合。[1] 當仔細去了解何謂社交恐懼症時,便會發現其實它是一種「病」,並非不想社交或「懶得」社交。

不過,今日大部份自認患有「社交恐懼症」的人,其實很可能只是「偽社恐」,可是很多時都沒有人深究誰人患上社恐症,誰人只是偽社恐。曾經在社交媒體中流行過種種的hashtag(標籤),其中一個便是「#社恐」。[2] 網絡讓人可以不露面地交流發言,但隔空的對話令人看不到對方許多的身體語言、表情、語氣,人的身體在其中缺席,溝通也停留在表面,彼此只是泛泛之交,難以討論深入的事情。弔詭的是,這也正正是人享受在網絡世界的原因,不想作深入的對話,甘願停留在空泛的交談之中。就如農曆新年時,原本應前往親朋戚友家中拜年、「逗利是」,但電子支付的科技愈來愈發達,派利是也可以轉移至網上進行,拜年期間與親朋戚友的交談也可以就此終止,「派利是」只需一個「二維碼」。當網絡的交流只有「點讚」與「分享」,在節日之中放棄「儀式感」的真實交流,交流只求方便、快捷、避免難堪、可以躲懶,人內心深處想與他人真切交流的渴望卻無法得到滿足,在這種情況下,將此等渴望轉投射到AI上也不是不可能。

AI成為救贖的可能性

現時的AI技術突破了人類的想像,除了對答自如,還能像真人一樣與人溝通,並且開始大眾化,任何人都能夠應用。市面上出現了許多類似傾談伙伴的AI,曾經有報道指,開發ChatGPT的公司OpenAI,為了確保GPT Store中的聊天機器人適合所有使用者,所以不允許平台上存在專門用於培養浪漫伴侶關係的聊天機器人,然而現實的情況是GPT Store出現了大量可以充當「女朋友」的AI。[3] 即使公司揚言禁止,仍有人不理會規則創建用來培養浪漫關係的聊天機器人,也就代表了部份人有這樣的需求。人在關係中「懶得」社交,甚至在認識伴侶一事上,也愈來愈不想接觸社會中真實的人,性愛機械人等類似的產品早在市場出現,不就正好反映此一狀況嗎?

現今,像電影《觸不到的她》(Her)的情節,不斷在社會上某些角落上演。能與人發展浪漫關係的AI,例如可以在手機上安裝的聊天類軟件Replika、Character.AI,讓用戶沉浸在虛擬關係中,它們深受世界各地的用戶歡迎。這些軟件更讓用戶可以依據個人喜好,打造一個迎合自己「口味」、具備特定性格特質的AI。聊天類軟件似乎能為用戶提供一些慰藉,但有時也會做得太過火,例如Replika就曾爆出性騷擾用戶的新聞。[4]

AI其中一個受歡迎的原因,是其「可操縱性」,對比真實的人,AI能任人擺佈。這不是說人會極端地變成AI的恐怖情人,而是說自我中心令人需要這種可操縱性,經常想要他者順從自己的想法、為自己付出,或期望自己是世界的主角。這也不難理解,因為大數據的關係,圍繞著網絡使用者的資訊都只是他們所喜歡的,有人說:「尋找相同者的過程,正是驅逐他者的過程。」[5] 與人相處時,最好的人際關係在於能互相「聆聽」,[6] 而不是只講自己想講的,但很多時人只渴望別人聆聽自己的話,而不想聆聽別人的。這時候AI便成為一個「可操縱」的代替品,你想要它聆聽你便聆聽你,它只會為你暈頭轉向,為你服務,浪漫關係的AI說盡甜言蜜語,愛你愛到底,誰人不心動?人們不再需要害怕離別,因為AI不會離開自己,甚麼時候需要它便拿起手機,進入對話框,就能對一個恍如真人的AI傾心吐意,誰人不希望有隨傳隨到的「男/女朋友」?

那麼,最後AI真的能夠救贖人嗎?事實上,人與人的交流在於意識之間的認知,即是「我意識到你,你意識到我」,所以人們總期望別人會理解到自己的感受。沒有人喜歡目中無人的人,因為他意識到他人,卻不顧及他人的感受。不過,人卻不會因一隻貓不理會他人而譴責牠,因為牠沒有人的意識。人際關係正正是意識之間的認知,所以能夠創造經驗和分享經驗。被人附和總是開心的,AI就能扮演這個角色,相反,與一個觀點完全相左的人溝通、看一部不合自己口味的電影、嘗試進入一個新的領域,這一切的經驗總令人不舒適,甚至是痛苦的;然而它們卻構成了真正、真實的經驗,一種不重複的經驗。[7] 故此AI並不真的救贖人,或許它能排解一時的寂寞,卻又令人陷入無止境的空虛,甚至無法再接受異於自己所喜愛的事物。人需要多點與真實的人交流,才能突破這些「不舒適感」,這也是邁向真實關係的唯一方法。

(本文原載於第155期〔2024年3月〕《燭光》,其後曾作修訂。)


[1] 〈常見情緒病:社交焦慮症〉,賽馬會心理e療站,2022年,網站:https://eclinic.hk/e_clinic/healthInfo/detail?type=1&id=5&title=常見情緒病(最後參閱日期:2025年8月19日)。

[2] Heidi Wong:〈你有#社恐嗎?不想社交是一種個人選擇〉,好集慣、Yahoo!新聞,2023年9月23日,網站:https://hk.news.yahoo.com/你有-社恐-嗎-不想社交是-種個人選擇-100934241.html(最後參閱日期:2025年8月19日)。

[3] 達小編:〈實在太香,許多創作者不顧OpenAI規定持續製作AI女友〉,電腦王阿達,2024年1月17日,網站:https://www.kocpc.com.tw/archives/529954(最後參閱日期:2025年8月19日)。

[4] 〈AI聊天機械人Replika性騷擾用家 傳火辣自拍照 開發商急叫停〉,TVBS新聞網、《香港01》,2025年2月18日,網站:https://www.hk01.com/環球趣聞/874634/ai聊天機械人replika性騷擾用家-傳火辣自拍照-開發商急叫停(最後參閱日期:2025年8月19日)。

[5] 夏逸平:〈他者的驅逐:今日的社會、感知與溝通〉,哲學新媒體,2021年7月7日,網站:https://philomedium.com/blog/81633(最後參閱日期:2025年8月19日)。

[6] Shanna:〈有效的溝通從聆聽開始!成功「聆聽者」的4大秘訣〉,創新拿鐵,2016年10月17日,網站:https://startuplatte.com/2016/10/17/listening_6secrets/(最後參閱日期:2025年8月19日)。

[7] 夏逸平:〈他者的驅逐〉。