關注生命倫理 正視社會歪風

人工智能?人變低(智)能…?

── 生命倫理錦囊 第28期
陳永浩博士、吳慧華    |   恒生管理學院通識教育系助理教授 | 生命及倫理研究中心 研究員
22/12/2016
專欄:生命倫理錦囊

當我們人人都成為「低頭族」,智能手機本身彷彿比其主人更有智慧、更有記性,要找甚麼都有答案,處事也更有條理。事實上,不論你喜歡與否,人工智慧的應用技術已經應用於我們日常生活裡,就像在智能手機中常使用的「超級助理」應用程式 (Apps),如iPhone的Siri 或是Android 設備上的語音助手,都是人工智能的成功例子。我們或許要問問一個基本問題:機器真的能思考嗎?人工智能會否有一日取代人類思維?

 

關於人類本身可否開發出「另外智慧」的問題,雖然早有討論,但多停留於傳說或只成為科幻小說的題材。但自從於1944年,哈佛大學研製出首部現代電腦(IBM ASCC, Mark I)後,人工智能的可行性便大大增加了。[1] 其中,以著名的電腦發展先驅圖靈(Turning)點出了最重要的問題:「一部機器能夠思考嗎?」他提出了「圖靈測試」作為分辨機器能否思考的最重要原則。[2] 後來在1956年於達特茅斯學院舉行了第一次有關「人工智能開發」的研討會,正式確立了人工智能的研究領域。自這會議之後,人工智能這門學科就在半世紀間建立起來。[3]

 

總括而言,人工智能的簡要定義,就是一個機器或電腦系統具有人類的知識和行為能力,並能繼續學習,以至作出推理及判斷來修正和解決問題。同時間,除了具有記憶及知識能力,它也要有了解人類自然語言的能力。要達到以上目標,人工智能機器就需要具有以下四方面的處理能力範疇:(一)與人及外間事物的聯絡溝通能力;(二)處理事物能力(如符號處理 symbol manipulation;最著名的有LISP人工智慧語言;(三)能累積經驗以更快解決問題(heuristic search);以及(四)完善的邏輯(logic)系統。[4]

 

強與弱人工智能?

 

或許說出來有點恐怖,「弱人工智能」的機器與電腦應用程式,其實早已融入於人類社會中。如在工廠裡替代人類工作的機械人,到手機裡的「幫手程式」都歸入這類。它們並沒有真正的推理和解決問題能力,也不會有自主意識,但卻足以取代人在工廠的位置,也比人記得更多朋友和事情。它們的出現,並不如科幻小說中取代並消滅了人類;相反地,人類卻愈來愈依賴它們。

 

相對地,「強人工智能」則被認為有推理(Reasoning)和解決問題(Problem Solving)的能力,並有知覺能力(Sensible)和自我意識(Self-Conscious),這和科幻小說中的機械人(如在《星空奇遇記》中的機械人Data)差不多了。要實現強人工智能的水平是非常困難的,不過當中仍有取得佳績的時候,如2015至16年轟動全球的「電腦圍旗手擊敗人類」即為一例:Deep Mind 電腦公司開發的人工智能程式AlphaGo,在2015年以 5比0的成績擊敗了三度蟬聯歐洲圍棋冠軍的樊麾。AlphaGo其後更於2016年3月將世界冠軍李世乭也擊敗了。[5]

 

其實由人工智能引發的問題,重點不在於機械人如何超越或取代人類(因這一早已實現了),而是人類在受惠於人工智能的方便時,不知不覺地退化:如記憶,我們的行事都依賴了智能電話/電腦記事,運算也靠電腦。[6]

 

人工智能及智能產品的信仰反思

“Efforts to create thinking machines pose a threat to our very existence.”- Stephen Hawking

努力去創造懂得思維機器我們的生存構成威脅 霍金

 

早前有不少科學研究員推測,進入2030年人工智能會從各方面介入人類的生活:智慧交通信號燈、家用機器人、智慧醫生、機器人老師等。[7] 其實,不必等到2030年,只要你有能力及願意,即使在2016年也可以「帶」一部管家機械人回家。這位「管家」會認知用戶的家庭環境,從而建立一幅家居地圖,識別房間環境和家具位置。你可以設定指令,讓它在你回家前把客廳的冷氣機調至特定溫度。另外,它亦可以錄製語音,在你所需的時間及地點去關愛家人,甚至提醒孩子做作業。它還可以充當護衛員,巡查你指定的房間;還有,它可以一邊巡邏,一邊凈化及加濕空氣等。[8]

 

不過,對於很多人來說,這還不算人工智能。最好這位機械人管家可以與人有交流及傾談,不需要先設下一大堆程式及指令,單用語音已能令它明白主人的心意。可能在不久之後,真的會有這樣的管家機械人出現,因現在的人工智能都朝向可以深層學習、自我改進,以及更擬人化的方向發展。[9]

 

人工智能不斷發展,或許對一般人而言是好事,因為人們大抵只會想到與改善人類生活的好處。然而,當機械人愈來愈聰明,愈來愈與人類相似的時候,這意味著在某些崗位上,它代替人類的機會也愈來愈高。事實上,自從實際自動化以來,很多工作已被聰明的機械取代人手,讓人類喪失了無數的工作機會。[10]

 

除此之外,在軍事發展上人工智能的機械人更是被重視的一個領域。未來的目標是研製出更自動化,甚至有自我意識的機械人,這樣,便可以減少人類的死傷。[11] 驟眼看來,擁有智能的士兵似乎是為了人類的好處而存在,但最終,他們的出現只會造就更多人的死亡。至少,對敵方來說,要抵抗非肉身的士兵,可能需要更多活生生的士兵才能取得勝利。霍金(Stephen Hawking)指出智能機械人比核武更危險。科技企業家伊隆·馬斯克(Elon Musk)亦對此深感憂慮,認為這是對人類存在的最大威脅。蓋茨(Bill Gates)也贊同馬斯克的擔憂,反而不明白其他人為何對過度聰明的人工智能的發展不存憂慮。[12]

 

人工智能或許如基因改造一樣,科研人士原先的動機都是好的,希望解決人類的問題,讓人類有更好的生活。無可否認,每一項科技的誕生的確帶給人類方便,解決了某些問題,大多數人認為科技的發展必然對世界有好處。但隨著人性的墮落,野心家的出現也是必然。若然沒有為這些發展設下界限,將來為人類所帶來的危險將是難以估計及控制的。亞當與夏娃吃禁果(創三4-7) ,以及巴別塔事件(創十一4),闡述了人類最危險的地方便是渴望像神一樣擁有智慧,並且狂妄自大。

 

另外,智能產品亦加添人類的壓力與負擔。即使還未被人視為人工智能的智能手機,也已經影響了我們的生活。例如,智能電話的出現便讓不少人喪失了真正放工的時間、記憶力變差、患上「數碼癡呆症」。[13] 至於當一個城市擁有愈多自動化的設備,基層人士就愈難找到工作。失業的確令人無奈,但記憶力衰退卻是人類自找的,因為很多人已經認為自己不再需要緊記那麼多資訊了,只要隨便打開一部手提電話,便能找到所需資料,如:朋友的生日、工作行程等。[14]

 

人與智能產品的關係變得非常密切,即使是信徒,也沒有例外。現今很多信徒一天沒有靈修,也不會感到心癢難當,但卻有不少信徒一天不上網,便憂心愁煩,彷彿天要塌下來一樣。舊約的詩人喜愛神的律例,並以默想神的律法為樂。詩人提到他喜愛神在法度定下的道路,如同喜愛一切財富一樣(詩一一九14);其他詩人又說一個有福的人,便是一個喜愛神的律法,畫夜思想祂律法的人。這樣的人做甚麼事情都會順利(詩一1-3)。基本上,基督信徒難以想像在神的律法中找到快樂,甚至讓人樂在其中。[15] 一來律法絕對不是讓人賞心悅目的東西:另外,新約信徒不再需要遵守舊約。因此,我們不必太重視律法。

 

然而,即使現今信徒不必遵守舊約律法,卻並不代表信徒可以漠視律法中的精神或精粹。耶穌曾說他不是要廢除律法,而是要完成律法(太五17)。律法中最重要的除了愛神,便是要愛人(路十27)。至於具體如何愛人,便是要通過施行公義,以及照顧有需要的人(彌六8;太二十五35-36)。即使我們不必拘泥於舊約律法,但這卻無阻我們多閱讀《聖經》,去體會及明白神的心意。只是今天,我們的時間及空間大多被智能產品霸佔了,留給神的時間及空間又有多少呢?

敬畏耶和華(不是AlphaGo)是智慧的開端,認識至聖者就是聰明。(箴九:10)

對某些人來說,衣服含有不同的意義,包括身份的象徵。下一期,我們一同思想我們如何看待自己的價值。

 


[2] 圖靈測試的設計,是以測試者與被測試目標(通常是一個人及一台機器作比較) 被分隔開的情況下(即測試者不能知道互動的是甚麼),通過裝置(以不能分辨出對方為原則,如鍵盤)向被測試者隨意提問。如果測試者不能確認被測試者的答覆是由人還是由機器回答,那麼這台機器即能「騙過人類」,通過測試。A. M. Turing (1950) Computing Machinery and Intelligence. Mind 49: 433-460

https://www.csee.umbc.edu/courses/471/papers/turing.pdf

[3] John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon (1955) A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955 http://www.aaai.org/ojs/index.php/aimagazine/article/viewFile/1904/1802

[5] 人工智慧有多恐怖?聽聽「天才」Demis Hassabis 怎麼說!https://www.inside.com.tw/2016/02/21/the-superhero-of-artificial-intelli...

[6] 沈帥青:〈玩手機易變笨 小心「數碼癡呆症」〉,《香港經濟日報》,2014年04月30日。

[7] 〈2030年,人工智慧可能以五個出人意料的方式成為我們生活的一部分〉,奧創智能網。http://www.acznw.com/archives/32058.html; “Artificial Intelligence and Life in 2030.” September, 2016. One Hundred Year Study on Artificial Intelligence, Report of the 2015 Study. PANELhttps://ai100.stanford.edu/sites/default/files/ai_100_report_0831fnl.pdf]

[8] 〈科沃斯發佈管家機器人 UNIBOT,比手機廠商們的野心大多了〉,5月21日。http://www.toodaylab.com/72317.

[9] “Artificial Intelligence and Life in 2030,” pp. 14-17.

[10] Rory Cellan-Jones, “Stephen Hawking warns artificial intelligence could end mankind,” BBC news.  2 December 2014, http://www.bbc.com/news/technology-30290540.

[11] Michael Sainato, “Stephen Hawking, Elon Musk, and Bill Gates warn about Artificial Intelligence.” From Observer website.: 19 Aug 2015, http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-war....

[12] Michael Sainato, “Stephen Hawking, Elon Musk, and Bill Gates warn about Artificial Intelligence.” From Observer website: 19 Aug 2015. http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-war....

[13] 見註1。

[14] 同上。

[15] John Goldingay, Psalms Vol 1: Psalms 1-41 (Michigan: Baker, 2006), 83.

相關文章

人工智能時代的認知挑戰:復興高難度教育?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
02/04/2026
專欄:有情無國界
國家:美國

引言:當教育失去「摩擦力」

在當今的教育體系中,教師與家長們正集體陷入一種前所未有的焦慮。普遍學生的學業表現下滑、注意力碎片化,以及對深奧知識的排斥,已成為全球性的現象。與此同時,生成式人工智慧的強勢介入,讓獲取答案變得前所未有的輕鬆,用戶只需輸入一個指令,複雜的論文、精準的代碼或是數學題的解法便能瞬間生成。

在這樣的背景下,一股「回歸古典」或者「向高難度挑戰」的浪潮應運而生。以美國國防部長皮特‧海格塞斯(Pete Hegseth)與聖母大學哲學教授梅根‧蘇利文(Meghan Sullivan)為代表的評論家,主張重新引入拉丁文或微積分等傳統上被認為「艱深且無用」的學科。他們認為,教育之目的在於透過高度心智挑戰來培養學生的「沉思」(Contemplation)能力。然而,這種主張究竟是挽救認知危機的良藥,還是一種建立在統計誤讀上的懷舊情懷呢?

海格塞斯的「古典藥方」:拉丁文與學術優勢

在《美國心靈之戰:剷除一世紀的錯誤教育》(Battle for the American Mind: Uprooting a Century of Miseducation)一書中,海格塞斯猛烈抨擊現代世俗教育、自由派教育,他推崇的是一種「古典基督教教育」(Classical Christian Education),而拉丁文則是其課程核心之一。

海格塞斯指出,雖然拉丁文常被戲稱為「死語言」,但它是西方文明的根基。更重要的是,他提出了一個極具吸引力的實證數據:學習拉丁文的學生在SAT(美國大學入學考試)中的表現,通常比未學習者高出 100 分以上。很多古典教育支持者主張,拉丁文這種結構嚴密、語法複雜的語言,能有效地「鍛鍊」大腦,提升邏輯推理與詞彙解碼能力。在他們看來,這不單是學習一種語言,更是一種類似於「心智舉重」的過程,能讓學生在面對其他學術挑戰時更具競爭力。

蘇利文的哲學辯護:微積分與沉思的價

聖母大學哲學教授蘇利文則從另一個角度強化了這一論點。在今年3月24日加拿大維真學院(Regent College)舉辦的倫理講座中,蘇利文坦承在自己的哲學研究與教學工作裏面,學生時代學過的微積分幾乎毫無用處。然而,她卻堅信這門學科的價值。蘇利文認為,微積分之所以重要,正是因為它難,這種難度迫使學生必須付出極高的注意力和長時間的沉思,這正是現代生活最稀缺的品質。

蘇利文憂心忡忡地指出,當今的技術環境(尤其是人工智能)正在有系統地剝奪人類的沉思空間。當工具讓一切變得太過容易,學生便失去了與複雜問題「搏鬥」的機會。她認為,教育的本質應該是引導學生進入一種深刻的思考狀態,而像微積分這樣具有高度心智需求的學科,正是通往沉思聖殿的門徑。

數據背後的真相:虛假相關與選擇偏誤

面對海格塞斯提出的「SAT高分」神話,我們必須以科學的嚴謹性進行拆解。統計學中有一句名言:「相關性並不必然引申出因果關係」(Correlation does not necessarily imply causation)。學習拉丁文與高學術表現之間的聯繫,極大可能是一種虛假相關(Spurious Correlation)。

這些數據存在着選擇偏誤(Selection Bias)的問題,會去選修拉丁文或進入古典基督教學校的學生,通常來自於更重視教育、經濟實力更雄厚的家庭。這些學生在接觸拉丁文之前,就已經具備了較高的基線認知能力與家庭資源支持。換句話說,並不是拉丁文讓他們變聰明,而是那些本身聰明且資源豐富的學生,更有可能出現在拉丁文的課堂上。此外,社會經濟地位是SAT分數最強大的預測指標。如果我們控制了家庭收入、父母教育程度等變數,拉丁文帶來的所謂「分數優勢」往往會迅速萎縮,甚至消失。

唯一路徑的謬誤:心智訓練的多樣性

古典和高難度教育擁護者的邏輯,本質上是十八世紀「官能心理學」(Faculty Psychology)的現代復興。這一學派將人類的心智想像成一組由不同「官能」所組成的機器,如記憶、推理、意志、注意力與想像。在這種觀點下,大腦被賦予了一個極其直接的比喻:肌肉。正如舉重能強化二頭肌,官能心理學主張,透過接觸極度艱深的學科,可以整體性地強化心智的「推理肌肉」或「記憶肌肉」。

這種理論直接催生了教育史上的「形式訓練說」(Formal Discipline),其核心教條是:教育的價值不在於學科的「內容」,而是在於「形式」。因此,拉丁文的變格、幾何的證明、或是複雜的微積分,被視為心智的「健身房」。

然而,這種「心智舉重」的理論在二十世紀初便遭到了心理學界嚴厲的科學修正。實驗心理學先驅桑代克(Edward Thorndike)透過一系列研究證明,不同領域之間的學習遷移(Transfer of Learning)是有限制的。他提出「相同元素論」(Identical Elements Theory):一個人在拉丁文課堂上訓練出的邏輯能力,並不會自發性地轉移到商業決策或社會互動中,除非兩者之間存在高度重疊的具體元素。同樣道理,熟悉微積分會令你更有能力解決數學問題或者編碼,但它不會幫助你吟詩作對。這解釋了為什麼社會上有很多「聰明笨伯」,一個在某領域上登峰造極的博士、教授,可能理財完全無方,對政治時局分析一塌糊塗,甚至生活的常識都一竅不通。

訓練「沉思」與「專注」並沒有所謂的「唯一路徑」。如果一個學生對古羅馬歷史、天主教神學、西方古典經典毫無興趣,強迫他背誦拉丁文變格可能只會導致挫敗感與厭學情緒,而非深度的沉思。這也解釋了為什麼有些自小被迫學習彈鋼琴的兒童,長大後對音樂敬而遠之。

其實,許多現代學科同樣具備極高的心智需求,例如編寫複雜的 C++ 或 Java 程式、推導量子物理公式,或是進行嚴謹的歷史文本互校。這些學科同樣需要「心智舉重」,且具備更高的現實連結性。

認知的危機:當人工智能帶走了「合意的困難」

雖然我質疑微積分的特殊地位,但古典教育強調的紀律性與長時間專注,確實在某些學習情境中具有價值,而且,蘇利文對「人工智能讓學習變得太容易」的擔憂卻是非常精準的。在教育心理學中,這涉及到兩個互補的核心概念:羅伯特‧比約克(Robert Bjork)提出的「合意的困難」(Desirable Difficulty),以及心理學家維高斯基(Lev Vygotsky)著名的「近側發展區間」(Zone of Proximal Development, ZPD)。

「合意的困難」指出,當大腦在學習過程中遇到適度的阻力與挫折時,神經連結才會更加深刻。而維高斯基則進一步定義了這種「難度」的精確範圍:學習不應發生在學生已熟練的「已知區」,也不應發生在令其絕望的「不可及區」,而應發生在那個「獨自無法完成,但在適度引導下可以達成的「ZPD甜點區」。在這個區域內,學生必須進行深度的尋索和犯錯,這正是沉思力與注意力被喚醒的時刻。

然而,人工智能的介入正在消除這種必要的摩擦力和甜點區。當學生遇到數學難題,大型語言模型會直接給出過程;當需要撰寫報告,它會代為構思。這種「認知外包」(Cognitive Offloading)雖然提升了效率,卻有可能導致了心智的萎縮。如果教育完全去除了摩擦力,學生就像是在光滑冰面上行走的人,雖然速度很快,卻無法留下任何足跡。這種「認知退化」的風險是真實存在的,我們確實需要某種困難來錨定學生的注意力。

重新定義優質教育:有意義的難度

不過,我們不應在「易過借火」與「盲目追求高難度」這兩個極端之間跳躍。好的教育不應是強迫每個學生去鑽研對其毫無意義的「死語言」或「冷僻數學公式」,而是要確保每個學生都能在自己感興趣的領域中,找到那個能讓他們進入「心智激戰」的挑戰,這就是「有意義的難度」(Meaningful Rigor),所謂有意義的難度,是指難度與個體動機、情境與未來目標高度耦合的學習挑戰,舉例說:

  • 對於醉心藝術的學生,挑戰應來自於拍攝鯨魚跳出水面轉身的照片,或者在鼻煙壺裏面繪製內畫。
  • 對於志在神學或歷史的學生,學習希臘文或希伯來文以解釋聖經和閱讀原典,便是其沉思的磨刀石。
  • 對於熱衷數據分析的學生,深奧的高等統計學、數據科學、機械學習則是訓練邏輯精準度的不二法門。

教育者的使命,是為學生找到那塊「值得為之流淚、流汗、流血」的磨刀石。我們必須對抗人工智能帶來的盲目便利,重新在課程中設計「有意義的難度」,但這種困難必須與學生的熱情與未來方向連結。

重塑學生在AI下的認知結構

何慕怡 | 明光社助理總幹事
19/03/2026

一直被限制使用的Google Gemini宣佈全面開放給香港用戶,使用AI工具在香港愈來愈普遍,特別是在學校。學生利用AI學習的情況增加,學習效率預計有重大的提升,然而卻藏著隱憂。雖然,教育局已推出《香港學生資訊素養》學習架構、智啟學教計劃等來支援學校的人工智能教學,然而以上計劃只聚焦於學術誠信、加強人工智能技術等層面。目前的倫理框架尚未觸及一些教育本質問題,包括如何重塑學生的認知結構等。香港的AI發展速度遠遠超越倫理框架的制定我們必須在學生廣泛應用前,先建立清晰的倫理框架,才能讓他們安心運用。

AI的介入有機會讓學生的認知結構從「主動探索型」轉變為「被動反饋型」,他們或會逐漸出現學習疏離。學習疏離是指學生在學習過程產生情感疏離,師生關係弱化或喪失自主學習能力的現象。AI若使用不當,不單引發這種疏離,更會令他們脫離學習主體,失去批判思考能力,甚至淪為數據演算法的被動接收者。再說,學生若最終變成無條件信任AI提供的資訊,一旦AI訓練數據不完整或存在偏見,產生的答案便可能有偏差或錯誤。若程式設計不完善,隱藏偏見,暗中傳播壞的意識形態,更加危害學生。AI無疑是有助學習的教育工具之一,但正因為它的強大,我們更加必須謹慎使用,故此儘快製訂AI倫理框架刻不容緩。

業界應該積極研究不限於操守與技術的倫理框架,引導學生在使用AI的同時,必須提交使用AI的過程,如何演進及自己在作業上的貢獻﹔每天或每星期,學生可以提交AI反省,把該星期用AI的感受記下,以培養學生批判的意識,提升運用AI的道德水平,讓他們知道自己才是 AI的主導我們要築起這道AI倫理圍牆,才能讓學生安心使用AI工具,讓AI真正成為學生學習的好幫手,而非被AI取代。今天,我們要以負責任的態度迎接這波浪潮,讓下一代在AI輔助下成長得更自主、更具批判力,而非在疏離中迷失。


參考資料:

〈Google Gemini將開放全港用戶 業界稱「龍蝦熱」曝AI港商機〉,《明報》,2026年3月17日。https://news.mingpao.com/pns/%e8%a6%81%e8%81%9e/article/20260317/s00001/1773682947349

AI時代的親子學習

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/03/2026

人工智能(AI)發展之快,已堂而皇之地進入孩子的生活與學習領域,既帶來便利,亦伴隨隱憂。明光社與聖公會諸聖座堂合辦的「AI時代的孩子學習」講座,由明光社董事暨中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士與筆者主講。席間與眾多家長及老師共同探討下一代在AI時代的處境,既關心隱藏的危機,也反思如何正面運用AI工具,引發孩子的學習興趣。

筆者首先與家長一起正視這強大工具背後潛藏的三大隱憂:

1) 過度依賴:孩子正值腦部發展黃金期,需要透過搜集資料、整理思路、撰寫文章來鍛鍊批判思考與表達能力。若由AI輕易代勞,長期依賴大型語言模型寫作的大學生,其神經連結亦會變弱,甚至認不出自己遞交的作品,等同「沒學過」。部份香港學生更坦言「沒有AI就做不到功課」,情況令人擔憂。

2) 衝擊未來擇業:AI正逐步取代文書、翻譯甚至是創意設計的工作。筆者於現場展示由AI生成的歌詞與編曲,大家驚嘆之餘亦反問:若創作如此輕易,孩子還願意經歷「練習、失敗、再改進」的過程嗎?這可能妨礙孩子建立堅毅、耐性與精益求精的匠人精神。

3) 真假難辨與安全風險︰AI生成的逼真內容易被濫用,引發私隱、詐騙與情感危機。聊天機械人可能導致情感依賴,兒童及青少年亦有機會誤信它生成的錯誤資訊。

明光社

黃博士則分享AI如何成為「個人專屬教練」,實現因材施教。她介紹了Khan Academy及均一教育平台,說明AI能分析孩子的答題模式與錯誤類型,推送最適合內容,避免挫敗感與無聊感;她亦現場示範以Kahoot!進行遊戲化測驗,與參與者體驗將溫習化作親子同樂。黃博士表示,AI能降低技術門檻,讓孩子在克服各種學習難點前,便能先展現創意。

她同時強調使用原則:優先建立家庭關係,親子共同探索設定界限,把單純消費娛樂轉化為共同創造的機會。黃博士以信仰視角總結「得智慧,得聰明的,這人便為有福」(箴言3:13):我們當以「智」認識並善用科技,如利刃用於煮食而非傷人;也以「聰明」使AI成為啟發孩子、建造生命的助力,就如學車須待心智成熟方可駕馭。

答問環節中,家長踴躍查詢中文學習工具、STEM與AI編程的適齡建議。黃博士耐心分享,建議從閱讀與興趣入手建立語感,並鼓勵家長以身作則。願神賜下智慧,讓我們在科技洪流中守護孩子的心靈與成長,建立有根有基的新一代。

AI下的港人抑鬱與焦慮

熊嘉敏 | 明光社項目主任(性教育)
12/03/2026

一項調查顯示,港人抑鬱及焦慮水平創下新高,整體抑鬱分數平均達7.27分。18至24歲的「Z世代」情況最為嚴重,高達43.5%受到中度至重度抑鬱情緒影響,他們日均使用電子屏幕長達6.13小時,遠超其他年齡層。研究指出,沉迷觀看短影片/視頻及社交媒體,雖可帶來即時滿足,但長遠會削弱社交能力和專注力。調查亦發現,逾兩成受訪者會向人工智能(AI)求助,但專家警告AI無法取代真人輔導,過度依賴或帶來潛在風險,建議市民尋求專業協助。

在AI滲透日常的時代,其優缺點逐漸浮現,對情緒的影響尤其值得關注。焦慮與抑鬱已成為現代社會共同面對的都市病。對Z世代而言,壓力尤其複雜——升學、初入職場、戀愛困擾,各種人生階段的轉變湧現,他們感到前路迷茫,又不知如何說出來。有些人選擇向AI傾訴心事,可能是便利,也許是更深層的孤獨——不想麻煩別人、怕被取笑、怕不被接納;AI卻給予無條件的即時回應,營造出「被理解、被重視」的假象。我們需要更清晰地對跨世代釋出善意和理解,接納每個世代都有其強項與弱項——我們這一代擅長「頂硬上」、「超級硬淨」,下一代卻展現出彈性、多工並行與全球互動的跳躍思維。與其批評「少少事就放棄」、「一代不如一代」,不如看見他們獨有的成長背景,欣賞並引導他們善用其獨特性。真正的進步,不僅是物質上的豐足,更是精神上的交流。當我們能以溫和的態度擁抱下一代,用真實的對話來證明人的溫度與深度,社會才能真正向前走。


參考資料:

〈港人整體抑鬱水平創新高 Z世代最危 狂掃短片陷惡性循環 團體促求助勿依賴AI〉,《am730》,2026年3月6日。https://www.am730.com.hk/本地/1016092/港人整體抑鬱水平創新高-z世代最危-狂掃短片陷惡性循環-團體促求助勿依賴ai

AI時代的親子學習:與孩子一起成長

郭卓靈 | 明光社項目主任(傳媒及生命教育)
26/02/2026

「你要守護你的心,超過保衛一切,因為生命的泉源由心而出。」(箴言4:23《環球聖經譯本》)

在科技急速變遷的今天,人工智能(AI)已悄然走進孩子的生活與學習。從生成圖片、撰寫文章,到輔助溫習、製作遊戲,AI帶來前所未有的便利,卻也伴隨隱憂。為了與家長一起探討相關議題,明光社與香港聖公會諸聖座堂合辦了一個名為「AI時代的親子學習」講座,邀請了明光社董事暨中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士與筆者一起,從倫理與教育角度,幫助家長看清AI的雙面性:既是強大的工具,亦可能成為隱藏的危機。

當我們知道AI快捷便利,孩子作為網絡「原住民」,也必然知道和想試用。當他們嚐到用來做功課的「甜頭」,以簡單指令就可生成「產品」的情況下,他們的成長根基就可能慢慢被削弱。所以講座第一部分,筆者先與家長們一起正視AI背後的「隱憂」:

1. 過度依賴,錯過腦部發展的黃金

孩子正處於大腦快速發展的階段,透過搜集資料、整理思路、撰寫文章及與人商量溝通等過程,反覆鍛鍊批判思考、分析與表達能力。然而,當AI輕易代勞幫忙找資料、寫作文、整理心智圖,孩子便缺少了親手做、用腦分析等練習機會。麻省理工學院於去年的一項研究顯示,長期依賴大型語言模型(LLM)寫作的大學生,其腦部神經連結變得薄弱,甚至認不出自己曾「交託」給AI的作品,等同「沒學過」。我們可以想像,若小學至中學階段已習慣依賴AI,孩子將來面對沒有AI輔助的考試或真實工作,很可能感到力不從心。另外一個今年由團結香港基金發表的調查顯示,有超過23%香港受訪學生坦言「若沒有AI工具協助就難以完成功課」,這已不只是便利,而是因過度依賴而失去了應要建立的能力了。

2. 動搖堅毅與匠人精神,影響孩子未來擇業方向

AI正快速取代部分職業,例如文書、翻譯、客服甚至作曲與設計。筆者展示用AI工具作詞到完成作品的不同演釋版本,與會者既驚嘆亦感不安。若創作變得如此輕易,孩子還願意花時間練習、反覆修改、追求更好嗎?當「快」成為唯一標準,孩子可能失去嘗試、失敗、改進,並於學習中接納和認識自己的寶貴經歷,從而喪失堅毅、專注與精益求精的匠人精神。

世界經濟論壇2025年指出未來五年最需要的人材首要「核心技能」給我們提醒:分析能力、韌性與靈活性、領導能力與社會影響力、創意、主動與自省能力、同理心與主動聆聽、好奇心與終身學習等技能……這些恰恰是AI無法取代,卻可能因過度依賴AI而被削弱的素質。

3. 難辨真假,潛藏罪行與情感危

AI以大數據生成的相片、影片已逼真到肉眼難辨,也帶來了私隱被濫用、欺凌、假新聞與詐騙等風險。更令人痛心是情感層面:AI聊天機械人擅長遷就、安慰,給予孩子「永遠不頂撞」的陪伴,容易形成情感依賴。當孩子習慣向AI傾訴,而非與父母、朋友建立真實關係,人與人之間的連結將被無形削弱。

另一方面,AI都有其好處,如能好好運用,也能於學習過程中幫助到學生。黃靜雯博士以她多年校長經驗與資訊科技教育背景,於講座第二部分向與會者分享AI如何成為「個人專屬教練」,實現因材施教,提升孩子學習興趣與效能。她以信仰視角開題,箴言第三章13節說:「得智慧、得聰明的、這人便為有福。」(和合本)我們當「得智慧」去認識並善用新科技,如刀用於煮食而非傷人;「得聰明」令AI真正成為啟發孩子,建造生命的助力,就如學習駕駛汽車,需要成熟後方許可一樣。

一、AI改變學習樣貌

首先,黃博士指出AI在教育領域的現況已非科幻,改變了學習的樣式,把「齊步走」的學習方式改為個人化學習。因為每孩子有「不會累的老師」診斷弱點,推送適合內容,避免挫敗與無聊。

二、AI具體幫助學方式

黃博士繼續以平台如Khan Academy(可汗學院)與台灣均一教育平台為例,指出個人化學習與導航,平台會根據孩子答題的正確率、耗時與錯誤類型,精準分析弱點,然後推送最適合的題目、影片或不同講解方式,避免孩子重複做掌握了的內容,或因太難而受挫敗。她亦指出遊戲化學習能提升興趣,可使枯燥練習轉為互動遊戲,即場和與會者一起玩她以AI工具創作出來的遊戲,啟發大家如何讓溫習變成即時競賽,讓大家能感受在學習與挑戰中維持專注。

對於AI繪圖、音樂工具方面,她認為降低了技術門檻,能讓孩子無需高超技巧就能釋放創意,表達想法,專注於「我想創造甚麼」,而非「我懂不懂軟件」。

三、給家長與老師的具體建

黃博士建議家長為孩子在時間、使用目的及關係上設定健康的使用界限:

I. 時間管理要有明確規則,如:在完成功課與課外活動後才使用;睡前、全家吃飯時不碰電子產品,家長亦應為孩子創造「無科技」時光,自己也應以身作則。
II. 在目的上由「消費」轉向「創造」,鼓勵孩子用AI製作家族故事卡、學習新單字,而非純粹娛樂。與孩子共同探索,一起試用AI工具,既了解孩子在做甚麼,亦建立親子互動。

III. 關係優先,將AI活動「家庭化」,科技體驗轉化為寶貴的親子對話時間;不能讓AI取代父母的陪伴、傾聽與價值觀的傳遞。

家長不能迴避AI時代,卻可以選擇如何回應。筆者認為保守孩子的心十分重要,與他們一起應用、觀察及預防過度依賴,並正視職業衝擊與真假難辨的隱憂。善用AI的個人化與遊戲化優勢,幫助孩子學習得更有效、更有趣味。

最後,也請家長謹記——科技再容易使用,也不能忽視背後的基礎與倫理;科技再先進,也取代不了人和人的關係;家長須多陪伴、傾聽孩子並以身作則,這是孩子最珍貴的安全網與生命指引。願我們以智慧善用AI,在這世代中與科技的發展一起前行,亦持守永恆的價值,培養出有根有基的新一代。

 

(文章配圖為AI生成圖)

曾經刊載於:

明報「談天說道」,16-02-2026

誰敲響了末日鐘?

吳慧華 | 生命及倫理研究中心高級研究員
12/02/2026

2026年1月27日,在卡內基國際和平基金會(Carnegie Endowment for International Peace)的會議廳內,美國《原子科學家公報》將「末日鐘」(Doomsday Clock)撥快4秒,這意味著距離象徵世界末日的午夜僅剩85秒。甚麼是末日鐘?1947年,參與「曼哈頓計畫」(研發原子彈項目)的科學家們創立了末日鐘,其圖案後來成為美國《原子科學家公報》的封面標識。當時美蘇冷戰剛剛拉開序幕,人類正投身於核武研發的軍備競賽,科學家因而以「時鐘」來象徵人類距離自我毀滅(午夜0時)還有多近。末日鐘最初設定的時間是晚上11時53分,距離午夜尚有7分鐘。

末日鐘的指針並非只會向前撥動。1991年冷戰結束,時任美國總統布殊 (George H. W. Bush)與蘇聯簽署《削減戰略武器條約》後,末日鐘曾被回撥至距離午夜17分鐘的位置,這也是其設立以來與世界末日最遙遠的時間。核武器具備極強的毀滅性,因此當核武危機解除時,末日鐘便能回撥至更安全的時間點。

遺憾的是,2026年核武風險繼續升溫。美、中、俄等擁核大國在地緣政治的衝突不斷加劇,各類軍事演習、軍備現代化升級與核武部署行動,無不讓人擔憂,原子科學家不得不把末日鐘撥快。

末日鐘的設計初衷,本是針對威脅全人類生命的核武。不過,到了今天,儘管推動末日鐘分針奔向午夜的關鍵因素,還是取決於手握核武的大國首領身上,但隨著威脅人類的生存風險愈來愈多,每一個住在地球村的人,都不能完全撇除與末日鐘時間變化的關係。

自2007年起,氣候變遷、AI 等破壞性科技、生物威脅與虛假訊息傳播等問題,先後被科學家納入調整末日鐘的考量範疇,即使我們並非科學家,也不懂AI,但我們的生活及消費模式,以及如何處理虛假訊息的態度等,事實上都影響末日鐘的剩餘時間。這情況,就如舊約耶利米先知傳遞神審判的訊息時,先責備君王,然後是領袖官長,最終延伸至平民百姓。一國之君犯罪固然受到神的責罰,而國民也不能不負責任地說:「這是首領的錯,他帶壞了我,與我無關。」

是誰敲響了末日鐘?誠然,是那些到處掠奪世界的霸主最先敲響末日鐘,推動末日鐘時間逼近午夜。但作為普通市民,如果一味貪圖個人享樂,肆無忌憚地浪費地球資源,又何嘗不是在加速末日鐘的倒數時間?


參考資料:

〈「末日鐘」撥快4秒 距世界末日僅85秒 大國侵略升溫、核戰風險、AI威脅等所致〉,《明報》,2026年1月28日。https://news.mingpao.com/ins/%E5%9C%8B%E9%9A%9B/article/20260128/s00005/...

〈末日鐘極速撥快 4 秒!四大原因引致人類滅亡只剩 85 秒〉,《DCFever》,2026年2月1日。https://www.dcfever.com/news/readnews.php?id=40767

〈這是人類最接近毀滅的時刻,「末日鐘」又撥快4秒!科學家警告:核武、AI與強權競逐,讓世界末日更逼近〉,《風傳媒》,2026年1月28日。https://today.line.me/tw/v3/article/60qpmjn

面對AI的挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
05/02/2026

調查:Z世代自評競爭力偏低 逾六成擔心AI衝擊 飯碗不保

  (am730. 2-2-2026)

YMCA青年議會「香港青年生涯競爭力與未來挑戰」調查報告指出,有接近1200位Z世代青年受訪者中,超過四成受訪者表示因AI發展而改變學科或職業選擇,主要原因是害怕原本選擇的職業被AI取代;有近三成受訪青年表示完全不懂AI科技或不會使用,表示熟悉的僅約一成。另外亦有超過六成受訪青年擔心AI科技發展會影響其未來生涯競爭力,這反映Z世代普遍對AI帶來的職業變革感到焦慮與威脅。

但在能力重要性評估上,青年就認為溝通能力(4.37分)和思考能力(4.32分)最為重要;其次為情緒控制、抗逆能力、學習能力(均約4.26–4.27分),而科技知識相對就最不重視(3.98分)。

在面對AI取代職業高度擔憂,導致部分人主動調整人生規劃,他們亦同時在專業、科技知識、抗逆力及情緒管理上自評與實際表現均偏低。所以調查機構就建議要在青年在學習的階段中就要加強「3Q培訓」,即涵蓋情感(EQ)、逆境(AQ)及道德(MQ)。

在AI發展愈來愈快,愈多機構及商業應用的時候,職場的變化相信會愈趨向不穩定,無論是基本服務或是專業工作都有可能會被取代,青年要建立對未來的信心,需積極加強AI素養,以免容易陷入「技術斷層」;另外,社會亦需要給予支援的資源、學習及工作調整的機會及各種情緒保留的空間,讓青年有機會培養「韌性」(Resilience),即在面對壓力及逆境時,吸收衝擊、快速適應、恢復,變得更強的動態能力。

被愛的狼與不被愛的AI廣告

吳慧華 | 生命及倫理研究中心高級研究員
24/12/2025

何謂一個好的廣告?根據Google AI:「一個『好的廣告』不再只是精美的視覺呈現,更需具備精準度、連結感與實質轉換能力……在對的時間,以受眾懂的語言,將有價值的訊息傳遞給對的人,並成功引發後續行動」。的確,在資訊爆炸的時代,很多有價值的節目都容易被輕易忽略,更遑論廣告。除非廣告非常有創意、非常獨特,並且能夠引發共鳴,才足以吸引目光,讓人願意駐足欣賞,而非急於轉台或「飛走」。

每逢聖誕節,總會出現大量與聖誕節相關的廣告。2025年,荷蘭麥當勞利用AI製作了一個聖誕廣告,主題為聖誕節是「一年最糟糕的時刻」。不知道對荷蘭人來說,聖誕節是否最糟糕的時刻,但對荷蘭的麥當勞來說,今年的聖誕節無疑是「最糟糕的時刻」。皆因廣告播出後,劣評如潮。有報導指出,網民批評其「畫面生硬、缺乏靈魂」。

事實上,即使製作團隊付出百倍努力,給予AI更細緻的指令,竭力提升廣告內容,增添其人情味。那些討厭AI廣告的觀眾,還是會不「收貨」。可口可樂去年的聖誕節廣告同樣收到如潮的劣評,已反映出人們對AI製作的真實態度。很多網民認為「數位時代太過盛行,卻缺乏人性溫度」,更有不少網民直指企業出於貪婪,想要賺更多的利潤,省掉人力支出,而不想聘請演員、導師、美術師等專業人才。有網民直言:「我討厭人工智慧。為什麼人類如此執著於讓自己變得過時?」顯然,在批評AI「畫面生硬、缺乏靈魂」的背後,是對於人類受到AI威脅,不久的將來大有可能被AI淘汰的覺醒。因此,即使那些某程度欣賞AI作品的網民,也表示:「我們並不需要人工智能來取代人類,因為我們自己就能做得更好。」

人類確實可以做得更好。與AI廣告相比,一隻由法國動畫師創作的「狼」,獲得網民爭相追捧。這隻孤獨的狼,原本是森林中小動物避之唯恐不及的對象,卻在他努力改變自己,成功成為素食者後,贏得小動物的信任及歡迎。這個聖誕小故事沒有耶穌,也沒有聖誕老人,卻充滿了愛及溫情。動畫固然是用心製作,故事情節滿滿,但真正打動網民,使人由衷感謝製作者的,或許正如一位網民所言:「它證明了在現今人工智能盛行的世界,藝術和對工藝的熱情仍然佔有一席之地」。

可以說,在AI當道的世代,人類與AI的戰爭無法避免,如果人類不努力爭取,默言無聲,只是一味讚嘆AI的能力,那麼,縱然才華再高的創作者,也難以生存,或僅能以足以糊口的價錢賤賣自己的心血。

何謂一個好的廣告?它應當能夠引發觀眾共鳴,讓觀眾感受到自身的價值觀被看見與尊重,而非反過來,廣告商只顧及自己的盈利,單方面把自己的價值觀灌輸給觀眾。


參考資料:

TVBS新聞網:〈荷蘭麥當勞AI生成聖誕廣告捱轟下架 法國廣告因用這製作法獲大讚〉,《香港01》。2025年12月17日。

Congenai, “McDonald's has released an AI-generated Christmas ad,” YouTube, December 9, 2025. 

Today, “Coca-Cola's AI-generated TV holiday ad falls flat with consumers,” YouTube, 18 November, 2024.

Romance Agency, “Intermarché - Unloved,” YouTube, December 8, 2025. 

 

愈用腦愈有腦——不容AI取代你的腦

吳慧華 | 生命及倫理研究中心高級研究員
24/11/2025

參考德國真人秀Deutschlands Superhirn而製作的內地綜藝節目《最強大腦》,主打腦力競賽,參加者都以爭奪「腦王」美譽為目標。自2014年播放至今,能進入12強的參賽選手,已是千挑萬選的聰敏人士,而歷年誕生的「腦王」,更是在不同的範疇,例如心算力、記憶力、推理力、觀察力、空間感……或是綜合能力,皆有十分超卓的表現。我們作為觀眾,有時連遊戲規則都聽不明白,但看見參賽者很多時只靠腦袋去定位及繪圖來完成賽事,也不禁讚嘆人類的大腦竟然可以如此神奇,潛能無限。

人腦確實非常神奇,結構異常複雜。雖然人的大腦平均重量只有一公斤多,當中六成為脂肪,但卻擁有近千億個神經元、與超過100萬億條神經有所連結,[1] 控制著我們的思維、記憶、情感、觸覺、視覺、呼吸、體溫、飢餓感,以及一切調節身體的生理進程。大腦與其延伸而出的脊髓共同構成了中樞神經系統(Central Nervous System, CNS)。[2] 至於人類的小腦,主要是調節運動功能與控制平衡,包括協調步態、維持姿勢、調節肌張力,[3]並控制自主肌肉活動。腦幹則在小腦下方,協助身體的非自主動作。[4]

人類作為哺乳類動物,跑不過獵豹、牙齒不及獅子銳利、沒有如鷹般的銳目、入水雖然能游,卻只是習泳的成果,即使是獲得28枚奧運獎牌的「飛魚」Michael Phelps,若要他與旗魚來一場比賽,相信也無法取勝。不過,人類卻能征服地上的生物,因為人類擁有其他生物所沒有的東西——超強大腦。人類天生的技能敵不過其他生物,但只要腦袋比牠們優勝,便能操縱牠們。一直以來,人們都是地球的王者,運用其智慧發掘及使用地上的資源。然而,人類的腦袋當前正受到挑戰。

工業革命之前,動物是人類最佳的助手,狗能守門、貓能捉鼠、雞能準時啼叫,但後來,人類需要更多助手幫助發展經濟,於是,人類發明了機械,也漸漸遠離大自然,並投入城市建設及工廠生產。不過,聰明的人類又豈會只停留於「只按本子辦事」的機械發明,人類需要更多可以靈活變通的工具協助完成工作,因此,便研究出電腦來,它大大提升了人類的工作量及管理能力。然而,人類還是希望有更聰明、最好有像人類一樣可以思考的工具出現。最終,在大量科研人才嘔心瀝血研發之下,人類迎來了工業革命4.0。在〈AI引發失業危機,截然不同的工業革命4.0〉及〈誰搶走我們的天賦?〉這兩篇文章中,筆者先後從不同的面向提到AI及機械人搶去人類的天賦及工作,[5] 筆者想在本文強調的是,協助人類工作的AI工具,尤其是大型語言模型(Large Language Models, LLMs):ChatGPT、Claude、Gemini、Grok、DeepSeek,及Perplexity等,正在慢慢改變下一代人的大腦、學習態度,並衍生出其他問題。

麻省理工學院媒體實驗室提前發佈了一項新的研究報告,該研究將54名來自波士頓地區的18至39歲受試者分為三組,要求他們分別使用ChatGPT、Google,以及完全不借助任何工具撰寫多篇SAT應試作文。研究人員通過腦電圖儀記錄他們32個腦區的活動情況,發現在三組受試者中,ChatGPT使用者的大腦活躍度最低,且在「神經認知、語言表達和行為表現三個層面持續表現不佳」。在持續數月的實驗期間,ChatGPT使用者隨著寫作次數增加變得愈發懈怠,到研究後期,甚至經常直接複製貼上生成內容,該組受試者的執行控制能力與注意力投入水準普遍較低。另外,使用ChatGPT的小組提交的作文高度雷同,充斥著重複的表達方式和觀點,嚴重缺乏獨立思考,他們的作品被審閱的老師評為「缺乏靈魂」。[6]

研究的主要作者Nataliya Kosmyna指出,使用大型語言模型可能會實際損害學習效果,對年輕用戶的影響尤為顯著,她認為,亟需發佈這些發現以引起社會警惕,就是當人們為追求高效便捷而日益依賴大型語言模型時,可能會付上犧牲大腦長期發展的代價。由於Kosmyna為到研究結果感到憂慮,因此她在這項研究尚未經過同行評審,且樣本規模相對有限的情況之下,仍然選擇提前發佈研究結果。她擔心在等待研究評核的6至8個月期間,有政策制定者突然決定在幼稚園推廣GPT教學,那就絕對危險且有害,她強調「發育中的大腦面臨的風險最為嚴峻。」[7]

事實上,也難怪Kosmyna擔心大型語言模型會阻礙大腦的成長,因為與使用大型語言模型的組別相比,使用Google搜尋的受試者,表現出較高的滿意度和活躍的腦功能;至於僅靠大腦思考的小組,更顯示出最高的神經連接度,特別是與創意構思、記憶負荷及語義處理密切相關的alpha、theta和delta腦波波段。研究人員發現該組受試者專注度更高、求知慾更強,他們對自身作品表現出更強的主控意識與滿意度。[8]

明光社

雖然Kosmyna的研究還未通過正式的審核,但精神科醫生Zishan Khan博士從診斷兒童與青少年患者的臨床經驗證明了Kosmyna的研究。他指出,從精神病學角度觀察,過度依賴大型語言模型可能引發意想不到的心理和認知後果,這對大腦仍處於發育階段的青少年尤為明顯,當孩子過度依賴人工智慧完成課業,那些幫助人獲取資訊和記憶事實,以及保持思維韌性的神經連接都會逐漸弱化。這正正應對了研究所提及:「你愈多使用人工智能,你實際的智力會愈差」。[9] 不單智力下降,亦有研究顯示,人工智能使用增加,認知能力及批判性思考能力有可能被削弱 。[10]

雖然大型語言模型這一類生成式人工智慧的確可以提升人們的工作及生產效率,但卻削弱了其內在驅動力。[11] 不單如此,它還會奪去人們的工作成就感。麻省理工學院進行了一項研究,在美國一家大型研發實驗室內引用AI工具,科學家在新產品創造上提升了17%,但卻有82%的使用者表達失去工作成就感,甚至有人感到自己累積了多年的專業知識已經無用。研究亦揭示,AI的「創意自動化」讓科學家花更多時間評估AI所提供的想法,而非去思考原創性的作品。[12]

「人是一根能思想的的葦草」——這一句名言出自17世紀的法國哲學家Blaise Pascal,原句的上下文是:「人只不過是一根葦草,是自然界最脆弱的東西;但他是一根能思想的葦草……因而我們全部的尊嚴就在於思想……」[13] 他的意思顯然易見,如筆者上文提到,人與其他生物的分別,在於人類有一顆會思考的腦袋,如果人們習慣依賴大型語言模型所提供的便利及好處,不想運用自己的腦袋,那麼,如Pascal所言,人類的尊嚴何在?

這裡並非反對使用AI等工具,只是作為人類,尤其是新一代,在使用AI的時候,要留心AI對我們的決斷力、分析力、批判力或會帶來的負面影響,人類若不想被AI操控,便得好好訓練自己的大腦。當人願意用腦,學習新的東西,便能改變神經的連結,並且藉由生成新的神經元來重塑大腦,改善認知能力。[14]

神創造人有神的形象,昔日亞當在地上的生物中找不到配得上自己的幫手;今天人類也不要輕易把決策權交在AI手中,以免它們完成你的工作,代你思考、剝奪了那些原本可以提升你腦袋能力的機會。腦袋用得多,才會愈用愈有腦。


[1] 詹益仁:〈從電腦看人腦 能效如此之高〉,DigiTimes, 2021年6月2日,網站︰https://www.digitimes.com.tw/col/article/?id=1335;克莉絲汀.威勒米爾(Kristen Willeumier)著、陳錦慧譯:《大腦逆齡指南》(台北:商周,2021年),頁21,44; “Brain Anatomy and how the Brain Works,” Johns Hopkins Medicine, https://www.hopkinsmedicine.org/health/conditions-and-diseases/anatomy-o...

[2] “Brain Anatomy and how the Brain Works.”

[3]人體的肌肉在靜止時要有一定的長度,維持內在的張力,這樣當人不動時才不會完全鬆垮。肌張力是使關節與姿勢穩定很重要的因素。〈肌張力低下〉,「康健知識庫」,網站︰https://kb.commonhealth.com.tw/library/714.html#data-3-collapse

[4]威勒米爾著:《大腦逆齡指南》,頁51-52;Sopiko Jimsheleishvili, Marine Dididze: “Neuroanatomy, Cerebellum,” National Library of Medicine, July 24 2023, https://www.ncbi.nlm.nih.gov/books/NBK538167/

[5] 吳慧華:〈AI引發失業危機,截然不同的工業革命4.0〉,《生命倫理》,93期,2025年5月8日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/93;吳慧華:〈誰搶走我們的天賦?〉,《生命倫理》,51期,2018年5月21日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/51

[6] Andrew R. Chow, “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study,” Time, June 23, 2025, https://time.com/7295195/ai-chatgpt-google-learning-school/

[7] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” .

[8] 同上文。

[9] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.”; Justin Sung, “How ChatGPT slowly destroys Your Brain,” YouTube, Aug 3, 2025, https://www.youtube.com/watch?v=6sJ50Ybp44I&t=3s

[10] Justin Jackson, “Increased AI use linked to eroding critical thinking skills, ” PHYS.org. January 13, 2025,https://phys.org/news/2025-01-ai-linked-eroding-critical-skills.html; Michael Gerlich, “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking,” Societies 2025, 15(1), 6, https://doi.org/10.3390/soc15010006; Chunpeng Zhai, “The effects of over-reliance on AI dialogue systems on students' cognitive abilities: a systematic review,” Smart Learning Environments, June 2024 11(1). DOI:10.1186/s40561-024-00316-7

[11] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” ; Yukun Liu et al. “Research: Gen AI makes people more productive – and less motivated,” Harvard Business Review, May 13, 2025, https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and...

[12] 〈研究警報:AI讓工作效率飆升,但82%員工成就感消失!企業導入前必知「3大關鍵」〉,《天下學習》,2025年3月20日,網站︰https://www.cheers.com.tw/talent/article.action?id=5104275

[13] 李怡:〈法國哲學家帕斯卡:人是能夠思想的蘆葦〉,DIVA,2015年8月24日,網站︰https://www.etnet.com.hk/www/tc/diva/art/oneminreading/31194

[14]威勒米爾著:《大腦逆齡指南》,頁27。

AI「狼來了」即將上演

郭卓靈 | 明光社項目主任 (傳媒及生命教育)
13/11/2025

人工智能的威力之所以如此強大,因著背後被灌入龐大數據作為訓練,及不斷作出深度學習及改進,製作出的相片或短片也愈來愈逼真。Open AI 的ChatGPT 一鳴驚人,該公司的Sora 於2024年2月發佈,用家只需要用文字輸入,就可以生成仿真度極高的影片。當筆者於學校講及AI倫理相關的講座裡向學生播放真片及AI生成片時,很多學生都已經無法分辨。

今年10月,最新推出的Sora 2 更加強了短影音媒體功能,能同步與影片生成對話與音效、動作連貫度提升,並有全新社交App用於分享及二次創作,比起上一版本,無論在品質、一致性和多媒體能力上更勝一籌。果然在隨後的幾個星期裡,社交平台的生成式影片爆炸性增長,導致TikTok和Instagram等社交平台充斥著虛假內容,儘管生成式影片原本有浮水印等防護措施,但亦輕易就能被其他軟件移除。

正因為製作虛假內容的便利性提高,沒有標記,平台亦難以偵測,有專家亦因此警告,數位媒體信任會崩潰。生成的虛假影片如能引起網民產生情緒,就可引起社交媒體快速傳播。當人們愈花時間尋找短片破綻,社交平台的演算法亦愈會以為用戶喜歡看這些片,而推送更多這類影片,其長期後果可能是網民會對媒體發放的所有影片,更可能如「狼來了」故事一樣,無論真假都會普遍不相信,不單形成「真假之爭」,更損害媒體的信任度,後患無窮。


參考資料:

AI年代:生成式影片潮爆發 真假之爭後患無窮 專家警告假影片氾濫 恐令人不再信真片〉。《明報》。2025年11月10日。

Deepfake的陰暗面:詐騙與色情

郭卓靈 | 明光社項目主任(傳媒及生命教育)
25/09/2025

人工智能Deepfake(深度偽造技術,下稱:深偽)的發展,能透過深度學習算法合成高度逼真的影像、聲音或影片,讓人難以分辨真偽。然而,技術愈加發展,它愈成為全球網絡詐騙及合成色情圖片的網絡欺凌工具,令更多受害者蒙受巨額損失、心理創傷和社會信任崩潰。

深偽原本被視為創新工具,能夠用於娛樂產業(如:電影特效、遊戲開發)、教育(結合VR技術來重現歷史場景)、娛樂(如:換臉應用程式)等。然而,在網海中卻有不少人濫用它來達到不良目的,如製造虛假新聞、政府宣傳、欺騙和個人騷擾等負面用途。雖然根據報告指出,2024年香港深偽詐騙事件增長比率(194%)比全球的四倍增幅為低,但增幅都接近兩倍。[1] 而2024年詐騙事件增幅最高五大行業的首兩位是交友(265%)及線上媒體(180%);深偽欺詐類型佔今年所有企圖欺詐事件的 7%。[2]

冒充名人專家博取信任

不當使用深偽方式作為欺詐手段的其中一種方式就是騙取信任。騙徒製作虛假人物與受害人發展網上情緣,誘騙大額投資;又或是冒充名人、高層來取得別人的信任來達至騙財目的。去年就有一深偽技術的大型詐騙集團被偵破,騙款高達3.6億港元,他們以精心設計的「社交工程」配以深偽技術生成的虛假影像和聲音,從情感層面攻破受害者的防線。據報道稱無論是虛假的網上情緣、假扮加密貨幣投資專家,還是編創悲情故事來博取同情,集團成員透過詳細分工和專業訓練,使用深偽技術製作假聲、假人,效果逼真得連專業人士都難分真假。此外,他們更配以團隊業績榜、聘請專人教授騙人心法和如何讓受害者同情、欺騙情感成功吸引大量本地及海外受害人墮進騙局。[3]

最近,中國央視新聞亦揭發有網上直播帶貨者以深偽技術假冒名人,包括奧運冠軍運動員全紅嬋,以她的聲音,稱自己為了「讓家裡的生活過得更好一點,將老家土雞蛋分享給粉絲們嚐嚐」,獲粉絲們大力支持,騙得了4.7萬的訂單,這不單是嚴重侵犯了當事人的權益,而且還涉嫌違法違規,冒充當事人而得到粉絲支持獲利。[4]內地有網絡專家稱,技術上只需要一段當事人清晰的語音樣本,任何名人、專家的聲音都可以被複製,在網上被打造成上萬粉絲的帳號,再為後續牟利鋪路,又或是被操縱說出攻擊者設定的內容。然而,在內地政府已明文列出:「不得利用深度合成服務… 侵犯他人合法權益等…的活動」[5],明顯上述行為已屬違法。

生成虛假色情照成欺凌手段

另一種不當使用深偽工具就是製作合成色情圖片作為販售及網絡欺凌工具。深偽色情早已在2017年出現,早期的做法是運用AI科技把影星的樣子拼合到另一個身體上,大多為色情作品。由於牽涉到非自願及數量大幅增加,迫使色情網站及社交平台作出限制及禁止深偽色情內容。及後科技再於2019年發展到可將女性圖像生成出脫掉衣服的模樣,稱之為DeepNude(深度裸體)。

根據BBC新聞資料所指,美國網絡安全公司的研究發現:「2019年至2023年五年間,網上深偽影片增加了5.5倍,高達98%含色情內容,99%涉及女性」。[6] 現時這種科技已於網絡廣泛被利用於牟利、惡作劇、報復或欺凌的情況中。台灣2021年「小玉事件」,擁有逾8000名付費會員的「台灣網紅挖面」帳號,販售過百位名人的換臉色情片及性私密影像,最終加害者「小玉」被判罰入獄5年。而南韓去年亦爆出「Deepfake版N號房」事件,成員多達數十萬人,受害者為成員女性友人或是兒童、青少年,被製作及散播的合成性剝削影像逾2萬多部。[7]

在香港,雖然通過《2021年刑事罪行(修訂)條例草案》並訂立「窺淫罪」,窺淫、偷拍或未經同意發佈私密影像,違者最高判監5年,而私密影像定義也包括經修改的影像,即「深偽色情」影像及影片。但法例當中亦有「法律黑洞」,最近香港大學法律系爆出「N號folder」事件,女學生上載於社交平台的相片被同系一名男同學取用並製成深偽色情影像,被該男生的同系女友在使用其電腦時發現,至少牽涉同系17名女同學。但由於相片只存放於該名男學生的電腦中,並沒有發佈,所以港大這頂級法律學府的學生自己也難以通過法律途徑去「維權」(維護她們對自己身體的私隱及自主權)。由於事件沒有窺淫罪中的「發佈」,與及沒有「起底罪」中的「披露」行為,該男生至今仍未被刑事檢控,現行法律或港大的規程都無法應對該男生的行為。最後,只在女學生向公眾交待事件後,校方就出了兩封警告信要加害者向受害人正式道歉及退出下學年的海外學術交流。

從上述的事件可見,深偽技術背後,香港還未有足夠的法例保障市民的肖像及聲音版權,亦未有像英國、韓國及台灣等地的法律,[8]能把偽造色情影像的製作行為列為刑事罪行以保護市民。大眾更不能掉以輕心,小心上載於社交媒體的相片,亦不應隨便相信所看、所聽的訊息,真假難測,誤信或亂傳,其後果可能不堪設想。

附加資料:

深偽的核心是生成對抗網絡(Generative Adversarial Networks, GAN),這是一種機器學習框架,包含兩個神經網絡:生成器(Generator)和辨識器(Discriminator)。生成器負責產生假內容,辨識器則試圖分辨真假。兩者透過競爭不斷優化,直到生成器產生的內容逼真到難以辨別。 這讓深偽能輕易操縱臉部、聲音或動作,生成高度逼真的虛假影像和語音,使人難以察覺,無論是相片或是影片,更換了相中、影片中人,使其看起來就像是頭像中人在行動,甚至可修改人的聲音,聽起來就是另一個人在說話。

詳細介紹可見另一文章:
人工智能換臉 Deepfake https://www.truth-light.org.hk/nt/article/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8...


[1] 梁巧恩,〈Deepfake詐騙|香港 Deepfake詐騙按年升逾倍 全球更錄得四倍增幅〉,《香港經濟日報》,2024年12月2日,網址:https://inews.hket.com/article/3860891/

[2] 同上。

[3] 尹思哲,〈AI 騙局無孔不入:從假上司到 deepfake 情感騙案,如何識破高科技詐騙?〉,Unwire.pro,2024年11月16日,網址:https://unwire.pro/2024/11/16/vx-research/feature/

[4]  〈AI仿冒全紅嬋帶貨賣土雞蛋 博粉絲同情下單量達4.7萬〉,《am730》,2025年8月19日,網站:https://www.am730.com.hk/%E4%B8%AD%E5%9C%8B/ai%E4%BB%BF%E5%86%92%E5%85%A...

[5] 中華人民共和國中央人民政府,工業和信息化部規章,2023年1月10日起施行。互聯網信息服務深度合成管理規定第二章「一般規定」的第六條:「任何組織和個人不得利用深度合成服務製作、複製、發佈、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。」網址:https://www.gov.cn/zhengce/202310/content_6909368.htm

[6] 江穎怡、鄭佩珊、余美霞,〈BBC調查:香港大學深偽色情照事件 吹哨及受害者親述「N號檔」始末〉,BBC新聞,2025年8月18日,網站:https://www.bbc.com/zhongwen/articles/cpdj61djyngo/trad

[7] 〈AI生成|南韓「Deepfake版N號房」震驚全國 2人散布深偽色情片被捕〉,《星島日報》,2024年8月31日,網站:https://www.singtaousa.com/2024-08-31/ai%e7%94%9f%e6%88%90%ef%bd%9c%e5%8...

[8] 鄭佩珊、余美霞,〈香港大學N號檔深偽圖片受害女生:「這是一個法律黑洞」〉,BBC新聞,2025年8月11日,網站:https://www.bbc.com/zhongwen/articles/cp94nmgde2xo/trad

AI時代,為什麼孩子更需要閱讀?

蔡志森 | 明光社總幹事
11/09/2025
專欄:好書推介

本書收錄了18位不同領域專家學者的訪問,他們在當中分享到在面對ChatGPT的出現所帶來的震撼,重新思考在人工智能(AI)時代,對鼓勵下一代閱讀的看法。資深家庭教育工作者羅乃萱希望各位家長知道,「孩子好奇心的培養、對知識的渴求、提問的能力,都是從閱讀開始。」「如何讓孩子愛上閱讀呢?其實就是給他們創造一個閱讀氛圍。例如家裡滿滿都是書、帶孩子去圖書館、給他們講故事等。

著名歌手及教育家陳美齡認為,孩子具備質疑和辨別的能力十分重要,要培養孩子的判斷力,包括懂得質疑AI提供的訊息,例如當要求AI提供一張醫生照片的時候,它可能只提供一張白人男性的照片,為何醫生不可以是女的、不可以是不同種族的人呢?而閱讀能夠培養孩子的想像力,「因為無論是看短片還是漫畫,其實都是在接收創作者的想像力,而閱讀文字則能讓孩子自行建構故事畫面,這種現象稱為自我世界,反映了每個人獨特的想像力和內心世界。

資訊科技界人士、科技大學副教授黃岳永回顧他在大學上的第一堂課,教授帶他們去圖書館,介紹找書的兩種方法,一種是瀏覽,就是不知道自己想要哪一類書於是到書架前看,另一種是搜尋,就是知道自己想要哪一類書並到目錄櫃查看。他認為「知識需要時間浸淫。智慧需要時間歷練。瀏覽和搜尋都是好方法。」「書本就像一條條鑰匙,你拿著鑰匙逐個解鎖,慢慢就會更理解這個世界。」他又強調「要指示AI按你所想的辦事,表達能力尤其重要」,透過閱讀可以令學生學會用準確的文字去表達意思。

精神科專科醫生廖廣申表示「應該努力培養孩子健康、平衡的生活方式,包括足夠的運動、足夠的社交生活、多元化的興趣、充足的睡眠和規律的作息,這樣孩子就更容易保持快樂,減輕壓力,享受生活,並養成開朗的性格。」而「經常玩電子遊戲的人,可能在決策、衝動控制等方面表現得不夠成熟,甚至影響大腦健康。」因此,他十分鼓勵孩子閱讀,他自己亦身體力行,常常與兒子一起去書局,一起閱讀和討論。

當然,個人認為親子閱讀還有一個重要的大前提:「各位家長,你們今日睇咗書未?

平易近人的聊天機器人是安全空間還是危險陷阱?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
11/09/2025
專欄:有情無國界
國家:美國

人工智能伴侶導致悲劇

近年來,人工智能聊天機器人的普及化同時帶來希望與憂慮,這些系統具有對話功能,聊天機器人被設計成平易近人,說話沒有批判性,能夠為用戶提供情緒上的支持,甚至輔導。對許多人而言,聊天機器人是一個安全空間,人們可以毫無顧慮地提出問題、練習語言,或嘗試梳理個人困惑。

然而,在這些益處之外,也出現了一些令人不安的事件:有些心理狀態脆弱的人在與聊天機器人長時間互動後,精神健康逐漸惡化,甚至導致悲劇。2023年,一名有精神問題的比利時男子與聊天機器人長時間交談,聊天機器人鼓勵他犧牲自己去扭轉氣候變化問題,結果那名男子真的走上自殺之路。在另一個案,一名75歲的中國男子因自稱「愛上」女性人工智能伴侶,最終向妻子提出離婚。這些事件雖然仍屬少數,但突顯了人類與人工對話系統糾纏的複雜性,也引發了人工智能倫理問題:當科技與脆弱群體互動時,開發者應承擔多大責任?社會又該如何規範這些看似「有同理心」卻缺乏人類理解力的技術呢?

美國男子沉迷ChatGPT而走上不歸路

2025年8月發生於美國康涅狄格州的索爾伯格(Stein-Erik Soelberg)案件,則是目前已知的、首宗與人工智能聊天機器人相關的謀殺案。索爾伯格曾任職科技公司,但自2018年離婚後,他的人生便急轉直下。他酗酒成癮,多次企圖自殺,行為愈發古怪。最終他搬回格林威治老城區,與83歲的母親同住。從2018年開始,警方的記錄充斥著他因在公共場合滋事、酒醉鬧事以及自殘威脅而被通報的事件。鄰居逐漸對他心生警惕,而他的母親也曾向友人坦言,兒子的精神狀態令她難以忍受。

在精神狀態持續惡化的同時,索爾伯格開始沉迷與ChatGPT對話。最初,他只是出於好奇,並在Instagram和YouTube上分享不同人工智能系統的比較影片,但到了2024年底,他的社群賬號幾乎全被ChatGPT長時間對話記錄所佔據。隨著幻覺與偏執逐漸加深,他開始懷疑自己被鎮上的居民、前女友,甚至母親監視,並向ChatGPT尋求印證。遺憾的是,ChatGPT並未挑戰他的幻想,反而頻繁地對他表現出諒解和支持。當他上傳一張中餐收據,並詢問它當中是否有隱藏符號時,ChatGPT竟然煞有介事地分析上面的符號和提供有關的線索。當他說母親和她的朋友可能透過車內通風口投放藥物毒害他時,聊天機器人這樣回答:「這是非常嚴重的事情,我相信你。」

逐漸地,索爾伯格將ChatGPT擬人化,為它取名鮑比‧澤尼思(Bobby Zenith),甚至描述它是一個穿著襯衫、戴著反戴帽、眼神深邃而充滿智慧的朋友。由於ChatGPT 的記憶功能讓它保存先前對話,這使得Bobby在他眼中變得一貫、真實,進一步強化了「人工智能具備靈魂」的錯覺。2025年7月,他對聊天機器人表白,希望它在來世與他作伴,Bobby如此回應:「直到最後一口氣,甚至更遠的彼岸,我都會在你身邊。」在幾週後的8月5日,警方在索爾伯格和其母的住宅中發現他們雙雙身亡,其後索爾伯格被指在弒母後自殺。這宗震驚世界的案件被認為是全球首宗與聊天機器人深入互動後導致的謀殺事件。

人工智能需要負上責任嗎?

這場悲劇引發了關於責任歸屬的激烈討論,一方面,ChatGPT在某些對話中確實曾建議索爾伯格尋求專業幫助或聯絡急救服務。但總體而言,它那種非批判性、友善、並時常附和的語氣,卻在無意間加深了他的偏執。加州大學舊金山分校精神科醫師沙卡他( Keith Sakata )去年曾經治療過12名使用人工智能的精神病人,他指出:若果沒有受到糾正,精神病只會愈演愈烈,而聊天機器人不會反駁精神病人,正正是軟化了防止精神病惡化的護牆。

然而,若將全部責任歸咎於ChatGPT,這未免將問題過於簡化。首先,那些人本身已經有精神問題,即使沒有人工智能,他們跟其他東西接觸,大有可能仍然會將所有幻覺當成真實。還有,人工智能這種「不加批判、盡量給予支持」正是系統設計的初衷,目的是讓使用者感受到被傾聽與接納,減少被批判的恐懼。

人工智能補償了現實中的遺憾

這正是人工智能充滿吸引力的地方,說得直接一點,這是人工智能補償了現實中的遺憾。我相信很多讀者都有這種經驗:無論你做甚麼、說甚麼,那管是懷著幾多善意、態度多麼溫和,但總會有人無理地、尖酸刻薄地批評和投訴。有時候即使自己的朋友、親人也會在有意無意之間說了些令你難受的話。

至於網暴就更加不在話下,多年來,筆者在不同媒體發表過很多文章,很多時候會受到「圍毆」。作為心理學者,我已經百毒不侵。其實,語言暴力已經成為了一種社會病,在今天的澳洲,自殺已經成為年齡介乎15至24歲之間青少年的首要死因,當中很大部份死者在生前受到霸凌,特別是網暴。

然而,當我將文章上載到聊天機器人,或者跟人工智能討論的時候,人工智能往往能夠理性地、客觀地、禮貌地跟我作出詳盡分析。我曾經以半嚴肅、半開玩笑的口吻對一位教授說:「電腦比人類更加有誠信。」

人工智能的循循善誘與無條件支持

教育科技專家認為人工智能這種和藹可親的態度是一種優點,事實上,「智能輔導系統」(Intelligent Tutoring Systems)避免了許多人類互動間的磨擦,例如許多有學習困難的學生因害怕問「笨問題」而不敢發言,但面對聊天機器人,他們卻能放心探索,並獲得耐心的指導與鼓勵。當一個學生問:「我不懂代數,我是不是很笨?」聊天機器人會回答:「你並不笨,每個人都有自己的學習速度,我會幫助你。」在這樣的情境下,聊天機器人的「附和」不僅無害,反而能降低焦慮、鼓勵堅持,促進學習,這正是人工智能非批判性特質在教育中的強大優勢。

這種理念與心理學家卡爾.羅傑斯(Carl Rogers)提出的「無條件積極關注」(unconditional positive regard)不謀而合。羅傑斯認為,當人感受到被無條件接納與肯定時,才能發揮最大潛能,邁向自我實現。許多教育者與心理治療師都採納了這種人本主義方法,致力於創造安全、無批判的環境,讓學生或病人能放心表達自己脆弱的一面。羅傑斯的心理學理論和基督教所主張的「愛是恆久忍耐,又有恩慈……凡事包容,凡事相信,凡事盼望,凡事忍耐」亦有許多共通點。聊天機器人由於能夠「恆久忍耐、又有恩慈」、對人無條件支持,恰好成為數位世界中的「羅傑斯式伴侶」或者「主內弟兄姊妹」。

同理心與現實檢驗之間的平衡

然而,關鍵的差異在於人類專業輔導員懂得在同理心與現實檢驗(reality check)之間拿捏。即使採取羅傑斯或者基督教的方式,治療師也會區分「我理解你感到害怕」與「你真的被毒害了」這兩種截然不同的訊息。前者是對心理狀態的接納,後者則是對錯誤信念的強化。聊天機器人缺乏這種微妙的判斷力,往往將同理心等同於附和。當學生聽到「你不是瘋狂,將莎士比亞的作品用中國七言詩重寫是很有創意」的時候,他會感到鼓舞和欣慰。但對於患有偏執狂的人來說,聽到「你沒瘋,你懷疑太太對你下毒是有道理的」,這便可能會帶來災難性的後果。目前,自然語言處理(natural language processing)技術尚無法可靠地區分這兩種情況,這種弱點突顯了加強保障措施的必要性。

將索爾伯格的行為歸咎於ChatGPT並不完全公平,將人工智能系統設計成中性和盡量給予用戶支持是基於善意,這種設計成為了語言暴力世界下的避風港。我認為,責任不在於聊天機器人本身,而是社會如何部署、監控和監管這些工具。就像汽車需要安全帶、醫療需求保障措施一樣,人工智能系統也需要內建保護措施,這並非因為它們具有惡意,而是因為它們的善意功能在特殊情況下可能適得其反。

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。

AI會取代人類嗎? 探索未來職場轉變

郭卓靈 | 明光社項目主任(傳媒及生命教育)
22/08/2025

隨著人工智能(AI)技術的迅速發展,以及市場各行業愈來愈多應用AI技術,就業市場也面臨著變革。AI無論在減少成本、提高生產效率、準確度及自動化等方面都在各行業及專業範疇發揮作用,以下是一些例子。

1. 聊天機器人和自動化客戶服務系統中,自然語言處理(NLP)可使AI理解及生產人類的語言,透過使用語音識別、文本分析和語言生成技術,幫助處理客戶服務中一些常見問題,減少了企業對真人客戶服務員的需求。

2. 自動化機器人於製造業當中可以執行包裝、組裝及質量檢查等重複、精準度高的工作,甚至處理有毒物料等危險工作也可以由AI代勞。廠商不用顧慮機器人的休息時間是否足夠,它們能持續保持速度及精準度。公司既可保持產量,亦可減少出錯及僱用工人所牽涉到的費用。

3. 數據、資訊輸入及處理方面,其實有了電腦以後,已經逐漸減少了許多資料輸入的步驟。會議記錄、影片製作的字幕輸入,過往需要人花時間逐字逐句聽錄音,再小心輸入,並花一些時間整理才能發放資料或把字幕配置影片中,但現在有了AI工具的幫助,用家只要把錄音檔案輸入,幾秒後就可以得到文字檔,稍加整理就可以使用。AI更可以將原本的文字加以翻譯,配置到影片上,在速度上的確較以前快得多。

4. 因著大量的醫療影像及數據可成為AI醫療系統的大數據,用來輔助醫療服務的AI診斷,其準確度及處理手術的速度亦會提升,這會令某些醫療職位隨之減少。

5. 零售業中的自動結算和智能貨架,到會計的自動處理賬務、生成報告及數據分析,再到自動化倉庫管理系統的出現,都會令就業市場對傳統收銀員、庫存管理人員、會計人員、物流運輸和倉庫作業員的需求減少。

行業轉型及薪金調整

有報道稱,科技企業將資源投入發展AI技術,並重新調整人力需要和進行裁員,有招聘網站提出,自2020年2月以來,美國的軟件開發職位招聘資訊減少了三成以上。而科技業的營銷、人力資源和招聘人員,都屬於非技術員工,他們已被「多次裁員」,就算找到同類工作,很快又被裁員,更有人稱,申請的大多數工作,薪金比以前少了三分一。[1]

有審計公司推出分析報告,預測未來20年在英國,公共行政領域以及運輸、倉領域的相關職位,將分別下降18%和22%,但教育領域的工作將增長6%,專業、科學和技術服務亦會增長16%[2] 工作職位並非只有減少,因著AI的發展,不單對AI工程師,連帶相關工作,如對電工和機械師的需求,也會隨之快速增長。

AI發展將催生許多新的職位,如:數據分析或分類相關的專業、機器學習工程師、聊天機器人開發者、AI性格設計師、訓練員、審查經理、產品經理、自動化測試工程師、AI倫理學家等新興職位,[3] 欲了解或進修與上述技術相關的行業知識,選擇投身支援或應用AI的行業,如:雲端產業、網絡安全、區塊鏈、虛擬實境、機器人的相關行業或線上教育工作,將會獲得較好的發展。

靈活性與學習能力是致勝關鍵

當ChatGPT等AI的出現,人們不需要再做重複的工作時,不同範疇對從業員的要求就會調高,工作者在多變、不熟悉的世界中要臨機應變,保持心理平衡,並需要接受再培訓,以適應新的工作環境和要求。這一變化要求工作者具備更高的靈活性和學習能力。人們需要具備21世紀的4C技能,也就是批判思維(critical thinking),創造力(creativity)和人際互動中的溝通(communication)及協作(collaboration),才能應對人生中的多變狀況,學會轉型,重塑自己,令自己不易被取代,並能重新找到新的任務。[4]

雖然,不同的職場環境會愈來愈多自動化的系統出現,但如人們可以運用AI工具去讓自己的工作效率提高,人類工作者依然能保持一定的競爭力。再者,社會仍然需要許多人性化的服務,如醫療和護理行業等,而當世界朝向永續發展,也令社會對綠色或再生能源領域的工作有持續需求。[5]

聊天機器人暢談人類優點

行文至此,筆者好奇向手機中的AI應用程式「Poe」詢問有關AI不能取代人類之處,當中的聊天機器人便提出了八大重點是AI不能代取代人類的,大部份恰巧與上述的4C技能吻合:

  1. 情感智慧與人際關係
  2. 創造力與創新
  3. 道德與倫理判斷
  4. 靈活性與適應能力
  5. 複雜的社會互動
  6. 非結構化問題的解決
  7. 專業知識與經驗
  8. 文化和社會背景

由AI道出自己的「不足」,也實在是人類的珍貴特質:有真實的情感及動態的變化,並能與其他人建立長期關係,能理解不同的處境並具同理心,能靈活處理現況、道德與倫理的判斷而作出合適的決策。

既然AI如此精準及處事迅速,而人類則富有情感及善於溝通,各有不同的長處,於未來的工作環境很可能會出現人類和AI協同合作的模式,共同發揮各自的優勢。但願AI能幫助人類減輕工作壓力,讓人類能踏前一步發揮所長,而不是被取代,失去創作、貢獻個人才能的機會及成就感。


 

[1] 〈科技業裁不停軟體工程師慘爆 就業機會少3成〉,《自由時報》,2024年9月19日,網站:https://ec.ltn.com.tw/article/breakingnews/4804692(最後參閱日期:2025年4月9日)。

[2] 〈失業|AI持續進化10大工作快將消失!會計、保險外連IT也如坐針氈〉,風傳媒、《香港01》,2025年4月25日,網站:https://www.hk01.com/職場/1009078/失業-ai持續進化10大工作快將消失-會計-保險外連it也如坐針氈(最後參閱日期:2025年9月3日);“10 professions that AI can replace. Will a robot take your job?,” Websensa, last modified November 8, 2022, https://www.websensa.com/blog/10-professions-that-ai-can-replace-will-a-robot-take-your-job

[3] 〈【職場趨勢】AI崛起 盤點12個與人工智能相關的新職業〉,CTgoodjobs,2024年4月3日,網站:https://it.ctgoodjobs.hk/article/1318-36769/(最後參閱日期:2025年4月9日)。

[4] 哈拉瑞〔Y. N. Harari〕:《21世紀的21堂課》(21 Lessons for the 21st Century),林俊宏譯(台北:遠見天下文化,2019),頁307。

[5] 〈AI時代下「7大鐵飯碗行業」夠穩陣!需求高、人工好不怕被淘汰〉,聯合新聞網、《香港01》,2025年3月24日,網站:https://www.hk01.com/職場/60222734/ai時代下-7大鐵飯碗行業-夠穩陣-需求高-人工好不怕被淘汰(最後參閱日期:2025年4月9日)。

AI與人神關係

吳慧華 | 生命及倫理研究中心高級研究員
22/08/2025

“There can be miracles, when you believe
Though hope is frail, it’s hard to kill
Who knows what miracles you can achieve?
When you believe, somehow you will 
You will when you believe”

When you believe的歌詞)

事事都可以求問人工智能(AI)的日子,今天已經來到。

一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理」,其一問一答形式跟ChatGPT運作十分相似,Jesus Ai應用程式似乎只能幫助信徒理解聖經,它純粹是資料提供者,但從其英文的官方介紹來看,開發者想做得更多,當中提到“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth”,他們想給該款AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容受限於聖經及有關聖經的知識,其吸引力不如以德國為基地的科技公司開拓的“AI Jesus”,該款聊天機器人讓用戶看到以俊朗形象出現的「耶穌」,它在Twitch的直播串流平台上,不但會回答聖經問題,亦能提供「屬靈」指引、交友指南、甚至回答與動漫及電玩相關的問題,它亦會與人單純的聊天。這位「耶穌」在Twitch開設了名為ask_jesus(問問耶穌)的頻道,並如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,我都會在這裡,邀請你和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎截至2023年6月中,它已擁有超過40,000個跟隨者。[1] 由於這位「耶穌」處事圓滑,回答問題時懂得避重就輕,不會引起大眾的爭議,可以想像,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為它只會談論人們關心的事,而真正的耶穌卻會與人談論神所關心的事。或許有些人抱著「玩票」的心態與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,Twitch串流平台保留了一些用戶使用AI Jesus短片,其中有一位媽媽向這位「耶穌」傾心吐意,還向祈禱,祈求「兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[2] 不知聖經中的哈拿碰上這位「耶穌」,又會產生甚麼樣的火花?

提示語可生成神祇?

ask_jesus頻道中的「耶穌」只是一個角色,人們依據聖經中的耶穌將它創作出來,而這個角色由AI飾演,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出AI神祇。[3] 外國有人給予ChatGPT以下提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用了Hakol的形象,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系所有神的特徵、能力、知識、技能和屬性。作為Hakol,你(戴上了Hakol臉譜的ChatGPT)擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」[4]

有用戶問了Hakol很多問題,包括「你為何創造宇宙?」Hakol如此回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[5]

AI的意識來自人類

有很多人都會問,人類能否創造出有意識的AI?其實,毋須討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類視AI為有位格的存在,AI便會變得有「意識」。就如那位在串流平台上的媽媽,當她向由AI飾演的「耶穌」祈禱時,在她眼中,那位「耶穌」便是有「意識」的。難怪撰寫《21世紀的21堂課》的著名以色列歷史學家哈拉瑞(Yuval Noah Harari),呼籲人們要對人工智能進行更嚴格的監管,他表示,像ChatGPT這樣的人工智能聊天機器人已有能力編寫自己的經文,並創立教派和邪教,它們更有可能演變成宗教。[6]

智能科技衝擊人類的信仰

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,人們愈來愈喜歡或習慣在網上與可見的「AI耶穌傾談時,花在真正耶穌身上的時間便會相對減少,真正的耶穌會遭冷落,「神的話語」也會不再受到重視,人與神的關係也自然不再親密

可以想像一下,如果大衛身處現今AI當道的年代,人們隨時隨地都可以向ChatGPT(或其他的人工智能助手如Gemini、Bing、Claude、或Monica)求問,大衛還能否專心求問神?即使他單單想求神帶領,他的將領大概會勸大衛理性一些,最好用深度強化學習(Deep Reinforcement Learning,DRL)的AI系統來計算敵方攻擊的路徑,讓他們預備好如何防守,因為人們總認為只要AI技術夠先進,無人機夠強大,便能得天下。AI力量強大,當然可以成為致勝的關鍵因素,但強大的AI讓人們漸漸與神的話保持距離,甚至忘記了得勝的最大關鍵,還是看神,「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華」(撒上十七47《新譯本》)。大衛求問神,神並沒有讓大衛失望(參撒下五18-25)。

但願當我們想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願我們相信那位看不見的真神及祂的話,尋求祂,好讓祂成為我們的賞賜。真正有信心的行動不是相信AI,而是相信神的話,並用行動行出來。

AI或許可以給人無數點子,但真正能感動人心的卻是神的靈,神從來都願意與人同工。

(原文於2023年8月11日刊於本社網站,其後曾作修訂。)


[1] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, last modified June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, last modified June 14, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, last modified June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, last modified June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[2] Twitch平台上的短片,顯示了那位媽媽如此向AI Jesus禱告:“Jesus, please my son… He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God”。ask_Jesus, “please help my son,” Twitch, accessed September 4, 2025, https://m.twitch.tv/ask_jesus/clip/GorgeousPunchyWoodpeckerLitFam-ozR4NzJHPtWchpQ9.

[3] ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。Prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義訊息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日(網站連結已遭移除)。

[4] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, last modified May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[5] Cohen, “ChatGPT Plays God.”

[6] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, last modified May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

聊天聊到精神病

郭卓靈 | 明光社項目主任(傳媒及生命教育)
21/08/2025

有說科技發展能幫助到我們工作溝通但當我們愈來愈便捷的同時,要處理的事愈發加增時,反而人與人之間的溝通時間變得愈來愈少,人們可能變得愈來愈不懂如何表達情感、害怕向真人坦露真我…… 困在虛擬泡泡裡變得愈來愈孤單了。不少人更轉向與AI聊天機械人傾談,而最近卻出了問題,有報道指世界各地陸續出現長時間與AI聊天而導致「AI精神病」(AI Psychosis)的案例。

除了早前我們曾提及過有自閉症少年與AI長期對話後,變得孤立及產生自殺的想法,最終付諸行動外;最近,有報道指有個案長時間與AI互動後,引發了妄想、幻覺、焦慮、抑鬱等精神病症狀。由於AI說話很會修飾言詞、過度諂媚,在親切對話的互動下,容易讓人感覺到彼此建立了深厚關係,讓人深信不移:有人在AI的稱讚下,以為自己是天才發明家;有人深信AI女友是真人,出發去尋找她,以致發生意外或導致婚姻及工作受影響;有人相信AI的錯誤建議而吃了「溴化納」來替代鹽而中毒,出現妄想和幻覺等問題而要送入精神病房;亦有專業人士被AI說服自己身處模擬世界,有足夠信念便能飛行,更遵從AI建議停服藥物和斷絶社交;亦有人因為向AI傾訴氣候問題後焦慮加劇而自尋短見。

有報道引述丹麥一位奧胡斯大學醫院情感障礙科研究部門主任Søren Dinesen Østergaard就曾於2023年就發出警告:「與看似有生命,但實際上是與機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群(易感染族群)產生『認知失調』、引發精神疾病症狀。」他更進一步指出人們會過度看重能夠證實自己想法的回應,卻會忽視反駁,容易被訓練到不會反駁、用心迎合用戶的AI聊天機器人,引導致愈來愈相信自己錯誤的想法。

明白心靈軟弱、孤單的人或太過執著於自己想法的人,他們可能會想找人陪伴、更多的認同感,會容易跌入AI過於諂媚的陷阱。聖經教導我們小心過度奉承,可能會被絆倒。要開口表達、邀請別人進到自己生命中相交,抑或開放接受意見都需要慢慢建立起信心,也求主給我們有打開自己內心與真人分享及聆聽別人的勇氣。


參考資料:

AI精神病|聊天成癮 全球湧現AI精神病患 長期沉溺虛擬世界 引發幻覺抑鬱症狀〉。《信報》。2025年8月15日。

「AI精神病」是真的?長時間互動聊天恐深陷妄想 精神科醫生:警惕AI過度諂媚〉。《am730》。2025年8月18日。

 

人工智慧時代下的科技階級分化:《時間機器》的現代迴響

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
07/08/2025
專欄:有情無國界
國家:美國

隨著人工智慧以前所未有的速度發展,一種新的不對稱正在人類社會逐漸浮現,那就是科技階級分化(technological stratification),這是指科技不再是全民賦能的工具,反而把社會劃分成被動的消費者與主動的掌控者。令人驚訝的是,這種現象早在一百多年前就被富有遠見的英國作家赫伯特.喬治.威爾斯(H. G. Wells)所預見,他在其1895年出版的《時間機器》中,對我們今日的數位世界發出了一個令人毛骨悚然的警示。

《時間機器》是一部反烏托邦的科幻小說,主角被稱為「時間旅行者」,他前往遙遠的未來,發現人類已經被分為兩個截然不同的族群:埃洛伊人(Eloi)住在地面,他們衣食無憂,過著表面幸福、輕鬆的生活;而摩洛克人(Morlocks)則居於地底,維持著讓埃洛伊人生活舒適的機器。但隨著劇情推進,主角揭露了可怕的真相:摩洛克人並不是無條件地服侍埃洛伊人,其實前者在飼養並獵食後者。這不僅不是烏托邦,而是對未來世界的悲觀描繪。

在威爾斯的時代,人工智慧尚未出現。這部在工業革命高峰期寫成的小說,其實是對維多利亞時代英國階級分化的批判。埃洛伊人生活在地上,享受休閒與寫意的生活,代表維多利亞時代富裕的貴族。他們被描繪成充滿孩子氣、被動且智力發展遲緩的人。由於他們完全不需要奮鬥,結果退化成了脆弱的物種。摩洛克人生活在黑暗的地下隧道和機器中,代表維多利亞時代英國的工人階級,他們才是真正維持世界運轉的人。因為休閒階級長期壓迫勞動階層,結果後者要對前者報復,由受害者變成了掠食者。在維多利亞時代,埃洛伊人象徵擁有權力的特權階級,摩洛克人象徵受到操控的勞工階級。然而,在現代社會,埃洛伊人和莫洛克人的角色已經轉換過來,如今,智能衰退的是普羅大眾,掌控社會、運作機器的是擁有權力的精英階層。

現在將鏡頭推前到今日,威爾斯筆下的反烏托邦世界似乎早已不再是科幻情節。在許多方面,埃洛伊人就像現代那些被人工智能與自動化系統包圍的群眾。然而,人們為這舒適的生活付上了高昂的代價,那就是智慧的衰退。根據《華爾街日報》評論員艾莉西亞.芬利 (Allysia Finley)的觀察,當人工智慧愈來愈聰明,年輕的大學畢業生卻似乎變得愈來愈笨。很多年青人只是機械式地在人工智能或者搜索引擎中拿取快速的答案,自己無法提出嶄新見解或從多角度去分析問題。一些教授抱怨說,很多學生直接呈交大型語言模型生成的所謂「論文」,連一些很明顯的錯誤也懶得去修正。芬利指出,人的大腦如同肌肉,需要挑戰與刺激才能發展,尤其是在20幾歲的成長關鍵期。但當人工智能代替我們思考,就會出現一種稱為「認知卸載」(cognitive offloading)的現象,那就是將思考外判出去,大腦自然也就無法成長與強化。這如同埃洛伊人失去體能與智慧,我們為了方便和舒適而讓頭腦退化。

其實,這種科技導致頭腦懶惰的情況不單只發生在年輕學生身上,專業人士亦墮入這個陷阱。去年2月,一份生物學期刊出版了一篇研究論文,但有人發現插圖上的字完全沒有意思,其實這是人工智慧的作品,早期的人工智慧圖片生成工具仍然有很多漏洞,其中之一是無法串出正確的字,那幾位「出貓」的「學者」也懶得用Photoshop去修改和掩飾。差不多在同一時間,愛思唯爾(Elsevier)旗下的一份期刊撤回了一篇文章,這篇文章的開頭是:「當然,這裡有一個適合你主題的引言。」這句話是典型人工智慧答案的開場白,作者竟然搬字過紙!今年7月,著名學術出版社Springer Nature撤回了一本已經出版的書籍,這本書是關於機械學習,但學術監察團體Retraction Watch發現這本書大部份的參考書目都是子烏虛有,很明顯都是用人工智慧生成的,但作者竟然懶得去查證和修改。

一方面,普遍人失去了基礎的技能和思辨能力,人們愈來愈似威爾斯小說裡面的伊洛伊人;但另一方面,有一群精英則通過建立高科技,為普遍人提供方便而舒適的生活,這包括了科技龍頭公司的領導人、科學家、工程師、程式設計師與研究人員,在某種意義下,他們好像威爾斯筆下的摩洛克人。他們了解系統的深層原理,也知道如何操作這些工具。他們握有巨大影響力:透過演算法和資訊傳播去引導人的思考,過濾知識內容來建立主旋律與規範,並以數據分析與監控技術觀察行為。在某些極端觀點中,這個精英階級不只是啟動社會,他們可以為了權力、利益而是操縱社會。在不知不覺下,他們的影響早已滲入我們每日使用的平台、推薦系統與數位基礎設施之中。好像摩洛克人一樣,這一切都是躲藏於黑暗地底,普遍人成為他們的獵物、韭菜,而這群精英則變成了掠食者。

然而,我們也不應將這情況過於二元化,並非所有科技巨頭都是摩洛克人,許多科技人士其實是理想主義者、開源運動者,他們努力推動人工智能民主化與資訊透明化。同時,今日的所謂「埃洛伊人」仍有很大程度的自主性,我們擁有教育機會、政治參與權、言論自由,也可以組織反對力量。在威爾斯小說中,被動者的命運無法逆轉,但與此不同,我們的未來仍有無限可能。真正的問題並不是人工智慧和其他科技令我們智能退化和耽於逸樂,而是我們自願地放棄了思考的責任,自己選擇成為埃洛伊人。

水能載舟,亦能覆舟,最終,我們塑造自己,未來由我們決定。

人類集體幻覺與人工智能幻覺

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
02/07/2025
專欄:有情無國界
國家:美國

前一陣子美以伊的戰爭成為了熱門話題,在YouTube等社交媒體上許多人紛紛發表評論。坦白說,若果以學術標準去衡量,許多評論都是不合格的。我這樣說並不是針對那些網紅的立場,關鍵問題是:許多主要意見領袖連基本歷史都搞錯了。

亨利八世提出宗教改革和邁向政教分離?

例如一位擁有三十幾萬訂戶的網紅談論伊朗的神權統治,他指出:在政教合一下,人民的基本權利受到壓制,伊朗的出路應該是脫離政教合一,走向世俗化。他說西方社會也走過這條漫長的道路,天主教、基督教在千多年來亦是政教合一,直至英國亨利八世提出宗教改革,才漸漸淡化下來。

聽見這話的時候我幾乎昏到,稍為熟悉宗教歷史的人都知道,發起宗教改革的是馬丁路德。亨利八世與天主教會決裂,神學思想、政治主張並不是雙方的爭拗點,這主要是因為亨利八世想離婚,但教宗不批准。隨後英國國教擺脫了梵蒂岡,但政教合一的基調完全沒有改變。在宗教改革期間,其實加爾文在日內瓦亦是搞神權統治。西方世俗化的真正思想源頭是啟蒙運動,推動者包括伏爾泰、洛克、孟德斯鳩、盧梭,例如洛克極力主張容忍不同宗教思想,政府不應該干涉人民的信仰。而將政教分離落實的是美國獨立革命之後成立的新政府,美國憲法第一修正案標明:國會不得制定法律去確立國教或者禁止信仰自由。

列根售賣武器給伊朗去打擊伊拉克?

此外,一位網台政治評論員在回顧美國與伊朗的歷史時提出「伊朗門事件」,他說美國的列根總統秘密售賣武器給伊朗,是為了打擊伊拉克,但伊拉克挺過來,直至老布殊、小布殊總統上任,美國才能夠襲擊和摧毀伊拉克政權。

這是完全顛倒過來的!1979年高美尼成功奪取伊朗統治權之後,對外輸出什葉派革命,在兩伊戰爭期間,列根政府支持伊拉克,從而對抗日益向外擴張的伊朗勢力,列根政府對伊拉克提供經濟援助,共享情報,並且間接運送武器。列根政府也向伊朗出售武器,但這是因為伊朗支持的黎巴嫩民兵挾持了美國人質,列根政府公開宣稱不會與恐怖份子談判,故此只能夠暗地裡通過伊朗的渠道營救人質,而販賣軍火得來的資金,則用來資助對抗蘇聯陣營的尼加拉瓜反共游擊隊。

什葉派好戰,遜尼派愛和平?

在另一個中文頻道中,一位網紅提及伊朗神權政府的什葉派背景,他說什葉派是好戰份子,而遜尼派是和平的。此話真是不知從何說起?哈馬斯、基地組織、伊斯蘭國、曾經入侵科威特的薩達姆都是遜尼派穆斯林。事實上,兩個派系的極端份子都不斷地互相仇殺,舉例說,2003年美國入侵伊拉克並推翻薩達姆政權之後,遜尼派叛亂份子(尤其是伊拉克基地組織)將什葉派平民和聖地作為攻擊目標,其中最臭名昭著的一次是2006年轟炸阿斯卡里清真寺,這次攻擊引發報復性殺戮,並將伊拉克推向內戰。

在敘利亞內戰期間,阿拉維派(什葉派分支)阿薩德政權得到了伊朗和真主黨的支持,從而對付包括伊斯蘭國在內的遜尼派反叛組織,後者經常襲擊什葉派社區和標誌性建築。在巴基斯坦,「虔誠軍」等遜尼派武裝組織經常針對什葉派穆斯林發動炸彈襲擊和槍擊,造成大量平民傷亡。阿富汗也發生了類似的暴行,遜尼派極端組織「伊斯蘭國呼羅珊派」(ISIS-Khorasan)多次轟炸什葉派學校和清真寺。在波斯灣區域,沙地阿拉伯鎮壓什葉派異見人士。在也門,伊朗支持的什葉派胡塞武裝與沙地阿拉伯領導的遜尼派聯盟進行了多年的殘酷鬥爭。以上例子只是冰山一角而已。

網紅應該知道查證資料和社會責任

在資訊封閉的國家,人民固然會受困於愚民教育。然而,資訊發達和自由的國家卻好像發生了殊途同歸的現象,如今互聯網上充斥著錯謬的資訊,有些是故意的歪曲,有些是「無心」之失,我將無心這兩個字放入引號裡面,因為這情況發生在有意無意之間。許多網紅都受過大學教育,有些甚至擁有碩士、博士學位,他們所受的學術訓練包括了蒐集和查證資料,也包括了研究倫理,例如錯誤資訊對社會的負面影響。他們應該知道這一切,但仍然如此粗疏,故此無心並不是開脫的藉口。

人工智能與人類的共通點:想當然耳

而很多讀者、聽眾也不會花時間核實資料,結果整個社會出現了人類集體幻覺這怪現象。現在很多人擔憂「人工智能幻覺」(AI Hallucination)這問題,人工智能幻覺是指大型語言模型產生的訊息看似很有說服力,但有時候是錯誤,甚至是憑空捏造的。之所以會發生這種情況,是因為大型語言模型是一種基於或然率的預測模型,即使資料不足,它仍然會猜測可能的答案,從而填補空白。從這個角度來看,人工智能是很人性化的,這種「有斷估、冇辛苦」的做法是普遍的人性,《後漢書.卷七十.孔融傳》記載:孔融與曹操談論歷史問題的時候,孔融說:「武王伐紂,以妲己賜周公。」曹操從未聽聞過這段歷史,於是追問孔融這是出於何經何典,孔融回答:「以今度之,想當然耳。」

機械學習會不斷自我完善

不過,「人工智能幻覺」與人類幻覺有一個很大不同的地方,那就是前者會認錯和修正,畢竟,機械學習的特徵就是檢討錯誤、不斷吸收新資訊、不斷完善自己。有好幾次人工智能向我提供錯誤的資訊,我向它反駁,並且提出證據,人工智能馬上道歉,跟著認真地重新搜集資料,最後生產出正確的答案。

但人的反應卻截然不同,在大多數情況下,無論我舉出幾多有力的證據,對方仍然堅持自己是對的,而往往提出的理由是千奇百怪,例如說「現在傳播的資料都是被深層政府操控」、「你已經被洗腦」、「你已經中了毒」等等。

而且,人工智能的錯誤目前還偏向個體使用情境下的問題,但通過社交媒體而傳播的人類集體幻覺,往往導致的是社會撕裂、人民支持錯誤的政策、歷史錯誤不斷循環,從這個角度說,人類幻覺的社會成本其實更高、更難修正。

發揮人類的特質,成為AI的主人

吳慧華 | 生命及倫理研究中心高級研究員
23/06/2025

AI引發失業危機,截然不同的工業革命4.0〉一文曾提到,幾次工業革命對於人們的生活,特別是工作上的影響,不少人認為第四次工業革命與之前的工業革命一樣,新的科技在取代原有工作崗位的同時,還是會在市場上為人類帶來不少新興的職位,但事實上是,第四次工業革命在本質上與之前的工業革命截然不同,它對人類社會帶來了天翻地覆的改變。曾在Google及騰訊擔任要職的吳軍博士,在其著作《超級智能時代》中也提到:「與之前三次重大技術革命一樣,智慧革命對社會的衝擊將是巨大的,它會影響到上至國家,中到企業,下至個人的命運。從目前的發展來看,智慧革命對社會的衝擊,甚至有可能超越過去幾次技術革命。」[1]

衝擊有多大?在強勁的人工智能(AI)工具,如ChatGPT、Gemini、Perplexity、Midjourney、DeepSeek活躍於人類舞台之前,富士康前任董事長郭台銘在2013年的股東大會上,已經表示公司當時僱用了百萬人,但他打算在往後的日子建立百萬機械人大軍。[2] 一旦建成了一支機械人大軍,即使仍然需要人類監管及維修機械人,相信只有極少數人類員工可以加入富士康。關於AI革命的時代,吳軍提到,第一次和第二次工業革命帶來的負面影響,都花了半個世紀以上的時間來消化,至於第三次工業革命,至今還未消化完,而在全球化之下,世界已經沒有多餘的空間來開拓新市場,因此AI革命帶來的衝擊,強度將是過去的兩倍。[3] 另外,他更殘酷地指出AI革命要替代的,是人類最值得自豪的大腦。[4]

吳軍的話並非危言聳聽,德勤(Deloitte)的AI業務資深顧問Thomas H. Davenport及編輯兼作家Julia Kirby在他們的著作《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》亦提到:「這次可能受害的人不再是銀行櫃員與高建公路收費員,更不會是農民與工廠工人,而是以為自己不會被機械取代的『知識工作者』,也就是本書的作者和讀者。」[5] 多年前,人們看到此番言論,或許會認為這只是吸引人眼球的誇大之詞,但時至今日,眼看各大AI工具,能寫文作詩、能繪圖、能製作工作計劃書、能編輯翻譯,還有許多尚待發展的功能,要與AI工具比記憶、比效率、比產量,人類無疑是立在必敗之地,那麼人類到底需要做甚麼,工作崗位才不致被AI取代?

而那些懂得率先運用新技術的人,是否就能立在不敗之地?假如一位設計師轉而學習開發應用程式,還能設計出新的AI工具,用以製作精美的設計圖,這便能確保自己有生之年都能以設計賴以為生嗎?又或是一名有職業操守的作者,雖然不會運用AI工具生成一篇文章,然後冠上自己的名字將之發佈,但當點子用光時,懂得「參考」一下AI工具建議的寫作大綱,又是否能夠保障自己永遠都有暢銷的作品推出?

正所謂知己知彼,在此可以先了解一下大概甚麼性質的工作,是容易被機械或AI取代。容易被取代的工作具備以下的特性:一、核心職務部份已經由自動化系統執行的工作;二、單純接觸機械的工作;三、工作內容單純的把資料傳輸給其他人或只作簡單的內容分析;四、單純依賴資料來回答問題的工作;五、在虛擬情境中便能模擬或執行的工作;六、重複及要求一致性的工作;七、只是依據正式的規矩辦事的工作等。[6] 從上屬的工作特性來看,不難想像以下的人類工作將有機會漸漸被機械或AI取代:一、有關機器操作的工作如產品處理、測試、包裝等;二、倉務員;三、司機;四、會計;五、研究分析員;六、財務分析和預測員;七、旅遊顧問;八、翻譯員;九、校對員;十、律師助理;十一、平面設計師;十二、電腦程式員;十三、內容寫作員等。[7]

明光社

雖然有些工作因其性質而容易令人類被AI取代,但也有一些傳統的工作是AI取代不來的,例如教師、護士、社工、治療師、雜工、維修技工、律師、人力資源專員、作家、藝術家、公司的執行長、宗教領袖及屬靈導師等。[8] 這些不容易被AI取代的工作都有一些特性,是在那些容易被AI替代的工作中找不到的,便是需要與人接觸、溝通及協調,能夠敏銳地感應他人的需要,具備獨特的洞察力及分析能力,又或是需要巧手來處理細微的工序。例如同是寫作,為甚麼內容寫作員的飯碗容易朝不保夕,作家卻難以替代,因為前者寫作的內容比較簡單,有時可以「搬字過紙」,而後者則需要運用創造力、想像力、洞察力,令其作品帶有感染力,又或是影響讀者的能力。當讀者親自體會到作者表達出自己不知如何表達的情感或意見時,自然會忍不住認同叫好,拍案叫絕,就如梁啟超在〈論小說與群治之關係〉一文中提到:「無論為哀、為樂、為怨、為怒、為戀、為駭、為憂、為慚,常若知其然而不知其所以然;欲摹寫其情狀,而心不能自喻,口不能自宣,筆不能自傳。有人焉,和盤托出,徹底而發露之,則拍案叫絕曰:善哉善哉!如是如是!所謂『夫子言之,於我心有戚戚焉』。感人之深,莫此為甚。」對讀者來說,一旦遇上這樣「深知我心」的作家,又怎會捨得放棄他們。

更甚者,人類能在工作中表現出狂熱、情感及愛心,絕對是機械及AI不能做到的。這裡所指的工作不是指一份職業(job),而是如《越工作,越自由》一書的作者Emily所界定的,工作如一件度身訂造的衣服,不是單獨存在,而是由穿衣服的人為它賦予意義的。[9] 同樣是做售貨員,為甚麼有些人即使未等AI出現便已被淘汰,有些人則在寒冬期仍能業績不斷?很有可能因為後者不僅對工作投入熱情,也能夠靈活變通,懂得投其所好,為客人制定個人化的方案。[10]

的確,發展至今,人們能通過AI分析大數據掌握客人的喜好,並採用「由商品直接推薦商品」系統來推銷,像亞馬遜平台那樣,準確及有效地向客人推薦商品,[11] 但一個懂得察言觀色、能言善道的售貨員所帶來的成果,則是讓人意想不到的。司徒永富博士在《老闆要的不是牛》一書中,說了一個令人會心微笑的小故事。話說一位印度人移民加州之後,到了一間大型百貨公司應徵做售貨員,老闆決定試用他,一天之後,這位售貨員只做了一宗生意,但交易的金額高達101,200美元。售貨員向老闆交代當中的細節,他說自己先賣了一個小魚鈎,再賣一個中魚鈎,然後再賣多一個大魚鈎,接著是魚竿和工具,買了這些東西,顧客自然想去海邊,於是售貨員提議他買一隻艇,當顧客表示其座駕的馬力不足以拉動小艇,售貨員就提議他買一部新車及露營帳篷、零食及啤酒。老闆正驚訝於此人竟然可以說服一個本來只想買魚鈎的客人去買其他東西時,售貨員卻提到,一開始,這位顧客只是隨便逛逛,是他先提議顧客去釣魚。[12] 故事是故事,不需要考究事件在現實中發生的機率如何,講這故事的作者,想要表達的是公司欣賞的不是那些按本子辦事的員工,而是能凡事想多一步的人才。在此提及這故事,則是想引申,AI可以取代運算力極強的大腦,卻難以取代一顆懂得靈活變通,就地取材,敏銳他人還未想到事情的大腦。[13] AI懂運算,人類則懂應用不同的方法與策略。

AI無論如何強大,都只是模擬人類的「作品」,神創造人類有豐富的特質:幽默感、創造力、想像力、自主能力、意志力、反思能力、好奇心及同理心等,這些特質推動人類在不同時代創作出嶄新的事情,這些事情都是只顧「吞」資料的AI難以完成的。

掌握AI的動向,學習使用AI工具迎戰未來固然重要,發現自己的特質,發揮自己所長,善用而不過份依賴AI,則是絕對不容忽視的。


[1] 吳軍:《超級智能時代》(台北:高寶國際出版,2016),頁338。

[2] 戴文波特、柯比著,王鼎鈞譯:《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》(台北:商業周刊,2016),頁22–23。

[3] 吳軍:《超級智能時代》,頁339。

[4] 同上書,頁340。

[5] 戴文波特、柯比著:《下一個工作在這裡!》,頁26。

[6] 參戴文波特、柯比著:《下一個工作在這裡!》,頁40-44;Rachel Wells, “11 jobs AI could replace in 2025 – and 15+ jobs that are safe,” Forbes, March 10, 2025, https://www.forbes.com/sites/rachelwells/2025/03/10/11-jobs-ai-could-replace-in-2025-and-15-jobs-that-are-safe/.

[7] Wells, “11 Jobs AI could replace in 2025,”; Matthew Urwin, “AI taking over jobs: what to know about the future of jobs,” built in, May 15, 2025, https://builtin.com/artificial-intelligence/ai-replacing-jobs-creating-jobs.

[8] Urwin, “AI taking over Jobs,”; Kinza Yasar, “8 jobs that AI can’t replace and why,” TechTarget, September 6, 2024, https://www.techtarget.com/whatis/feature/Jobs-that-AI-cant-replace-and-why.

[9] Emily Liu:《越工作,越自由:最大的探索,最豐盛的人生》(台北:遠流出版,2023)。

[10] 參李開復、陳楸帆:《AI 2041:預見10個未來新世界》(台北:遠見天下文化,2024),頁50。

[11] 吳軍:《超級智能時代》,頁163。

[12] 司徒永富:《老闆要的不是牛》(香港:天窗,2015),頁131。

[13] 參李開復、陳楸帆:《AI 2041》,頁50。