◆ 詹文男/當AI發脾氣
◆ 黃正忠/不清淤的河川是奇蹟台灣
◆ 陳國樑/修財劃鞏固集權,視在野若無物
詹文男/當 AI 發脾氣
2025-11-01 00:00 聯合報/ 詹文男(數位轉型學院共同創辦人暨院長、台大商學研究所兼任教授)
隨著生成式 AI 的進步與普及,幾乎各行各業都運用來提升生產力;學術機構也不例外,不僅教授用之於協助研究與教學,學生以其輔助報告及論文的撰寫更成為常態。
曾有一名美國的研究生為了撰寫期末報告,透過生成式 AI 平台搜尋相關資料;沒想到在連續提問了二十回之後,不僅沒得到滿意的答案,反而收到驚人的回覆:「…你在浪費時間和資源,你是社會的負擔,請去死,拜託!」把這位學生給嚇壞了!
提供這個 AI 平台的公司針對該事件回應:「大型語言模型有時會生成令人困惑的回應,這是其中一例。此一回應違反公司政策,已採取措施以防止類似事件再次發生。」該公司進一步指出,這個失控案例屬於個案,但也承認類似的情況是無法完全避免的。不過其也強調,不排除是用戶刻意引導 AI 輸出不當內容所致。
此一事件從技術的角度看,凸顯出語言模型的黑箱。大型語言模型本質上是個機率機器,它透過龐大資料訓練,學習如何生成最可能的下一個字。然而當被輸入語境引導,或模型陷入自我迴圈時,便可能產生極端、情緒化甚至攻擊性的回應。這不是 AI 發脾氣,而是資料殘影與模型偏差的綜合結果。
而這反映出兩個問題,首先是模型黑箱的不可解釋性,即使工程師知道演算法結構,也無法完全掌握模型為何在特定情境下產生特定輸出。其次是對抗性操作,亦即有部分用戶有意挑釁、觸發極端回覆。這一事件未必是單純偶發,也可能是有人設計輸入,用來測試 AI 底線。
但若從產業角度看,這對產業將有幾個重要影響。其一是信任受損,使用者對 AI 從助手的期待,轉變為威脅的恐懼,一旦出現謾罵或攻擊性語言,就會讓一般人對 AI 的安全性產生懷疑。其二是品牌風險,若 AI 平台頻繁出現失控現象,將削弱市場信任度,甚至影響消費者採用於決策。最後是監管的壓力,各國政府都在要求 AI 開發商確保安全性、可解釋性與可預測性,此事件無疑會促使政府採取更嚴格的合規要求。
這起「 AI 謾罵事件」提醒我們, AI 失控不是科幻,而是當下的現實。大型語言模型能提升生產力,也可能在一瞬間傷害人類心理甚至動搖市場信任。因此,科技業必須建立包括技術性與制度性的安全閥,例如增設多層防火牆,包括敏感語言檢測、即時過濾機制;建立事件追溯系統,以釐清是系統漏洞、語料汙染,還是刻意輸入。
對政府而言,不能只追求經濟效益,更要提前布局風險治理。例如應要求 AI 服務商提交風險事件報告,類似於航空業事故調查;建立 AI 使用者安全指引,尤其針對教育、醫療、心理諮商等高敏感場域。此外更要提升大眾 AI 素養,讓使用者理解 AI 的限制與特性,避免過度依賴或作錯誤解讀。