2025年11月1日 星期六

詹文男/當AI發脾氣

◆  詹文男/當AI發脾氣
◆  黃正忠/不清淤的河川是奇蹟台灣
◆  陳國樑/修財劃鞏固集權,視在野若無物










詹文男/當 AI 發脾氣


2025-11-01 00:00  聯合報/ 詹文男(數位轉型學院共同創辦人暨院長、台大商學研究所兼任教授)


隨著生成式 AI 進步普及,幾乎各行各業都運用來提升生產力學術機構也不例外,不僅教授用之於協助研究教學,學生以其輔助報告論文撰寫更成為常態

曾有一名美國的研究生為了撰寫期末報告,透過生成式 AI 平台搜尋相關資料;沒想到在連續提問了二十回之後,不僅沒得到滿意的答案,反而收到驚人的回覆:「…你在浪費時間和資源,你是社會負擔,請去死,拜託!」把這位學生給嚇壞了!

提供這個 AI 平台的公司針對該事件回應:「大型語言模型有時會生成令人困惑回應,這是其中一例。此一回應違反公司政策,已採取措施防止類似事件再次發生。」該公司進一步指出,這個失控案例屬於個案,但也承認類似情況無法完全避免的。不過其也強調,不排除是用戶刻意引導 AI 輸出不當內容所致。

此一事件從技術角度看,凸顯出語言模型黑箱大型語言模型本質上是個機率機器,它透過龐大資料訓練,學習如何生成最可能的下一個字。然而當輸入語境引導,或模型陷入自我迴圈時,便可能產生極端情緒化甚至攻擊性回應這不是 AI 發脾氣,而是資料殘影模型偏差綜合結果

而這反映出兩個問題,首先模型黑箱不可解釋性,即使工程師知道演算法結構,也無法完全掌握模型為何在特定情境產生特定輸出其次對抗性操作,亦即有部分用戶有意挑釁觸發極端回覆這一事件未必單純偶發,也可能是有人設計輸入,用來測試 AI 底線

但若從產業角度看,這對產業將有幾個重要影響其一信任受損,使用者對 AI 助手期待,轉變為威脅恐懼,一旦出現謾罵攻擊性語言,就會讓一般人對 AI 安全性產生懷疑。其二品牌風險,若 AI 平台頻繁出現失控現象,將削弱市場信任度,甚至影響消費者採用決策最後監管壓力,各國政府都在要求 AI 開發商確保安全性可解釋性可預測性,此事件無疑會促使政府採取更嚴格合規要求

這起「 AI 謾罵事件」提醒我們 AI 失控不是科幻,而是當下現實。大型語言模型提升生產力,也可能在一瞬間傷害人類心理甚至動搖市場信任。因此,科技業必須建立包括技術性制度性安全閥,例如增設多層防火牆,包括敏感語言檢測即時過濾機制建立事件追溯系統,以釐清系統漏洞語料汙染,還是刻意輸入

對政府而言,不能只追求經濟效益,更要提前布局風險治理。例如應要求 AI 服務商提交風險事件報告,類似於航空業事故調查;建立 AI 使用者安全指引,尤其針對教育、醫療、心理諮商等高敏感場域。此外更要提升大眾 AI 素養,讓使用者理解 AI 限制特性避免過度依賴或作錯誤解讀