◆ 黃正忠/應用AI的最大隱憂
◆ 杜紫宸/當AI協助犯罪 誰該負責?
◆ 李清志/上帝手中的大提琴
◆ 黃齊元/五年後 想像兩岸和解場景
◆ 詹文男/當AI假裝愛上你
黃正忠/應用 AI 的最大隱憂
2026-03-27 00:13 聯合報/ 黃正忠(作者為安侯永續發展股份有限公司董事總經理)
最近朋友拿一份政府標案規格給我看,請我判斷是否可行。第一遍閱讀,懷疑背後有高人操刀,因跨領域術語齊備,語句俐落,格式工整,連最新國際議題也嵌得毫無違和。第二遍閱讀,深覺這不是高明,而是危險。因為它把尚未定案的國際標準,寫成彷彿已可直接採用的執行要求;把根本還沒有全球共識的科學基礎,包裝成理所當然的交付門檻;更把需要跨法規、跨產業、跨治理專業的大型研究工程,壓進一個與工作量明顯失衡的預算框架。後來朋友告知,這份標規草案出自 AI 協作,正好驗證應用 AI 最可怕的,是它可以把錯的東西寫得太像對的。
當下社會普遍把 AI 描繪成無所不能,背後的風險則簡化理解成「取代大量人力」,然更深的問題是:它正在替不成熟的決策製造一種近乎專業、完整、無懈可擊的幻象。當一份政策、標案規格、法務意見或研究架構由 AI 生成,表面上術語精準、邏輯完整、格式無懈,承辦人與決策者很容易就把「看起來專業」誤認成「經專業驗證」。危險不是 AI 太聰明,而是人類可能太快、太容易就把判斷外包。
美國商務部國家標準技術研究所 民國一一三年(二○二四年)發布生成式 AI 風險管理文件,特別提醒內容來源、可驗證性、供應鏈與幻覺風險;史丹佛大學人本 AI 研究中心發布的《二○二五 AI 指數》則指出,民國一一三年(二○二四年)全球 AI 相關事件增至二三三件,較前一年增加百分之五十六點四。都說明同一件事:AI 最大的問題是太會寫,以致人類鬆懈了查核。
民國一一三年(二○二四年)加拿大航空因客服聊天機器人提供錯誤票務資訊而被裁定公司仍須負責;工程顧問公司 Arup 香港員工遭深偽視訊會議詐騙,誤匯約兩千五百萬美元。民國一一四年(二○二五年)一名替政府提交意見的美國學者,也因使用生成式 AI 而出現虛構引註。這些案例指出,AI 一旦進入客服、財務、法務與政策流程,錯誤就不再只是文字瑕疵,而是會直接轉化為責任錯置、金流損失與制度風險。
值得警惕的是,應該要嚴謹把關的學術機構與顧問單位,近來因應用 AI 產出造成的錯誤事件層出不窮,意謂整個研究與專業服務產業都可能捲入「先上線、後補治理」的效率偽競賽,誤觸踩雷風暴機率大增。
行政院已發布公部門使用生成式 AI 參考指引,強調各機關須建立一致認知與內控措施。AI 風險從來不是單純的行政效率問題,而是治理、資安、民主韌性與公共信任問題。若連標案上位策略都開始由 AI 主導定義,後續執行單位不只是多走冤枉路,而是可能在一開始就被帶往錯的方向,捲入生成式 AI 漩渦,偏離一步一腳印、最笨卻最紮實的路。
所以,現階段最需要堅持的原則很簡單:AI 可以協助蒐集資料、整理選項、提供決策支援,但不能替代專業判斷,更不能未經充分諮商就決定「政府要做什麼」。真正稀缺的不是生成速度,而是定義問題的能力、辨識邊界的能力,以及承擔責任的能力。沒有這三件事,AI 寫出來的標規再漂亮,也可能只是把錯誤包裝成權威,把危險提前埋進制度。
如果我們當下無法對 AI 做出正確的判斷,那勢必得為 AI 的應用設下停、看、聽的柵欄!