2026年1月17日 星期六

杜紫宸/虎崽、水管工與資本貪婪演算法

◆  杜紫宸/虎崽、水管工與資本貪婪演算法
◆  劉大年/戰爭換不到民心的川普
◆  黃齊元/軍事AI化,改寫未來戰爭型態








杜紫宸/虎崽、水管工與資本貪婪演算法

2026-01-17 00:00  聯合報/ 杜紫宸(作者為中華大學兼任講座教授)


民國一一三年(二○二四年)年底,被尊稱為「人工智慧之父」的辛頓在諾貝爾物理獎獲獎演說,及後續多家國際媒體訪問,帶給世界的並不只是科學成就榮耀,還有清晰而不安警告。這位終身投入神經網路研究的學者,近年言論引發全球關注,並非因為描繪駭人的科幻末日,而在於他將人類社會的集體困境說得過於直接:真正逼近文明的威脅,不是某個模型突然覺醒,而是人類親手把整個社會綁進「贏者全拿」的激勵機制,並在缺乏煞車的情況下持續加速

辛頓最廣為流傳的比喻,是那隻「可愛的虎崽」。他將當前的高階 AI 比作被人類抱在懷中的幼虎,人們為其效率與能力著迷,卻選擇忽略演化基本事實辛頓提醒,除非能百分之百確定老虎長大後不會反噬,否則過度樂觀本身就是對文明不負責。這不是情緒性恐嚇,而是治理上的核心問題AI 從被動回應的「問答工具」,轉向能自主規畫串接工具執行任務的「代理人」系統,一旦能力跨過臨界點,比人類更聰明的實體便可能學會操縱環境以達成目標,屆時是否仍能由人類決定「關掉電源」,將不再理所當然

真正推動失控風險的不只來自技術本身,而是其背後的資本。辛頓在多次國際媒體訪談中直言,大型科技公司正積極遊說政府降低監管。這揭露了當代最尖銳矛盾:我們把足以改寫人類演化進程高風險技術,交給必須股東負責逐利組織,卻期待它們在競爭最激烈時踩煞車。辛頓因此主張,應強制要求 AI 企業將固定比例算力研發資源投入安全研究,否則在缺乏外部約束情況下,企業理性必然把安全視為成本、把速度視為獲利引擎最終演化為一套「資本主義貪婪演算法在這套演算法中,壟斷增長才是唯一被優化目標

除了系統性風險,辛頓也將威脅具象化能力的「向下平權」。他警告,當 AI 大幅降低生物武器合成高階網路攻擊門檻,風險就不再專屬於少數專家,而會被封裝成任何人都能執行的指令。這意味著風險對稱性崩解防禦方必須投入高昂制度成本破壞方卻只需一段精準提示語。若治理只聚焦模型參數,卻忽略部署擴散濫用管道管理,就如同只檢查引擎性能,卻放任危險行為高速公路橫行

在社會層面,辛頓對就業尊嚴討論同樣值得深思。他常被引用的「未來最好的工作可能是水管工」這句話,其實指向「不可自動化之價值」。這不是貶低知識工作,而是指出,在數位勞動高度自動化的時代,那些必須進入真實物理世界、處理非線性情境,並對結果負最終責任的工作,反而更具韌性。問題不在藍領或白領,而在於教育與分配體系是否能回應這場結構性轉變。補貼或許能維持生存,卻難以填補工作所承載的人類尊嚴被削弱後留下的空缺。

辛頓的警示核心始終一致:AI 的危險不在於機器是否變壞,而在於人類將它嵌入錯誤的獎勵機制,卻缺乏足以對抗逐利加速的公共治理警惕的從來不是 AI 失控,而是人類仍假裝市場能自我修正災難。當技術以指數速度前進,制度卻仍線性調整,失衡幾乎不可避免。辛頓的提醒在於:虎崽長大後會不會咬人,將不只是科學問題,而是制度選擇。在承認市場極限、強化公共治理之前,人類仍握有最後的決定權。