2026年3月27日 星期五

陳力俊/美國大法官雋語與馬年警句

名人堂電子報http://paper.udn.com/papers.phppname=PID0030&page=1#ph  

◆  陳力俊/美國大法官雋語與馬年警句
◆  葉銀華/非核使台灣陷入能源困境
◆  林中斌/美攻伊朗 意外隨後
◆  方祖涵/花椰菜汁與生物駭客的競賽
◆  張延廷/接收F-16V新機的必要認知










陳力俊/美國大法官雋語與馬年警句

2026-03-27 00:00  聯合報/ 陳力俊(作者為中研院院士、清大特聘研究講座教授)


日前美國最高法院以六比三裁定川普政府提出的「對等關稅」違憲。判決一出,川普在社群媒體上怒罵部分大法官「不知羞恥」,並以激烈言辭攻擊自由派法官。然而,正是這種政治壓力之下仍然作出的判決,反而讓不少觀察者更加確信:美國的三權分立雖然飽受政治極化衝擊,但司法仍保有一定程度的獨立性制度韌性

羅伯茲之所以備受尊重,除了在多項重大判決中維持制度平衡外,也因為他對公共倫理的深刻理解。民國一○六年(二○一七年),他在兒子畢業典禮上的致詞廣為流傳,他祝願年輕人:「我希望你們不時遭遇不公,這樣你們才會懂得正義的價值我希望你們遭遇背叛,這樣你們才能理解忠誠的重要我甚至希望你們偶爾遭遇厄運與失敗,因為那會讓你們明白成功並非理所當然。」

這段話的深意在於:人格與正義感,往往不是在順境中培養,而是在挫折與不公平中形成。對司法而言更是如此。當政治權力強大到足以威嚇制度時,法官若仍能依憲行事,那才是真正的憲政精神。

反觀台灣的憲政環境,不免令人憂心。近年來憲法法庭屢因程序爭議與政治疑慮引發社會質疑。部分案件在審理過程中排除不同意見,甚至出現被外界認為判決「先有結論、再找理由」。若司法裁判逐漸被視為政治工具,而非憲法秩序的最後防線,那受損的不只是某一案件的正當性,而是整個制度的公信力。

正值馬年,人們見面時常以「馬到成功」、「馬上發財」互道祝福。然而有許多與「馬」相關的警語,其實更值得深思。

首先是「又要馬兒好,又要馬兒不吃草」。這句話說的是要求成果,卻不願付出代價。以科研與教育為例,廿年前台灣在自然與工程科學領域的整體實力普遍領先中國大陸;今日在不少領域卻已看不到對岸的車尾燈。關鍵就在於資源投入與國家戰略。若政府與社會長期吝於投入科研資源,卻又責備學界表現不佳,這正是典型的「要馬兒跑,卻不給草」。

其次是「馬不知臉長」。這句話用來形容只看見別人的問題,卻不願自省。公共政治若長期陷入這種文化,便會出現嚴重的雙重標準:在野時高喊制度正義,執政後卻迅速改變說辭。更糟的是「指鹿為馬」,透過宣傳與認知操作顛倒是非。

再者是「馬失前蹄」。任何政權若過度自信、輕視民意,往往會在意想不到之處跌倒。近年的政治攻防已一再顯示,若把政治鬥爭視為唯一目標,而忽視制度穩定與社會信任,最終會付出代價。

然而,在與馬相關的典故中,最具智慧的仍是「塞翁失馬,焉知非福」。歷史從來不是直線前進。看似挫敗,有時反而會促成反思與改革;看似輝煌勝利,也可能為未來埋下隱患。

羅伯茲的演說其實正與這則寓言互相呼應:挫折、背叛與不公,往往正是理解正義與同情的起點。制度若要長久,也必須在壓力與危機中不斷接受檢驗。

馬年可能「躍馬中原」,也可能「萬馬齊喑」。歷史一再提醒人們:制度的強弱,不取決於口號,而取決於是否仍有人願意守住原則。若司法失去脊梁、政治失去節制,再多「馬到成功」的祝福,也只不過是自我安慰而已。












黃正忠/應用AI的最大隱憂

◆  黃正忠/應用AI的最大隱憂
◆  杜紫宸/當AI協助犯罪 誰該負責?
◆  李清志/上帝手中的大提琴
◆  黃齊元/五年後 想像兩岸和解場景
◆  詹文男/當AI假裝愛上你










黃正忠/應用 AI 的最大隱憂

2026-03-27 00:13  聯合報/ 黃正忠(作者為安侯永續發展股份有限公司董事總經理)


最近朋友拿一份政府標案規格給我看,請我判斷是否可行。第一遍閱讀,懷疑背後有高人操刀,因跨領域術語齊備,語句俐落,格式工整,連最新國際議題嵌得毫無違和第二遍閱讀,深覺這不是高明,而是危險。因為它把尚未定案國際標準,寫成彷彿已可直接採用執行要求;把根本還沒有全球共識科學基礎,包裝成理所當然交付門檻;更把需要法規產業治理專業的大型研究工程,壓進一個與工作量明顯失衡的預算框架。後來朋友告知,這份標規草案出自 AI 協作,正好驗證應用 AI 最可怕的,是它可以把錯的東西寫得太像對的。

當下社會普遍把 AI 描繪成無所不能,背後的風險簡化理解成「取代大量人力」,然更深的問題是:它正在替不成熟的決策製造一種近乎專業、完整、無懈可擊的幻象。當一份政策標案規格法務意見研究架構 AI 生成,表面上術語精準邏輯完整格式無懈承辦人決策者很容易就把「看起來專業」誤認成「經專業驗證」。危險不是 AI 太聰明,而是人類可能太快、太容易就把判斷外包

美國商務部國家標準技術研究所 民國一一三年(二○二四年)發布生成式 AI 風險管理文件,特別提醒內容來源、可驗證性、供應鏈與幻覺風險;史丹佛大學人本 AI 研究中心發布的《二○二五 AI 指數》則指出,民國一一三年(二○二四年)全球 AI 相關事件增至二三三件,較前一年增加百分之五十六點四。都說明同一件事:AI 最大的問題是太會寫,以致人類鬆懈查核

民國一一三年(二○二四年)加拿大航空因客服聊天機器人提供錯誤票務資訊而被裁定公司仍須負責;工程顧問公司 Arup 香港員工遭深偽視訊會議詐騙,誤匯約兩千五百萬美元。民國一一四年(二○二五年)一名替政府提交意見的美國學者,也因使用生成式 AI 而出現虛構引註這些案例指出,AI 一旦進入客服、財務、法務與政策流程,錯誤就不再只是文字瑕疵,而是會直接轉化責任錯置金流損失制度風險

值得警惕的是,應該要嚴謹把關學術機構顧問單位,近來因應用 AI 產出造成的錯誤事件層出不窮,意謂整個研究專業服務產業都可能捲入「先上線、後補治理」的效率偽競賽誤觸踩雷風暴機率大增。

行政院已發布公部門使用生成式 AI 參考指引,強調各機關須建立一致認知內控措施AI 風險從來不是單純的行政效率問題,而是治理、資安、民主韌性與公共信任問題。若連標案上位策略都開始由 AI 主導定義,後續執行單位不只是多走冤枉路,而是可能在一開始就被帶往錯的方向,捲入生成式 AI 漩渦,偏離一步一腳印、最笨最紮實的路。

所以,現階段最需要堅持原則很簡單:AI 可以協助蒐集資料、整理選項、提供決策支援,但不能替代專業判斷,更不能未經充分諮商就決定「政府要做什麼」。真正稀缺的不是生成速度,而是定義問題的能力、辨識邊界的能力,以及承擔責任的能力。沒有這三件事,AI 寫出來的標規再漂亮,也可能只是把錯誤包裝權威,把危險提前埋進制度

如果我們當下無法對 AI 做出正確判斷,那勢必得為 AI 應用設下停、看、聽的柵欄!