2026年3月26日 星期四

葉銀華/非核使台灣陷入能源困境

名人堂電子報http://paper.udn.com/papers.phppname=PID0030&page=1#ph  

◆  葉銀華/非核使台灣陷入能源困境
◆  林中斌/美攻伊朗 意外隨後
◆  方祖涵/花椰菜汁與生物駭客的競賽
◆  張延廷/接收F-16V新機的必要認知










葉銀華/非核使台灣陷入能源困境

2026-03-26 00:00  聯合報/ 葉銀華(陽明交通大學資管與財金系教授)


賴總統提出,在 AI 帶動電力需求、國際低碳規範壓力,以及地緣政治不確定性升高的三重因素下,政府將審慎評估核能重啟,同時推動再生能源發展。這樣的政策訊號值得肯定,因為當前的能源結構,已顯示「非核」正使我們陷入能源困境。

首先,從電力結構來看,台灣已更高度依賴火力發電。去年火力發電占比高達百分之八十四點七;而民國一一一年(二○二二年)火力發電占比百分之八十二點四。這意味即使大力推動能源轉型,電力來源仍然高達八成以上來自化石燃料,且比率還在增加。更值得注意的是,核能退場後,並沒有被再生能源有效填補。民國一一一年(二○二二年)核能占比尚有百分之八點二,但到去年僅剩百分之一點一;同期間再生能源占比從百分之八點三增加至百分之十三點一。換言之,核能減少的百分之七點一未被再生能源完全接手,最終由火力發電補上缺口。

其次,再生能源發展的進度,顯然落後於政策目標。去年太陽光電裝置容量為十五點四 GW,距原定廿 GW 目標有落差,而民國一一九年(二○三○年)卅 GW 的目標更顯艱鉅;離岸風電方面,去年達四點五 GW,也未達預期,更遑論民國一一九年(二○三○年)十三點一 GW 的規畫。再生能源雖然方向正確,但受限於土地、環評、供應鏈與社會接受度,其擴張速度以達成目標。

更重要的是,再生能源具間歇性。太陽能受天候影響,風電受風況限制,若缺乏足夠的儲能與電網調度能力,將增加系統不確定性。在此情況下,放棄核能、全力發展再生能源,反而可能犧牲供電穩定,進而影響產業運作與民生品質。

因此,核能的角色應被重新定位為「轉型過程中的關鍵橋接能源」。核能具備三項台灣當前極為需要的特性:低碳、穩定與可大規模供應。與再生能源相比,核能可提供基載電力,確保電網穩定;與火力發電相比,核能幾乎不排碳,有助於達成淨零目標。

台灣並非唯一面臨此一抉擇的國家。韓國去年清潔能源(再生能源與核能)電力占比約百分之四十一,核能占百分之卅點四;日本則為百分之卅五,核能占百分之九點五。這兩個能源同樣高度仰賴進口的國家,均未放棄核能,反而將其視為低碳轉型的重要支柱。相較之下,台灣去年清潔能源電力占比僅百分之十四點二,且在去年六月後進入零核狀態,等同將自身置於更高的減碳與供電壓力之中。甚且,近三年來,日本、韓國的清潔能源占比有增加的趨勢,但台灣不僅比較低、且還在下降。

若進一步考量 AI 發展,電力需求的成長將更加顯著,且對供電穩定性要求極高。在此情況下,若台灣無法提供穩定且低碳的電力來源,不僅可能影響投資意願,也可能削弱在全球科技供應鏈中的關鍵地位。台灣碳排放有高達九成來自能源部門,高於全球平均的七成多,增加清潔能源是減碳最重要關鍵。

因此,核能重啟不應被視為政策倒退,而應被理解為務實調整。問題不在「要不要核能」,在「如何安全、透明且有效地使用核能」,規畫核廢料處理方案與建立社會溝通平台,以獲社會信任。同時,再生能源與核能是互補關係,確保供電穩定,同時逐步提高清潔能源比重,方能增加民國一三九年(二○五○年)淨零目標達成的可能性。











杜紫宸/當AI協助犯罪 誰該負責?

◆  杜紫宸/當AI協助犯罪 誰該負責?
◆  李清志/上帝手中的大提琴
◆  黃齊元/五年後 想像兩岸和解場景
◆  詹文男/當AI假裝愛上你











杜紫宸/當 AI 協助犯罪 誰該負責?

2026-03-26 00:05  聯合報/ 杜紫宸(東海大學管理學院兼任教授)


人工智慧快速進入職場與日常生活,社會長期爭論的是「能不能用」、「會不會取代人類」。然而,真正的風險不在技術發展本身,而在於社會與法律制度是否跟得上變化。當 AI 開始協助說謊、作弊、偽造、詐騙,甚至被用於重大犯罪時,問題已不再是要不要使用 AI,而是:一旦出事,究竟誰該負責?

近年來,AI 偽造影像與文件層出不窮,語音模仿詐騙難以辨識,學生利用生成式 AI 應付作業與考試,企業客服系統自動產生錯誤資訊卻難以究責。這其實指向同一個制度裂縫AI 已被允許行動責任制度卻仍停留在人類操作工具的時代

傳統法律建立在清楚的邏輯之上:人操作工具,後果由人承擔。然而,生成式 AI 與具備一定自主決策能力的系統,已打破這種線性對應。一項 AI 行為,往往同時涉及模型設計者、平台部署者、場景使用者與受害者。當傷害發生,各方都可能主張「並非我單獨造成」,制度卻難以明確回答責任如何分配。

 AI 詐騙為例。詐騙者使用合法平台工具,模型訓練資料來自公開來源,平台未直接參與犯罪,使用者只是操作既有系統。最終,受害者面對的卻是責任被拆解、彼此推諉的局面。這不僅是犯罪手法升級,更是責任設計缺位

這個問題在自動駕駛領域將更尖銳。當無人駕駛車輛發生事故,責任究竟在誰?是監督者、車主、車廠、軟體供應商,還是系統整合者?若駕駛只是名義上監督者,卻被要求承擔全部責任;若車輛高度依賴 AI 判斷,卻缺乏清楚分配機制,事故發生時,責任勢必層層外推。這不只是交通法規問題,而是整個 AI 責任體系是否成熟試金石

類似困境,也已在教育、醫療與金融領域浮現。學生用 AI 代寫作業,是作弊,還是制度默許AI 輔助醫師判讀卻誤判,責任在醫師、醫院,還是系統供應商?投資人依賴 AI 分析蒙受損失,又該向誰追究?若沒有清楚答案,風險只會持續向下游轉嫁,最終落在最無力自保一方

更常被忽略的是司法體系準備程度。隨著 AI 詐騙、偽造與電腦犯罪常態化,第一線檢察官與法官是否具備足夠的技術理解,能否辨識模型運作邏輯數位證據特性,將直接影響裁判結果。若司法無法理解技術本質,責任歸屬就可能流於形式

然而,公共討論過度集中技術防堵:要求產品標示、提升辨識能力、限制特定功能。但技術防堵永遠追不上擴散。真正能降低系統性風險的,不是單純禁止 AI,而是建立清楚責任規則,讓所有參與者明白責任無法外包。

這正是數位治理須回應的課題。當 AI 被部署於金融、醫療、公共服務與自動駕駛等高風險場景,行政與立法部門有責任要求平台揭露風險建立補償機制,並即時修法避免制度滯後

同樣地,已於今年一月正式公布施行的「人工智慧基本法」不應流於宣示。行政機關與立法院應儘速建構配套子法,明確界定風險分級責任分擔保險機制正視「道高一尺,魔高一丈」的現實

 AI 不再只是工具,而是在特定條件授權行動責任就不能只落在最末端使用者身上。

 AI 帶來的不只是技術革命,更是責任結構重組。當技術授權行動責任無人承擔最終動搖的,將是整個社會信任基礎