◆ 杜紫宸/當AI協助犯罪 誰該負責?
◆ 李清志/上帝手中的大提琴
◆ 黃齊元/五年後 想像兩岸和解場景
◆ 詹文男/當AI假裝愛上你
杜紫宸/當 AI 協助犯罪 誰該負責?
2026-03-26 00:05 聯合報/ 杜紫宸(東海大學管理學院兼任教授)
人工智慧快速進入職場與日常生活,社會長期爭論的是「能不能用」、「會不會取代人類」。然而,真正的風險不在技術發展本身,而在於社會與法律制度是否跟得上變化。當 AI 開始協助說謊、作弊、偽造、詐騙,甚至被用於重大犯罪時,問題已不再是要不要使用 AI,而是:一旦出事,究竟誰該負責?
近年來,AI 偽造影像與文件層出不窮,語音模仿詐騙難以辨識,學生利用生成式 AI 應付作業與考試,企業客服系統自動產生錯誤資訊卻難以究責。這其實指向同一個制度裂縫:AI 已被允許行動,責任制度卻仍停留在人類操作工具的時代。
傳統法律建立在清楚的邏輯之上:人操作工具,後果由人承擔。然而,生成式 AI 與具備一定自主決策能力的系統,已打破這種線性對應。一項 AI 行為,往往同時涉及模型設計者、平台部署者、場景使用者與受害者。當傷害發生,各方都可能主張「並非我單獨造成」,制度卻難以明確回答責任如何分配。
以 AI 詐騙為例。詐騙者使用合法平台工具,模型訓練資料來自公開來源,平台未直接參與犯罪,使用者只是操作既有系統。最終,受害者面對的卻是責任被拆解、彼此推諉的局面。這不僅是犯罪手法升級,更是責任設計缺位。
這個問題在自動駕駛領域將更尖銳。當無人駕駛車輛發生事故,責任究竟在誰?是監督者、車主、車廠、軟體供應商,還是系統整合者?若駕駛只是名義上的監督者,卻被要求承擔全部責任;若車輛高度依賴 AI 判斷,卻缺乏清楚分配機制,事故發生時,責任勢必層層外推。這不只是交通法規問題,而是整個 AI 責任體系是否成熟的試金石。
類似困境,也已在教育、醫療與金融領域浮現。學生用 AI 代寫作業,是作弊,還是制度默許?AI 輔助醫師判讀卻誤判,責任在醫師、醫院,還是系統供應商?投資人依賴 AI 分析蒙受損失,又該向誰追究?若沒有清楚答案,風險只會持續向下游轉嫁,最終落在最無力自保的一方。
更常被忽略的是司法體系的準備程度。隨著 AI 詐騙、偽造與電腦犯罪常態化,第一線檢察官與法官是否具備足夠的技術理解,能否辨識模型運作邏輯與數位證據特性,將直接影響裁判結果。若司法無法理解技術本質,責任歸屬就可能流於形式。
然而,公共討論仍過度集中在技術防堵:要求產品標示、提升辨識能力、限制特定功能。但技術防堵永遠追不上擴散。真正能降低系統性風險的,不是單純禁止 AI,而是建立清楚責任規則,讓所有參與者明白責任無法外包。
這正是數位治理須回應的課題。當 AI 被部署於金融、醫療、公共服務與自動駕駛等高風險場景,行政與立法部門有責任要求平台揭露風險、建立補償機制,並即時修法,避免制度滯後。
同樣地,已於今年一月正式公布施行的「人工智慧基本法」不應流於宣示。行政機關與立法院應儘速建構配套子法,明確界定風險分級、責任分擔與保險機制,正視「道高一尺,魔高一丈」的現實。
當 AI 不再只是工具,而是在特定條件下被授權行動,責任就不能只落在最末端使用者身上。
AI 帶來的不只是技術革命,更是責任結構的重組。當技術被授權行動,責任卻無人承擔,最終動搖的,將是整個社會的信任基礎。