2026年3月26日 星期四

杜紫宸/當AI協助犯罪 誰該負責?

◆  杜紫宸/當AI協助犯罪 誰該負責?
◆  李清志/上帝手中的大提琴
◆  黃齊元/五年後 想像兩岸和解場景
◆  詹文男/當AI假裝愛上你











杜紫宸/當 AI 協助犯罪 誰該負責?

2026-03-26 00:05  聯合報/ 杜紫宸(東海大學管理學院兼任教授)


人工智慧快速進入職場與日常生活,社會長期爭論的是「能不能用」、「會不會取代人類」。然而,真正的風險不在技術發展本身,而在於社會與法律制度是否跟得上變化。當 AI 開始協助說謊、作弊、偽造、詐騙,甚至被用於重大犯罪時,問題已不再是要不要使用 AI,而是:一旦出事,究竟誰該負責?

近年來,AI 偽造影像與文件層出不窮,語音模仿詐騙難以辨識,學生利用生成式 AI 應付作業與考試,企業客服系統自動產生錯誤資訊卻難以究責。這其實指向同一個制度裂縫AI 已被允許行動責任制度卻仍停留在人類操作工具的時代

傳統法律建立在清楚的邏輯之上:人操作工具,後果由人承擔。然而,生成式 AI 與具備一定自主決策能力的系統,已打破這種線性對應。一項 AI 行為,往往同時涉及模型設計者、平台部署者、場景使用者與受害者。當傷害發生,各方都可能主張「並非我單獨造成」,制度卻難以明確回答責任如何分配。

 AI 詐騙為例。詐騙者使用合法平台工具,模型訓練資料來自公開來源,平台未直接參與犯罪,使用者只是操作既有系統。最終,受害者面對的卻是責任被拆解、彼此推諉的局面。這不僅是犯罪手法升級,更是責任設計缺位

這個問題在自動駕駛領域將更尖銳。當無人駕駛車輛發生事故,責任究竟在誰?是監督者、車主、車廠、軟體供應商,還是系統整合者?若駕駛只是名義上監督者,卻被要求承擔全部責任;若車輛高度依賴 AI 判斷,卻缺乏清楚分配機制,事故發生時,責任勢必層層外推。這不只是交通法規問題,而是整個 AI 責任體系是否成熟試金石

類似困境,也已在教育、醫療與金融領域浮現。學生用 AI 代寫作業,是作弊,還是制度默許AI 輔助醫師判讀卻誤判,責任在醫師、醫院,還是系統供應商?投資人依賴 AI 分析蒙受損失,又該向誰追究?若沒有清楚答案,風險只會持續向下游轉嫁,最終落在最無力自保一方

更常被忽略的是司法體系準備程度。隨著 AI 詐騙、偽造與電腦犯罪常態化,第一線檢察官與法官是否具備足夠的技術理解,能否辨識模型運作邏輯數位證據特性,將直接影響裁判結果。若司法無法理解技術本質,責任歸屬就可能流於形式

然而,公共討論過度集中技術防堵:要求產品標示、提升辨識能力、限制特定功能。但技術防堵永遠追不上擴散。真正能降低系統性風險的,不是單純禁止 AI,而是建立清楚責任規則,讓所有參與者明白責任無法外包。

這正是數位治理須回應的課題。當 AI 被部署於金融、醫療、公共服務與自動駕駛等高風險場景,行政與立法部門有責任要求平台揭露風險建立補償機制,並即時修法避免制度滯後

同樣地,已於今年一月正式公布施行的「人工智慧基本法」不應流於宣示。行政機關與立法院應儘速建構配套子法,明確界定風險分級責任分擔保險機制正視「道高一尺,魔高一丈」的現實

 AI 不再只是工具,而是在特定條件授權行動責任就不能只落在最末端使用者身上。

 AI 帶來的不只是技術革命,更是責任結構重組。當技術授權行動責任無人承擔最終動搖的,將是整個社會信任基礎