Deepfake(深偽技術)起初是為了影視創作而開發,但近年淪為犯罪分子之手,迅速成為偽造圖像、散布虛假信息、詐騙和剝削的工具,對個人隱私和公眾信任構成嚴重風險。這些由 AI 生成的虛假內容可能嚴重侵害企業或個人隱私,甚至藉由散布假新聞、煽動暴力來破壞民主進程。
隨著 Deepfake 技術不斷演進,伴隨而來的威脅也日益增長,且現行法律尚不足以防範濫用,各國應積極立法以應對這些急迫挑戰,同時邀請企業界與公民社會共同參與,促進透明、負責任、符合倫理道德的 AI 發展,打造安全可信賴的數位環境。
各國對 Deepfake 技術的監管機制
中國
中國於 2022 年 11 月發布了《互聯網信息服務深度合成管理規定》,成為目前少數對 Deepfake 技術進行專法監管的國家,明文規定須主動揭露深偽內容,並要求任何使用這項技術的內容必須明確標識為深偽技術,以有效打擊虛假信息、保護公眾免受被操縱媒體影響。此項規定於 2023 年 1 月正式實施,法條幾乎涵蓋 Deepfake 從技術開發到傳播的整個生命周期,尤其嚴格規範深偽技術的提供者,以確保透明度和問責制。
歐盟
歐盟已將 Deepfake 技術監管納入其更廣泛的 2030 數位化政策框架,這項名為「數位十年」(Digital Decade)的政策旨在「賦能企業和個人,共創以人為本、永續且繁榮的數位化未來」,其中資訊安全被列為六大焦點之一,確保在未來的數位環境中,所有使用者的權利都能受到妥善維護,而與 Deepfake 相關的監管法規包含:
- AI 監管框架(The AI Regulatory Framework)
- 通用數據保護條例(The General Data Protection Regulation)
- 版權制度(Copyright Regime)
- 電子商務指令(e-Commerce Directive)
- 數位服務法案(Digital Services Act)
- 視聽媒體指令(Audio Visual Media Directive)
- 不實資訊行為準則(Code of Practice on Disinformation)
- 對抗不實資訊行動計劃(Action Plan on Disinformation)
- 民主行動計劃(Democracy Action Plan)
AI 監管框架規定了開發和使用 AI 技術的具體指南,數位服務法案是它的進一步補充,明文要求數位平台監控和管理 Deepfake 內容。此外,歐盟還制定了不實資訊行為準則,以防治 Deepfake 和其他形式之誤導性內容的措施。
南韓
南韓的監管方法結合法律措施和技術創新來應對 Deepfake 濫用,尤其針對版權等個人權利侵犯,以及虛假信息對社會的潛在風險加以防範。以去年九月頒布的《數位權利法案》為基礎,今年五月,南韓政府宣布一系列立法規劃,準備改革現行的版權制度,以因應 AI 生成內容與 Deepfake 濫用導致之假新聞散播。與此同時,南韓政府持續投資 AI 研究,其中包含開發先進的工具來檢測和管理 Deepfake 技術。
英國
今年 4 月英國政府宣布了一項新法律提案,將含有性相關的 Deepfake 影像列為刑事犯罪,並以修正案的形式,引進六月剛頒布的《刑事司法法案》(Criminal Justice Bill);散播 Deepfake 性影像起初是由《網路安全法》(Online Safety Act,OSA)列為犯罪行為。
根據這項新法案,任何人利用「電腦圖像或任何其他數位技術」製作或設計另一個人的性影像,並以此引起該人恐慌、痛苦或羞辱,就可能會面臨刑事記錄和無上限之罰款,倘若犯罪行為人有意圖分享或散播性影像,還可能被起訴並面臨最重 2 年有期徒刑。
美國
美國目前尚缺乏專門針對 Deepfake 的聯邦立法,但相關法律規範業已成熟,如《生成對抗網路輸出識別法案》(Identifying Outputs of Generative Adversarial Networks Act),該法案要求國家科學基金會支持有關檢測和識別 GAN(生成式對抗網路)輸出標準的研究;《2019 年深偽報告法案》(Deepfake Report Act of 2019),連同《深偽問責法案》(DEEPFAKES Accountability Act),要求國土安全部監督並報告含有深偽內容之技術,其旨在保護國家安全,並為遭深偽技術影響的受害者提供法律救濟。
近年提案還包括《2024 年反欺騙行為法案》(DEFIANCE Act of 2024)和《保護消費者免受欺騙性 AI 法案》(Protecting Consumers from Deceptive AI Act),這些法案旨在加強與深偽技術相關的法規和保護措施。
台灣
台灣於 2023 年通過增訂刑法第 319 條之 4「不實性影像罪」,及第 339 條之 4 不實影像、聲音或電磁紀錄的加重詐欺罪事由,旨在遏止以 Deepfake 等數位合成方式,進行之數位兩性暴力或詐欺犯罪行為。資策會也建議政府,除了增修現有法規以應對新興科技風險外,台灣也應跟隨國際腳步,建立適合 AI 發展的原則性規範,並制定多面向之 AI 指引供政府與企業遵循,深化 AI 治理。
Deepfake 技術監管面臨哪些挑戰?
技術挑戰
監管 Deepfake 技術的主要挑戰之一,在於追蹤和識別創作者,由於許多深偽創作者匿名創作並散播內容,這種匿名性使當局難以追蹤偽造內容的源頭,遑論有效執法。再者,由於 AI 技術不斷進步,可能繞過現有的防護措施,且 Deepfake 內容愈加虛實難辨,提高未來檢調和監管工作的挑戰性。
平衡言論自由和監管
另一個重大挑戰是如何在監管需求、言論自由保護之間取得平衡。縱使遏止具誤導性,或可能造成傷害的 Deepfake 內容傳播至關重要,但過於嚴格的監管可能會侵害言論自由。這點在政治論述的脈絡下,尤其容易引發爭議,因為 Deepfake 可能被用作諷刺或個人意見表達的途徑。
現有法律框架之不足
由於 AI 技術日新月異,多數現行法律在制定時並未考慮到 Deepfake 等相關應用,導致執法框架中出現漏洞,或法條規定不一致。有鑑於此,像世界知識產權組織(WIPO)和電子前沿基金會(EFF)等國際組織紛紛強調,各國政府需重新訂定兼顧全面性與靈活性的專門法規,以有效監管 Deepfake 犯罪行為。
科技、社會、法治合力對抗 Deepfake 威脅
1. 技術解決方案
為了降低 Deepfake 相關風險,部署先進的技術解決方案是必要的一步,包含從源頭進行控管的檢測機制利用 AI 和機器學習技術,分析數位媒體中的不一致性,或揪出可能被操縱的跡象,來檢測並標記深偽內容,預防傷害擴大;數位浮水印和簽名則進一步增強了內容驗證工作,藉由在數位內容中嵌入唯一標識符,查核內容之原創性與完整性;此外,隨著 Deepfake 濫用案例增加,Wireshark 和 EnCase 等即時性的電腦犯罪鑑識軟體,能協助檢調與執法,追蹤深偽內容的來源,為起訴提供關鍵證據。
2. 公眾意識和媒體素養
除了技術層面的努力,公眾意識和負責任的媒體消費,同樣也是降低 Deepfake 風險的重要關鍵:媒體素養倡議旨在教育公眾如何判別和評估數位內容,尋找可靠來源並進行查核,減少他們受虛假信息影響的可能性。在這方面,數位媒體平台應擔負起事實核查的責任,標記深偽內容,鼓勵用戶選擇經過平台驗證的內容,並主動檢舉可疑媒體,防止 Deepfake 內容散布。
3. 監管和政策倡議
最後,制定並落實全面的監管政策,立專法遏止濫用,是防範 Deepfake 威脅最重要的一環。監管範圍除了涵蓋數位內容之來源驗證、偽造與散布,也建議提升法律框架之適應性,對未來的使用方式進行分類,賦予不同程度的行為義務,以靈活應對 AI 技術進展。
例如歐盟在去年四月發表《人工智慧統一管理規則的立法草案》(Proposal for a Regulation on a European approach for Artificial Intelligence,簡稱人工智慧法),依照危險性的高低及重要程度,將利用 AI 應用伴隨的風險分成 4 個等級—「不可接受的風險、高度風險、具限定性風險(有限風險)、極小/無風險」,並要求採取「禁止使用、提供情報、使用情況之紀錄、協助主管機關監察 AI、由 AI 進行動作之通知義務、警告標示」等相對應義務。
企業如何有效防範 Deepfake 威脅?
金融科技業之自我監管,是各國抵禦 Deepfake 犯罪的一大關鍵,企業應積極遵循技術和治理責任框架,例如去年七月,白宮宣布與亞馬遜、Anthropic、Google、Inflection、Meta、微軟、OpenAI 七家科技巨擘締結自願性承諾,將以安全、保障和信任為原則開發 AI 系統,確保技術進步與社會安全之間的平衡。
與此同時,企業可以採用先進的 AI 驗證解決方案,來強化數位服務的安全性,增進用戶信賴;面對持續增加的數位金融服務風險,Authme 從詐欺預防角度出發,運用 AI 反制 Deepfake 威脅——通過 ISO 30107 標準驗證的 Authme人臉偽冒抵禦技術,可透過 AI 分析人臉生物特徵,包含人臉深度、臉部肌膚紋理、微血管流動等不同方式,判定鏡頭前是否為真人,以抵禦 Deepfake 偽冒攻擊,協助企業應用安全身分驗證服務,達到強化韌性與彈性的目的。