Deepfake技術は、当初は映像制作のために開発されましたが、近年では犯罪者の手に渡り、画像の偽造、虚偽情報の拡散、詐欺や搾取の手段として急速に利用されています。これにより、個人のプライバシーや公衆の信頼に重大なリスクが生じています。AIが生成する偽コンテンツは、企業や個人のプライバシーを深刻に侵害する可能性があり、さらには偽ニュースの拡散や暴力の煽動によって民主的プロセスを破壊する恐れもあります。
Deepfake技術が進化し続ける中、その脅威も増大しており、現行の法律では悪用を防ぐには不十分です。各国はこれらの急務に対応するため、積極的に立法する必要があります。同時に、企業や市民社会が協力し、透明性、責任感、倫理に基づいたAIの開発を推進し、安全で信頼性のあるデジタル環境を築くことが重要です。
各国のDeepfake技術に関する規制
中国
中国は2022年11月に「インターネット情報サービスの深層合成管理規定」を発表し、Deepfake技術を特に規制する数少ない国の一つとなりました。この規定は、Deepfakeコンテンツの開示を義務付け、この技術を使用したコンテンツには明確にDeepfakeであることを表示することを求めており、虚偽情報の取り締まりと公衆が操作されたメディアから保護されることを目的としています。この規定は2023年1月に施行され、Deepfake技術の開発から配信までのほぼすべてのライフサイクルをカバーし、特にDeepfake技術の提供者に対する厳格な規制が設けられ、透明性と責任感が確保されています。
欧州連合(EU)
欧州連合(EU)は、Deepfake技術の規制をより広範な2030年デジタル政策フレームワークに組み込んでいます。この「デジタルディケイド」政策は、「企業と個人をエンパワーメントし、人間中心の持続可能で繁栄したデジタル未来を共創する」ことを目指しており、サイバーセキュリティが6つの主要な焦点の一つとして挙げられています。Deepfakeに関連するEUの規制には以下が含まれます:
- AI規制フレームワーク
- 一般データ保護規則(GDPR)
- 著作権制度
- 電子商取引指令(e-Commerce Directive)
- デジタルサービス法
- 視聴覚メディア指令(Audio Visual Media Directive)
- 偽情報行動規範
- 偽情報対策行動計画
- 民主主義行動計画(Democracy Action Plan)
AI規制フレームワークは、AI技術の開発と利用に関する具体的なガイドラインを提供しており、デジタルサービス法はさらに、デジタルプラットフォームにDeepfakeコンテンツの監視と管理を義務付けています。さらに、EUは偽情報行動規範を策定し、Deepfakeやその他の誤解を招くコンテンツに対する対策を強化しています。
韓国
韓国は、法的措置と技術革新を組み合わせてDeepfakeの悪用に対処し、特に著作権などの個人権利の侵害や虚偽情報による社会的リスクの防止に力を入れています。昨年9月に制定された「デジタル権利法案」を基に、今年5月に韓国政府は、AI生成コンテンツとDeepfakeの悪用による偽ニュースの拡散に対応するための著作権制度改革を目的とした一連の立法計画を発表しました。同時に、韓国政府はAI研究への投資を続けており、Deepfake技術の検出と管理を支援する先進的なツールの開発も含まれています。
英国
今年4月、英国政府は性的なDeepfake画像を刑事犯罪とする新しい法案を発表し、6月に発布された「刑事司法法案」の改正案として導入されました。当初、「オンライン安全法」(OSA)は、性的なDeepfake画像の配信を犯罪行為として分類していました。
この新法案によれば、「コンピュータグラフィックスやその他のデジタル技術」を使用して他人の性的な画像を作成・設計し、その人に恐怖、不安、または屈辱を与える行為を行った場合、刑事記録と無制限の罰金が科される可能性があります。さらに、その画像を共有または配布する意図がある場合、最長2年間の懲役刑が科される可能性もあります。
アメリカ合衆国
アメリカ合衆国では、現在、Deepfake技術を対象とした連邦法は存在しませんが、関連する規制はすでに確立されています。「生成対抗ネットワーク出力識別法案」は、国家科学財団が生成対抗ネットワーク(GAN)出力の検出と識別に関する研究を支援することを義務付けています。「2019年Deepfake報告法案」と「Deepfake問責法案」は、国土安全保障省にDeepfakeコンテンツを含む技術を監視し、報告することを義務付け、国家安全保障を保護し、Deepfake技術の影響を受けた被害者に法的救済を提供することを目的としています。
最近の提案には、「2024年反欺瞞行為法案」や「消費者保護のための欺瞞的AI法案」が含まれており、これらの法案は、Deepfake技術に関連する規制と保護措置を強化することを目的としています。
台湾
台湾は2023年に刑法第319条の4「虚偽の画像罪」および第339条の4「虚偽の画像、音声、または電磁的記録による加重詐欺罪」を追加改正し、Deepfakeなどのデジタル合成手法を用いたデジタル性暴力や詐欺犯罪行為を抑止することを目指しています。資訊工業策進会も政府に対し、新興技術のリスクに対応するため、既存の規制を改訂するだけでなく、国際的な動向に従い、AIの発展に適した原則的な規範を設立し、政府と企業が遵守すべきAIガイドラインを策定し、AIガバナンスを深化させることを提案しています。
Deepfake技術の規制が直面する課題
技術的課題
Deepfake技術の規制における主な課題の一つは、作成者の追跡と特定です。多くのDeepfake作成者は匿名で活動しており、当局が偽造コンテンツの出所を追跡することが困難であり、効果的な執行が難しい状況です。さらに、AI技術が進化し続ける中で、既存の防御策を回避する可能性があり、将来の調査と規制における課題がさらに増すことが予想されます。
言論の自由と規制のバランス
もう一つの大きな課題は、規制の必要性と言論の自由の保護とのバランスを取ることです。誤解を招く可能性のある、あるいは有害なDeepfakeコンテンツの拡散を抑制することは重要ですが、過度な規制は言論の自由を侵害する可能性があります。特に政治的な言論の文脈において、Deepfakeは風刺や個人的な意見表現の手段として利用されることがあり、この点で議論を呼ぶ可能性があります。
現行の法律フレームワークの不十分さ
AI技術の急速な進化により、ほとんどの現行法律はDeepfakeなどの関連アプリケーションを考慮して制定されておらず、執行フレームワークにギャップが生じたり、法規定が一貫していない状況があります。このため、世界知的所有権機関(WIPO)や電子フロンティア財団(EFF)などの国際機関は、各国政府がDeepfake犯罪行為を効果的に管理するために、包括的かつ柔軟な規制を新たに制定する必要があることを強調しています。
テクノロジー、社会、法治の協力によるDeepfake脅威への対抗
1. 技術的解決策
Deepfake関連のリスクを軽減するためには、先進的な技術的解決策を導入することが不可欠です。これには、デジタルメディア内の不一致を分析し、操作された兆候を検出する検出メカニズム、およびDeepfakeコンテンツを検出・マークするAIと機械学習技術の活用が含まれます。また、デジタルウォーターマークと署名により、デジタルコンテンツに固有の識別子を埋め込むことで、コンテンツの独創性と完全性を確認する作業が強化されます。さらに、Deepfakeの悪用事例が増加する中で、WiresharkやEnCaseなどのリアルタイムコンピューターフォレンジックソフトウェアは、Deepfakeコンテンツの出所を追跡し、起訴に必要な重要な証拠を提供することで、捜査機関と法執行機関を支援します。
2. 公衆意識とメディアリテラシー
技術的な取り組みに加えて、公衆の意識向上と責任あるメディア消費も、Deepfakeリスクの軽減において重要な鍵となります。メディアリテラシーの推進は、公衆に対してデジタルコンテンツの識別と評価方法を教育し、信頼できる情報源を探し、事実確認を行うことで、虚偽情報の影響を受けにくくすることを目的としています。この点で、デジタルメディアプラットフォームは、事実確認の責任を担い、Deepfakeコンテンツをマークし、ユーザーがプラットフォームで検証されたコンテンツを選択するよう奨励し、疑わしいメディアを積極的に報告して、Deepfakeコンテンツの拡散を防ぐべきです。
3. 規制および政策イニシアティブ
最後に、包括的な規制政策と悪用を抑止するための特定の法律を制定し、実施することが、Deepfake脅威を防ぐための最も重要な要素です。規制の範囲は、デジタルコンテンツの出所確認、偽造、拡散をカバーするだけでなく、法的枠組みの適応性を高め、将来の使用方法を分類し、異なるレベルの行動義務を付与することを提案しており、AI技術の進展に柔軟に対応できるようにすることが求められます。
例えば、EUは昨年4月に「人工知能の欧州的アプローチに関する統一管理規則の立法案」(通称「AI法」)を発表し、リスクの高さや重要性に応じて、AIアプリケーションを「許容できないリスク、高リスク、限定的なリスク(低リスク)、極小/無リスク」の4つのカテゴリに分類し、「使用禁止、情報提供、使用状況の記録、監督機関のAI監視支援、AIによる行動通知義務、警告表示」など、対応する義務を要求しています。
企業はどのようにしてDeepfake脅威を効果的に防止できるか?
フィンテック業界における自己規制は、各国がDeepfake犯罪に対抗するための重要な要素です。企業は、技術とガバナンス責任フレームワークに積極的に従うべきです。例えば、昨年7月にホワイトハウスが発表したように、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIの7つの大手テック企業と、安全性、保障、信頼を原則としてAIシステムを開発するための自主的なコミットメントを結び、技術進歩と社会的安全のバランスを確保しています。
同時に、企業は先進的なAI認証ソリューションを採用し、デジタルサービスの安全性を強化し、ユーザーの信頼を向上させることができます。増え続けるデジタル金融サービスのリスクに直面し、Authmeは詐欺防止の観点からDeepfake脅威に対応します。ISO 30107標準認証を取得したAuthme顔偽造抵抗技術を通じて、AIは顔の生物特性(顔の深度、肌の質感、微血管の流れなど)を分析し、カメラの前にいる人物が本物であるかどうかを判定し、企業が安全な身分証明サービスを適用するのを支援し、回復力と柔軟性を強化します。