各国が動く「ディープフェイク」規制(張睿暎)

急速に広がる「生成された現実」

「ディープフェイク(Deepfakes)」とは、生成AIを用いて、画像・音・映像などの一部または全部を加工し、実在しない画像・音・映像などを作成すること、あるいはそれによって生み出されたコンテンツを指す。ディープフェイクコンテンツを作成することが、すぐに権利侵害や不正行為になるわけではない。しかし、高度なAI関連知識がなくても、誰でも簡単にディープフェイク動画などを生成することが可能になったことで、被害事例が増えている。実在する人物の声や肖像を歪曲または捏造的に加工して、そのコンテンツに接する人々を欺いたり、誤解させたりすることで、詐欺やフィッシング被害、偽ニュースによる混乱、名誉毀損に加えて、プライバシー、著作権[1]、肖像権、パブリシティ権侵害など、様々な法的問題を惹起している。

プラットフォーム事業者がディープフェイクコンテンツを削除したり、関連コミュニティを閉鎖したり、関連検索キーワードをフィルタリングするなどの対応も考えられる。しかしプラットフォーム事業者による措置は一応の歯止めとなっているものの、利用者の通報に依存する形であり、対応基準も事業者ごとに異なる。また技術的な検出策も、生成AI技術の進化に追随できないという根本的な限界を抱える。さらに、パロディや風刺コンテンツなど悪意のないコンテンツが一緒にフィルタリングされることもありえ、表現の自由を侵害するリスクも指摘されている。ディープフェイクのこのようなネガティブな波及力のインパクトで、各国ではディープフェイクによる副作用を抑えるための法的な対応を急いでいる。

米国:被害者救済の法制化が進む

米国では、ディープフェイク技術の悪用に対抗するため、連邦および州レベルで立法の動きが活発化している。
2025年5月に成立した「TAKE IT DOWN Act」は、非同意状態での親密な画像(実写・AI生成を問わず)のオンライン投稿を禁止し、被害者の通知から48時間以内に削除する義務をプラットフォームに課す画期的な法律である。性的な被害者救済に焦点を当てた形である。

さらに、「DEFIANCE Act」はディープフェイク・ポルノを連邦犯罪として規定し、被害者に、生成AIまたはデジタル編集された非同性の性的な画像(ディープフェイクを含む)について損害賠償請求権を認めることを目的とするが、現時点では成立に至っていない。

また、「NO AI FRAUD Act」では、AIによる著名人詐称広告や偽カバー曲など、著作権・パブリシティ権侵害に対処することを狙う一方で、「Deepfakes Accountability Act」は、生成コンテンツにAI使用の明示を義務付けるものであるが、どちらも成立には至っていない。

EU:AI包括規制の枠組みで「透明性」を制度化

欧州連合(EU)は、「透明性とリスク管理」を軸に、AI技術全般を包括的に管理する法制度を構築し、ディープフェイクの社会的リスクを規定した。
2024年5月に成立した「Artificial Intelligence Act」は、AIシステムをリスクの度合いに応じて四分類し、ディープフェイク技術を「限定的リスク(limited risk)」に位置づけている。これにより、AI生成・改変コンテンツには明示的な表示義務が課される。AIシステムの提供者(Providers)は、生成または改変されたコンテンツがAIによるものであることを、技術的に識別可能で、効果的かつ相互運用可能な形式で明示する必要がある(50条2項)。ニュースサイトやSNS投稿者などAI生成コンテンツを公共に提供・配信する展開者(Deployers)も、そのコンテンツがAIによって生成・編集されたものであることを開示しなければならない。ただし、人間が内容を確認・編集し、その責任を負う場合は表示義務の例外となる(同4項)。違反した場合、最大1500万ユーロまたは前年度売上高の3%という高額な罰金が科される。

加えて、2023年から施行されている「Digital Service Act」も、ディープフェイク規制を補完している[2]。特に超大型プラットフォーム(VLOP)や検索エンジン(VLOSE)に対し、存在する人物、物事、場所などを模写して本物のように見えるディープフェイクコンテンツに対して、サービス利用者への識別手段提供を義務化した(35条1項)。さらに、プラットフォーム事業者に、単に違法情報だけでなく虚偽操作情報(disinformation)のような「詐欺的情報」に対しても構造的リスク(systemic risk)として認識し、これに対する評価を行うよう義務を課している。違反時は売上高の6%までの罰金が科される。

韓国:性犯罪・選挙・人工知能基本法で多層的に規制

韓国は、ディープフェイクの分野で最も迅速に立法対応を進めた国の一つである[3]
2020年に改正された「性暴力犯罪の処罰等に関する特例法」では、頒布目的でなくても、他人の身体を性的に編集・合成した映像の制作自体を犯罪とし、未遂も処罰対象とした。同法の2024年の改正では、所持・視聴までも罰則の対象となり、刑罰の実効性が強化された。

政治分野では、2023年改正の「公職選挙法」により、選挙期間中のAI生成映像の制作・頒布を原則禁止し、違反者には7年以下の懲役または最高5000万ウォンの罰金が科される。また、選挙期間外でも、AI生成である旨の明示表示を義務付けた。

さらに2024年12月に成立した「人工知能基本法」は、生成AIを「文章・音声・映像等を生成するAIシステム」と定義し、ディープフェイクを「現実と区別困難な仮想的結果物」と明示した(31条3項)。生成AIを利用する事業者に対し、AI利用の事前告知義務(31条1項)、生成結果の表示義務(同2項)、そしてディープフェイク提供時の「明確に認識できる方法での告知義務」(同3項)を課している。違反時には最大3000万ウォンの過怠料が科される。この法律は2026年1月施行予定で、具体的な表示方法は今後大統領令で定められる。

AI規制のトレンド

ディープフェイクによる被害が個人の性的搾取から社会的混乱・国家安全保障へと拡大していることから、現在の各国の立法動向には一定の傾向がみられる。
すなわち、規制の対象がコンテンツ制作者でなく、プラットフォームやAIサービス提供者へとシフトしており、ディープフェイクを完全禁止するのではなく、明示義務を負わせるなど「透明性」を前提に技術活用の余地を残している点である。

もっとも、法的対応には限界もある。既存法との重複や、暗号化通信内での拡散など犯罪利用の死角領域への対応は依然として課題である。。
日本でも2025年に「AI新法(人工知能関連技術の研究開発及び活用の推進に関する法律)」が成立し、3条4項で、「・・・透明性の確保その他の必要な施策が講じられなければならない」と透明性確保を掲げているが、具体的な制度設計は今後の検討課題として残る。

生成AIとディープフェイクの進化は法制度の想定を超えるスピードで進んでおり、すべての問題を一括で規制できる完璧な単一のルールの制定は困難である。しかし、米国・EU・韓国の動向は、規制と技術活用の両立という視点で、日本の今後の立法議論に重要な示唆を与えている。

 張 睿暎(獨協大学教授)

[1]張睿暎「生成AIと著作者及び実演家の権利」獨協法学第122号(2023年12月)147-169頁

[2] 張睿暎「EUにおけるプラットフォーム規制とデジタルサービス法規則案の意義」獨協法学第115号(2021年8月)211-244頁

[3] 張睿暎「生成AIによるディープフェイクの諸問題ー韓国における法改正による対応を中心にー」獨協法学第127号(2023年12月)105-125頁


Next
Next

JASRAC寄附講座[著作権法特殊講義]開講