中国放送業界におけるAIGCの導入と法的・倫理的課題(蔡万里)
AIGC(AI Generated Content)の進化は、放送業界にとって単なる技術革新ではなく、制度・倫理・文化にわたる包括的な変革をもたらしている。中国では特に国家戦略の一環として、その活用が加速度的に進み、放送現場の業務フローや役割分担を大きく変えつつある。中国中央広播電視総台(China Media Group: CMG)を筆頭に、全国の放送局で実装が進行している。
筆者は、2025年7月下旬から8月初旬にかけて、上海、北京を中心に複数の研究機関・報道機関関係者へのヒアリング調査を行い、実務・制度両面での中国本土におけるAIGC活用の実態を把握した。本稿ではその成果の一部を踏まえ、中国放送業界が直面する生成AIとの共存の可能性および関連法的課題を概観し、中国における生成AI規制の現状を紹介する。
1. 現場に浸透する生成AIの実像
CMGは2019年より、従来型の技術路線から「5G+4K/8K+AI」という技術路線への転換を打ち出し、人工知能技術を放送コンテンツ創作に積極的に応用してきた。2023年からは上海人工知能実験室と共同で、AI大規模言語モデル「央視聴媒体大模型(CMG Media GPT)」を開発し、ニュース報道、映像編集、スポーツ中継、ナレーション、アニメ・ドキュメンタリー等の制作・吹替など、多様な領域でコンテンツ制作と放送を高度に自動化している。
「央視聴媒体大模型」生成の多言語対応のデジタルヒューマン(出典:上海人工知能実験室HP)
「央視聴媒体大模型」生成の高精細・物語性を備えた動画(出典:上海人工知能実験室HP)
中国中央テレビスポーツニュースにおけるAIによる手話ニュース放送(出典:CCTV公式サイト2021/11/25)
中国中央テレビ初放送のAI翻訳・吹替ドキュメンタリー『来龍去脈』(出典:CCTV公式サイト2024/3/14)
こうした革新は地方局にも波及している。2025年春節期間中、杭州市のニュース番組『杭州新聞聯播』は、AIデジタルヒューマン(AIキャスター)を用いたニュース放送を実施し、誤り率ゼロを達成して社会的注目を集めた[1]。
杭州ニュース番組に導入したAIキャスター(画像出典:『杭州新聞聯播』番組 2025/1/28)
さらに2024年6月には、成都テレビ局の発案で、広州、武漢、南京、蘇州、ハルビン、合肥、済南、石家荘など数十の都市テレビ局が共同制作に参画し、中国初のAIGCテーマ都市プロモーション映像シリーズ『万千気象 AI中国』が初配信された[2]。
各地都市をテーマとしたAIプロモーション映像(画像出典:『中広互廉』サイト 2024/6/20)
北京でのヒアリングでは、CMG法務関係者の王玉奇氏から、中国におけるAIの放送利用は現時点で大きく三つのパターンに分類できるとの説明を受けた。その概要は以下の通りである。
(一)従来型ライブ配信の最適化と高度化
AI技術の導入によって、企画立案、撮影、技術検査の補助、字幕制作といった制作工程が効率化されている。さらに、バラエティ番組やスポーツ中継では、監督の補助業務にもAIが活用され、演出進行や複数カメラの映像切り替えが自動化されている。これにより、オペレーターの負担が軽減され、突発的な演出変更にも即応できる体制が整いつつある。(二)歴史資料の修復・再現による文化的価値の向上
特に歴史題材のドキュメンタリー制作では、AIが原資料の修復、加工、合成に広く利用されている。例えば、考古現場で発掘された歴史遺跡をAI技術で復元し、当時の実際の様子を推定する試みが行われている。また、ぼやけたり破損した歴史写真の修復や、歴史人物の肖像・声・日記・手稿・作品などをもとに、その人物が特定の場面で行った発言や行動を映像として再現する事例も増えている。さらに、新たな放送技術規格に適合させるため、原始写真や映像のサイズを拡大・縮小するといった加工も行われ、歴史資料の保存と現代的活用の両立が図られている。これらの取り組みは、文化財保護とともに視聴者の歴史理解を深め、番組の質的価値を高める効果をもたらしている。
(三)新たな表現可能性の拡張
既存業務の効率化にとどまらず、AIは新しい表現形式の創出にも寄与している。代表例がデジタルヒューマンであり、仮想の新人アナウンサーや実在のアナウンサーを模したシミュレーション人物が、ニュースキャスターやバラエティ番組で活躍している。また、突発的なニュース報道では、時差の影響により人間による吹替作業が難しい場合、AIが代替で吹替や読み上げを行うケースもある。これにより、速報性とコスト効率を両立させた放送が可能となっている。さらに、制作時間や場所の制約を大幅に緩和し、国際ニュースや時差のある地域との連携報道にも柔軟に対応できるようになっている。
この三類型は、単なる技術導入にとどまらず、中国の放送現場がAIを制作インフラの一部として組み込みつつある現状を示している。今後は、これらの実践が報道・エンターテインメント双方の領域でさらに拡大することが予想される一方、制作倫理や権利保護の観点から新たなルール整備が求められるであろう。こうした急速なAI導入は、同時に制度的な備えの重要性を浮き彫りにしている。
2. 透明性・信頼性をめぐる倫理的ジレンマと法的論点
前節で見たように、中国の放送現場ではAIGCが既に多様な形で制作プロセスに組み込まれており、その活用はニュース・ドキュメンタリーからエンターテインメントに至るまで広がっている。しかし、このような急速な技術導入は、同時に報道の根幹に関わる倫理的・法的課題を顕在化させている。とりわけ重要なのが、「透明性・信頼性」の確保および、「著作権・人格権」の侵害である。
AIは膨大なデータをもとに事実に「似せた」ストーリーを構築する能力を持つが、その情報選択や提示の基準はアルゴリズムに依存しており、ジャーナリズムが本来担うべき「価値判断に基づく重要性の序列づけ」を必ずしも再現できない。このため、重要な社会的背景や倫理的配慮が欠落する危険がある。実際、北京でのヒアリングでは、AIが自動生成したニュース原稿に政治的敏感性を欠く表現や、過去の報道と矛盾する記述が含まれた事例が複数報告された。中央テレビ局の関係者は「文章の出来は完璧に見えても、背景理解が浅く、報道機関として出せない内容になることがある」と指摘している。こうした事例は、単なる誤報リスクにとどまらず、報道機関の信頼低下や世論形成への不当な影響につながり得るため、倫理的にも深刻である。
さらに、AI生成コンテンツには知的財産権および人格権に関する複合的課題が伴う。生成過程で第三者の著作物(文章・画像・映像・音声など)を使用する場合、その利用許諾の有無や適法性が問われる。特に歴史題材のドキュメンタリー制作では、日記・写真・映像等の編集が著作者人格権(氏名表示権・同一性保持権)を侵害するおそれがある。加えて、実在人物の肖像や声を加工・合成する行為は、肖像権やパブリシティ権などの人格権を侵害するリスクを内包している。
加えて、AIデジタルヒューマン・アナウンサーの急速な普及は、新たな法的空白を露呈させている。ヒアリングでは、一部の民間機関がキャスター本人の同意を得ずに容貌や声紋データを収集し、それを基に生成したAIキャスターをニュース放送や商業ナレーション、さらには違法な営利活動にまで利用する事例が指摘された。また、訓練データの出所が不明確、利用範囲が曖昧といったケースも散見され、著作権・利用許諾の枠組みが追いついていない実態も明らかになった。
このように、AIGCは情報の精度・中立性という倫理的課題と、知的財産権・人格権という法的課題が複雑に交錯する領域に位置している。将来的な制度設計においては、単なる技術規制やガイドライン整備にとどまらず、人間の編集判断をどのように制度的に担保するか、また透明性や説明責任をいかに確保するかといった、放送倫理の根幹に関わる議論が不可欠であろう。
以上のように、中国放送業界におけるAIGCの活用は、制作効率や表現手法の革新をもたらす一方で、放送倫理や権利保護に関する新たな課題を突きつけている。これらの課題は、現場レベルの運用改善だけで解決できるものではなく、法制度や業界規範の整備といった構造的対応が不可欠である。以下では、中国におけるAIGC規制の現状と、その制度的特徴について概観する。
3. 中国における法的・制度的対応:「使えるAI」から「信頼できるAI」への規制進化
上記整理したとおり、中国におけるAIGC導入は急速に進展する一方で、透明性や信頼性、知的財産権や人格権に関する複合的課題が顕在化している。ここでは、こうした課題に対応するための法的・制度的枠組みを概観し、その特徴と今後の方向性を検討する。
(一)法律レベル──包括的枠組みの構築
AIに関する原則的な規律は、多くの基本法にすでに組み込まれている。たとえば、《民法典》《著作権法》《データ安全法》《個人情報保護法》などが、ネットワーク安全、個人情報の権利保護、著作権保護、データ安全、利用者情報保護などの分野における基本原則や責任主体、措置、手続きを包括的に規定している。
(二)行政規制・部門規則──分野別ガイドラインと連動
法律の上位原則を具体化するため、行政法規や部門規則が整備され、AIに関する多層的なコンプライアンス体系が形成されている。たとえば《ネットワークデータ安全管理条例》のほか、《ネットワーク情報内容生態ガバナンス規定》《インターネット情報サービス深度合成管理規定》などが策定され、《生成式人工知能サービス管理暫定弁法》《人工知能生成合成内容標識弁法》などの規範文書がコンテンツ管理・アルゴリズム推薦・データ安全といった多面的なルールを明確化している。
(三)法規・標準・自律規範の一体化
中国のAI規制は、法律や行政規則だけでなく、国家標準や業界ガイドライン、自主規範と密接に連動している。2020年の《国家新一代人工知能標準体系建設指南》を皮切りに、《人工知能深層学習アルゴリズム評価》や《放送テレビ・ネット視聴深度偽造防止技術要求》などが相次ぎ制定された。放送業界向けには、時事ニュースや重大歴史題材での深度合成技術使用を禁止する《中央広播電視総台人工智能使用規範(試行)》や、AI生成コンテンツのラベリング義務を定めた《抖音(TikTok)AI生成コンテンツ規範》がある。
(四)「標識弁法」の登場──全チェーンガバナンスの確立
2025年9月1日施行予定の《人工知能生成合成内容標識弁法》(以下「標識弁法」)は、生成段階だけでなく流通・配信段階のプラットフォームも規制対象とする包括的な「AIコンテンツ表示」制度である。同法は、画面上に表示する「顕示的標識」と、ファイルのメタデータに埋め込む「隠匿的標識」の双方を義務付け、コンテンツの真正性・トレーサビリティを確保する。顕示的標識は一般視聴者への注意喚起、隠匿的標識は専門的な追跡・監査を目的とするものである。
ヒアリング調査では、中央テレビ局の関係者が「履歴が残るからこそ安心してAIを使える」と述べ、透明性こそが競争力になるという発想が現場で浸透しつつあることが確認された。
以上のように、中国のAI規制は、「可用(使える)」から「可信(信頼できる)」への転換をキーワードに、社会的リスクの最小化と産業発展の両立を目指している。放送業界においては、一方でAIGC技術を積極的に活用して報道や制作プロセスの高度化を図りつつ、他方で技術的リスクや権利侵害を回避するための法的枠組みを整備する姿勢が不可欠である。
将来的には、中国における制度運用の知見を国際的にも共有し、各国の放送・報道分野におけるAIガバナンスの相互発展に資することが望まれる。AIGCの健全な活用は、もはや一国の課題にとどまらず、国際社会全体の信頼基盤を支える公共的課題となっている。