
AIが著作物を学習することは、著作権法の“グレーゾーン”ではない。文化庁が示す法第30条の4によれば、「情報解析を目的とする利用」であれば、著作権者の許可なしに著作物を学習用データとして使うことができると明記されている。つまり、AIが漫画や映像を“読む”こと自体は問題にならない。
ただし、そのAIが“似た作品を作って公開”した場合、初めて著作権侵害の対象になる。境界線は、「学習」ではなく「公開」にある。
この法的立場を前提にすると、10月31日に発表された日本漫画家協会と大手出版社17社の共同声明は、やや異なる方向を向いている。声明では、AIが著作物を学習する段階でも「著作権者の許諾を得るべき」と主張しており、文化庁の解釈とは食い違う。
オプトインとオプトアウトの違いを整理する
議論の焦点は「オプトアウト」と「オプトイン」という2つの仕組みにある。
ここを誤解すると、今回の声明の意図も見誤る。
- オプトアウト(opt-out)方式:
AI事業者が著作物を学習してよいという前提で進み、著作権者が「使わないでほしい」と申し出た場合のみ除外される仕組み。OpenAIの「Sora2」などが採用している。つまり、権利者が「拒否の意思」を出さない限り、自動的に学習対象となる。 - オプトイン(opt-in)方式:
その逆で、AI事業者が著作物を学習する前に、著作権者の「使用許可」を明示的に得る方式。漫画家協会の声明は、この「オプトイン」を求めている。
この違いをわかりやすく言えば、オプトアウトは“使っていいけど拒否できる”方式、オプトインは“許可されるまで使えない”方式だ。
AIの発展スピードを考えると、オプトイン方式を徹底することは現実的に難しい。OpenAIのような海外企業に、数百万の権利者の許可を一つひとつ取ることは事実上不可能だからだ。
漫画家協会声明の「理想」と集英社声明の「現実」
漫画家協会の声明は、AIによる権利侵害に強い危機感を示す一方で、技術の発展を“原則的には歓迎する”と述べている。しかし、同じ声明の中で「学習段階にも著作権者の許諾が必要」とする姿勢を明記しており、AIの現行制度と運用段階での齟齬が目立つ。
つまり、理念としては正しくても、法的・技術的な実現可能性に乏しい構成になっているのではないだろうか。
その一方で、集英社は同日、独自の声明を出した。
同社はAI技術そのものを敵視せず、「権利侵害を防ぎつつ、AIの恩恵を正しく活かす社会」を目指す姿勢を明確にしている。
特に注目されたのは、「国家レベルでの制度整備が不可欠」とした一文だ。
これは単なる企業防衛ではなく、産業全体を支えるための“現実的な方針”を打ち出したとも言える。
業界内で分かれる「AIとの距離感」
生成AI開発に詳しいアーガイル社長・岡安モフモフ氏は、SNSでこう語る。
「漫画家協会の声明は1年半前の“反AIムード”を引きずっている。これではChatGPTすら社内で使えなくなる。」
「集英社は敵をAIにせず、権利侵害に絞って対策している。若い漫画家はこういう会社で働くべきだ。」
確かに、声明に署名した企業がオプトイン原則を厳格に守るなら、AIツールの導入そのものが困難になる。
生成AIを業務で使えば、自社の方針と矛盾する可能性があるからだ。
結果的に、「創作を守る」意図が「創作を縛る」結果を生むリスクも指摘されている。
海外ではどう議論されているか
この「AIと著作権のせめぎ合い」は、いまや世界的な議題だ。とりわけ2025年に入り、欧州と米国では立法レベルでの再整理が進みつつある。
欧州連合(EU)では、欧州議会法務委員会が7月に発表した報告書で、生成AIが著作物を学習する際の扱いを「既存のTDM(テキスト・データ・マイニング)例外では限界がある」と指摘した。報告書では、「学習データの透明性」「著作権者による機械可読なオプトアウト登録」「対価の支払い制度」などを新たに検討すべきだと提言している。
これに対し、音楽業界や映画業界からは「実質的なオプトイン方式に近づけるべきだ」との反発も出ている。
英国では同年6月、Getty ImagesがStability AIへの著作権侵害訴訟の一部を取り下げた。長期化する法廷闘争が、制度整備の遅れを浮き彫りにした形だ。
一方、米国では5月に著作権局(U.S. Copyright Office)が「Generative AI Training and Copyright Law」という報告書を発表し、AIによる学習行為が「フェアユース(公正利用)」に該当するかどうかを再検討している。
報告書では、AI学習の目的が創作支援や研究に限定される場合でも、市場への影響や使用量によってはフェアユースとは認められない可能性があると指摘した。さらに議会では、AI企業に学習データの開示を義務づける「Generative AI Copyright Disclosure Act」の審議も始まっており、透明性の確保を通じた新たな著作権モデルの構築が進みつつある。
こうした海外の動きに共通するのは、「AIの学習自体を禁じるのではなく、透明性と説明責任を求める」という方向性だ。
日本の漫画家協会声明のように「原則オプトイン」を掲げるのではなく、むしろ「どうやってAIを合法的・公正に使うか」を模索する段階に入っている。
つまり、海外ではすでに“AIとの共存前提”の議論に移行しており、日本のように「学習の可否」をめぐる段階的議論を続けている国は少数派になりつつある。
法と創作の間で
今回の対立は、単にAI賛成派と反対派の衝突ではない。
法的な原則(学習は自由)と、創作者の感情的な安全保障(自分の作品を勝手に使われたくない)との間にある深い溝を映し出している。
AI時代の著作権をどう再定義するか。それは、法律家だけでなく、すべてのクリエイターと利用者が避けて通れない問いになっている。



