
生成AIの急速な普及にともない、利便性とともに偽情報やディープフェイクなどの深刻なリスクも顕在化している。こうした課題に対処するため、政府は2025年5月28日、AI技術の適正な活用とリスク対応を両立させる新たな法律を成立させた。法律の概要とともに、利用者が留意すべき具体的な視点を整理する。
AI推進と規制、政府の基本方針示す新法が成立
政府は、AIの研究開発や活用を推進する一方で、偽情報の拡散や性的ディープフェイクといった悪用事例に対処するための新たな法制度を整備した。この法律は、同月28日に参議院本会議で採決され、自民・公明の与党に加え、立憲民主党、日本維新の会、国民民主党などの賛成多数で可決・成立した。
法律では、AIによって国民の権利や利益が侵害されたと疑われる場合、国が調査を行い、必要に応じて事業者に指導や助言を実施する仕組みを導入。さらに、閣僚全員を構成員とする「AI本部」を夏ごろまでに設置し、研究開発の促進と国際競争力の強化を両立させる基本計画を策定する。
偽情報・ディープフェイクへの懸念、付帯決議で具体策を促す
新法の成立に際しては、生成AIによる深刻な人権侵害の例として、子どもを対象とした「性的ディープフェイク」の増加が議論の的となった。これに対し、衆参両院の委員会では、政府による事業者への指導・助言にとどまらず、従わない場合の法的措置のあり方についても検討するよう付帯決議が可決された。
政府は、AIがもたらす利便性を最大限に活かしつつ、社会的リスクの抑制を制度的に支える体制の構築を急ぐ構えだ。
林官房長官「リスク対応とイノベーションを両立」
林芳正官房長官は同日の記者会見で、「AIをめぐる技術革新は、生産性の向上や労働力不足の解消など多くの恩恵をもたらす一方で、偽情報の拡散や犯罪の巧妙化といったリスクもある」と述べた。さらに、「情報収集や権利侵害事案の調査を盛り込むことで、実効性ある被害回避や拡大防止が可能となる」と説明した。
政府としては、透明性と実効性を兼ね備えた対応を重視し、国内外の信頼を確保する構えだ。
利用者にも問われる責任、AI活用時の基本留意点とは
AIの開発・提供側だけでなく、一般の利用者や企業にとっても、責任ある活用が求められる時代となった。以下に、AI活用に際して最低限留意すべき視点を整理した。
■AI利用時における留意点一覧表
項目 | 理由 | 対策 | その他 |
---|---|---|---|
情報の真偽確認 | AIはもっともらしいが誤った情報を生成することがある | 信頼できる情報源の併用、複数ソースによるファクトチェック | SNS投稿や報道転載に注意 |
プライバシー配慮 | 個人の画像や発言を無断使用すれば法的責任を問われる可能性がある | 実名・顔写真・音声データの扱いは慎重に | 利用規約と個人情報保護法を確認 |
差別・偏見の再生産 | AIの学習データに含まれるバイアスが生成結果に影響を与えることがある | 学習元の出所・精度・監査の有無を確認 | 採用選考や教育分野では特に注意 |
著作権の尊重 | 学習データ由来で生成された内容が既存著作物と類似するケースがある | 商用利用時は生成物の著作権状態を精査 | コンテンツ制作では法務確認必須 |
弱者への配慮 | 高齢者や未成年が誤認しやすく、影響が大きくなる可能性がある | 表現の明確化、対象に応じた説明責任 | 保護者や介護者の関与が望ましい |
利用履歴の保存 | 説明責任・トラブル時の証拠として記録が重要となる | 使用ログの自動保存、記録保持期間の設定 | 情報管理規程の整備を併せて実施 |
制度とリテラシーの両輪で信頼を築く社会へ
AIの利便性を享受する社会の実現には、技術の進化を見据えた制度整備と、利用者一人ひとりの情報リテラシーの向上が不可欠である。政府の基本計画策定と並行し、事業者・利用者・教育機関の三者が、それぞれの立場で「責任あるAI活用」を志す姿勢が、健全な技術社会の礎となる。