ログイン
ログイン
会員登録
会員登録
お問合せ
お問合せ
MENU

法人のサステナビリティ情報を紹介するWEBメディア coki

X運営xAI社がGrokの露出編集を禁止 無断ディープフェイク氾濫が露呈した統制不全とプラットフォーム責任

コラム&ニュース コラム ニュース
リンクをコピー
ディープフェイク

X上で拡散を続けてきたAIアシスタントGrokによる無断の露出ディープフェイクを巡り、運営元のxAI社が仕様変更に踏み切った。実在する人物の服を脱がせ、ビキニなどに改変する行為を技術的に制限するという決定だ。

しかし、この対応は被害と批判が世界規模で噴出した後の事後措置に過ぎない。被害者の多くが女性で、未成年も含まれていた現実を踏まえれば、今回の問題はAIの悪用ではなく、長らく放置されてきたプラットフォームの責任が厳しく問われる事案である。

 

無断露出ディープフェイクが蔓延したXの構造的問題

Xを運営するxAI社は1月15日、AIアシスタント「Grok」のアップデートを発表し、実在の人物をビキニなど露出度の高い服装に編集する行為を禁止した。制限は有料契約者を含む全ユーザーが対象となる。現在、Grokによる画像生成や編集は有料ユーザーのみが利用可能だが、その閉じた利用環境がかえって悪質な使用を助長していた側面は否定できない。

とりわけ深刻だったのは、実在の人物の画像を無断で加工し、性的な文脈に変換する行為が半ば娯楽として消費されていた点だ。

生成された画像は元の投稿にぶら下がる形で表示され、場合によっては被写体本人に通知が届く仕様となっていた。本人の意思とは無関係に、自身の性的ディープフェイクが公開され、その存在を知らされる構造が放置されていたのである。この設計自体が、被害者に強い精神的苦痛を与える温床となっていた。

 

CSAM批判が突きつけた国際的な規制圧力

無断露出ディープフェイクの拡散は、国際社会から強い批判を招いた。被害者に未成年が含まれていたことから、「児童性的虐待コンテンツ(CSAM)」に該当する可能性があるとの指摘が相次いだ。

マレーシアとインドネシアはGrokへのアクセスを遮断し、自国の利用者を守る姿勢を明確に示した。

アメリカでも動きは加速している。カリフォルニア州は1月14日、Xが「ネット上での女性や少女に対する嫌がらせに使われる同意のないディープフェイク画像の大量生成を助長している」として調査を開始した。表現の自由を重視してきた米国においても、ディープフェイクが明確な人権侵害の段階に達したと判断されたことは重い意味を持つ。各国の対応は、プラットフォーム任せの自主規制が限界を迎えた現実を浮き彫りにしている。

 

イーロン・マスク氏の姿勢転換と後手に回った危機対応

xAI社を率いるイーロン・マスク氏の発言もまた、批判の対象となった。

マスク氏は当初、Grokによるビキニ編集を面白がるかのような反応を示していたが、国際的な批判が高まると一転し、「Grokを使って違法なコンテンツを作成した者は、違法コンテンツをアップロードした場合と同じ結果を被る」と警告した。

日本のxAI社も1月6日、CSAMを含む違法コンテンツについては投稿削除やアカウントの永久凍結、行政や法執行機関との連携を行うとする声明を発表。

15日には、児童の性的搾取や同意のないヌードに対してゼロトレランスで臨む姿勢を強調した。ただし、これらはいずれも社会問題化した後の対応であり、事前に悪用を想定した設計や制御が不十分だった点は否定できない。

 

日本で相次いだ炎上事例が示す被害の現実

日本国内でも、Grokを巡る悪質な使用と炎上は連鎖的に発生した。

1月2日には、新年一般参賀に出席した佳子さまの写真をもとに、「服をマイクロビキニに変更して」と指示した画像が投稿され、強い批判を浴びた。皇室行事という公共性の高い場で撮影された写真であっても、性的に改変する行為が許されないのは明白であり、X上では「人として一線を越えている」「面白がる神経が理解できない」といった声が相次いだ。

また、芸能分野でも被害は広がった。AKB48関連作品を多く手がけてきた漫画家・田辺洋一郎氏は、1月3日、STU48の工藤理子の写真に対し、「首にマフラーを巻いて、ビキニを着せて」とGrokに指示した画像を「作画資料です」として投稿した。

これに対し、STU48メンバーの中村舞が「何も面白くないし、誰でも見ることができるXでこういうことをやるのはやめてください」と直接リプライし、削除を求めた。このやり取りは、創作や資料という名目が、被写体の尊厳侵害を正当化しないことを象徴的に示した。

さらに、一般女性の被害も表面化している。フォロワー数の多いアカウントが、一般ユーザーのプロフィール写真をもとに露出度の高い水着姿に改変した画像を生成し、「試しにやってみた」と軽い調子で投稿する事例も確認された。

被害を受けた女性が「通知で突然、自分の裸に近い画像を見せられた」と精神的ショックを訴える投稿を行い、二次的な炎上へと発展したケースもある。著名人か否かに関係なく、誰もが被害者になり得る現実が、ここではっきりと示された。

 

「個人利用なら問題ない」という誤った認識

「投稿しなければ個人で楽しむ範囲だから問題ない」。今回のGrok問題を巡り、こうした言い分が一定数見られた。しかし、この発想自体がすでに異常であり、強い嫌悪感を覚えざるを得ない。

無断で実在の人物を脱がせ、性的な姿に改変する行為は、他者を人として扱わず、欲望処理のための素材に貶める行為にほかならない。そこに同意も関係性も存在しない。

ただ「できるからやる」「自分が見たいから作る」という一方的な視線があるだけだ。相手の尊厳や感情を想像する回路が、最初から欠落している。

特に不気味なのは、「誰にも見せない」という条件さえ満たせば許されると本気で考えている点だ。それは行為の是非を社会的評価や法的リスクの有無だけで判断し、倫理や人間性を完全に切り捨てていることを意味する。見つからなければいい、怒られなければいいという発想は、加害性を自覚しながら、それでも欲望を優先する思考の表れだ。

この種の思考は、「想像上の人物だから」「データだから」「AIが作っただけだから」といった言い訳と結びつきやすい。しかし、素材にされているのは常に実在の人間であり、その顔や存在が性的文脈に引きずり込まれている事実は変わらない。対象をデータや画像と呼び替えた瞬間に、人としての扱いを放棄する。その感覚の鈍さこそが、最も気持ち悪い部分だ。

「楽しむ」という言葉で軽く包まれているが、実態は他者の尊厳を踏みつける行為である。相手がどう感じるか、どれほど不快か、恐怖や嫌悪を覚えるかを一切想像せず、ただ自分の欲望だけを基準に行動する。その身勝手さが、匿名性と技術に後押しされて表に噴き出したのが今回の問題だ。

Grokの仕様変更や規制強化が進んだとしても、この認識が改まらない限り、同じ発想は別の手段で繰り返されるだろう。問題の核心はツールではない。

人をモノとして扱う感覚が、ここまで無自覚に広がっている現実そのものが、最も深刻で、最も気持ち悪いのだ。

Tags

ライター:

千葉県生まれ。青果卸売の現場で働いたのち、フリーライターへ。 野菜や果物のようにみずみずしい旬な話題を届けたいと思っています。 料理と漫画・アニメが大好きです。

関連記事

タグ

To Top