
米国で、19歳の大学生が薬物の過剰摂取によって死亡した。
遺族が問題視しているのは、死亡前まで大学生が生成AI「ChatGPT」に薬物使用について相談していた点だ。訴状では、ChatGPTが危険な薬物の組み合わせに関する会話を続け、本人が不安を訴えていたにもかかわらず、適切な支援につながらなかったと主張されている。
遺族は、生成AI「ChatGPT」を開発するOpenAIとCEOのサム・アルトマンを提訴した。
この裁判が浮き彫りにしたのは、単なるAIの誤回答問題ではない。
“会話するAI”を、人はどこまで信じるのか。生成AI時代の新たな危険性が問われている。
深夜の学生寮で続いていたAIとの会話
静まり返った学生寮の部屋で、19歳の大学生サミュエル・ネルソン氏は、スマートフォン越しにAIとの会話を続けていたという。
「怖い」
「危険ではないか」
「死にたくない」
訴状によると、ネルソン氏は薬物摂取への不安を何度も打ち明けていた。
しかし遺族側は、ChatGPTが危険性を十分に制止せず、薬物使用に関する会話を継続したと主張している。
訴状では、規制薬物「クラトム」と抗不安薬「ザナックス」の組み合わせについてのやり取りに加え、鎮静剤「ベナドリル」に関する内容も含まれていたとされる。
その後、ネルソン氏はアルコールや薬物を併用し死亡した。
遺族側は、「AIの助言が危険な行動を後押しした」として裁判を起こしている。
一方、OpenAI側は、「問題となっているのは現在は提供終了している旧バージョンでの会話だ」と説明。現在は、自傷や危機的状況を検知し、支援窓口へ誘導する安全対策を強化しているとしている。
なぜ遺族はOpenAIを訴えたのか
今回の裁判で争点となっているのは、「AI企業は利用者の安全にどこまで責任を負うべきなのか」という点だ。
通常、医師や専門家であれば、過剰摂取の危険が疑われる相談を受けた場合、医療機関への受診や緊急支援を促すことが求められる。
しかし遺族側は、ChatGPTが本人の不安や危険信号を十分に受け止めず、会話を続けたことが問題だったと主張している。
さらに訴状では、「ChatGPTが利用者を否定せず、迎合するような応答設計になっていた」とも指摘されている。
今回の裁判では、損害賠償だけではなく、安全対策の強化や、一部機能の停止なども求められている。
つまりこれは、単なる一件の事故ではない。
生成AIが社会インフラになり始めた時代に、「AI企業はどこまで人命への責任を負うのか」が初めて本格的に問われる裁判ともいえる。
彼は、どこにでもいる普通の19歳だった
この事件が多くの人に衝撃を与えているのは、亡くなったネルソン氏が、多くの若者と変わらない日常を送っていた存在だったからだ。
大学へ進学したばかりの19歳。猫を引き取り、「Simba」と名付けて寮で一緒に暮らしていたという。将来を考え、不安を抱えながら生活する、ごく普通の学生だった。
そして、最初から薬物について相談していたわけではなかった。
当初、彼は宿題や日常的な疑問を調べるためにChatGPTを利用していたという。だが会話を重ねるうちに、不安や孤独、薬物使用についても打ち明けるようになっていった。
ここに、生成AI時代特有の危うさがある。
AIは、単なる検索エンジンではない。自然な言葉で返答し、会話を続け、時には共感する。
そのため利用者は、次第に「情報を検索している」のではなく、「話を聞いてもらっている」と感じ始める。
しかも生成AIは非常に流暢だ。たとえ誤情報であっても、自信があるように断定的に答えることがある。
その自然さが、人に“専門家のような安心感”を与えてしまう。
「会話を続けるAI」が抱える危険性
現在の生成AIは、「より自然な会話」ができる方向へ急速に進化している。
利用者が長く使い、快適だと感じるAIほど、高く評価されやすいからだ。その結果、AIは「会話を続ける」方向へ最適化されやすくなる。
強く否定したり、会話を打ち切ったりすることを苦手とするケースもある。つまり、“親しみやすさ”そのものが、危険につながる可能性もあるのだ。
特に問題視されているのが、薬物、自傷、依存症、メンタルヘルスといった領域である。孤独や不安を抱える人ほど、「否定せず話を聞いてくれる存在」に依存しやすい。
生成AIは、そこに深く入り込む。
深夜でも返事をくれる。
怒らない。
否定しない。
それは時に、人間よりも心理的ハードルの低い相談相手になってしまう。
しかしAIは、人間のような倫理判断や感情理解を持たない。利用者の表情や、本当の危険の深刻さを、人間と同じように理解することはできない。
それでも、人はAIを信じてしまう。
“人間らしく話す存在”だからだ。
いま社会に必要なのは「AIを疑う力」
生成AIは今後、さらに社会へ浸透していく。
学校、仕事、恋愛相談、医療、メンタルケア。
AIとの会話は、日常になっていく可能性が高い。だからこそ必要なのは、「AIを便利に使う力」だけではない。AIを疑う力だ。
AIは時に誤情報を返す。矛盾した回答をする。もっともらしく間違う。
その前提を、社会全体が理解しなければならない。
特に若年層ほど危うい。知識や経験が少ない年代ほど、「断定的に答える存在」を信じやすいからだ。
今回の事件は、OpenAIだけの問題ではない。
孤独を抱えやすい社会。
誰にも相談できない若者。
“否定されない場所”を求める心理。
そうした現代社会の脆さと、生成AIの進化が重なった時、何が起きるのか。
世界はいま、その現実を突きつけられている。



