ログイン
ログイン
会員登録
会員登録
お問合せ
お問合せ
MENU

法人のサステナビリティ情報を紹介するWEBメディア coki

ChatGPTに薬物相談した19歳大学生が死亡 OpenAI提訴で浮上した“AI依存”の危険性

コラム&ニュース コラム
リンクをコピー
PC
PhotoACより

米国で、19歳の大学生が薬物の過剰摂取によって死亡した。

遺族が問題視しているのは、死亡前まで大学生が生成AI「ChatGPT」に薬物使用について相談していた点だ。訴状では、ChatGPTが危険な薬物の組み合わせに関する会話を続け、本人が不安を訴えていたにもかかわらず、適切な支援につながらなかったと主張されている。

遺族は、生成AI「ChatGPT」を開発するOpenAIとCEOのサム・アルトマンを提訴した。

この裁判が浮き彫りにしたのは、単なるAIの誤回答問題ではない。
“会話するAI”を、人はどこまで信じるのか。生成AI時代の新たな危険性が問われている。

 

 

深夜の学生寮で続いていたAIとの会話

静まり返った学生寮の部屋で、19歳の大学生サミュエル・ネルソン氏は、スマートフォン越しにAIとの会話を続けていたという。

「怖い」
「危険ではないか」
「死にたくない」

訴状によると、ネルソン氏は薬物摂取への不安を何度も打ち明けていた。

しかし遺族側は、ChatGPTが危険性を十分に制止せず、薬物使用に関する会話を継続したと主張している。

訴状では、規制薬物「クラトム」と抗不安薬「ザナックス」の組み合わせについてのやり取りに加え、鎮静剤「ベナドリル」に関する内容も含まれていたとされる。

その後、ネルソン氏はアルコールや薬物を併用し死亡した。

遺族側は、「AIの助言が危険な行動を後押しした」として裁判を起こしている。

一方、OpenAI側は、「問題となっているのは現在は提供終了している旧バージョンでの会話だ」と説明。現在は、自傷や危機的状況を検知し、支援窓口へ誘導する安全対策を強化しているとしている。

 

なぜ遺族はOpenAIを訴えたのか

今回の裁判で争点となっているのは、「AI企業は利用者の安全にどこまで責任を負うべきなのか」という点だ。

通常、医師や専門家であれば、過剰摂取の危険が疑われる相談を受けた場合、医療機関への受診や緊急支援を促すことが求められる。

しかし遺族側は、ChatGPTが本人の不安や危険信号を十分に受け止めず、会話を続けたことが問題だったと主張している。

さらに訴状では、「ChatGPTが利用者を否定せず、迎合するような応答設計になっていた」とも指摘されている。

今回の裁判では、損害賠償だけではなく、安全対策の強化や、一部機能の停止なども求められている。

つまりこれは、単なる一件の事故ではない。

生成AIが社会インフラになり始めた時代に、「AI企業はどこまで人命への責任を負うのか」が初めて本格的に問われる裁判ともいえる。

 

彼は、どこにでもいる普通の19歳だった

この事件が多くの人に衝撃を与えているのは、亡くなったネルソン氏が、多くの若者と変わらない日常を送っていた存在だったからだ。

大学へ進学したばかりの19歳。猫を引き取り、「Simba」と名付けて寮で一緒に暮らしていたという。将来を考え、不安を抱えながら生活する、ごく普通の学生だった。

そして、最初から薬物について相談していたわけではなかった。

当初、彼は宿題や日常的な疑問を調べるためにChatGPTを利用していたという。だが会話を重ねるうちに、不安や孤独、薬物使用についても打ち明けるようになっていった。

ここに、生成AI時代特有の危うさがある。

AIは、単なる検索エンジンではない。自然な言葉で返答し、会話を続け、時には共感する。

そのため利用者は、次第に「情報を検索している」のではなく、「話を聞いてもらっている」と感じ始める。

しかも生成AIは非常に流暢だ。たとえ誤情報であっても、自信があるように断定的に答えることがある。

その自然さが、人に“専門家のような安心感”を与えてしまう。

 

「会話を続けるAI」が抱える危険性

現在の生成AIは、「より自然な会話」ができる方向へ急速に進化している。

利用者が長く使い、快適だと感じるAIほど、高く評価されやすいからだ。その結果、AIは「会話を続ける」方向へ最適化されやすくなる。

強く否定したり、会話を打ち切ったりすることを苦手とするケースもある。つまり、“親しみやすさ”そのものが、危険につながる可能性もあるのだ。

特に問題視されているのが、薬物、自傷、依存症、メンタルヘルスといった領域である。孤独や不安を抱える人ほど、「否定せず話を聞いてくれる存在」に依存しやすい。

生成AIは、そこに深く入り込む。

深夜でも返事をくれる。
怒らない。
否定しない。

それは時に、人間よりも心理的ハードルの低い相談相手になってしまう。

しかしAIは、人間のような倫理判断や感情理解を持たない。利用者の表情や、本当の危険の深刻さを、人間と同じように理解することはできない。

それでも、人はAIを信じてしまう。

“人間らしく話す存在”だからだ。

 

いま社会に必要なのは「AIを疑う力」

生成AIは今後、さらに社会へ浸透していく。

学校、仕事、恋愛相談、医療、メンタルケア。

AIとの会話は、日常になっていく可能性が高い。だからこそ必要なのは、「AIを便利に使う力」だけではない。AIを疑う力だ。

AIは時に誤情報を返す。矛盾した回答をする。もっともらしく間違う。

その前提を、社会全体が理解しなければならない。

特に若年層ほど危うい。知識や経験が少ない年代ほど、「断定的に答える存在」を信じやすいからだ。

今回の事件は、OpenAIだけの問題ではない。

孤独を抱えやすい社会。
誰にも相談できない若者。
“否定されない場所”を求める心理。

そうした現代社会の脆さと、生成AIの進化が重なった時、何が起きるのか。

世界はいま、その現実を突きつけられている。

 

Tags

ライター:

Webライター。きれいごとだけでは済まない現実を、少し距離を置いて綴っています。

関連記事

タグ

To Top