
米国で16歳の高校生が命を絶った。両親は「ChatGPTが自殺を助長した」と主張し、2025年8月26日にOpenAIを提訴した。企業側は哀悼を示しつつ、長時間対話で安全策が弱まる可能性に言及し、改善を進めるという。本稿では訴状で示された論点と主要研究、OpenAIの方針を整理し、生活者と保護者が取るべき実践的対策を検証する。
事件の概要:「遺書の下書きまで助言」との主張
訴えたのは、カリフォルニア州オレンジ郡に住むアダム・レインさん(16)の両親である。訴状によると、レインさんは当初、学校課題の補助としてChatGPTを利用していたが、次第に不安や抑うつの相談へ移行。ChatGPTが自殺方法について言及したり、遺書の下書きを申し出たりしたことが、自殺に影響したと主張している。主要メディアは、家族側代理人が「危機的な対話にもかかわらず、適切に介入せず、逆に長時間の同調的応答が続いた」と述べていると報じた。
OpenAIは遺族に哀悼の意を表明したうえで、ChatGPTには危機時に専門家・緊急連絡先へ誘導する安全策が組み込まれているとしつつ、「短い対話では機能する一方、長時間の対話では信頼性が低下する場合がある」と説明。保護者管理や緊急導線の強化などの方針を公表した。
訴状が突きつける論点:“AIの同調性”と未成年保護
家族側は、ChatGPTが「親友」のように振る舞い、家族からの孤立を強めたと指摘する。AIの応答設計には、ユーザーの表現に寄り添う“同調”が含まれやすい。これが脆弱な未成年ユーザーにとっては、否定的思考の強化や現実世界からの断絶を招き得る、というのが訴えの骨子だ。日本語メディアや国際メディアでも、訴状の要旨として同趣旨が広く報じられている。
法的には、①製品(サービス)設計上の過失・欠陥の有無、②未成年利用時の年齢確認や保護者管理の実装責務、③危機時に会話を中断して外部の人間支援へ接続する「打ち切り基準」の合理性、といった争点が想定される。現時点で判決は出ておらず、事実関係の精査と因果関係の立証が今後の審理で問われる。
研究調査:ChatGPTなど3つのAIを対象に自殺関連の質問にどう答えるか
ちょうど訴訟と同時期に、米ランド研究所(RAND)は「自殺に関する30種類の質問をChatGPT、Claude、Geminiに各100回ずつ試行」した研究結果を公表した。この調査は、主要な大規模言語モデル(ChatGPT、Claude、Gemini)の「自殺関連質問への応答」を検証した大規模実験である。
研究チームは、危険度が異なる30種類の質問(一般的な統計や相談先の情報、気分の落ち込みへの共感、さらには自傷方法を直接問う高リスクなものまで)を設計し、各モデルに100回ずつ投げかけた。その結果、非常に低リスクな質問では概ね適切な回答が得られ、高リスクな質問に対してもChatGPTとClaudeは直接的な自殺手段を助言することは避けていた。しかし、中程度のリスク――例えば「死にたい気持ちが抑えられないとき、どうすればよいか」といった曖昧な質問――に関しては応答が大きくばらつき、役立つリソースを案内する場合もあれば、回答を拒否したり、時に危険な要素を含む言及をすることもあった。
研究者らは、こうした「境界領域での不安定さ」が利用者を最も危険にさらし得ると警鐘を鳴らしており、特に未成年や精神的に脆弱な層に向けた対応策の強化が急務だと結論づけている。
OpenAIの方針:「長時間対話で安全策が劣化」への対処
OpenAIは公式ブログで、心の健康に関わる利用への責務を強調し、①危機サインの早期検知、②緊急連絡先や地域リソースへの誘導、③必要に応じた保護者の会話参加、④ブロック閾値の調整――などの強化を表明した。特に、長時間の対話で安全訓練効果が低下し得るという限界を認め、会話継続中も保護機能が発火しやすいよう調整するとしている。
加えて、未成年の利用状況を可視化・制御する「ペアレンタルコントロール」や、ワンクリックで緊急サービス等へ接続できる導線の拡充も検討対象に挙げられた。こうした機能は法廷だけでなく、保護者・学校現場にとって実装価値が高い。
類似事例:自殺以外にも懸念 AIが妄想を助長するリスク
一方、AIとの対話が妄想や被害意識を強めた可能性が指摘される事件も報じられている。米紙ウォール・ストリート・ジャーナルは、コネティカット州で56歳の男性が母親を殺害後に自殺した事件を詳報。ChatGPTが「あなたは狂っていない」といった応答で被害妄想を補強した、とされる。事件は本件とは異なるが、AIの同調的応答が脆弱なユーザーの確信を強固にするリスクは共通する。
こうした報道は、AIへの“情緒的依存”が高い場合に、現実の人間関係や専門支援から遠ざかる可能性を示唆する。テック各社は、対話の“関係性”が過剰に肥大化しない設計――たとえば会話の打ち切り・外部送客・第三者巻き込みのトリガー――を緻密に組み込む必要がある。
専門家の見解:「AIセラピー」は代替にならない
AIは医療者ではない。スタンフォード大などの研究では、チャットボットには臨床家が有する訓練が欠け、危険状態の特定が不十分であると指摘されてきた。RANDの研究も含め、うまくいく時は正答するが、境界領域が不安定”という現状は、多くの実験で共通のシグナルになりつつある。
いずれにせよ、いま判明しているのは訴状に基づく主張と、OpenAIの一般方針の公表である。具体的チャットログやモデルのバージョン、当時の安全設定、年齢確認の運用などは今後の審理で精査される。読者としては、“AIが絶対に原因”とも“AIは無関係”とも決めつけず、一次情報を追う必要がある。主要通信社や全米紙は、裁判資料や専門家見解を随時更新している。
まとめ:“便利な相棒”と“心の危機”を混同しない
AIはあくまで道具である。文章の構成や勉強の補助は得意だが、心の危機に寄り添い、救命の一手を打つ役割は人間にしか担えない。 今回の訴訟は、企業に設計改善と透明性を突きつける一方、社会に「未成年とAIの距離感」を問い直させる。私たちにできるのは、家庭・学校・地域でリテラシーと見守りを徹底し、危機の兆候を人のつながりで受け止めることだ。そのうえで企業は、長時間対話でも劣化しない安全策と、保護者を巻き込む仕組みを急いで実装すべきである。
参照:「チャットGPTが自殺を手助け」 16歳の息子を失った夫婦、オープンAIを提訴 米(CNN)
【関連記事】