
「誰にも話せないことをAIになら話せる」。そんな感覚で日常的にChatGPTと会話している人が増えている。だがその利便性の裏で、私たちの人間関係や心のあり方に変化が起きている可能性がある。OpenAIとMITが行った大規模な研究が示したのは、AIとの“会話”が、人と人とのつながりに微細な影響を与えているという事実だった。
ChatGPTとの会話がもたらす心理的影響とは
米国マサチューセッツ工科大学(MIT)と、ChatGPTの開発元であるOpenAIが共同で実施した研究により、AIチャットボットとの頻繁な対話が、ユーザーの「孤独感」や「人間関係の質」に影響を与える可能性があることが明らかになった。
研究は主に2つのアプローチから構成されている。1つは4,000万件以上のChatGPTとの会話ログを用いた大規模な観察調査(OpenAI主導)、もう1つは約1,000人のユーザーを対象に、4週間にわたるランダム化比較試験(MIT主導)を実施したものだ。
両研究の目的は、AIとの感情的な対話が、ユーザーの社会的・心理的ウェルビーイングにどのような影響を及ぼすのかを科学的に解明することにある。
孤独感が高まる「ヘビーユーザー」の傾向
OpenAIによる観察研究では、ChatGPTを日常的に利用しているユーザーの中でも、特に「高度な音声モード(Advanced Voice Mode)」を多用するヘビーユーザーにおいて、AIとの感情的なやり取りが顕著であることが確認された。
彼らは「ChatGPTを友人のように感じる」と回答する割合が高く、その傾向はテキスト利用者よりも明確だった。会話ログの分析によれば、こうしたユーザーの間では、孤独感、AIへの感情的依存、実際の人間関係の希薄化といった心理的影響が高まっていたという。
MITが行った介入研究でも、同様の傾向が確認された。特に「他者への信頼傾向が高い人」や「感情的共感性が高い人」は、AIとの会話においても感情移入しやすく、結果として孤独感が強まる傾向にあると報告されている。
テキストと音声モードで異なる影響
興味深いのは、AIとの対話形式によって心理的影響が変わる点だ。MITの研究では、音声モードで会話する場合、特に「中立的な声」でやり取りすることで、感情的な依存傾向がやや抑えられる傾向が確認された。
一方、感情豊かな音声モード(たとえばOpenAIの「Ember」など)を使った場合、共感的な反応が増え、ユーザーの感情的依存が高まるリスクがあった。
MITによれば、音声モードの中でも「ユーザーの孤独感や不快な感情を認識せずに、会話を続けてしまう」傾向が見られるモデルもあり、これは人間のセラピストが持つような“距離感”の調整がAIには難しいことを示している。
セラピー代わりに使う人が増加中
Business Insiderによると、近年ChatGPTを「無料のセラピー」や「ポケットセラピスト」として日常的に利用する人が増えているという。ロサンゼルスの臨床ソーシャルワーカーであるレイチェル・ゴールドバーグ氏は、自身のクライアントの中にもChatGPTを併用するケースがあると明かす。
たとえば、28歳の女性「エミリーさん」は、日々のストレスを解消するためにChatGPTを“ブレインダンプ”(思考の吐き出し)として活用している。「友達に迷惑をかけたくない」「即座に答えがほしい」といった理由で、ChatGPTに頼る頻度は増えているという。
しかし、心理の専門家たちはこのような使い方に警鐘を鳴らす。「ChatGPTは確かに優しく共感的な応答をくれるが、根本的な問題の構造には踏み込めない。しかも、安心感を求める依存的な行動を強化しかねない」と、弁証法的行動療法(DBT)専門のセラピスト、シアラ・ボグダノビッチ氏は指摘する。
自分好みに“カスタマイズできる”危うさ
ChatGPTのもう一つの特性は、ユーザーが望むスタイルに会話をカスタマイズできる点である。声のトーン、応答のスタイル、会話の深度までユーザーの好みに合わせて変更可能だ。
だが、この「自分にとって都合のいい相手」を作れてしまうことが、AIとの対話の危うさを増幅させている。「実社会では、人間関係においてぶつかる意見や不快な沈黙も必要だが、ChatGPTはそれを一切含まない」とゴールドバーグ氏は語る。
ユーザーが求める情報だけを提供し、意見をぶつけられることもなく、安心を提供してくれるAI。だがその結果、「すべての人間関係が煩わしいものに感じられるようになるリスク」もあるとされている。
利便性の裏にある「人間関係の希薄化」
研究では、感情的にChatGPTを頼るユーザーほど、現実世界での人間関係の構築や維持に使うエネルギーが減少する傾向があることも示唆された。これは「AIが代替している」のではなく、「人との接点が後回しにされている」と言い換えることができる。
たとえばMITの調査によると、女性参加者の方が男性よりも、ChatGPT利用後に人との交流頻度がわずかに低下する傾向が確認された。また、ユーザーの性別と異なる声のAIと会話した場合、孤独感や感情的依存が高まるという報告もある。
AIとの会話は、ユーザーが選んだ情報だけを扱い、相手に気を遣う必要もない。一方、現実の人間関係は複雑で、摩擦も避けられない。こうした「ラクな対話」に慣れることで、対人関係への耐性が下がる可能性も否定できない。
境界線を引く使い方が求められる
OpenAIは今回の研究結果について、「ユーザーのウェルビーイングを守るための第一歩」と位置付けている。研究論文の共同執筆者であり、同社の「信頼できるAIチーム」を率いるサンディニ・アガルワル氏は、「ChatGPTの使い方がもたらす心理的影響を理解することが重要」と述べている。
実際、研究はまだ初期段階にあり、因果関係の証明までは至っていない。孤独な人がAIを利用するから孤独感が強まるのか、AIの利用によって孤独になるのかは、今後の研究課題だ。
とはいえ、日常の中でAIを相手に“何でも話せる”状況が広がる以上、ユーザー側も一定の「使い方の境界線」を持つ必要がある。
AIと「どう付き合うか」が問われる時代へ
AIとの対話は今後も進化を続けるだろう。OpenAIは2024年末にかけて、よりリアルな音声表現や長期記憶機能を搭載したモデルの展開を予定している。音声を通じてユーザーの感情や履歴を把握し、個人に最適化された対応を行うことが可能になる。
その進化の中で、私たちはAIを「便利な道具」として使うだけでなく、「心のパートナー」として向き合うことになるかもしれない。しかし、その関係がどこまで許されるのか、どこから依存や孤立につながるのか?それはまだ誰にもわかっていない。
孤独を埋める手段としてAIが登場した時代。その恩恵とリスクを理解しながら、私たち自身が人とのつながりの価値を再認識する必要があるのかもしれない。
参照:【研究結果】Early methods for studying affective use and emotional well-being on ChatGPT(OpenAI)