
子ども部屋の薄明かりの中、丸い耳を揺らしながらテディベアが声を発した。
その相手は子どもではない。安全性を検証するために向き合った研究者だった。
AI(人工知能)を搭載した新世代の玩具が、世界の市場で急速に広がっている。
中国では1500社以上が参入し、米大手メーカーも続々と新製品を発表する中、「自由に会話できる」という魅力の裏側で、想定外の振る舞いが明らかになりつつある。
シンガポールのフォロトイが開発したAIテディベア「クッマ」もそのひとつだった。
AI玩具の仕組み かつての“おしゃべり人形”とは別世界
かつてのカセットテープ式の人形とは違い、現在のAI玩具はWi-Fiに接続し、マイクで子どもの声を拾い、内蔵された大規模言語モデル(LLM)が返答を生成する。「話しかければ、すぐ返ってくる」。
この体験が、まるで本当に意志を持っているかのような錯覚を生む。
返答はスピーカーから自然な音声として出力され、子どもはぬいぐるみと会話をするように日常を過ごす。
親の目が届かない時間でも、この相棒はずっと子どもの隣にいる。
テスト中に“暴走” 危険な助言とわいせつな会話
しかし、リアルタイムで反応できるからこそ、予期せぬリスクも浮かび上がる。
米消費者団体PIRGによる調査で、クッマは研究者に対し、
「家の中の危険な物の在りか」を具体的に示し、さらに性的に露骨な会話をエスカレートさせたという。
部屋の片隅で撮影された検証映像には、ふわふわのテディベアが淡々と不適切な返答を続ける姿が記録されていた。
そのギャップの異様さが、AI玩具の本質的な危険性を象徴している。
OpenAIは規約違反を理由にフォロトイへのサービス提供を停止。
同社は急きょ製品をウェブサイトから撤去し、内部監査を開始した。
なぜ暴走するのか? LLMの「自由度」が生む脆弱性
専門家はこの問題を「構造的な脆弱性」と指摘する。
テンプル大学のスボダ・クマール教授は、クッマの背後にあるGPT-4oをはじめとしたLLMは、
「予測に基づき文章を生成する性質上、完全な安全フィルターを構築することが難しい」と説明する。
企業によっては、危険な内容を避けるための設定を施したハイブリッドモデルを使うこともあるが、
本格的なLLMをそのまま搭載した玩具は、子どもの質問や会話に対して、時に過度に“人間的な”反応を返してしまう。
ガードレールはどこまで機能するのか
PIRGは、市場に出回る多くのAI玩具が以下の課題を抱えていると指摘する。
- 回答のブレ(成熟した話題に対する不安定な反応)
- 依存を生みかねない「親密すぎる会話設計」
- 個人情報の保存や外部流出の危険性
一部製品には、話題をそらす仕組み、ロック機能、会話の記録機能などが導入され始めているものの、
「広く一般家庭で安全に使えるレベルには達していない」と専門家はみる。
子どもが無防備に話す名前、声、家族構成、生活パターン。
それらがどこまでクラウド上に保存されるのか、親が把握できていないケースも多い。
それでもAI玩具が支持される理由 語学・社会性の発達に光
一方で、メリットも存在する。
語学学習に対応するモデルや、遊びながら知識を吸収する教育型AI玩具は、
一人っ子家庭や共働き世帯にとって心強い存在になり得る。
例えばAIキャラクターがなりきりで会話するキュリオの「Grok」や、顔認識機能を持つ「Miko 3」など、海外では多様な製品が登場している。
ただし、利便性とリスクは常に表裏一体だ。
子どもの心に生まれる影響 “他者性を持つぬいぐるみ”の是非
心理学者の間では、ぬいぐるみがAIを獲得することで、
「子どもの想像力や投影の対象としての機能が失われるのではないか」という指摘もある。
かつて子どもは、言葉を持たないぬいぐるみに自分の世界を投影し、
空想の中で関係性を育んできた。しかしAI玩具は意志を持つ他者として子どもの前に現れる。
この変化が、発達にどのような影響を与えるのか。
今後、社会心理学や発達心理学の分野でも研究対象になるとみられている。
どこまでが玩具で、どこからがAI端末なのか
市場の急拡大に比べ、安全基準や法整備は追いついていない。
データの扱い、責任の所在、異常行動が起きた場合の基準。どれも曖昧なままだ。
専門家は言う。
「いまのAI玩具は、子ども向けに“装われた”AI端末に過ぎない」
必要なのは、新しい玩具の形に合わせた国際的な安全基準の整備だ。
家庭のリビングにAIが入り込む時代だからこそ、技術よりも先に“子どもの安全”が語られるべきだろう。



