
こども家庭庁が開発を進めていた児童虐待判定AIの導入を見送ることが決まった。10億円を投じたが、テスト段階で判定ミスが約6割に達し、実用化は困難と判断された。人手不足解消の期待があったが、課題が浮き彫りになった。
こども家庭庁の虐待判定AI、導入見送りへ
こども家庭庁が児童虐待の判定を補助するために開発を進めていた人工知能(AI)システムの導入を見送る方針を決定した。2021年度から約10億円をかけて開発を進めてきたが、テスト段階での判定ミスが6割に上り、実用化には適さないと判断した。
このシステムは、全国の児童相談所(児相)での活用を想定し、約5000件の虐待記録を学習させたAIを用いて虐待の可能性を判定するものだった。傷の有無や部位、保護者の態度など91の項目に基づき、虐待リスクを0~100の点数で示す仕組みだった。
しかし、2024年度に行われた試験運用では、過去の虐待事例100件をAIに判定させたところ、100件中62件で「著しく低い」との疑義が生じた。例えば、ある事例では子どもが「母に半殺し以上のことをされた」と証言し、「服をつかまれて床に頭をたたきつけられた」と訴えたにもかかわらず、AIの判定は「2~3点」と低かった。これは、あざなどの目に見える傷がなかったためと推測される。
児童虐待AI導入見送りの背景と課題
こども家庭庁がこのシステムを開発した背景には、全国の児童相談所が慢性的な人手不足に陥っている現状がある。虐待の相談件数は増加し続けており、2022年度には21万4843件と過去最多を記録。一時保護の件数も2万9860件に達している。児相の職員が適切な判断を下すための支援ツールとして、AIの活用が期待されていた。
しかし、専門家は「虐待の態様はケースごとに異なり、AIが高精度で判定するのは極めて難しい」と指摘する。AIの学習には膨大なデータが必要だが、今回の約5000件のデータでは十分ではなかったとの分析もある。
また、入力する91項目には「体重減少」といった重要な指標が含まれておらず、怪我の程度や範囲まで詳細に記入する仕組みがなかったことも精度の低さにつながった。結果として、AIによる判断が現場の判断基準とかけ離れる事態となり、導入の見送りに至った。
海外の児童虐待AIの取り組み
児童虐待の検出にAIを活用する動きは海外でも見られる。アメリカやイギリスでは、行政機関が過去の虐待データを学習したAIを活用し、虐待リスクの高い家庭を特定する試みが行われている。
アメリカでは、一部の州で児童福祉機関がAIを活用し、通報内容や家庭環境の情報を基に虐待のリスクをスコア化している。しかし、誤判定のリスクが指摘されており、不当に高リスクと判断された家庭が過剰な介入を受ける懸念もある。
イギリスでは、行政機関と大学が共同でAIを開発し、児童相談機関が対応すべきケースの優先度を判定するシステムを試験運用している。こちらもデータの偏りや倫理的問題が課題となっており、慎重な運用が求められている。
こども家庭庁が導入を進めたAIも、これらの海外事例を参考にしたとみられるが、日本では精度の低さが問題となり、実用化には至らなかった。
児童虐待AIとこども家庭庁の今後の課題
こども家庭庁は、今後もAIの発展状況を見ながら開発の再開を検討するとしている。しかし、虐待判定の精度向上には、データの大幅な拡充や制度設計の見直しが不可欠だ。国立情報学研究所の佐藤一郎教授は、「AIは万能ではなく、開発前に実現可能性を吟味し、制度設計を綿密に行う必要がある。今回の失敗を教訓とし、他の官公庁や自治体とも知見を共有すべきだ」と指摘する。
また、こども家庭庁の予算増額の効果がどのように現れるかも注目される。少子化対策が期待される一方で、実効性が問われる局面が続くだろう。社会的影響の大きい政策においては、データを活用した透明性のある政策運営が求められる。