少し前になりますが、三原じゅん子氏が子ども政策大臣だった頃、子ども家庭庁が検討していた「児童虐待のリスク判定AIシステム」の導入を見送る(発表は2025年3月で2025年度の導入を見送るという発表だったようです)ということがありました。見送りの理由は、専門家による検証で、試行版で約6割の判定に疑義があり精度が十分ではなく、AIが児童相談所による一時保護の判断を誤るリスクが指摘されたためとの発表があったようです。この取り組みに約10億円かかったともされており、無駄遣いとも批判されてもいました。システム自体は、2021年度から開発され始め、試行版ができて専門家が検証したのは2024年度ということで、結果的に2025年度からの導入を見送ったという経過になるようです。私は、神奈川県がモデル自治体の一つとしてAI開発に向けての調査に協力していたことを知っていましたが、具体的な調査内容などは知りませんでした。
このニュースを聞いた時、「やっぱりなあ」というのが正直な感想でした。「児童虐待のリスク」というのは、客観的な部分もあると思いますが、担当者ないしは児相と保護者との相互的な関係によっても左右される面があるので、その部分までAIが判断できるとは到底思えませんでした。システム開発の事前調査は、虐待ケースをピックアップして担当者が調査(どのような項目を調査したのは分からないのですが)に答えるというものだったようです。もしかしたら他の方法でも調査をしていたのかも知れません。ただ、もし、ケーススタディのような形の調査しかしておらず、その結果を分析するような内容だったとすると、答えた担当者の主観が入り込む余地が大きく、担当者が自分ないしは児相と保護者との関係性を俯瞰できるような人ならともかく、担当者もしくは児相側からだけの視点で調査に答えていたとするなら、「専門家の検証」といわれるものが、どのように行われたのかは分かりませんが、客観的な第3者の検証(担当者ないしは児相と保護者との関係性も見ることができるような専門家)であれば、約6割に疑義があったというのも頷けるような気がしますし、疑義があったことを隠さずに発表し、導入を見送ったことには拍手を送りたい気持ちにもなります。
ただ、いずれAIの進歩により、「関係性」をも含んだ判断ができるようなAIが開発されるかも知れません。現在でも言われていますが、AIの活用は、AIに使われるのではなく、どううまくAIを使いこなすかにかかってくると思います。言い換えれば、判断する主体は人間であることを肝に銘じておく必要があるということだと思います。人間が判断するためにAIを参考にすることはあっていいことだと思いますが、最悪なのは「AIがこう判断しているのだから」と、人間の判断をAIに丸投げしてしまうことです。AIの精度が上がれば上がるほどAIに頼ろうとする気持ちになってしまう可能性が高くなると予測されるので、それをどう防ぎ、人間の判断を磨いていく方法というのも、是非研究して欲しいものだと思いました。
コメント