( 271813 )  2025/03/04 04:04:09  
00

10億円かけた虐待判定AI、こども家庭庁が導入見送り…ミス6割で「実用化困難」

読売新聞オンライン 3/3(月) 5:00 配信

https://news.yahoo.co.jp/articles/2e93e428378fcb71b80fb0aa5bd1d4b5606fe0d7

 

( 271814 )  2025/03/04 04:04:09  
00

こども家庭庁は、虐待が疑われる子どもの一時保護を判断するためのAIシステムの導入を見送った。

開発に約10億円かけ、判定ミスが60%に上ったため実用化が困難と判断。

AIは虐待の判断に適さず、専門家も難しさを指摘。

体重減少などの重要な項目が不足し、精度が低かったため。

同庁は再開の検討も含め、AIの発展状況を見守る。

専門家は今回の失敗を共有し、AIの活用に慎重に取り組む必要性を指摘。

(要約)

( 271816 )  2025/03/04 04:04:09  
00

こども家庭庁 

 

 虐待が疑われる子どもの一時保護を巡り、人工知能(AI)にその必要性を判定させるシステムについて、こども家庭庁が導入見送りを決めたことがわかった。国が2021年度から約10億円をかけて開発を進め、最終的な判断を下す児童相談所の職員を補助する役割が期待されていたが、テスト段階で判定ミスが6割に上った。AIは虐待の判断にはなじまず、実用化は困難と結論付けた。 

 

 同庁によると、システムは慢性的な人手不足に悩む全国の児相での利用を想定し、搭載したAIに約5000件の虐待記録を学習させた。傷の有無や部位、保護者の態度など91項目に情報を入力すると、虐待の可能性が0~100の点数で表示される。 

 

 試作モデルがほぼ完成し、今年度に計10自治体の児相に協力してもらい、過去の虐待事例100件のリスクを判定させる検証を行った。精度を各児相の幹部が確認したところ、100件中62件で「著しく低い」などの疑義が生じたという。 

 

 ある事例では、子どもが「母に半殺し以上のことをされた」と証言。「服をつかまれて床に頭をたたきつけられた」と訴えていたにもかかわらず、点数は「2~3」だった。あざなどがなかったためとみられる。 

 

 同庁は今年度の導入を目指していたが、「児相に提供するのは時期尚早」として開発を保留して見送りを決定。AIの発展状況を見ながら、再開するかどうかも含め検討するという。 

 

 開発が頓挫した理由について、複数の専門家は、事例ごとに態様が異なる虐待をAIが高精度で判定することの難しさを指摘する。AIの学習には膨大な量の記録が必要だが、今回の約5000件では少なかったとも分析している。 

 

 同庁関係者は「子どもの体重減少といった重要な項目が抜け落ちていた」と説明。また、91項目には該当の有無を入力するだけで、ケガがあった場合でもその程度や範囲まで記入する仕組みにはなっておらず、精度が低くなったとしている。 

 

 国立情報学研究所の佐藤一郎教授は「AIは何でもできる『魔法の杖(つえ)』ではない。開発前に実現可能性を吟味し、綿密に制度設計しなければうまくいかない。AIの活用は官公庁でも進むとみられるが、今回の失敗を他省庁や自治体とも共有し、今後に生かす必要がある」と指摘する。 

 

 ◆一時保護=児童福祉法に基づき、虐待などが疑われる18歳未満の子どもについて、児童相談所の判断で家庭から引き離す措置。期間は原則2か月以内で、2022年度の虐待による一時保護件数は2万9860件。こども家庭庁によると、同年度に全国の児相が虐待の相談を受けて対応した件数は、過去最多の21万4843件だった。 

 

 

( 271815 )  2025/03/04 04:04:09  
00

保育所の人員不足や、子ども家庭庁におけるAI導入に対する様々な意見が述べられています。

一部ではAIを活用することに賛成する意見もありますが、多くのコメントではAIの限界や課題を指摘し、人間の判断や経験が不可欠だとの意見が根強く見られます。

データの量や質、人間の感情や微妙な部分を考慮した判断をAIが行う難しさなどについても指摘がありました。

また、AI導入に10億円もの費用がかかったことに対する疑問や、AIを専門としない企業への依頼に対する疑念も表明されています。

全体としては、AIによる子どもの虐待判定には慎重な姿勢が求められているとの声が多く見られました。

 

 

(まとめ)

( 271817 )  2025/03/04 04:04:09  
00

=+=+=+=+= 

 

2023年、保育所が厚労省の所管から子ども家庭庁の所管になりました。保育所の先生たちからの悲鳴のようなメッセージを読むと心が痛みます。人が足りなくて、子どものケアを充分にできないということです。 

子ども家庭庁ができても、子ども食堂は増えています。子ども食堂は地域のボランティアさんたちがやっています。 

子ども家庭庁の政策は、子どもや家庭を守る政策であるべきです。 

まったく、優先順位を取り違えています。 

ムダにお金を使うなら、子ども家庭庁は廃止して厚労省所管の委員会に位置付けるだけでいいと思います。大臣ポストを増やすだけの省庁は必要ありません。ただの出世の道具のポストに使う税金はありません。 

 

▲10241 ▼308 

 

=+=+=+=+= 

 

これであきらめないで進めて欲しい。今回の結果の原因を解析して改善して欲しい。データ不足が一番だと思うので。あらゆるデータを入力して行って欲しい。そもそも開発したのはどこの会社ですか?かかわった官庁はどういう知識を持った人ですか。児相の専門家が参画しているのですか。 

良い物を作らない限り、被害が子どもに及ぶということを大事にしてください。今後も地道な改善を続けて欲しい。 

 

▲50 ▼184 

 

=+=+=+=+= 

 

AI開発に携わる事もありますが、正直これで10億の費用が掛かっているのは驚きです。そしてよくもまぁ簡単に「はい、断念です。」なんて言えたもんだなと…なんだか、民間とお役所との感覚や認識のズレを改めて感じてしまいました。掛かった費用の内訳を分かりやすく開示して欲しいですね。 

このような開発は社会的意義のあるものだとは思いますが、もう少し社会の理解を得られるような進め方が必要だと思います。 

 

▲4478 ▼135 

 

=+=+=+=+= 

 

私は小学生時代に転校したとき、いじめられました。 

背が高く身体が大きく(自分で言うのも何ですが)活発で、要は目立つ存在でした。 

元々のクラスにいた中心グループからすれば面白くなかったのでしょう、いじめは即座にはじまりました。 

直接的に暴力もありましたが、負けじと殴りかかり反撃したため一気に終戦に向かいました。 

先生も気付いていなかったでしょう。 

稀な例だと思います。今の時代は直接的ではなくSNSで仲間はずれにしたりするので現場の先生もなかなか気付きにくいと思います。 

何よりやった側よりやられた側が転校したり休学したりする方向がおかしいです。 

やった側を名前を出して晒していいと思います。 

どれだけのことをしたか思い知らせていいと思います。犯罪者の加害者もそうですが、日本は「イジメた子の将来が〜」とか「人権が〜」とか知ったこっちゃありません。 

 

▲399 ▼20 

 

=+=+=+=+= 

 

現時点で現場にできる状態ではないということがわかったのは一つの成果だと思う。人員不足に対応するための一つの手段としてAIを利用しようという発想は悪くない。人間の職員だって最初から十分な能力があるわけではない。日々実践事例と戦いながら経験を積むのだと思う。AIだって予算を確保し継続的に実践データを蓄積すれば、人員不足を補助する手段の一つになる日が来ると思う。中途半端な状態で実践投入しないで欲しいが、研究は続けて欲しい。 

 

▲204 ▼138 

 

=+=+=+=+= 

 

AIの利用をどのようなプロセスで誰が判断したか知りませんが安易すぎます。そもそもAIにこのような判断ができないことはわかっていたはずです。極めてセンシティブで膨大な事例を積み重ねる必要があることをわかっていたのでしょうか?会計検査院も調査すべきです。公共機関も民間もAIを理解しないまま単なる風潮に流されている感じがします。AIの専門家もできることとできないこと、できるためには何が必要なのかを明確に示すべきです。ソフトウエアのベンダーは金になればやるんでしょうが、研究者は良心をもって対応すべきです。 

 

▲31 ▼3 

 

=+=+=+=+= 

 

ガベージイン・ガベージアウトという奴ですね。 

いい加減な入力をしたAIはいい加減な出力しか返しません。 

 

昨今の生成AIにしてもネット上のビッグデータが活用できるようになってやっと花開いたと言われていますし、なんらかの十分な学習データを用意できない状態で無理矢理AIを作ってもそれ相応の性能にしかなりません。 

今後のAI関連プロジェクトに今回の教訓を活かしてもらいたいですね。 

 

▲1384 ▼49 

 

=+=+=+=+= 

 

10億円税金を投入したのなら、ちゃんとした仕事として残して欲しい 

 

本当に現在のAI技術では不可能なことをしようとしたのか、 

それともやり方が良くなかっただけなのか。 

後の人が判断ができるように、 

何をして、結果がどうだったのかをきちんと報告してほしい 

 

失敗を恐れていては、新しいことは何もできない 

だから過度に失敗を恐れる必要はないと私は思う。 

 

ただ失敗を失敗のままにしておくのは絶対に悪い 

同じ失敗を繰り返さないために、失敗原因を明確にしておくことは 

税金でやってるなら、必須対応として欲しい 

 

▲1323 ▼40 

 

=+=+=+=+= 

 

データが5000件は少な過ぎます。 

事例はもっとあると思うので、まずは学習するデータを増やすことを考えてはいかがでしょうか。 

あと、現場にはAI人材はいるのでしょうか。 

ただ流行りに乗っかってAIを導入しただけに見えてしまいました。 

AIは日進月歩で進化していて、物凄いスピードで発展しているにも関わらず、このニュースがいまだに報じられているのはとても残念です。 

進化はしていても使い方が誤っていて実用性がないと、無用の長物となってしまいそうです。 

本当にシンギュラリティは訪れるのか、まだまだ半信半疑な記事でした。 

 

▲1006 ▼49 

 

=+=+=+=+= 

 

ほんとにこのこども家庭庁は意味のない省庁のひとつ。こんなAIを別にこども家庭庁ではなくても、厚労省でも文科省でもやれるはず。ただ単に外部に委託してやっているだけで政府は財源が無いとかよく言うがこの程度で実質意味のない少子化対策看板のこども家庭庁の六兆円もの予算をなくせば大きな財源になる。 

 

▲984 ▼18 

 

 

=+=+=+=+= 

 

NTTデータが落札した「令和6年度児童相談所におけるAIを活用した緊急性の判断に資する全国統一のツールに係る運用・保守業務一式」でしょうか。 

失敗は失敗としてしょうがないのかもしれませんが、税金を使っている以上は政府だけではなく請け負った事業者もしっかりと事実を公表して次に繋げるよう進めて欲しいです。 

 

▲468 ▼7 

 

=+=+=+=+= 

 

AIといっても、判断材料になるデ-タは人間が入力するもの。虐待といっても物理的なものから心理的なもの、無視やネグレクトのようなものもある。虚偽や誇大なものもあるかも知れない。これらを全て把握して、正確な判定を下すにはサンプルが少なすぎるのでは? 過去の事例や想定される事案などのデ-タを全て入力して、AIの判断に幅を持たせるべき。 

 

▲662 ▼56 

 

=+=+=+=+= 

 

なんでも合理化するのは手間がかからなくなり良い事だと思いますが、判断基準となるデータは人が入力する時点であいまいなデータになってしまうのではと思います。 

アイデア自身は良いと思いますが、もし仮に正確にデータを入力できたとしても人の微妙な感情など今のAIではまだ対応しきれないと思います。 

そうなるとどうしても人手で状況を判断して対応したほうがより被害者を救えるのではと思います。 

 

▲92 ▼14 

 

=+=+=+=+= 

 

要するに、10億円分の税金をドブに捨てたということですよね。 

子ども家庭庁に7兆円の税金を投入しているが、これは省庁別予算割合の、実に7%にも上る。これは24年度の防衛費とほぼ同額である。少子化問題は日本が抱える最大の課題であり、この程度の予算規模は十分に納得できるが、中抜きが過ぎないか?具体的な数字を持たないが、1億当たり4割くらいが電通、博報堂あたりに流れている気がする。仲介業者を太らせるだけの組織を改革することが、最大の少子化対策になる気がする。 

 

▲271 ▼9 

 

=+=+=+=+= 

 

パソコンが民間に普及し始めた時、パソコンが何でも出来る機械という偏見があった記憶がありますが、記事にもあるように同じようにAIが何でも出来る魔法の杖という感覚を持たれている事がまずもって問題だと思います。 

確かにパソコンもAIもなんでも出来るというのは間違いでは無いと思いますが、その前提には人間が行っている作業を言語化・データ化して整理する必要があります。 

少なくとも対応する項目がある程度決まっていて、それを確認できていないとかいうレベルの不手際であれば、AIなんかは使わずにデータベースを活用するレベルのソフトでも十分効果はあると思います。 

それにしても10億円も投入して、導入を断念するってまたどこかの企業に税金が流れているんですかね。 

 

▲165 ▼4 

 

=+=+=+=+= 

 

データ量少なすぎるし、導入の仕方をミスってる気がする。 

相談の電話の録音データの文字起こしとか、学習データをまず増やすための部分にまず導入をする。最初から凡例に対する判断じゃなく、その学習データのためでも電話やメールから可能性の有るものをピックアップというかランク付けさせて、精度確認と訂正を学習させていく。 

そういうステップが必要だったんじゃないかなって気がする。 

 

▲64 ▼2 

 

=+=+=+=+= 

 

うちの娘が国家公務員を目指していたので、省庁の事を調べたり色々と話を聞きにいったりしたそうです。こども家庭庁も現場の方々は志が高い方が多かったと言っていました。しかし、上に立つ人たちがいい加減な施策を出していたら現場の士気も下がるのではないでしょうか?AIはまだまだ発展途上です。まずは現場の人数を増やす方が先決では?子供の命を第一優先にして欲しいです。 

 

▲240 ▼28 

 

=+=+=+=+= 

 

こういう用途に使うなら今主流のLLMベースの生成AIではなく、昔からある「エキスパートシステム」を応用したAIのほうが良かったような気がします。LLMのように機械的に大量のデータをぶち込めば終わりではないエキスパートシステムは、いちいち人間が知識ベースを作成する必要があり手間がかかりますが、いったんシステムを構築できれば効率化に資するところは大きいと思います。 

 

▲19 ▼12 

 

=+=+=+=+= 

 

人間の新人がいきなりできない事を、AIが簡単にできるというのは違うので、まだ性能未達という判断は重要だと思います。 

 

いきなり全自動では無く、作業者の見落としを防ぐために、注意点をフォローしてくれるAIというスタンスが良いのかも知れませんね。 

 

この処理に難しいのは、データの質や量のばらつきだと感じます。 

細かい部分だと、体重が増えたとか減ったとかの判断をどの程度の変化でそうと見るか?とかですね。 

人間なら、元気の無さとか差分で何と無くわかるものも、数字上でどう変換してどう判断するかの読み替えには独特のやり方が必要になります。 

異常検知とかのAI判断をどのように人間の感覚に寄り添うような表現に切り替えるか?の部分がうまくいくようになってくると、ものすごく有用になってくる。 

 

この境界領域の開発と調整の理屈の整備こそが、重要なノウハウになってくるのかも知れませんね。 

 

▲7 ▼1 

 

=+=+=+=+= 

 

人が気づけない微妙なポイントにAIか気づくということに期待したのでしょうが、現状の単純なAIは学習データが5000件程度で効果的に動作するには、正解やゴールがハッキリしている案件に対してそのやり方のブレを追加学習するという状況が必要です。 

そういった意味で今回の児童虐待の判定は難しそうです。 

5000件程度の事例で気付けるようにするためには恐らくは家庭環境や親の職業経歴などをパラメータとして行動原理やメンタルを類推できるAIを膨大なデータで構築した上で、その仮想人格を調査対象の環境に置いてみた結果をから追加学習するみたいな形が必要に思います。 

 

▲11 ▼2 

 

 

=+=+=+=+= 

 

導入断念は致し方が無いと思いますが、あくまでも現時点ではの判断にして欲しいです。 

何故、無理だったのかを緻密に分析して、100%は無理でも例えば80%以上の可能性があれば実際に担当者が改めて調査を行う等の基準を設ける事により効率的な調査が可能です。 

これからは子供家庭庁に限らず官公庁の人員不足は必須です、AIの導入はこれからの様々な業務に必須だと思います。 

 

▲16 ▼10 

 

=+=+=+=+= 

 

地域包括支援センターで、高齢者虐待の事実確認をしていますが、高齢者でも、行政は時々腑に落ちない判断をします。 

データといっても、結局は人が判断した結果を元にしているので、データの客観性と正当性が求められます。 

ましてやこども虐待は高齢者よりも発生数や死亡に至るケースも段違いに多いです。 

判定には、より慎重さを求めて欲しいと思いました。 

 

▲21 ▼2 

 

=+=+=+=+= 

 

まず、10億円という費用に驚いた。どんな入札でどんな業者が受注したのでしょうか。もちろん発注側はAIのしろうとでしょう。 

この種のAIは、利用する人の言葉を解釈し、言葉で書かれた事例の参照をいかにおこない判断するか、という技術の域をを越えたしくみです。 

すなわち、大人や子供の感情や行動の記録をどのように読み込み、そこから判断の基準に照らし合わせるという機能が必要です。言語学、心理学、表現学と論理学、感情表現などの集大成となるべきものです。 

機械的な処理をするAIとはなるで異なる領域です。 

良識のあるAI開発企業なら、安易には引き受けないはずです。 

懸念するのは、このようなAIのことがわかっていない政府や公的機関が大きな予算を通し、曖昧な仕様で発注してしまうことです。 

売上が欲しいコンサルや、企業は虎視眈々とそれらのAIに詳しくないが予算権限をもつしろうとを狙っています。 

 

▲45 ▼3 

 

=+=+=+=+= 

 

下地作りにはそれなりの時間と金と労力がかかるものなので初号機に関してはまぁこんなものではないでしょうか。ここでやめると無駄なので一定の成果が見込まれるまでは続けてもらいたいです。大事なのは良いものを作る事で早く作る事ではありません。もちろん、しっかり計画を練り、不届者が開発費の中抜きなどの不義をしないようちゃんと監視している環境を整えての事ですが。 

 

▲0 ▼0 

 

=+=+=+=+= 

 

児童福祉の公的部署で働いていましたが、必要なのはAIではなくて人材だと思います。 

AI活用は大切ですが、本当に福祉の現場と相容れるものなのかと思います。虐待案件はその場その場で考えられるものではないし、長期的な関わりも必要ですし、ただAIを活用してる感を出したいだけなのかと思ってしまいます。 

 

▲92 ▼6 

 

=+=+=+=+= 

 

なんだろう。ランダムフォレストでやったのだろうか?詳細がよくわからない。6割もミスしたら使い物にならない。 

 

学習データの質は大事なので設計段階で、もっと詰めるべきだったと思う。 

 

AIシステムを直接の判断ツールとしてではなく、せっかくのデータを活かして 

人的判断を補完する「セーフティネット」としての役割を担うシステムにする使い方をすることで、重大な見落としを防ぐための有効な補助ツールとしてシステムを組み替えて活かせないのかな。 

 

▲3 ▼0 

 

=+=+=+=+= 

 

AI で正確な判定は難しいのはわかるけれども、さすがに判定ミスが6割というのは精度が低すぎる。 

 

おそらく 学習のさせ方が悪かったのでしょう。 

 

仮に9割の精度を確保できたとしても、1割は虐待を見落とす可能性があるわけで、判定後に人間が確認をすることを前提にすれば、全体の作業量は大きく減らないでしょうね。 

 

さらに、人間より精度が上がったとしても、虐待をAI が見逃して子供が死ぬ事があれば、その後はそのAIが使われることはないでしょう。 

 

AI を活用するには、「人間よりもAIの方が正しい」という価値観が世間に浸透しなければなりませんが、これは相当先のことでしょう。 

 

▲38 ▼12 

 

=+=+=+=+= 

 

失敗に税金もかかり結果的にAIが不向きだったかも知れないが、相談所職員の大切さや、逆にAIは判定できなくても虐待が疑うべき事項が浮かび上がってもいるだろうから、今後人が活かしていけばいい。 

ベテラン職員では当然でも、新人職員では当然でない知識、ノウハウなどは多々あるもの。虐待は税金を投入してでも解決すべき社会問題だと思う。 

 

▲1 ▼2 

 

=+=+=+=+= 

 

AIとかコンピューターは出来た時は、赤ちゃん。 

どれだけの情報をAIに与えて学習して徐々に大人になっていく。 

また、虐待等の要素は多種多様だし、人間心理という計算では出せない要素も盛りだくさんだ。 

今回はミス6割。だったようだが、虐待行為の判定は1%のミスも許されないと思う。 

まず正確な事例に対する起承転結の情報を入力できなければ無理だと思う。 

 

▲5 ▼1 

 

=+=+=+=+= 

 

こども家庭庁ができたけど、そのためのお金は本当何子供のために使っているんだろうか。子供の人権や生活は守られているんだろうか。物価高で全て値段も高く、税金も高く、支払いも多く、貧困化が進んでいます。 

経済的に余裕がないことも、虐待つながる。 

子ども食堂も増え続けている。 

子供が自宅や学校以外にも気軽に行ける帰れる場所などがあればそこでもしSOSが出せれば救える命もあると思う。 

こども家庭庁なら本当に子供や子供に関わる家族などが救われるような政策にお金を使って欲しい。 

本当にいらないところにお金を使わないで欲しい。税金はお小遣いじゃない。 

 

▲1 ▼0 

 

 

=+=+=+=+= 

 

AIって相談業務には向かないもので、せいぜいできることは窓口の振り分けとか担当者とのマッチングぐらい 

AIを使えば今の仕事がほとんど置き換えられると勘違いしている人がいるけど、AIって一般的な業務の7割くらいと考えるべきだと思う 

 

個別ケースや最新の情報などはAIでは対応できなくて、それなりの専門性を持った人間が状況を判断して適切な問題解決をする必要がある 

相談業務ってまさに専門性を持った人間がやるべきで、特に子供の問題だと個々の子供を向き合わないと誤った判定につながる 

 

こども家庭庁は専門性を持った人材の育成をしなければいけないのに、目先の効率化でAIを使おうとして、掛けた費用に見合わない結果となった 

10億というお金があれば相談業務に向いた人を雇って、その人の教育に充てた方が合理的だと思う 

 

▲16 ▼1 

 

=+=+=+=+= 

 

業務効率化にAIを組み込むのは賛成。今後は、AIが伸びてくるのは、紛れもない事実。たとえ失敗したとしても、AIにチャレンジしたこと自体は良いことだと思う。他方、この開発の予算が10億である事は問題。どんな業者に、どんな内容の仕事を依頼したのか。財務省の天下りじゃないけど、利権を持っている連中のお小遣い稼ぎになっていないか調べる必要がありそうだよね。そして、この案件を受注した業者は成果物を収めることが出来なかった訳なので、返金などのペナルティーを受けるべき。新しいことに対するチャレンジはどんどん行って欲しいけど、税金の使い方は適正化して欲しいよね。 

 

▲4 ▼6 

 

=+=+=+=+= 

 

通報に踏み切る職員の負担を考えると機械的な判断が心理的負担を和らげる効果もあると思う。開発断念は仕方ないけれど、そもそもAIうんぬんのまえに現在のルールや報告内容も統一されているのかが謎。悪い面ばかり取られてしまうけど、今も辛い思いをしてる子の為にどんどん投資はしてほしい。 

 

▲35 ▼6 

 

=+=+=+=+= 

 

私も業務でAIが使えるのか検証する作業に参加した経験があるが、正確性に難があり過ぎて話にならなかった。 

素晴らしい文書で間違った内容を提示してくるから、一瞬信じてしまいそうになる。 

誤りを指摘すると代替案が送られてくるのだが、やはり頓珍漢な答えが返ってくる。 

専門分野で使用するには、法令や事例に関する正確なデータの蓄積が不足しており、その替わりに、収集していた誤った情報を提示する傾向があった。 

専門分野で使用するためには、その分野に特化したシステム、それも誤った情報が紛れ込まない環境で作成・運用されないと危険だと思う。 

 

▲11 ▼0 

 

=+=+=+=+= 

 

こども家庭庁が虐待をAIで判定するとのこと。 

税金を使って10億円もかけるのに、本当に効果があるのだろうか。 

AIの役割は、過去の事例と照らし合わせて確認すべき項目を提示することではないだろうか。 

経験豊富な児童相談所の職員が最終的な確認をすることが重要だ。 

要は、誰が対応しても確認事項が同じであれば、判断がしやすくなるということだ。 

医療のAIも同様に、症状から病気を判定できると思うが、それは似た症状を持つ病気の可能性や、診断に必要な追加検査項目を提案することが主な役割だろう。 

 

▲22 ▼2 

 

=+=+=+=+= 

 

感情の有無が大きな違い。 

AIにはグレー部分が無いに等しいから際どい部分の判定が難しい、そんなことぐらい分かってると思ったがそうではなかったか、学習させればあるレベルまで到達出来ると思うが完璧には至らない、あくまでも補助的なものと捉えるべき。 

 

▲6 ▼1 

 

=+=+=+=+= 

 

AIご有用である場所と、そうでない場所は分かりそうなもんだけど、その無駄遣いの10億の中には人的費用は含まれていないだろうから、損失で言えば桁が一つ変わるだろうな。 

単純にAIは合理的に正確で精密な答えを出してくれると思ったほうがいい。 

そこで問題になるのが、質問の入力。 

虐待等の場合、正確に状況を入力出来るかどうかを想像しただけで、AIには不向きなのがわかる。 

しかも人が多く経由されるので、人的エラーも起こりやすい。 

まだまだ嘘とミスを見抜くのは人間にもAIにも出来ることではない。 

だからこそ個々の案件において責任を持って対応せざるを得ない。 

そんなことより法的判断であったり、窓口処理であったり、公共入札であったり、省庁がAIを導入すべき部分は山ほどあるでしょうに。 

まあこのくらい緩い社会の方が個人的には好きだけどね。 

ゆっくりいこう。 

 

▲6 ▼6 

 

=+=+=+=+= 

 

もともとは人間がやっていたことをAIにやらせることでコスト削減と考えていたのだろうけど、AIが間違って虐待と判断する分には問題ないのだが(最終的に人間がチェックすればいいから)、間違って虐待を見落とした時に問題が生じる。子どもが犠牲になるからだ。 

つまりこれはAIの導入に向いていない事案。精度以前の問題としてそもそも作るべきではなかった。 

 

ただ今後も人間が今まで通り行うが、AIによる判定も平行して行い、さらなる取りこぼしの低下を目指すという形なら導入できると思う。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

まだAIの精度もそう高いわけではない。 

難しい判断もあるかもだが、現状の児童相談所や教育委員会、学校の対応がもう少し踏み込めて、警察なども状況に応じて即介入できるようなシステム構築の方が喫緊の課題だと思う。 

 

▲125 ▼42 

 

=+=+=+=+= 

 

虐待の判定を感情を介さないAIに任せるのは一理あると思います。取り組みの意義は認めますが、今のこども家庭庁に任せたところで中抜きされて「こういう結果になる」のは目に見えています。未来のこどもたちのためにも、早急にこども家庭庁を取り潰すのがこの問題の一番の対策だと思います 

 

▲0 ▼0 

 

 

=+=+=+=+= 

 

いろいろな分野で民間の善意としてボランティアの活動が切っても切り離せない問題になっている。くだらない省庁を創設するくらいなら、ボランティア庁を作って、雇用として確立した方が、受ける方も負い目を感じることはなくなる。与える方もモチベーションにつながるのではないか。民間の善意には限りがあるのだから、国がなんとかしなければ国民は守れないだろう。 

 

▲1 ▼2 

 

=+=+=+=+= 

 

現状の生成AIの精度を考えると当然複雑な虐待判定などはできないと思います。人間もその判断を間違えて犠牲者を出してしまっているのですから、それらの過去の事例データがあったとしてもソースの作成は困難だと思います。しかも、過去に虐待ではないと判断したケースが本当に正解だったのか事件化していないレベルの被害だとその後も追えていないはずですし。 

むしろ簡略化するのはバックオフィスの方で、たとえば訪問のや面談のやり取りを音声録音しておいて、それを報告書として文字起こしし要約するといったことは比較的現段階の生成AIやRPAでも得意です。 

報告書作成や事例共有レベルの話を効率化して業務改善し人手で対応する業務への時間を作るのが先かと思います。 

あとは、必要なのは単純に児相の権限強化だと思います。 

 

▲4 ▼2 

 

=+=+=+=+= 

 

まずは「子の理解」が先で「虐待相談AI」だろう。 

「辛いと感じたら膨大な相談から導かれたAIに聞いてみませんか」で相手が「前向きになった」という判断で統計する。 

子どもの「痛み」を和らげ、糸口や本音を導く。 

 

そこから「虐待ポイント」をピックアップし、親の行動と照らし合わせると良いと思う。 

 

▲6 ▼2 

 

=+=+=+=+= 

 

その道にある程度知見がある人間から言わせてもらうと、まずデータが少ない。ただ「母に半殺し以上のことをされた」と言ってもそれは個人の主観にすぎず、あざがあるかどうかは、実際の状態を表すため、AIは客観的に判定している。 

むしろ、何にも症状や状態変化がないのに、ヒステリックに騒ぐ人間の声を必要以上に拾う方が問題だね。 

AIは人間と違って全てデータの集積からの結果。極めて公平だと思うね。 

 

▲8 ▼11 

 

=+=+=+=+= 

 

児童虐待を、虐待虐待と簡単にいうけど、子育て環境、養育者の能力や経験や体験、子どもの個性特性、障がい、経済力、支援者の有無など、いろいろ要因が重なって起こるものだから。程度も質もそれぞれ違う。 

判断する側も人の気持ちや感情も含めて判断する必要があるので、同じ人間にしか出来ない。 

AIで簡単にできるものじゃない。 

もともとAIを取り入れようなんて、福祉を理解していない人の発想だと思っていました。 

 

▲6 ▼1 

 

=+=+=+=+= 

 

虐待にしても、いじめにしても、法律が想定していない微妙なラインというのが必ずあります。 

また、微妙ではなくとも、人には感情があり、故にマニュアルやルール通りに行かないことも珍しくありません。 

それが、人を相手にする難しさでもあります。 

最終的には裁判で解決することも出来ますが、時間もお金もかかりすぎます。 

 

そういうときに、AIがある程度の判断をしてくれて、その上で人が確認するシステムを作れれば、良いのかもしれません。 

ですので、着想は良いと思います。 

また、結果、現時点では合わないということがわかったのも、無駄ではなかったでしょう。 

 

ただ、これでAIを捨てるのではなく、他の業務で活用できないのか等、様々な可能性を模索してほしいと思います。 

 

▲45 ▼22 

 

=+=+=+=+= 

 

記事の内容だけ見ると判定精度はサンプルデータ量を増やし、判定基準プログラムの見直し改善で上げられる気もするけど、多額の予算を使ったとは言え途中で断念し方針転換することは有りだと思う 

しかしながら児童相談所の人手不足だということだが、そもそも虐待が疑わしいかどうかの判定は人間の職員であればさほど難しいことは無いと思う 

問題は虐待の疑いが濃厚となった場合その対処に多大な労力を必要とすること 

虐待をするような親が一筋縄でいくはずも無くとてつもない悪態をついて対応が困難になるケースなど心労も多いはず 

児童相談所の権限強化、職員増強、警察や弁護士との連携が優先されるべき 

 

▲2 ▼0 

 

=+=+=+=+= 

 

どこの生成AIをベースに開発していたのかも気になるが、ビッグデータとして5000事例ではね、はあるのは確かなんだろうなと。 

 

このような事象が発生したケースでは過去何件の事例があり、そのうち何%が虐待として認定されているか、のような横断検索データベースみたいな限定的な使い方なら、まだできるのかもしれないが。 

 

完全自動判定ではなく、判定サポートツールとしてならまだ継続研究の余地もありそうだが。 

 

▲0 ▼0 

 

=+=+=+=+= 

 

これは、古いAI技術を適用してしまったために起きた問題です。導入を断念するのではなく、最新のAI技術を適用して再試行することを希望します。 

「入力が数値データで、出力も数値(0~100点)で出す」というのは、古いAI適用の方法で、この問題に適していません。最新の大規模モデルを使用してください。 

そして、数値だけでなく、関係者の証言やどのような虐待があったか(テキストデータ)も学習対象にします。出力も点数だけでなく、どういう虐待の可能性があるのかを文章として出力させるようにします。子供の証言「母にひどいことをされた」をAIに入力させれば、点数が「2~3]になるという問題は起きないでしょう。もし、点数が「2~3」なら、どういう理由でそんなに低いのかAIに聞き直すこともできます。 

 

▲217 ▼117 

 

=+=+=+=+= 

 

AIを活用することは確かに有効的と感じることも多い。がしかし、こういう人間の心理的な状況を読み取るほど優れているかと言ったらまだそこまでじゃない。昨今の生成AIだってようやくまともになってきたというくらい。どれほどの情報量を入力してきたかってこと。流石に時代を急ぎすぎた。この分野はまだまだフェイス・トゥ・フェイスの人間のやり取りが必要。 

 

▲3 ▼1 

 

 

=+=+=+=+= 

 

AI学習は膨大なデータが必要ですが、もっと簡素化したデータを採用したらどうでしょうか。そもそも補助として使用するので最終判断は人間になりますよね。登場人物、関係性、事象、判定という簡素化したデータが必要ではないでしょうか。何故10億かけて判定が不可能なのかが疑問です。段階的に精度を上げたらどうでしょうか。論文よりレポートでしょう。 

 

▲2 ▼1 

 

=+=+=+=+= 

 

児相が「まだ介入が必要な虐待とまでは言えない」と判断したケースで虐待死が発生すると叩かれ、「介入が必要」と判断して介入すると親から裁判を起こされて負けると叩かれ、じゃぁどうすりゃいいんだ?という立場で、AIに判定してもらい、結果がどうなろうと「AIの言うとおりに対応した」と主張して免責されるなら、こんな楽なことはありません。児童虐待の実相は1件1件違いますから、ディープラーニングのデータが5千件では、いかにも少なすぎる気がしますが、これに懲りずに、精度を高める研究を積み重ね、いつの日にか実用化されることを願います 

 

▲2 ▼1 

 

=+=+=+=+= 

 

精度を高める必要はあるが、早期に導入すべきと思う。 

虐待の問題は特殊で、疑義の発出が非常にしづらいことが最も大きな問題と思う。一定疑っていても、それを調べること自体、質問すること自体が相手にとって非常に失礼となり得たり強い反感を買うので、しっかりと調査してから、証拠が揃ってから、と見送っているうちに対応が遅れてしまうことが最も重大な損失。誰がみても虐待だろ、となってる状態は既に遅くていつ被虐待児が死亡してもおかしくない。 

人の手だと、証拠が揃うまで泳がさなくてはいけないが、AIで一定基準に引っかかれば全例公平に調査、としたセーフティネットを張ることが、職員の心理的安全にも配慮しながら可能となる。 

ばっちりの水準にシステムが仕上がってからの導入を考える方々は、机上の空論だと思う。精度は一定諦めて、actionに影響する客観指標として早期導入し、その後に改善していくステップをとるべきだ。 

 

▲1 ▼1 

 

=+=+=+=+= 

 

将来、ちゃんと使い物になるAIを、児童相談所職員の補助に使うことを否定する気はありません。 

 

しかし現時点では、原点に立ち返って、児童相談所の職員増員、児童相談所職員の待遇改善、児童相談所自体の増設という真っ当な政策を推進すべきです。 

 

同時に極端な少子化(*参照)が進んでいる今の日本では「子供は本当に宝」なのですから、孤立しがちな子育て家庭を暖かく見守る「地域社会ぐるみの子育て」が必要だと思います。 

 

子供の声が騒音だと言っているような世の中では、子供がすくすくと育たないと思います。 

 

*先日政府が発表した2024年の新生児数は72万人で9年連続減少。政府の予想減少率よりも15年も早く少子化が進んでいます。 

 

▲1 ▼2 

 

=+=+=+=+= 

 

導入の見送りって、いきなり本番でサポートに使用を考えていたのでしょうか。それなら判断のための元ネタをかなり仕込まないといけないと思います。いきなり本番運用ではなく、当面参考程度に運用しながらデータの蓄積を図るのが普通の流れなのでは? で、ミスというのは実際に虐待があるにもかかわらず脅威度低と判定するようなケースだけでしょうか。こうした仕組みで一番の問題は、虐待ではないのに脅威度高と判定するケースだと思いますが、そちらはどうだったのでしょうか。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

まずは、ITゼネコンが受注したんだろうと思うけど、3次、4次と下にどんどん流れて行くのが普通。 

 

ただそうして下に流して行くと、現場との距離もどんどん開くし、中間マージンを抜かれて最終的に請け負う会社は低賃金、短納期。 

 

税金なんだから、早く中間搾取に一定の制限を設けるべきだと思うよ。 

 

▲9 ▼1 

 

=+=+=+=+= 

 

AI を知らない人ほど AI に過度の期待をする傾向があるようだ。人がやっていることの一部で代用することはできるが、人を超えられるわけではない。AI に何か質問してみれば無難な回答が返ってくるが、人力でネットを検索すればたどり着ける結論以外のなにものでもない。時間の節約になるのは確かだが、間違いもけっこうある。コンピュータ翻訳と同様、間違いをチェックできる能力が人間側に必要。 

 

▲8 ▼0 

 

=+=+=+=+= 

 

この段階で10億円もかかったということは、AIの基盤から全て手作りしようとしたのではないか? 

既存製品の組み合わせで短期間低予算で試行していれば、精度が低くても人間の判断ポイントとの比較をしながら徐々に精度を上げていくことはできたはず。 

 

▲1 ▼2 

 

=+=+=+=+= 

 

虐待は、子供にとっての死活問題であり、正しい判断が必要になるはずです。 

 

それをAIに判定させるのであれば、膨大なサンプルデータが必要であろうし、5000件では到底少ないだろうと感じます。 

試算段階で5000件のデータで作成するつもりだったのでしょうか? 

それだと大分お粗末だと思います。 

 

AIの活用は今後、必要になってくると思いますが、適当なものなのか、実現可能なものなのかをしっかりと判断していただきたいです。 

 

▲0 ▼0 

 

=+=+=+=+= 

 

事務的判断・科学的論理的判断には効果的でしょうが、きわめて心情的な事態には人の感覚以上に優れたものはないでしょう。こういうところに導入しようとお考えになられること自体信じられません。心情的判断も感性の磨かれた人以外は事務的判断をなされることが多いようですから、人選も大事なのではないでしょうか。よって子育ては最重要だということだと感じます。 

 

▲1 ▼1 

 

 

=+=+=+=+= 

 

AIが導入されれば全部丸投げできる、というレベルを求めてはいないと思われるが、半数以上がリスクなしでは精度もまだまだ。 

 

ただ人手不足対応や知見を蓄積できる仕組みを構築するためにも引き続き検討を進めてほしい。 

 

▲0 ▼1 

 

=+=+=+=+= 

 

みんなドライブレコーダーを利用できればいいのです。今の技術で十分できるのだから「これを首から下げておいてね」にすればいいと思います。動画から直接判定する方がAIも簡単でしょう。 

面倒な判定作業なんていりませんよ。証拠が残るのだから一発アウト。手続きまでも自動化すれば児童相談所も人手不足解消に向かいます。オービスみたいなもんですよ。 

 

▲2 ▼2 

 

=+=+=+=+= 

 

AIは、医療データから病気を判定する精度が高いとされる。 

それは、患者の提供するデータ内容が、主に血液成分や血圧等の数値や、痛みの度合いや箇所を抽出したものの集合体だからだ。 

だから話せない幼児や赤ちゃんの診断にはあまり精度が高くない。 

 

とはいえ、AIも学習するので、10年単位で、虐待認定された事例を詰め込み学習させれば、それなりに正解率は上がるのではないだろうか? 

 

▲1 ▼0 

 

=+=+=+=+= 

 

記事を読む限り、 

これはAIのせいではなく運用する人間側の準備の問題だと感じました。 

 

学習サンプルが少ないことは、児相案件が少ないことの裏返しで喜ばしいことかも知れませんが、AIの学習には足りなかった。 

 

また、学習サンプル提供の中身も問題であるならば、例えるならばIQの高い人間に対してたりない勉強時間や、ずれた傾向と対策でもって東大受験に挑ませたようなものでしょう。 

 

▲47 ▼6 

 

=+=+=+=+= 

 

AIは専門外でどちょろっとかじった知識だと、限られたリソースでAIに何をどう学習させるかってエンジニアの腕の見せ所というイメージ。個人的には別に10億かけた事自体は悪くないと思うんだけど、どこに失敗の原因があったのか振り返りは必要かなと。まだAIは早いとかいう結論では何も進展がない。後学習したデータが再活用できないかとか。 

 

▲0 ▼1 

 

=+=+=+=+= 

 

AIに全てを委ねるのではなく、例えば数値から危険シグナルの吸い上げに使い、それを人が見て判断するような使い方なら効率化や気づきに繋がるので良いとは思います。 

判定までを委ねるのは実装の難易度が相当に高いので難しいかなと。 

 

▲1 ▼1 

 

=+=+=+=+= 

 

魔法の杖ではない。パソコンが魔法の箱のように思われていたようにAIもそうなんだろう。データ不足とあるけれど、子供の目の表情や少しの顔色や言葉の端の意味を拾うにはまだまだ精査が足らないんだと思う。AIが人間の機微にどこまで近づけるのか。人手不足だから安直にAIにと考えても簡単にはいかないってことだ。見送られて良かったと思う。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

評価の方法が違うのではないかと思う。 

この様なシステムは人間が見落としたものを発見するために使うものだと思う。 

過去の虐待判定事例より、 

今まで虐待ではないと人間が判断した事例をAIに評価させ、虐待だと判定された事例を、再度別の人間が判定して虐待が一件でも見つかれば有効だと判断しなければならないと私は考えます。 

 

▲0 ▼1 

 

=+=+=+=+= 

 

ある程度、大事にしないと言うか、何でもかんでも虐待に判定するなと言う意向がこども家庭庁にあったと思う。 

実際のところ、虐待を防止したいのであれば、「疑わしきは取りあえず捕まえて子供の利益に」くらいの事をやらなきゃいけないんだよね。 

 

「街中で子供が言うことを聞かないから、頭を引っぱたいた」なんて日本では当たり前の光景も、アメリカやイギリスでは、警察が出動することも少なくありません。 

 

それが子供にとって幸せかどうかは置いておけば、虐待を防ぐには、過剰なまでに敏感に虐待を認めていかなければなりません。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

こども家庭庁の令和七年度予算案が7.3兆円となったおり、その内、調査研究費を300億円増額して600億円とアピールしているが、これをこのまま、保育士さんや社会福祉士さんの給与にあてれば、年収400万円でも15,000人以上の雇用になる。その方がよほど即効性のある虐待を含めた子ども問題の解決になると思います。 

政府はできるだけ、回りくどいことを考えない方が良いと思う。 

 

▲5 ▼0 

 

 

=+=+=+=+= 

 

AIは専門知識どころか一般知識も常識も無い人間に、一から教えるようなもの。 

教える側が悪ければそれを素直に吸収して間違った判定をするので、非常に扱いが難しい。 

 

人の判断では見落としもあるので、継続するならしっかりして欲しい。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

おおよそ見当がつくだろうに。 

それより先にアメリカを見習った、処罰の権限を警察関連と連動、移管をさせるのが先だろうと思う。殺されるために生まれてきたわけ訳ではない子供たちを是非、守って欲しい。 

 

▲2 ▼0 

 

=+=+=+=+= 

 

令和6年4月1日時点での全国の児童相談所は234個所。 

各相談所に仮に2人増やすと計468人。求人要項の月収を見るに年間1人あたりの平均人件費は想定500万円。 

468人×500万円=23.4億円。 

各所にたった2人増員でも毎年23.4億円が追加人件費となります。 

ならばAIの制度を上げることにお金を使った方が良さそうに思います。そもそも常時求人かけても来ないので、増員ではない手段を考えないといけないわけですし。 

 

▲1 ▼1 

 

=+=+=+=+= 

 

子ども家庭庁が疑わしい家庭に介入するには、「AIでの診断結果で家庭訪問して状況確認する義務がある」とすれば、担当者個人の精神的負担が軽減された状態で家庭訪問しやすくなるのかなと思います。 

導入には賛成なので頑張ってほしい。 

 

▲35 ▼19 

 

=+=+=+=+= 

 

AIの使い方が間違っている。わたしがAI に期待するのは子供の適性判定。将来何に向いているのか、それを感情抜きでリコメンドして欲しい。子供の為でもあり、優秀な人材を適所に振り向ける未来の国のためにもなる。経済的理由や親の意志、先生の意見、何より世間の人気で本当に向いた職業にたどり着けず、人生を失敗に追い込まれる人はたくさんいると思う。スポーツなどでは適性審査などを始めているが、もっと広げるべきだろう。もちろん、選択の自由はある。が、その子の個性に合った職業は推薦すべきだ。ユーチューバーなどになりたいと思っている手先の器用な子はひょっとすると心臓外科医に向いているかもしれず、ブレイクダンサーになりたいと練習していて親から反対されている子が実は料理人に向いているかもしれない。 

 

▲7 ▼37 

 

=+=+=+=+= 

 

こういうものには時間と手間がかかる。ちょっとやって結果が悪いから諦めるということでは何もできない。 

たしかに金の問題は頭が痛いが、単なる中断・延期は好ましくない。予算を縮小し、できることに大きな制限が加わったとしてもなんとか研究を「継続」していくことが肝要だと思う。 

 

▲2 ▼1 

 

=+=+=+=+= 

 

確立されてもいない技術を子どもの生命に関わるような事に安易に試そうと言う事自体、この国がいかに子どもをいい加減に扱っているか、子どもの生命や健康や教育を軽んじているかがわかる。職員補助目的で今最も喫緊で重要な課題は本来全国の虐待情報、児童への性犯罪情報を共有する仕組みであり、虐待有無の判断に必要な司法、警察行政、自治体行政が保有している情報が十分に共有されない問題であり、それらに必要な法整備、情報共有システム、児童への犯罪者への厳罰化とモニタリングの立法。虐待有無の判断は基本的に職員増強、人材育成で対応すべきことなのに、予算をさきたくないからのできるだけ安価に済ませようと言う発想。本当に情けない。不作為も欠陥も責任取らない政治家、政府でしかない日本の現状なら、よほど政治家や議員をAiにした方がいいんじゃないだろうか。なんならないか国半分はAiですらいい。その方がよほどいい政策を打つよきっと 

 

▲3 ▼1 

 

=+=+=+=+= 

 

猫用のAIツールを使っています。 

トイレに入るだけで体重測定、大・小どちらを何グラムして、 

何分滞在・・みたいなのがわかるという触れ込みなのですが、入った時間以外はほぼ不正確な無用の長物となっています。 

体重すらまともに測れません、大と小も間違え、その都度手入力で直すのですが、いっこうに学習しません。 

強制的に半年はアプリ課金されるようなシステムなので泣く泣く支払い中です。 

 

虐待発見ツール実用化なんて、はるか先のことでしょう、 

まだまだAIは発展途上の最初の一歩だなと思っています。 

期待はしていますけどね。 

 

▲0 ▼1 

 

=+=+=+=+= 

 

判定にそんなにお金をかけて、実際に救うための予算が他にあるのか。ちゃんと困っている子供を救うためにしっかり考えてほしい。保育園に来ない、身なりがきちんとしていない、検診を受けていない、家族構成に変化がった(お母さんに新しいパートナーができななど)、虫歯や怪我が多いなどは保育園、小学校、区役所などで定期検診や普段の様子からAIを使わなくても一次的なチェックはできそうだが。 

 

▲5 ▼1 

 

=+=+=+=+= 

 

AIに事前学習させるデータが0が2-3つは足りない。 

5000データでスタートしたら、そらこども家庭庁のAIじゃなくてもポンコツしか出来んよ。 

AIに最も大切なのは学習の基本となるマザーデータ。そして、DL型のAIなら自己学習を深めるまで、通常のAIなら学習途中は人間以下。過去の人間の行動や結果から学ぶだけだから。今、やっときちんと教育したAIはIQ100を超えて人の代わりが出来始めたものもあるが、学習段階でケチったAIはただの機能の良いアレクサと同じようなものです。 

 

▲2 ▼0 

 

 

=+=+=+=+= 

 

虐待判定をAIで、という試みですが、虐待されたとする子供がPC等に向かってポチポチ入力して、自分で自分の写真(アザや傷)を撮って、という事をさせるスタートを想定していたのでしょうか。 

どうも、そもそも合ってない様な気がしてなりません。この開発費があれば何人職員を雇えただろう、の方が先でした。 

もっといえば、医療の分野で例えばMRIとかをAIチェックが始まったとか、ある程度進んできているとしても、普通の診療所での例えば問診でAIがどのくらい使われているのか、人の内面を文書化する分野は、実生活からしてまだまだの領域の様に思いますが、そういったものをすっ飛ばしての勇み足で10億が…とも思えます。 

開発の元となるシステムがあったと思いますが、どれほど有能だったのでしょうかね… 

 

▲39 ▼8 

 

=+=+=+=+= 

 

実用レベルにある胃がんの判定AIには36万件のデータで学習させたそうな。読ませるデータが全然足りない。少子化が進んでいるのだから子供は本当に大切。継続してデータを集めていって使えるようにすべきだと思う。 

 

▲2 ▼0 

 

=+=+=+=+= 

 

人間が判定しても判断が分かれる線引きがグレーなラインにある事象が無数に存在する領域にあるのは容易に想像がつくのに、なぜAI導入でなんとかできると思ったのか。そういう難しい領域であるのに何か問題が発生するとすぐ現場の担当者が責任追及され、疲弊しがちなので、機械に判断を委ねて、個人の責任、負担を軽減できないかという意図は何となくわかるけど…。 

 

▲2 ▼0 

 

=+=+=+=+= 

 

確かに児童福祉の現場で人手不足なのは明らかなのだと思う。子どもの人権、命を守る最後の砦なのだから、お金を使うべき。 

ただ、AI研究にこれだけの税金を使い失敗した事、普通の民間企業なら倒産しています。他の事業に生かされることを望みます。 

福祉の仕事は人材確保と育成、これに尽きますね。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

子ども家庭庁ができてまだ日が浅いですけど、こんなAIを使ってエラーを取り除きながら、少しずつ詰めていくものをもう諦めるのでしょうか。 

勿論、虐待という絶対的な定義が難しいものをAIでする事は非常に難しいとは思いますが、地道に研究を進めるべきものだとは思います。 

ただ、そもそも子ども家庭庁は不要ですので予算が減ることに関してはいいかなと。 

 

▲2 ▼1 

 

=+=+=+=+= 

 

リスクは大きいが個人的な感性、感情を抜きにデータ化された内容を根拠にするのは、〝うちのやり方であって虐待でない〟と言い張る虐待者に突きつける一つの武器になるかも知れないと思いました。 

今はまだ実用的ではないかも知れないけど、人の心に加えてデータを用いてでも、少しでも苦しむ子供が減ることを願います。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

AIの判定方法が間違っているのでは。虐待を受けた子供の顔写真を数多く入力してディープラーニングさせた後虐待が疑われる子供をAIに判定させる。また子供に決まった質問をして回答時の顔の表情の変化などから判定するとか。人が言葉で入力する方法では人それぞれの主観が入って精度は落ちるだろう。 

 

▲1 ▼1 

 

=+=+=+=+= 

 

心理的な虐待など、一生涯の傷になる心の傷を判断できない。 

カウンセリングの場面でも、応答はできても、心の痛みを理解することが出来ず、導入としてはいいが、あくまでもその場限り。 

虐待は、行為そのものだけではなくそれに付随する心の痛みを感じ取れなければ、親からと相談先との2重に虐待を受けることになる。 

 

児童相談所職員には、心のメカニズムが理解できることが重要ですし、法律もしっかり理解しないといけない。また、いろんな親とのコミュニケーション能力も必須となることなど、対応・配慮しないといけないことは多い。 

 

それほど、職員は疲弊している。心身ともに疲労度は高いでしょう。メンタル対策に、カウンセリング費用などを負担する方がよっぽど有益だと思う。 

 

▲1 ▼0 

 

=+=+=+=+= 

 

受注した側の技術的な問題というより発注した側の知識に関する問題だろうね。 

AIは学習した以上の判断はできないし学習深度が進んでも常に正しい結果を導き出すとは限らない。 

例えば「ゴリラの画像」は倫理的にAIが望まぬ結果を導き出したパターンのひとつだろうね。 

 

▲0 ▼0 

 

=+=+=+=+= 

 

・政令地方都市で働く関係者に聞いたのだが、虐待関係の部署は人手不足が深刻なため、そもそも元となる実態の情報整理が不十分だそうだ。そのため判定基準の見直しまで行きつかず、実際の現場に即していないことも多々あるそうだ。よってまずデータマイニングを行い、その結果から現場で使えるものをチューニングし、それをAI化するのがロードマップとなる。今回の開発はどこの話だろうか。 

・開発したAIが使えるかどうかは正解率が基準値以上でかどうかなのは素人でも分かるため、今後改修させるために「契約不適合責任」を追及すべきだが、どう動いているのだろう。 

・同庁のCIOは何と回答しているのだろう。 

 

子供の命にかかわる重要事案であるため、そうした「裏にあること」も記事では明らかにしてほしい。 

 

▲0 ▼0 

 

 

 
 

IMAGE