広がるAI使った性的偽画像被害、狙われる卒アルの個人写真 載せない学校増える可能性も

産経新聞 12/27(金) 19:30 配信

https://news.yahoo.co.jp/articles/c3d8972ae05e6273c58c504afba908798d0a1e98

記事(要約)
卒アルの個人写真がディープフェイクポルノの被害にあっている。

個人写真を加工して性的な画像や動画にされ、SNSなどで拡散されることが増えている。

卒アルに個人写真が載ることが一般的であるが、個人情報流出への不安や不登校の増加により、個人写真の掲載を取りやめる動きも見られる。

技術的な対策も難しく、紙の卒アルからスキャンされた画像の流出を防ぐ方法が限られている。

ディープフェイクポルノの被害は増加しており、日本でも問題化しているが、規制する法律がない状況が続いている。

(要約)
コメント(まとめ)
AI技術を使ったディープフェイクが問題視される中、卒業アルバムの写真が悪用される可能性や個人情報漏洩のリスクに対する懸念が示されています。

個人情報の保護やディープフェイクに対する法整備や厳罰化、AI技術の利用による倫理観や道徳観の問題などが指摘されています。

卒アルや他の写真を通じての個人情報保護やリスク管理の必要性が訴えられ、デジタル技術の進化による新たな社会課題に対する対応策や議論の必要性が浮かび上がっています。

(まとめ)


メール