AIで児童の性的画像生成「犯罪に」、ユニセフが各国に呼びかけ
2月5日 国連児童基金(ユニセフ)は4日、人工知能(AI)を使用した児童の性的コンテンツ生成が増加していることに懸念を示し、こうした行為を犯罪とするよう各国に要請した。写真はユニセフのロゴ。2023年11月、デンマークの首都コペンハーゲンで撮影(2026年 ロイター/Tom Little)
Jasper Ward
[4日 ロイター] - 国連児童基金(ユニセフ)は4日、人工知能(AI)を使用した児童の性的コンテンツ生成が増加していることに懸念を示し、こうした行為を犯罪とするよう各国に要請した。
その上で、デジタル企業は検知技術への投資によるコンテンツ監視の強化を通じて、こうした画像の流通を防止すべきだと主張し、開発者に対しAIモデルの悪用を防ぐための「設計段階からの安全性確保」とガードレールの導入を促した。
「ディープフェイク(実在の人物を模倣したAI生成の画像・動画・音声)悪用の被害は現実的かつ緊急を要する。子どもたちは法整備を待てない」などと訴えた。
AIを用いて画像内の児童の衣服を剥ぎ取ったり改変したりして、ヌードや性的な画像を捏造する行為についても懸念を表明した。ユニセフによると、過去1年間に11カ国で少なくとも120万人の児童の画像が性的に加工されたとされる。
英国は先月末、AIツールを使用して児童の性的画像を作成することを違法とする案を発表した。実現すれば世界初となる。
最近では、Xで利用者が対話型AI「グロック」を使用して実在の人物の画像を無断で性的画像に加工する事例が広がっており、各国の規制当局が問題視している。





