──一般人はどの程度、被害を受けているのか。

私自身、その問いの答えを探している。画像ベースの性的虐待の被害に遭ったら、まずネットから離れるのが典型的な反応だ。プライバシーを侵害され、心に深い傷を負えば、すぐに自分の体験をシェアする気にはなれない。そのために、規模を突き止めるのは非常に難しい。

より広範囲の統計データに目を向けると、特定のグループの被害が突出している。社会的に無視された女性やフェム(女性的なレズビアン)は標的になる可能性がより高く、若年女性や独身女性、LGBTQ+(全ての性的少数者)、先住民女性もそうだ。

──アメリカの一部の州では、この種の行為は法的処罰の対象だが、規制の効果は?

連邦レベルで、ディープフェイクの作成を禁じる法律が検討されている。現在は計16州が、ディープフェイクの偽ヌード作成に対して、ある程度の法的規制を行っているはずだ。さらに、ジョー・バイデン(米大統領)は(昨年10月末に発令した)AIに関する大統領令で、性的プライバシー保護や児童ポルノ作成阻止に言及した。だが、いずれも民事・刑事的対策としては、その場しのぎにすぎない。

被害者のニーズを重視する仕組みとも言い切れない。被害者にとって通常、最も重要なのは問題のコンテンツの削除だ。被害者を中心に据える法的環境であれば、より迅速に削除する責任をプラットフォーム側に課し、常習的虐待の防止を重視するはずだ。

──問題により意識的で、よりよいネット環境をつくるために、ほかにできることは?

私自身の研究から、大きな希望を感じている。研究の一部は、新時代のデジタル世界に直面している思春期の少年少女を対象にしたものだ。

強く伝わってくるのは、互いにプライバシーを守り、積極的で社会性のある行動をしてオンライン空間で支え合いたいと、人々が望んでいること。今回のテイラー・スウィフトの件でも、ファンが擁護に立ち上がっている。

こうした状況がソーシャルネットワークに必要な規制につながるかもしれない。グーグルなどの検索エンジンは問題のある動画生成ツールを積極的に削除すべきだし、ウェブサイトや性的コンテンツを提供するポルノサイトは、年齢・同意確認を徹底すべきだ。

私たちの社会環境が同意を最優先していたら、AIツールはどんなものになっていたか。他者に被害を与えずにセクシュアリティーを楽しみ、表現するツールになっていただろう。それは今からでも実現できるはずだ。

©2024 The Slate Group

【関連記事】
ニューズウィーク日本版 台湾有事の新シナリオ
2026年4月21号(4月14日発売)は「台湾有事の新シナリオ」特集。

米・イラン戦争で変わる地域紛争の「大前提」/石油危機を恐れるべき理由

※バックナンバーが読み放題となる 定期購読はこちら
※画像をクリックするとアマゾンに飛びます