ChatGPTなどの生成AIブームと米大統領選 ディープフェイクにどう対処すべきか
合成メディアの検知に取り組むディープメディアによると、昨年の同時期に比べ、今年はオンライン上で動画のディープフェイクが3倍に、音声ディープフェイクが8倍に増えている。
同社の推計では、今年ソーシャルメディアにアップされるディープフェイク動画・音声は全世界で約50万件に上る見通しだ。音声のディープフェイクを作成するコストは、昨年末までサーバー代とAIの訓練費合わせて約1万ドル(約140万円)だったのが、今ではスタートアップ企業が数ドルで提供しているという。
生成AIによって世界がどう変わるか、大量の偽情報を拡散する生成AIの威力から人々を守るにはどうするべきか、確かなことはだれにも分からないと、取材に答えた人々は語った。
対話型AIのチャットGPTによって業界を一変させたオープンAI自体、この問題と格闘している。サム・アルトマン最高経営責任者(CEO)は今月議会で、選挙を巡る情報の真偽は「懸念すべき重大な分野」だと位置付け、生成AIセクターに対する迅速な規制を要請した。
ロイターが主要な生成AIサービス企業6社の利用規約を調べたところ、一部の小規模なスタートアップ企業と異なり、オープンAIは自社サービスの政治利用を制限している。
ペンス氏のディープフェイクなら可能
しかしそこには抜け穴がある。
例えば、オープンAIは同社の画像生成ツール「DALL─E」による公的な人物の偽画像生成を禁じている。実際、ロイターがトランプ、バイデン両氏の画像生成を試みたところ、拒否され、「わが社のコンテンツ規約に違反している可能性がある」とのメッセージが表示された。
ただロイターは、来年の大統領選出馬を検討しているペンス前副大統領を含む米政治家少なくとも6人の画像を生成することには成功した。
オープンAIは、AIが有権者に大量の電子メールを送るなど、サービスを政治目的で「大規模に」利用することも制限している。
一部の小規模なスタートアップ企業は、政治的コンテンツについて明示的な制限措置を設けていない。