また、ニュージャージー州では、路上に積まれたレンガの写真とともに「左派が暴動を起こす準備をしている」との投稿が拡散された。このような「レンガ陰謀論」は、抗議活動が起こるたびに現れる定番の偽情報であり、ブラック・ライブズ・マター運動の頃から何度も繰り返されている。

このレンガの写真も本物であったが、Grokはこの画像についても「偽物である」と誤判定したうえで、「当局との衝突で使用された」とまで回答した。まことしやかながら事実とは異なる説明であった。

イギリスのシンクタンク「ISD」のディレクターは、CBSの取材に対し「人々は今や、情報の真偽確認をAIに頼るようになってきている」と述べている。

AIが検索の代替手段として浸透しつつある現在、情報の信頼性をAIで確認する流れが自然であることは理解できる。

しかし、今回のようにAIが本物の情報を誤って「偽」と判断してしまう事例が発生している以上、AIの真偽判定には慎重さが求められると言わざるを得ない。

非常時のAIはデマを信じて拡散する情報弱者と同じ

イスラエルとイランが交戦中に、中国資本の入ったルクセンブルク航空Cargoluxがイランに向かったというデマが投稿され、拡散された。一部の大手メディアがこの情報を信じて報道した。そして、この情報に疑問を持った人々がAIに真偽について質問し、一部のAIはデマを事実と回答し、拡散を助長した。

6月16日頃にはCargoluxは自社のWEBサイトのトップに今回の件が事実ではないことを掲載した。

しかし、この文章が掲載された後も引き続き、AIはデマを事実として回答していた。NewsGuard社が6月20日、11の主要AIチャットボットに質問したところ、6つがデマを事実だと回答した。数日経過してもデマを事実と言い張るようでは、情報弱者としか言いようがない。

デジタル影響工作の調査研究で知られるデジタルフォレンジック・リサーチラボは、イスラエルとイランの紛争でGrokがやらかした事例を分析し、非常時の回答には重大な欠陥があることを指摘した。

しかし、事実確認が重要なのは特に非常時においてである。意地の悪い言い方をすると、「AIは平時の応答で人間を信用させ、非常時に裏切る」、ということになる。

AIが偽・誤情報生成の主役となりつつある
【関連記事】