AIは自律的に偽・誤情報を発信する

ファクトチェックを依頼されたAIが偽・誤情報を回答することは、これまでのボットと大きく異なる。そこには人間の意思が介在していないのだ。従来のボットには意図を持って操作している人間がいるが、今回のGrokやChatGPTは人間に操られて偽・誤情報を回答したのではなく、自律的に回答している。ここには大きな問題がある。

・AIを提供している側はこの事態を予防できなかったし、今後も予防できない可能性が高い。 ・同種の問題が世界中で使用されているAIで起きている可能性が高い。 ・自律的な活動であるため、制御できない。

災害時、戦時、パンデミックといった変化の多い状況で、AIが自律的に意図せず偽・誤情報を発信することが増加する可能性は高い。特にパンデミック時には正しい情報を求める人々がAIに質問し、誤ったことを教えられるケースは発生しやすく、非常に危険である。

言い方を変えれば、なんらかの社会的イベントを起こすことで、いつでも多数のAIに偽・誤情報を発信させることができる、とも言える。AIが検索エンジンを代替しつつあるため、深刻な脆弱性であり、脅威と言っても過言ではないだろう。いつの間にかAIは我々の生活のいたるところに配置されているのだ。

昨年、私は「2026年になれば目にする情報の半分以上が偽・誤情報になる」とSNSに投稿してバズったが、その予想は的中しつつある。多くの方がご存じのように世界は加速度的に混迷を増し、100年に1度の災害が毎年起こり、各地で紛争や政変が絶え間なく起きている。

事実や偽・誤情報は短いサイクルで更新されるため、原理上AIはそのサイクルに合わせて認識を進化させたることは難しく、偽・誤情報を回答する頻度が増える。

もちろん、日本も例外ではなく、最近ある政党がファクトチェック用AIツール(ファクトチェック部分はChatGPT)を公開するなど、「平時の応答」をベースに信頼できるツールと認識している人々が導入、利用を推進している。

【動画】AIチャットボットはフェイクニュースに毒されるか?
【関連記事】