架空の内容を答えることも...特に日本で、ChatGPTの「不誠実さ」に注意が必要な訳

CHUAN CHUAN/SHUTTERSTOCK
<「返答すること」を優先するあまり、内容の正確さに疑問が残るチャットGPT。だがフレンドリーかつ不誠実なAIは今後もシェアを拡大していくだろう>
チャットGPTなど対話型AIが急速に社会に浸透しようとしている。こうした新しいAIは従来型とは異なり、対話力が高いため、取りあえず何らかの答えを返してくる。
しかし、ネット上にある情報を収集し、一定のアルゴリズムによって結果を得ているという点では従来型AIと変わることはなく、言い方を変えれば、ただ会話がうまくなったAIでしかない。
同じ対話型AIでも、マイクロソフトが同社の検索エンジンであるbingに実装したものは従来型に近く、分からないことは分からないと返してくる。一方、チャットGPTはとにかく返答することを優先しているように思われ、架空の人物をつくり上げてしまうことがあるなど、少々不誠実なAIと言っていい。
厳密にはAIが不誠実というよりも、開発する企業の姿勢が問われているという話だが、こうした事案から一部の専門家は対話型AIの利用について何らかの制限を加えるべきと主張している。しかし、ネットが大衆向けのビジネス基盤として確立した今、不誠実なAIが増加し、こうしたフレンドリーなAIほどシェアを拡大するという未来は容易に想像できる。
「集合知」を成立させるのに必要な条件
そうなってくると、AIに大きな間違いをさせないための社会的な工夫が必要となってくるが、AIがネット上にある情報を収集して答えを得る以上、最終的にAIの正確性を担保するのはネット空間に存在する情報の質ということになる。
以前から人間の集団には「集合知」が成立することが知られている。集合知というのは、多くの意見を集めれば集めるほどより正しい見解が得られるという概念である。
しかし、この命題が成立するためには、意見の発信者が個人として独立し、社会に多様性があることが必要条件となる。さまざまな見解を持った人が十分な数だけ集まっていなければ意味がなく、同じような人物の集団だったり、声の大きい人に左右される人ばかりでは、全体の意見も極端な方向に流れてしまう。
ネット空間にアップされる情報が偏っていれば、AIの情報も結局は偏ったものとなり、AIが出す結論も間違ったものとなる可能性が高い。
イラン攻撃が招いた「トランプ支持層」の分裂...米経済にも「意外な影響」が 2025.07.11
日鉄の「USスチール買収」は結局、成功だったのか? 完全子会社化、最終的な「勝者」は誰か 2025.07.04
なぜ産油国はトランプの方針に「乗った」のか...原油価格を大きく動かした「狙い」とは? 2025.06.19
トランプ関税、日銀にとっては「実はありがたい」? うまく活用できれば日本の消費者の助けに 2025.06.04
-
プロダクトエンジニア「ポテンシャル採用/大手や外資系など3000社に導入/HR SaaS「ミキワメ」/港区/東京都/web系SE・PG
株式会社リーディングマーク
- 東京都
- 年収400万円~550万円
- 正社員
-
LC/MS/外資系企業でのプリセールス/メーカー/Excel
株式会社スタッフサービス
- 東京都
- 月給23万5,000円~
- 正社員
-
外資系メーカー営業「正社員/土日祝休み/年間休日125日」グローバル環境で活躍
株式会社enrich technology
- 東京都
- 月給26万5,000円~30万円
- 正社員
-
外資系メーカー営業「正社員/土日祝休み/年間休日125日」グローバル環境で活躍
株式会社大斗
- 東京都
- 月給26万5,000円~30万円
- 正社員