「AIは行間が読めない」はもう古い? 進化を続けるAIが、単なる道具から頼れる仲間になるかも
AI GETS SARCASM? LOL

AIはサブコンテクストに弱いという偏見が蔓延しているが PHOTO ILLUSTRATION BY PHONLAMAI PHOTO/SHUTTERSTOCK
<対話型AIを支えるさまざまな大規模言語モデル(LLM)の調査から、我々の先入観を覆す結果が明らかに>
電子メールであれSNSへの投稿であれ、私たちが誰かに向けて何かを書く場面を想像してみよう。私たちは必ずしも明示的な言葉を使わず、含みのある表現で言外の意味(サブテキスト)を伝えようとする。そしてそれが相手に正しく伝わることを信じ、あるいは期待している。
だが相手が人間ではなく、AI(人工知能)だった場合はどうか。最先端の対話型AIなら文章に潜在する言外の意味も理解できるだろうか。もしできるとしたら、それは人間にとって何を意味するのか。
他人の感情を理解したり、言葉や動作に秘められた皮肉を見抜いたりする能力はメンタルヘルスの支援やカスタマーサービスの向上に不可欠であり、各種の政策立案やビジネスにも役立つ。対話型AIの急速な進化を考えれば、この方面でAIに何ができるのか(あるいはできないのか)の研究は必須だ。
潜在的内容分析と呼ばれるこの研究分野はまだ新しく、これまでに分かっているのはチャットGPTがニュースサイトの政治的傾向をある程度まで見抜けること、皮肉に気付く能力は対話型AIのシステムによって異なることくらいだ。
しかし今、対話型AIを支える大規模言語モデル(LLM)なら言葉の感情価(言葉に含まれるポジティブあるいはネガティブな感じ)を推定できることが分かってきた。
私たちは英科学誌サイエンティフィック・リポーツに発表した論文で、GPT-4を含む対話型AIに人間が書いた文章の「行間を読む」能力があるかどうかを検証した。
研究の目的はLLMが感情や政治的傾向、感情価や皮肉の人間的な理解をどこまでシミュレートできるかを明らかにすることであり、具体的にはGPT-4やジェミニなど7種類のLLMを用い、その信頼性と一貫性、そして品質を評価した。
その結果、これらのLLMが上記4つの要素の検知で人間とほぼ同等の精度を持つことが分かった。
政治的傾向の検知については、人間よりもGPT-4のほうに一貫性が認められた。これはジャーナリズムや政治学や公衆衛生などの分野で極めて重要な意味を持つ。
GPT-4には感情価を読み取る能力も認められた。ただしAIは感情を控えめに評価する傾向があるため、人間による確認も必要だった。皮肉は人間でもAIでも検出が難しく、精度に明確な差はなかった。
なぜこのような研究が重要なのか。1つには、AIを活用することで大量のオンラインコンテンツの分析にかかる時間とコストを劇的に減らせる可能性があるからだ。非常時や選挙、公衆衛生上の緊急事態などへのより迅速な対応が可能になる。
AIの透明性、公平性や政治的傾向についてはまだ懸念がある。それでも言語の理解という点で、AIマシンが急速に人間に追い付きつつある事実は否定できない。言い換えれば、AIは単なる道具ではなく、頼れるチームメイトになり得る。
私たちとて、対話型AIが完全に人間に取って代われると言うつもりはない。しかし、これだけは言えるのではないか。人間の発する言葉のニュアンスや言外の意味をAIマシンが理解するのは不可能だという先入観は間違っていたと。
参考文献
Bojić, L., Zagovora, O., Zelenkauskaite, A. et al. Comparing large Language models and human annotators in latent content analysis of sentiment, political leaning, emotional intensity and sarcasm. Sci Rep 15, 11477 (2025). https://doi.org/10.1038/s41598-025-96508-3
Ana Jovančević, Postdoctoral researcher, Department of Psychology, University of Limerick
This article is republished from The Conversation under a Creative Commons license. Read the original article.