<生成AIの書く文章は「確率論」でしかない。人間の創造性との「決定的な違い」とは?>

情報理論の考案者であるクロード・シャノンが、「文章において、ある単語の次にくる語を確率的に予想することで、言語はモデル化できる」と唱えたのは1948年のこと。

だが、この確率的言語モデルは、総じて嘲笑の的となった。言語学者のノーム・チョムスキーは、「文章の確率というコンセプト自体が無益」と、ばっさり切り捨てたものだ。

それから74年後の2022年、インターネットにある膨大なテキストを学習して、プロンプト(指示)に基づき、確率論的に単語をつなぐ大規模言語モデル(LLM)「チャットGPT」が登場した。このように作成された文章は知的に感じられたから、世界は一段と衝撃を受けた。

だが、このようなツールが、クリエーティブな文章の書き方を学んだり、実際に書いたりすることに、どの程度役に立つのか、あるいは妨げるのかには、多くの議論がある。

筆者はコンピューター科学の大学教授であり、AI(人工知能)について教科書を含む多数の著書がある。この中でLLMが社会に与える影響にも触れてきた。

そしてLLMの仕組みを理解することが、AIを使って「クリエーティブな文章」を書くことの可能性と限界を知る助けになると考えるようになった。

まず、LLMの創作性と人間の創作性を分けて考えることが重要だ。

アメリカの認知科学者であるダグラス・ホフスタッターは、「(LLMの)華やかなうわべの下には、愕然とするほどの空洞がある」と語った。ワシントン大学のエミリー・ベンダー教授などの言語学者は、LLMは意味を考えることなく、記憶させられたデータを確率論的に吐き出すオウムにすぎないと指摘する。

実際、LLMはデータに基づき、ある単語の次に出現する確率が相対的に高い単語をつないで文章を作る。それだけに、LLMを使って文章を作成することは、単語レベルでの盗用とみることもできる。

人間の創作性との違いは?

では、アイデアを伝えるために文章を書く人間の創作性はどうだろう。

生成AIを使う場合、このアイデアをプロンプトにして、AIに文章(あるいは画像や音声)を作ってもらうことになる。ただ、LLMは、どこかの誰かがかつて書いた文章に基づき、その人が書きそうな文章を作成しようとする。

たいていのクリエーティブな作家は、「どこかの誰か」が書きそうなものを書きたいとは思わないだろう。自分の創作性を駆使したいし、なんらかのツールを使うなら、自分が書きそうなものを生成してくれるツールが欲しいと思うだろう。

だがLLMは通常、特定の作家が書いた文章に特化した訓練はされていない。それに作家側も、従来とは異なるものを生み出したいと思うだろう。

また、LLMはインプットされたデータを上回るアウトプットを求められると、詳細を「創作」することがある。ただしそれが、作家の求めるものになるとは限らない。

とはいえ、クリエーティブな文章を書くときLLMが役に立つこともある。文章を書くことには、ソフトウエア開発と似た側面がある。

ソフトウエア開発者は、何を求められているかを理解した上で、コード(コンピューター言語による文章だ)を書く。これは作家が自然言語で文章を書くプロセスと似ている。

コードを書くことも、自然言語の文章を書くことも、LLMにとっては同じだ。LLMの訓練データには自然言語とコードの両方が含まれていて、そこから何を生成するかは、コンテクストで決まる。

ソフトウエア開発に学べ

作家たちは、ソフトウエア開発者によるLLMの使い方から学べることがあるかもしれない。

LLMが得意とするのは、多くの人が手がけてきた小規模プロジェクト(データベース検索や一般的な書簡作成)だ。大規模プロジェクトの一部(コンピューター画面に表示される質問箱など)も上手にできる。

もっと大きなプロジェクトにLLMを使う場合は、複数のアウトプットを用意して、そこから本来の意図に最も近いものを選んで編集することになる。ソフトウエア開発で難しいのは、何を求められているかを正確に把握することであり、コードを書くこと自体は、むしろ簡単だ。

LLMから良質なアウトプットを引き出すためには、良質なプロンプトを与えることも重要になる。「プロンプト・エンジニアリング」という表現が示すとおり、LLMに適切なプロンプトを与えることは重要なテクニックだ。

アウトプットにたどり着いたプロセス(いわば「思考の連鎖」)を示すようLLMに命じることも、より良いアウトプットを生み出す役に立つ。こうすれば、LLMは問いに答えるだけでなく、その答えに至った理由を教えてくれる。それを使ってプロンプトを改良すると、より良いアウトプットを得ることができる。

ただし、こうしたテクニックの「賞味期限」は短い。あるプロンプト・エンジニアリングがうまく機能した場合、それはLLMに組み込まれて、将来的にわざわざプロンプトとして使う必要がなくなるからだ。「合理的な思考ができる」と喧伝される最近のLLMには、こうしたプロンプトが組み込まれている。

1964〜66年に初期の自然言語処理プログラム「ELIZA(イライザ)」を開発したコンピューター科学者のジョセフ・ワイゼンバウムは、イライザを使う人たちが、「あっという間にコンピューターに感情的に深く関与するようになり、コンピューターを擬人化したりすることに驚愕した」と語っている。

ツールは進歩したが、人々は今もコンピューターには意思があると思いがちだ。

偽情報が蔓延する現代において、独善的なブームを見抜くスキルは誰もが身に付けるべきものだろう。生成AIは魔法ではないが、大量のデータに基づき、誰がどのようなものを書くか予測できる。だが、創作性とは、誰かの作品の焼き直しではないことを、私は願っている。

The Conversation

David Poole, Professor Emeritus of Computer Science, University of British Columbia

This article is republished from The Conversation under a Creative Commons license. Read the original article.

「AIに使われるか、AIを従えるか」 一橋大学が問う、エージェント時代の「次世代エグゼクティブ」の条件
「AIに使われるか、AIを従えるか」 一橋大学が問う、エージェント時代の「次世代エグゼクティブ」の条件
【関連記事】
ニューズウィーク日本版 台湾有事の新シナリオ
2026年4月21号(4月14日発売)は「台湾有事の新シナリオ」特集。

米・イラン戦争で変わる地域紛争の「大前提」/石油危機を恐れるべき理由

※バックナンバーが読み放題となる 定期購読はこちら
※画像をクリックするとアマゾンに飛びます