アステイオン

言語学

AIが書いた文章は誰のもの?──勝手に「私の言葉」が生み出される時代の違和感

2022年09月20日(火)07時55分
川添愛(言語学者)

つまりGPT-3を応用すれば、シェイクスピアやアリストテレスなど、直接話すことのできない歴史上の偉人とも「会話」ができ、文章の書き方や哲学などについての質問に答えてもらえる、と言っているのだ。

AIブームが始まって以来、「特定の個人の文章を読み込ませて質問に答えさせるシステム」の出現を予想する声はいくつかあった。私がよく覚えているのは、数年前に哲学者の森岡正博が提起した、「人工知能にカントの全集を読み込ませてカントの思考パターンを発見させれば、人間の哲学者の仕事は『人工知能カント』に質問をして答えを分析することになるのではないか」という問題である(※4)。

ただし、GPT-3なりLearn from Anyoneなりが「人工知能カント」を実現したシステムそのものかと言われると、私は違うと思う。

先ほども述べたように、GPT-3含め言語モデルというのは「人間の書いた文章の中で、どのような単語の列が出てきやすいか」という確率の情報を持ったものだ。もちろん、単語の並ぶ確率の中には、私たちが持っている常識や、文法や意味についての知識の一部が反映されている。

しかし、そこに人間と同じような思考が存在すると断言することはできない。哲学者ジョン・サールの「中国語の部屋」風にたとえるならば、言語モデルというのは、アラビア語をまったく知らない私が大量のアラビア語の文章を手がかりに、単語列の出現確率だけを完璧に予測できるようになったようなものだ。

そのような場合、私はアラビア語の単語列を与えられたらその後に続きそうな単語を適切につないでいけるだろうし、そうやって生成される文章はあたかもアラビア語の話者が書いたかのように見えるかもしれない。

しかし、それが本当に元の文章の書き手の思考を反映している保証はない。ましてや私が書き手の精神なり思考パターンなりを獲得しているとも言えない。

とはいえ、GPT-3を利用したシステムの結果に多大な信頼を置く人びとはいるだろうし、今後「誰々の文章を学習したAIがこう言っていた」ということが何かの権威付けに使われることがあれば問題だ。

今のAIの中身がブラックボックスであることは、AIの出してくる結果は必ずしも信頼できず、取り扱いに注意しなければならないことを意味している。しかし一方で、そのブラックボックス性にある種の神秘を見いだしてしまう人もいる。問題は複雑だ。

また、Learn from Anyoneのようなものが出てきたことによって、近い将来、言語モデル開発用のデータとして利用される文章の書き手と、当の言語モデルが出力する文章との関係についても議論をする必要が出てくると思う。

以前、とある媒体への寄稿を依頼された際に、依頼元から、私の過去の文章を体裁良く切り貼りした原稿が送られてきたことがあった。先方によれば、どうしても私の文章を掲載したいが、締め切りまで時間がないので申し訳ないと思い、私の負担を減らすためにあらかじめ原稿を用意してくれたという。

PAGE TOP