アステイオン

言語学

AIが書いた文章は誰のもの?──勝手に「私の言葉」が生み出される時代の違和感

2022年09月20日(火)07時55分
川添愛(言語学者)

sompong_tom-iStock


<過去の文章から学習し、いかにも自分が書きそうな文章をAIが生み出したとき、何が起こり得るのか? 論壇誌『アステイオン』96号より「文章と言語モデルと私」を転載>


AIの話題はあまり好きではない。技術の進展から目をそらすのは良くないと思うが、積極的に情報を集める気にもならない。それでも毎日のようにAIの情報が目に入ってくるのは、相変わらずブームが続いているからだろう。中でもGPT-3は、2019年に出現して以降、いまだに頻繁に目にするキーワードだ。

GPT-3というのは、AI研究団体のOpenAIが発表した言語モデルである。言語モデルとは、大量のテキストデータから「任意の単語列が現れる確率」を学習したもので、自然言語処理では以前から音声認識を始めとするさまざまなタスクに利用されてきた。

人間が書いた文章の中でどのような単語の列が出てきやすいかという情報は、機械に人間らしい文章を生成させる上で不可欠である。

GPT-3も「この単語の列の次にどんな単語が来るか」という確率の情報を持ったもので、冒頭の数語を入力するとその続きを生成し、それがあたかも人間が書いたかのように見えるということで話題になった。

このモデルについて注目すべき点は、(1)8年以上かけてWebから収集されたデータをもとに作られた、きわめて大規模なモデルであること、(2)このモデルにほんの数個の「入力と出力の事例」を見せるだけで、文章の生成以外にもさまざまなタスクをこなせるということだ。

GPT-3は多くのタスクを解くための共通の基盤として注目され、盛んに研究されている(ただし、GPT-3はどんなタスクにでも応用できるわけではない。GPT-3および言語モデルについては拙著『ヒトの言葉 機械の言葉』〔角川新書〕でも説明しているので、興味のある方はご参照いただきたい)。

GPT-3にはさまざまなデモプログラムが公開されているが、個人的に気になっているのはLearn from Anyone(※1)だ。これは、特定の人物の過去の発言や文章をもとにして、その人があたかも言いそうなことを生成するものらしい。

公開されている対話のサンプル(※2)を見ると、このデモによって作成された実業家イーロン・マスクのボットが「ロケットについて教えて!」という質問に対し、「ロケットは、人間や衛星などの物体を宇宙に打ち上げるのに使えるものだよ(後略)」などと回答している。

開発者のマッケイ・リグレー(Mckay Wrigley)はTwitterで〝Ever wanted to learn about rockets from Elon Musk? How to write better from Shakespeare? Philosophy from Aristotole? GPT-3 made it possible(※3)"と発言している。

PAGE TOP