OpenAIが「GPT-4」発表──マルチモーダル化、文章・画像を併用した質問に対応
rafapress-Shutterstock
<司法試験の模擬試験で受験者の上位10%相当の合格点を獲得したという>
AI開発企業のOpenAIは現地時間3月14日、大規模言語モデルの最新版「GPT-4」を発表した。まずは有料サービス「ChatGPT Plus」の利用者や、API経由で開発者向けに提供する。
【動画】OpenAIが公開した「GPT-4」のデモ動画──その精度は
GPT-4は前バージョン「GPT-3.5」と比較して推論性能が向上。「現実世界のシナリオの多くにおいては人間に劣るが、専門的・学術的なベンチマークでは人間レベルのパフォーマンスを示す」という。
その根拠として、GPT-4は司法試験の模擬試験で受験者の上位10%相当の合格点を獲得したとOpenAIは説明。GPT-3.5では下位10%程度だったという。
GPT-4はマルチモーダル化も果たした。そのため画像と文章を併用した難しい質問も扱える。例えば画像を入力した上で「この画像は何が面白い?」と質問すると回答する。前バージョンはテキストのみに対応。今後、動画、音声といったコンテンツへの対応が期待される。
またGPT-4は「許可されないコンテンツの生成に対応してしまう可能性」がGPT-3.5と比較して82%低く、「医療や自傷行為」といったセンシティブな内容を含むリクエストにOpenAIのポリシーに則して回答する確率は29%増えたという。
グーグルも同日、生成AIを「Gmail」、「Google ドキュメント」、「Google スプレッドシート」といった「Google Workspace」アプリ全般に組み込むと発表した。文章の自動生成といった機能を導入するという。