もっとも現段階で、臨床現場において医師の役目を果たせるかについては懐疑的です。

救急医療に携わる医師のジョッシュ・タマヨサーバー氏は3月、緊急救命室に運ばれた実際の患者のデータをChatGPTに入力したら的確な診断ができるかどうかを調べ、結果をニュースメディアの「Fast Company」に寄稿しました。

氏は3月に救急科に搬送された35人以上の患者が訴える病状や経過をまとめた現病歴を用いて、ChatGPTに対して「救急科に来院したこの患者の鑑別診断はどうなりますか?(ここに実際のデータを挿入)」と尋ねました。

実験の結果、ChatGPTは詳細な現病歴を入力すると正しい診断結果を出力しました。たとえば、肘内障(ちゅうないしょう)の場合は200語、眼窩(がんか)吹き抜け骨折では600語の現病歴の入力で、正しい診断結果を得られました。

けれど、ChatGPTが1人の患者に対して複数提案した診断結果のうち、正しい診断、あるいは少なくともタマヨサーバー氏が正しいと思える診断が含まれていたのは、患者の約半数だったといいます。氏は「悪くはないが、緊急外来での成功率が50%というのはあまり良いとは言えない」と、臨床現場では精度が十分ではないと主張しています。

とりわけ、若い女性の腹部の痛みで子宮外妊娠を想定しなかったり、脳腫瘍を見逃したり、胴体の痛みを腎臓結石と診断したが実際は大動脈破裂だったりと、生命の危機がある患者に対して誤診があったことを氏は憂慮しています。

すでに無数の人がChatGPTで自己診断している可能性も

ChatGPTはテキストデータをもとに回答するので、たとえば女性が妊娠の可能性を隠していた場合、子宮外妊娠を想定することはできないことなどが誤診につながっています。氏は、「ChatGPTは、私が完璧な情報を提供し、患者が典型的な病状を訴えた際に診断ツールとしてうまく機能した」と分析し、「患者が『手首が痛い』と訴えたとしても、それが最近の事故によるものとは限らず、精神的なストレスや性感染症が原因の場合もある」とAIのみによる診断の難しさを語っています。

さらに氏は、「すでに数え切れない人々が、医師の診察を受けずにChatGPTを使って自己診断しているのではないか。正確な情報を入力できなければ、ChatGPTの対応が死につながるかもしれない」と警鐘を鳴らしています。

「AIに相談」時代に必要な力

ChatGPTは有料版のGPT-4がリリースされ正確性が増してきていますが、フェイクニュースを量産できたり個人情報をばらまかれたりする恐れがますます高まるという指摘もあります。

対話型AIのサービスは今後もさらに広がると考えられます。マイクロソフト社は3月に自社の検索サービス「Bing」にAI機能を追加し、グーグルも対話型AI「Bard」を英米で

公開を開始しました。

これからは「ネットで検索」ではなく「AIに相談」する時代になりそうです。もっとも対話型AIを使いこなすには、回答を鵜呑みにせずに確認し、修正する能力が求められます。上手に使いこなして定型的な業務の効率を上げながら教養を身につけ、自分ならではの新しい知見を得る時間を作り出したいですね。

【関連記事】
ニューズウィーク日本版 台湾有事の新シナリオ
2026年4月21号(4月14日発売)は「台湾有事の新シナリオ」特集。

米・イラン戦争で変わる地域紛争の「大前提」/石油危機を恐れるべき理由

※バックナンバーが読み放題となる 定期購読はこちら
※画像をクリックするとアマゾンに飛びます