ガイセル医科大学院で入試担当副事務局長を務めるロシーニ・ピントーパウエル(Roshini Pinto-Powell)教授が、ティーセンの懸念を詳しく説明した。

人間の医師よりAIのほうが親身に質問に答えてくれると感じる患者が少なくないことは、さまざまな研究が示してきた。だが人間と機械では共感の表現が大きく違うと、ピントーパウエルは指摘する。

他人の苦しみを頭で理解するのが認知的共感なら、他人の苦しみをわがことのように感じるのが情動的共感だ。情動的共感より一歩進んだのが臨床的共感であり、医師はこれに突き動かされて患者の苦痛を和らげようとする。

情動的共感や臨床的共感は決してAIには把握できないとピントーパウエルは考え、「医療には臨床的共感が欠かせない」とみる。こうした理由から、近い将来にAIが医師の仕事を奪う見込みはないとしたダヤンらの研究を支持する。

チャットGPTに負ければ、医師は不安になる。だが学生の願書を精査する際にピントーパウエルが注目するのは試験のスコアではなく、努力や奉仕の精神、医療分野でのインターンシップやボランティア、そして学びに対する謙虚な姿勢だ。深い思いやりの心を持つ志願者に、AIは到底かなわない。

「どんなに優秀でも、自分は何でも知っていると思い上がっているような学生は要らない」と、彼女は言う。「一番危険なのはそうしたタイプの学生なのだから」

<参考文献>

Dayan, R, Uliel, B, Koplewitz, G. Age against the machine--susceptibility of large language models to cognitive impairment: cross sectional analysis. BMJ 2024;387:e081948; (Published 20 December 2024) doi: https://doi.org/10.1136/bmj-2024-081948

【関連記事】
ニューズウィーク日本版 台湾有事の新シナリオ
2026年4月21号(4月14日発売)は「台湾有事の新シナリオ」特集。

米・イラン戦争で変わる地域紛争の「大前提」/石油危機を恐れるべき理由

※バックナンバーが読み放題となる 定期購読はこちら
※画像をクリックするとアマゾンに飛びます