News Feature
医療AIチャットボット:患者との会話に危険はないのか?
Nature Medicine 29, 11 doi: 10.1038/s41591-023-02535-w
大規模言語モデルに基づく人工知能(AI)チャットボットは、医師国家試験には合格できるが、患者の診断となると不正確な場合が多い。医療従事者や研究者が患者に対して負うべき義務を考えれば、チャットボットに仕事を任せることは無謀であろう。患者もまた、チャットボットを信頼すべきかどうか、そして医師がAIツールを使用しているかどうかを考慮しなければならない。こうした状況の下、米国食品医薬品局(FDA)は、急成長するAI機器の医療使用の監視と規制に乗り出そうとしている。また、このような手段が高機能になればなるほど、臨床医とAI研究者は緊密に協力することが必要になるだろう。ChatGPTのような大規模言語モデルは、そのトレーニングデータセットが査読済みで質の高い科学的研究の最新のものを含めた全範囲を網羅するようになるまでは、その臨床的有用性に限界がある。