テクノロジー

緊急医療の評価に警鐘。「チャット・GPT」助言、利用者が解釈を誤る恐れ…「過度な依存は危険」

2025-04-05

著者:

緊急医療におけるAIの進化

近年、人工知能(AI)の進化により、緊急医療における評価や判断にAIが利用されるケースが増えてきています。特に「チャット・GPT」などの対話型AIが登場し、利便性をもたらす一方で、その情報を誤解するリスクも浮上しています。日本救急医学会は、ある研究結果を基に、不適切な解釈があるとの報告を行いました。

医療関係者とのコミュニケーションの重要性

同学会によると、患者の症状や過去の病歴を踏まえた助言を得るために、医療関係者との正確なコミュニケーションが重要であるとしています。また、AIに依存することのリスクを強調し、特に医療に関する重要な判断には専門家の助言が不可欠であると警告しています。

AIの情報の正確性

実際、AIは迅速に情報を提供することができるものの、その情報の正確性や適用可能性を判断するのは人間の医療関係者の役割です。救急医療の専門家は過去の症例をもとに、高度な判断を行う必要があり、AIの助言が全て正しいわけではないと述べています。

医療従事者の見解

最近実施された調査では、緊急時におけるAIの助言に対する医療従事者の見解が分かれました。専門家のうち約70%がAIの助言は参考程度に留め、最終的な判断は人間が行うべきだと感じています。一方、AIの助言が重要だと考える医療関係者もおり、その割合は約30%に達しました。

調査の実施

この研究は、東京都内の大学医療センターが主導し、300人以上の医療従事者を対象に行われたものです。調査結果は、AIが提供する情報の質と利用者の理解度が深く関わっていることを示唆しています。

AI導入のリスク

医療機関におけるAIの導入は、効率性を向上させる一方で、利用者が誤った情報を信じ込むことによるリスクを無視できません。専門家は「急性期の判断においては、AIだけに頼らず、必ず医療専門家の意見を求めるべきだ」との考えを改めて強調しています。今後もAIの活用は進むと予測されるため、適切な使用法が重要となるでしょう。AIと医療の未来についてのさらなる議論が求められています。