医療におけるAIの責任ある利用に関する新たな指針

JAMA、2025年12月3日公開記事。

AIが医療に急速に広がるなか、誰がルールを決め、どう安全性を確保するのかという課題が米国で深まっている。こうした状況を受け、米国の主要病院認定機関である Joint Commission(TJC) と、臨床家主導の Coalition for Health AI(CHAI) が、医療におけるAIの責任ある利用に関する包括的ガイドラインを発表した。

ガイドラインは、①多職種によるAIガバナンス委員会の設置、②AIモデルを導入前に院内データで検証すること、③導入後の継続的な性能・バイアス監視、④安全性イベントの匿名報告体制、⑤患者への透明性確保と必要に応じた説明・同意、などを求めている。

しかし実践には大きな負担が伴う。特に中小病院では、AI専門家やデータサイエンス人材、独自のバイアス監査能力が不足し、ガイドラインは「理想論」に近い面もある。すでに研究では、AIを使う病院のうち、自院データでバイアスを評価できたのは44%にとどまるという。

現時点でTJCは認定基準に組み込んでおらず、直接の制裁はないが、医療訴訟における“合理的注意義務”の判断材料となる可能性があり、病院側には法的リスクも生じうる。さらに、各病院が個別に評価する仕組みは非効率で、AIの中央的な評価機関が存在しないことが大きな構造問題となっている。CHAIは民間の“AIアシュアランス機関”のネットワーク創設を提案したが、規制が民間大手に偏る懸念から反対も強い。FDAもAI性能の実地評価やドリフト検知に関する新アプローチを検討中だが、現状では対応範囲が限られており、統一的な基準や枠組みは未整備のまま。

総じて、TJCとCHAIのガイドラインは重要な方向性を示した一方、米国の医療AIガバナンスの断片化と格差を浮き彫りにしており、全国的な評価システムが整わない限り、病院ごとの負担とリスクは大きいままである。

 

ニュースソース

Sofia Palmieri (Harvard Law School, Cambridge, Massachusetts), et al.: New Guidance on Responsible Use of AI.
JAMA, Published Online: December 3, 2025 doi: 10.1001/jama.2025.23059(オープンアクセス)

2025年12月8日
このページの先頭へ戻る