南砺の病院家庭医が勉強記録を始めました。An archive of medical articles summarized by a family physician from Nanto Municipal Hospital.

An archive of medical articles summarized by a family physician from Nanto Municipal Hospital.富山県にある総合病院で働く病院家庭医です。勉強の記録を少しずつ書いていきます。

人工知能を使用した医師に対する潜在的な責任はあるのか

Potential Liability for Physicians Using Artificial Intelligence

JAMA. Published online October 4, 2019. doi:10.1001/jama.2019.15064

 

今回はJAMAから、「人工知能を使用した医師に対する潜在的な責任」という記事を紹介します。

 

JAMAだなんて本ブログらしくないのは重々承知です。

本来ならこのようなブログは他の先生方に任せておけば良いのだと思います。

正直、自分でもなぜ紹介してしまったのかよくわかりません。

ただの迷走です。なんとなく面白いと思っちゃったんだから仕方ない。

(ところで、もうブログもほぼ毎日80本続いていますが、いまだにどんな内容がいいのかわからずにいます。とりあえず100本書いたら何かわかると思ったのですが、おそらく一生わからないかもしれません…。)

近い将来、AIによる医療が当たり前になると思うのですが、その責任の所在はまだ議論の余地があります。そのような議論の参考になれば幸いです。

はじめに

人工知能(AI)は、機械学習という形で医療行為に進出をしています。複数のAIベースの製品は現在、米国食品医薬品局(FDA)によって承認または認可されており、医療システムと病院はますますAIベースのシステムを展開しています。たとえば、医療用AIは、薬剤や投与量の推奨や放射線画像の解釈などの臨床決定をサポートできます。従来のほとんどの臨床的意思決定支援ソフトウェアとの重要な違いの1つは、一部の医療AIが結果や推奨事項をケアチームに伝え、その結果の根本的な理由を伝えることができないことです。

 

医療AIは、不適切な環境で、不完全な技術を使用して、または不完全なデータでトレーニングされる場合があります。アルゴリズムが可能な限り訓練されていても、例えば、放射線画像で腫瘍を見逃したり、薬物または不適切な薬物の誤った線量を示唆したりする場合があります。その結果、患者が負傷する場合があります。この視点では、医療AIを使用する際に、医師が現行法の下で責任を問われる可能性がある時期について説明します。

 

医療AIと医師の責任

一般に、医療過誤の責任を回避するために、医師は利用可能なリソースを考慮に入れて、同じ専門分野の有能な医師のレベルでケアを提供する必要があります。 AIアルゴリズムの推奨事項が関係すると、状況はより複雑になります。AIは臨床診療にとって非常に新しいため、医療AIに関連する責任に関する判例法は基本的にありません。それにもかかわらず、現在の法律がより一般的な不法行為の原則からこれらの状況をどのように扱う可能性が高いかを理解することは可能です。

この図は、単純な相互作用の潜在的な結果を示しています。たとえば、AIが卵巣癌患者に薬剤と投与量を推奨する場合です。この患者の標準的な治療は、化学療法ベバシズマブの3週間ごとに15 mg / kgを投与することであると想定しています。

臨床診療でのAIの使用に関連する潜在的な法的結果の例

臨床診療でのAIの使用に関連する潜在的な法的結果の例
AIは人工知能を示します。

 

最初の質問(列2)は、AIが推奨するものです。単純化するために、AIが2つの推奨事項の1つを行っていると仮定します(臨床ケアにはもっと多くの可能性があります):標準治療用量またははるかに高い用量:3週間ごとに75 mg / kg。

AIは、どちらの場合も正しい場合も正しくない場合もあります(列3)。3週間ごとに15 mg / kgが標準治療用量ですが、おそらく何らかの理由で、この特定の患者にはより高い用量が適切です。このような推奨事項は、ケアをパーソナライズするために、一部のAIの目標の1つと一致します。

次に、医師はAIの推奨事項に従うか拒否することができます(列4)。この例では、医師はこの裁量を保持しますが、将来的には医療制度または支払者が医師の裁量を制限する可能性があります

列5は患者の結果を表します。医師が正しい推奨事項に従うか、誤った推奨事項を拒否した場合、結果は良好です。逆の場合、結果は悪いです(この非常に様式化された例)。

つまり8通りのシナリオが考えられます(列6)。法律はそれらを異なる方法で扱い、これらの違いを理解することは米国の不法行為法のいくつかの基本的な要素にかかっています。まず、怪我がない場合、責任はありません(図の緑色のボックス)。これは、医師が正しい推奨事項を受け入れたために発生した場合(シナリオ1および5)または誤った推奨事項を拒否した場合(シナリオ4および8)にかかわらず、良い結果です。

第二に、不法行為法は通常、特定のケースでの有効性に関係なく、つまり、そのケアを提供することが良い結果か悪い結果につながるかどうかにかかわらず、ケアの標準に特権を与えます。医師が標準のケア(たとえば、3週間ごとに15 mg / kgのベバシズマブ、シナリオ1、3、6、および8)に従うと、異なる行動方針でも、一般的に悪い結果に対する責任を負わない特定の場合、特定の患者にとってはより良い方法でした(図の黄色のボックス)。

したがって、現行の法律の下では、医師は標準的なケアと怪我の結果(図の赤いボックス)に従わない場合にのみ責任を負います。

この分析は、医療AIを使用して臨床決定を支援する医師にとって重要な意味があることを示唆しています。ケアを改善する方法のソースとしてではなく、既存の意思決定プロセスをサポートする確認ツールです。

多くの医師はこのアプローチに満足しているかもしれませんが、課題は、現在の法律がAIの潜在的な価値を最小限に抑えるよう医師を奨励することです。医療AIが医師よりも高いタスクを実行する場合(たとえば、薬物の投与量を増やすことを推奨する場合)、医師とは異なる結果が得られます。将来、一部の医療用AIが一部のアルゴリズムの目標である最高の医師よりも優れたパフォーマンスを発揮する場合、その差は大きくなります。しかし、責任の脅威は医師がケアの標準を満たすことと従うことを奨励するため、そのような推奨事項を拒否し、場合によっては患者の不利益につながるAIの完全な価値を実現できない可能性があります

 

ケアの法的基準は、医療AIの責任の鍵ですが、永久に固定されているわけではありません。時間が経つにつれて、ケアの標準が変わる可能性があります。医療行為が、AI が標準医療の一部となるポイント、つまり、優れた医療行為のコンセンサスビューに達するとどうなりますか?その場合、シナリオ6および7(図のイタリック体のテキスト)は大幅に変更される可能性があります医師は、正しいが非標準のAIの推奨を拒否する責任を負う可能性があり、逆に以下の場合は誤ったAIの推奨による負傷の責任を回避する可能性があります。不法行為法は本質的に保守的であるため、2番目の選択肢(シナリオ7)が最初のステップである可能性が高い:既知の標準ケアから逸脱する医療AIへの依存は、医師がAIを拒否する責任を負うかなり前に、負債に対する防御となる可能性が高い。しかし、医師はこの空間をすぐに変更する可能性があるため、監視する必要があります。

 

医師は何をすべきか?

医師は、責任問題を形作る上で重要な役割を果たします。診療所では、医師はAIアルゴリズムをより適切に使用および解釈する方法を学習する必要があります。これには、どのような状況で利用可能な医療AIが適用されるべきか、アルゴリズムの推奨事項にどれだけの信頼を置くべきかが含まれます。これは挑戦であり、評価ツールはまだ非常に開発中です。

医師はまた、専門組織が実践固有のアルゴリズムを評価するために積極的な措置を取ることを奨励する必要があります。FDAによるレビューは品質保証を提供しますが、社会は実装時にAI製品を評価するための追加のガイドラインを提供し、個々の患者に対するAIの推奨事項を評価するために配置されます。実践ガイドラインとの類似性は強い。社会が特定の介入のためのケアの標準を導くのと同じように、医療AIを確実、安全、効果的に採用および使用するための実践を導くことができます

病院や医療システムなどのケアの設定の一部として、医師は、アルゴリズムを開発および展開するための管理努力が、臨床ケアで本当に必要なものを反映するようにする必要があります。外部のAI製品を調達する場合、医師は、他の新しい医療機​​器と同様に、調達前にそのような製品が厳密に吟味されることを保証するためのセーフガードを提唱する必要があります。

さらに、医師は医療過誤保険会社と慎重にチェックして、保険会社が医療AIの実際の使用をどのようにカバーしているかを判断する必要があります。AIの推奨事項に依存するケアは、そのような推奨事項のないケアと同じように扱われますか?推論をほとんどまたはまったく提供しない、より不透明なアルゴリズムでは、プラクティスは異なりますか?集合的に、医師とその病院システムは、将来のAI対応医療のニーズによりよく対応するために、保険の適用範囲の変更を要求できる場合があります

医師の責任と医療AIに関する現在の法律は複雑ですが、医師の責任はより大きな責任のエコシステムの一部にすぎないという認識により、問題ははるかに複雑になります。医療AI、医療AIのメーカー、潜在的に支払人でさえ購入し実装する病院システムはすべて責任に直面する可能性があります。図に概説されているシナリオと、ここで強調されている基本的な質問は、これらの責任の形態ごとに繰り返され、相互作用します。さらに、法律が変更される場合があります。AIは通常の法的進化を通じて発生する可能性のあるケアの標準になることに加えて、議会は、ワクチンによる負傷者を現在補償するようなノーフォールトシステムなど、非常に異なるルールを課すことができます。

AIが医療行為に入ると、医師は、法律がアルゴリズムと施術者との相互作用から生じる傷害に対する責任をどのように割り当てるかを知る必要があります。これらの問題は、後で発生するよりも早く発生する可能性があります。

 

まとめ

①AIの推奨が標準的ケアを進めてきた場合

②専門家的にもその推奨が確からしい場合

③医師がAIの推奨を行った場合

④患者さんのアウトカムがどうなったか

この4つの分岐で、法的責任が決定される可能性がある。

 

・怪我がない場合、責任は問われない。

・一般的な標準的治療を行った場合も、結果はどうあれ責任は問われない。

(ただし、AIの推奨に従っていれば良かったのにという問題が付きまとう。)

 

・AIが標準的治療と全く同じ推奨をしたのに従わずに患者に害が及んだ、あるいは、AIが標準的治療と異なる推奨を提示したが、明らかにおかしいのに気づかずにしたがって害が及んだ場合に法的責任が発生するということである。

 

・医師がアルゴリズムの評価をどこまですべきなのか、人間を超える優秀なアルゴリズムができた場合、その精度をどう評価するかというところが今後の課題である。