AIと医療:安全で公平な未来のために
リアルな会話能力を持つOpen AIのChatGPTや、簡単なプロンプトから本物とまがう画像や動画を作成する人工知能など、生成型人工知能(AI)の急速な進歩は、健康分野を含めたAIによる変革の可能性について新たな関心を呼び起こしました。同時にまっとうな警告も発せられています。7月に国連安全保障理事会で演説したアントニオ・グテーレス事務総長は、悪意の下でAIが使用されることで生じる「恐ろしいレベルの死と破壊」について語っています。医療界は健康領域におけるAIの潜在能力を引き出すために、どのように大きな課題を乗り越えることができるのでしょうか?
医療におけるAIは目新しいものではありません。非生成的な機械学習であっても、医療画像の解釈のような一つ一つのタスクにおいて、すでに相当な能力を発揮しています。Lancet Oncology誌は最近、AIを用いたマンモグラフィの初めてのランダム化比較試験の1つを発表しました。AIを用いない読影と比較して、同程度のがん発見率の成績を出し、なおかつ画面読影の作業負荷が半減したことを実証しました。AIは感染症や分子医学の進歩を促進し、医療現場で使える診断ツールを充実させてきたのです。しかし、生成AIの医療への応用は、まだほとんど推測の域を出ていません。
エビデンスの創生や新薬候補の同定を自動化することで、臨床研究を迅速化できよう。AIを活用した医療メモの生成は、医療従事者の管理負担を軽減し、患者を診察する時間を確保することもできます。ビル&メリンダ・ゲイツ財団のグローバル・グランド・チャレンジのようなイニシアチブは、低・中所得国(LMICs)における大規模言語モデルの革新的な利用を求めています。
こうした進歩には重大、深刻なリスクが伴います。明確に定義されたタスクにおいて、またモデルが人間の判断に取って代わるのではなく、モデルが容易に人間の判断を補強できる場合において、AIは最高のパフォーマンスを発揮します。生成的AIを異種データに適用するのは複雑になります。多くのモデルのブラックボックス的性質は、その適合性と普遍化を評価することを困難にしています。
大規模な言語モデルの犯すミスは、人間が見落としやすいものであり、存在しない情報源を存在するものとして幻視したりすることもあり得るのです。適切な規制なしにテクノロジー企業に個人データを移転すると、患者のプライバシーが損なわれる可能性があります。健康の公平性は特に深刻な懸念になっています。例えば、医療費の偏りを反映した医療データセットで訓練されたアルゴリズムは、米国における医療を受ける上での人種格差を拡大させました。多くの医療データは高所得国のものであるため、モデルに偏りが生じ、他の国で使用されたときに歴史的な不正や差別を悪化させる可能性が出てきます。これらの問題はすべて、患者の信頼を損なう危険なこととなります。
では、AIを医療に役立てるにはどうすればいいのでしょうか?科学界は、AIの厳密なテスト、検証、監視において重要な役割を担っています。国連は、信頼に足る、安全で持続可能なAIの能力を構築するため、ハイレベルの諮問機関を設立しようとしています。公平な取り組みには、地域の多様な知識が必要となります。WHOは、国際的協力と共通のガイダンスを通じ、保健分野における安全で倫理的なAI統治にLMICsから参加するよう、国際デジタルヘルス・AI研究協力機関と提携しています。
しかし、現地のインフラや研究への投資がなければ、LMICsはアメリカやヨーロッパで開発されたAIに依存したままとなり、オープンアクセスによる代替手段がなければ、コストが高額になる惧れが生じます。現在の技術進歩のペースはガイダンスをはるかに凌駕し、医療界とテクノロジー企業との力関係はますます不均衡となっているのです。
民間企業に過度の影響力を与えることは危険です。国連事務総長は安全保障理事会に対し、AIに関する透明性、説明責任、監視の確保を支援するよう求めています。規制当局は、安全性、プライバシー、倫理的実践を確保するために行動しなければなりません。例えば、EUのAI法では、リスクの高いAIシステムは承認前に評価され、監視の対象となることが義務付けられています。今年後半に英国で開催される、AIの安全性に関する初の主要なグローバル・サミットの主要な議題はAIの規制であるべきです。テクノロジー企業は規制の議題に加わるべきですが、すでに抵抗の兆しが見えています。アマゾン、グーグル、エピックは、医療技術におけるAIを規制する米国の規則案に異議を唱えています。商業的利益と透明性の間が緊張関係に陥ると、患者の福祉を損なうリスクが高まり、社会の周辺のグループが最初に被害を受けることになるでしょう。
私たちが望む未来を創造するには、まだ時間があります。AIは、慎重に統御されれば恩恵をもたらしていくでしょう。医師の代わりではなく、補助者として、診療をより良いものに変えることができるでしょう。同時に、医師はAIを無視することはできません。医療教育者は、デジタルで拡張された未来のために医療従事者を育成しなければなりません。政策立案者は、テクノロジー企業、医療専門家、政府と協力し、公平性を最優先させなければならないのです。そして何よりも、医療界は厳格な規制を求める喫緊の声を大きくさせなければなりません。
原文記事:AI in medicine: creating a safe and equitable future - The Lancet