メール
メニュー

ビッグデータとAI時代の医療

2019.07.18

oheshi.jpg東京大学大学院医学系研究科 社会医学専攻 医療情報学分野 教授

東大病院企画情報運営部長(併任)

大江 和彦 氏



 2019年5月11日、大阪で開催されたJBHC医療総合セミナー2019では、医療の現場で急速に注目度が高まっているICTとAIの活用について、二人の講師にご講演いただきました。最初にご登壇いただいたのは、社会医療法人財団董仙会(とうせんかい)恵寿総合病院理事長の神野正博氏。医療ITを積極的に取り入れ、活用されている同病院の最新の取り組みと活用のヒントについてお話しいただきました。(記事はこちら)続いて、医療情報学分野から東京大学大学院医学系研究科社会医学専攻教授の大江和彦氏をお迎えし、医療機関の画像診断・診療支援におけるAI活用の可能性についてお話しいただきました。講演の内容を要約してご紹介します。


政府は6つの重点領域を選定し

AI技術の開発を推進

 近年、医療分野におけるAIの導入が国の施策でも叫ばれるようになり、計画的な導入を図ることが懇談会でも報告されるようになりました。2017年の6月に発表された、「保健医療分野におけるAI活用推進懇談会」の中間報告では、重点領域を選定し、その領域において加速度的にAI開発を進めていくことが国の方針として定められました。


 6つの重点領域のなかでも実現性が高いのは、「ゲノム医療」「画像診断支援」「診療・治療支援」の3つです。ゲノム医療については、今年6月から保険診療が始まります。全国11の中核拠点病院と連携病院でがん患者のゲノム検査をして、適切な化学療法剤が見つかれば、それを投与します。AIで画像診断をするためには膨大な画像を集めてシステムをつくる必要があり、データベース(DB)の構築がすでに始まっています。診療・治療支援では、医療現場から収集するデータの標準化規格を策定し、難病や希少疾患の情報基盤を構築。これを基に診療・治療を支援するAIを開発することが工程表には書かれています。



機械学習、深層学習によって

診療支援におけるAI活用が進展

 診療支援でAIを活用するには何が必要か? これを検討するには、「そもそも診療とは何か」を掘り下げて考える必要があります。外来の初めての診療の時に、医療者は患者さんの訴えを聞いて病名を思いつくわけですが、どの病気なのかはっきりしないときは、患者さんからさらに話を聞いて、情報を手に入れ、考えて病気を絞り込んでいきます。すぐに診断ができない場合は、検査戦略を立てて検査を行います。その結果を踏まえて、治療計画を立てて治療します。


 そうしたプロセスのなかで、医療者は教科書や論文などから得た体系的知識、実体験に基づく知識、直感的な判断力などを複合的に組み合わせて使っています。つまり、診療とは、これらのさまざまな知識とスキルを総合的に活用し、現実の患者に適用することです。診療支援でAIを活用する際には当然、AIにも総合的な知と知を使う力、知恵、情報力などが求められるというわけです。


 従来のAIは、知識を全部書いて計算機に覚えさせていました。これでは限りなく知識を教える必要がありますし、持たない知識は使えないといった問題がありました。一方、いまのAIは何をしているのかというと、人がつくった知識を覚えさせるのではなくて、たとえば「このデータだったら肝炎ですよ」といった、事実のデータだけを計算機に与えることで、計算機が自ら学習し、「モデル」をつくり上げる仕組みになっています。これを「機械学習」と言います。


 現在、使われているAI技術の多くは、「教師あり機械学習」です。結果がわかっているデータを大量に用意し、正しい答えが出るような仕組みを勝手につくらせています。


 ただ、機械学習にも問題がありました。学習に使うデータ項目を決める必要があったのです。血液検査の結果からどの臓器に異常があるかを自動判定させるには、血液検査のどこ項目を使うのかをあらかじめ決めておく必要があり、思いもかけない検査値が関係している場合は、これを検出することができません。もう1つは過学習といって、学習したデータでは成績がよいのですが、いままで経験したことのないような症例のデータが出てくると、うまく答えられないという問題です。


 そこで出てきたのが、深層学習(ディープラーニング)という技術です。人間の頭のなかの神経細胞の挙動を真似したコンピュータープログラムをつくって、それをネットワークにしたものです。何層にもネットワークをつくり、膨大な教師ありデータを入力し、1つだけの正しい答えが導き出されるよう微調整を繰り返します。この仕組みを使って、医療の画像診断システムが急速にできつつあります。


 2年前の『ネイチャー』に掲載された報告では、2032の異なる疾病からなる12万9450の皮膚の画像を入力し、ひたすら学習させたところ、21人の皮膚科認定医と比較して変わらない性能を持つ仕組みができたとあります。同じような形で、AIによる糖尿病性網膜症診断機器が開発され、2018年にアメリカのFDA(食品医薬品局)で承認され、商品化が始まりました。この機器では、眼底の画像データを入れると、87%の確率で正しく判定できるそうです。


 こうした画像診断システムは、大量のデータ学習し、正しい結果が出るようにつくったに過ぎないので、訓練データに変なデータが混じっていると、性能が落ちる可能性があります。医療機器を販売する前には薬事承認が必要ですが、承認する側はどうやって評価すればいいのかという問題もあり、関係者の間で議論も始まっていますが、結論には至っていません。



AI技術の開発で最も重要なのは

医療機関が持つ電子カルテのデータ

 AIの性能を高めるには、大量のデータ(ビッグデータ)が必要です。診療のカテゴリーごとに少なくとも5000、人間の能力に匹敵するには1000万の教師付きデータが必要だと言われています。では、医療分野で大規模なデータというと何があるでしょう。レセプトデータと電子カルテのデータ、それから患者レジストリーという学会主導のDB、生活健康管理データ(ライフログデータ)の4つが挙げられます。


 レセプトデータはすでに国が大規模に集めていて、約9年分、約148億件もの巨大なDBができつつあります。電子カルテのデータは、各病院でばらばらなデータ形式を標準化し、蓄積していくDB基盤の整備が始まっています。学会主導の患者レジストリデータベース事業も急速に進んでいます。代表的なのは糖尿病学会と国際医療センターがやっている糖尿病のDB事業「J-DREAMS」ですが、それ以外にも、心筋梗塞のデータを集める「J-IMPACT」、慢性腎臓病のデータを集める「J-CKD-DB」などがあります。


 これからの医療を変革していく原動力となるAIの開発を進めるには、元データとしての電子カルテのデータが重要で、各病院がこれをいかに標準化して保有し、二次利用できるかが大きなポイントになっています。もう1つ重要なのが、画像データをいかに集めるかです。日本消化器内視鏡学会、日本病理学界など6つの学界が中心となって、約40の病院から大量の医療画像を国立情報学研究所に集めるプロジェクトも始まっています。


 大規模な患者さんのデータを1カ所に集めて解析するとなると、注意しなければならない点があります。個人情報保護法の問題です。情報の種別については、「個人情報か?」「要配慮個人情報か?」「匿名加工情報か?」といった3点が大事です。もう1つ、情報の保有者については、データを相手に渡してしまうのか、あるいは処理を依頼しているだけなのか、といった点が大変重要になります。


 要配慮個人情報というのは、一昨年の法改正で盛り込まれた新しいカテゴリーで、個人情報よりもさらにきちんと管理しないといけません。ここに病歴の情報が含まれますから、AI開発に使うデータはほぼすべて要配慮個人情報となり、これをいかに安全に、法を守って、データを収集・管理するかは、医療関係者にとって細心の注意が必要です。


 昨年、次世代医療基盤法が施行されました。これは、医療分野の研究開発に資するための匿名加工医療情報に関する法律で、個人情報保護法は個人の情報を守るための法律ですが、こちらの法律は一定の条件を満たせば、使ってよいというものです。新しい医療機器の開発には、大量の医療情報が必要です。個人情報というだけで守り続けていたら、そうした開発が進みません。そこで、安全に匿名加工して、それをきちんと安全に管理できる業者であれば、どんどん使いましょうと謳っています。



AIを使って医療事故があった場合

責任を取るのは誰か?

 医療AIの現状について紹介しましたが、課題としては、大量のデータをいかに効率的に医療業界が収集・蓄積していくかということと、AI開発に必要な人材の育成と環境整備、AIの有効性と安全性の確保といったことが挙げられます。


 特に最近、大きなテーマになっているのは、AIを応用したシステムが本当に安全なのかということ。加工画像を生成して、深層学習に誤認識させる攻撃なども登場しており、これをどう解決するか、技術的な課題も残っています。大量のデータで学習して、それなりにいい結果を出すAIシステムが、もしもミスをしたときに、どのぐらい深刻なのかという問題もあります。


 医療分野で一番重要になるのは、機械学習が判定した時に、その理由を人間が理解できないというブラックボックス問題です。欧州のGDPR(EU一般データ保護規則)では、AIの取り扱いは、最後に必ず適切な人間が介在する必要があるということを明記しています。


 実際にAIを活用した医療機器を使って医療事故があった場合、責任を取るのはデータを提供した医療機関なのか、医療機器をつくった開発会社なのか、それとも、それを信じて使った医療者なのかは、非常に大きな問題です。現段階では、どのような医療機器を使った場合でも、最終的には医療者側が責任を取らなければならないことになっていますが、今後、考え方や制度が変わっていく可能性もあります。


 医療では、「考え方や診断理由」を説明できるAIが求められます。しかし、いまのAIブームの主役技術だけでは、それは実現しません。一方で、現実世界のビッグデータはAI技術と両輪となって、医学医療を変えていく可能性が高いのも事実です。AIはびっくりするほど賢いのに、驚くほど"おバカ"な側面もあります。不完全な技術であるAIを医療側は上手に使いこなしていく必要があります。

お問い合わせはこちらから矢印