人間ってナンだ?超AI入門 シーズン2 第8回「診療する」 八重樫牧人、久保恒太、秋葉正博、マイケル・アブラモフ…



出典:『人間ってナンだ?超AI入門 シーズン2 第8回「診療する」』の番組情報(EPGから引用)


人間ってナンだ?超AI入門 シーズン2 第8回「診療する」[字]


人工知能技術の最前線に迫り、同時に人間の思考を模倣した機械のありようを考えることで、人間とは何か?再考する、知的教養エンタメ。全12回で人間という存在が丸裸に?


詳細情報

番組内容

診療では医師が患者の表層の疾患だけでなく、その背後にある病根、体調の情報まで引き出し、総合的な診療を行うことが重要だ。その為患者との信頼関係の構築も不可欠とされてきたが、AI時代、そのプロセスはどう変わる?もはや画像診断領域においては名医と遜色なく病変を見つけることもできるとも言われるAIだが、果してその仕組みは?そして今、その先をどう考える?「医は仁術」はAI時代の診療でどう生かされていくのか?

出演者

【ゲスト】総合内科医…八重樫牧人,【スタジオ技術者ゲスト】問診AI開発者…久保恒太,医療機器メーカーエンジニア…秋葉正博,【VTR出演】米医療AIメーカー最高責任者…マイケル・アブラモフほか




『人間ってナンだ?超AI入門 シーズン2 第8回「診療する」』のテキストマイニング結果(ワードクラウド&キーワード出現数ベスト20)

人間ってナンだ?超AI入門 シーズン2 第8回「診療する」 八重樫牧人
  1. AI
  2. 患者
  3. 人間
  4. 病気
  5. 医者
  6. 情報
  7. データ
  8. 谷底
  9. 余命
  10. 必要
  11. 本当
  12. 医師
  13. 診断
  14. 診療
  15. 部分
  16. 問診
  17. ディープラーニング
  18. 学習
  19. 画像
  20. 精度


『人間ってナンだ?超AI入門 シーズン2 第8回「診療する」』の解析用ソース(見逃した方はネタバレ注意)


解析用ソースを読めば、番組内容の簡易チェックくらいはできるかもしれませんが…、やはり番組の面白さは映像や音声がなければ味わえません。ためしに、人気のVOD(ビデオオンデマンド)サービスで、見逃し番組を探してみてはいかがでしょうか?

☆無料で民放各局の動画視聴ができるTVer(ティーバー)!まずはココから!

他にも、無料お試し期間のあるVODサービスが増えてますので、各社のラインナップを調べてみるといいかもしれませんね。

↓NHK関連商品

徳井さん 病院に行かれる時に
初診の時に 問診票って書きますよね?

書きますね。
これが AIになっているんです。

それを体験して頂きます。
AIが問診してくれるってことですか。

「本日来院された理由」。

仮定上でいいので…。
症状ね。

でも 本当に 僕
この時期ね あれなんですよ。

3年ぐらい前から鼻水が出だす 春先。

目的地まで 私がお送りします。

アートな感覚も持っています。

進化し続けるAI。

現実は あなたが かつて見た
SF映画の世界を超えているかも。

その最前線とAIの仕組みが感覚で分かる
超入門シリーズ シーズン2。

AIを知れば知るほど あなたは
こう つぶやきたくなることでしょう。

人間ってナンだ?

第8回のテーマは「診療する」。

病気を見破ることは 結構 得意です。

世界各国で AIの医療現場への導入が
いよいよ現実に。

AI時代の診療に必要な考え方って
ナンだ?

「鼻水が垂れる」。

「鼻水が出る」。

「これですべてです」?
「すべて」で大丈夫です。

あ~ 熱が出る。 のどの痛み。
あ~ せきが出ますね。

詳しく聞いていく問題が
何問か続いていきます。

息苦しさもあるかな。

1日に20回以下ぐらいですかね。

う~ん 無色…。 黄色の時もあるかな。

「黄色」にしとこうか。

胸の痛みはありません。

吐き気や嘔吐は ない。

はい これで ひとまず終わりです。

ゲストは 医師で総合内科が専門の

八重樫牧人さんです。

よろしくお願いします。
お願いします~。

総合内科っていうのは
どういうことをするんですか?

総合内科っていうのは
とりあえず 大人の患者さん

入院でも 外来でも診るんですけども

よくある病気の患者さん
最初来て それで診察して

それで 専門の先生が必要だったら
紹介するし

自分たちで診れる
大多数の患者さんだったら

そこで 外来で診療を終えるし。

あと 入院でも いろんな幅の患者さんを…
いろんな病気の患者さんを診て

それで診療して
よくなるまで治療するし

逆に
そういった専門の先生が必要だったら

タイムリーに紹介をしていく
っていう感じの科です。

一旦 入り口みたいな部分もある…。
入り口もあるけども

そこだけで終わっちゃう部分も
いっぱいあります。

へえ~。
僕らの病院だったら

内科外来の患者さんの⅓が
総合内科で診てますし

入院患者さんで緊急入院の人は
半分ぐらい 僕らの科で診ています。

体調が悪い時
原因が分からないと不安になりますよね。

徳井さんのカルテ もう出来ましたよ。

(久保)先ほど 問診して頂いた内容
っていうのはですね

患者さんが入力した内容っていうのが…
医師の画面ですね

こちら
お医者さんが見るものなんですけども

その内容っていうのが こういった形で…。

もともと患者さんに分かりやすい言葉で
聞かれたと思うんですけども

それが 今度は 医師の言葉に

変換された形で こうやって出ていると。

文章が生成されるんですね。
ええ そういった形になっています。

ほかにも いろんな いわゆる
随伴症状といったようなものだったり

それがあったのか ないのか
というような情報が

いろいろと出ています。

いろんな こういう健康の履歴みたいな
情報とかも とってまして

それの内容を このまま電子カルテに

コピーアンドペーストできる
というような形になってまして

それによって
かなり お医者さんの業務の中で

電子カルテに入力する時間って
多いと思うんですけども

それ削減するっていうような
サービスになっています。

まあ そうすることによって 一人一人
1人当たりの診察時間も減って

待ち時間も減っていくみたいな…。
(久保)まさに おっしゃるとおりです。

やっぱり こういうのあると便利…。
めちゃくちゃ便利だと思います。

やっぱり 本当に これ打つのでも
すごい時間かかると思いますし

逆に 足りないところで
診断に重要なところ…。

例えば 胸が痛いだったら
2年間ずっと痛いっていうのと

あとは 30分だけ痛いとか…。
で 痛い時と痛くない時があって

それで動いた時だけ痛いとか
全然どういう病気を考えるか。

後ろの方だったら
例えば 狭心症とか考えるんですけども

考える病気 違うんですね。
そういった必要な情報に

医者は 本当 そこに集中できるので

医者がカルテの方ばっか向いて
タカタカ打ってるっていうのも

少なくなると思いますし
すごい助かると思います。

患者さんが お医者さんとお会いする前に
入れてくれてるから

お医者さんの時間 有効に使えますよね。
ええ。

これを見た結果 更に足りないところは
聞けばいいわけですし

より有効に使って
患者さんと対話しながら

この症状とか特定していくということ
できますよね。

ええ おっしゃるとおりですね。
その人の取り扱い説明書が出来ればね

すごい診察もしやすいですもんね。

患者さん側も 結構 何回も
今まで どういう病気があったとか

どういう薬のんでるかみたいな情報って

何回も聞かれるのって
面倒くさいと思うので…。

忘れることもありますしね。
ええ。

実際 病院行く側になると
とにかく すいてる時間に行きたいとか

やっぱり待つ時間って
ちょっと まず出ますもんね。

1時間待って お医者さんと話せるのが
3分とかですよね。

AKBの握手会みたいな状態に
なりますからね。

確かに そこ削減できるのは うれしいな。

人間の体は デリケート。

どこかが痛くなったからといって
その場所が原因とは限りません。

病の元凶を見極めるには。

これ でも どうですかね?
AIがする問診と

人間の先生がする問診と
どう違ってくるんですかね。

非常にいい質問ですね。 やっぱりさっきの
胸が痛いとかの例もありますけれども

やっぱり AIだけで診断をつける
っていうのは まだ難しいと思うんですね。

まっ そこが 例えば 画像とかだったら
もともと 元データ ピクセルとか

あとは 内視鏡のポリープ… これも
元データ ピクセルなんですけども

そこと ここの違うところで
ちゃんと 患者さんに必要な情報

診断つけるために必要な情報を
エキスパートの医者は

ちゃんと拾いに行くことができる。
患者さんが答えた情報でも…。

例えば さっきの話ですけど
2年間 痛みがありますって言っても

2年間ずっと続くんですか?
それとも ある時とない時あるんですか?

で 違うので そこを答えてくれなかったら
聞くんですよ。

そういうところエキスパートはできるんで
まだまだ足りないところはありますが

すごい助かるし
大人の外来の患者さんだったら

6割から8割は こういうふうなお話だけ
病歴で診断がつくといわれてるんです。

そこには
まだまだだと思いますけれども

かなり 手助けはできるんじゃないかな
と思います。

子どもの診療は 更に大変です。

ズキズキ痛い ガンガン痛いの
違いって 何ですか?

感覚を言葉で表現すると
ニュアンスが混じり 個人差が出ます。

医学的に 問いが正しいのかとか
その辺 気になるんですけども。

そういった辺りっていうのは
どうなんですか?

公開されてる病気に対する論文
っていうのを基にして作っているんです。

で まあ そこで正しさっていうのを
一つ担保しているっていうのと

弊社の中にも
医師のチームのメンバーがいまして

その医師が 医学的に見て
正しいかどうかっていうのは

内省で判断しながら
開発していくっていうような

体制になっています。    あとは やっぱり
最終的に判断するのは

お医者さんなのでっていう
そこも大きいですよね?

まさしく おっしゃるとおりでして
やっぱり うちがやるのは

業務効率化っていうところと あとは

こういうような
危ない所見があったりしただとか

そういうところを ちゃんと 聞き漏れが
ないようにっていうところの

安全性の担保といいますか

どちらかというとリスク回避というとこで
使って頂いてるので

最後に判断されるのは やはり
医師であるという形でやってます。

この問診の質問は
どういうふうに作ってるんですか?

基本的には
ベイジアンネットワークという

統計学的な手法があるんですけども…。

観測できていることから
未知を予測する考え方です。

ベイジアンネットワークっていうのは
ネットワークなんですけども

この技術自体は 昔からありまして
ディープラーニングのように

急速に進展してるというよりは
長く研究されてきてる分野になります。

例えば
家の前の道路がぬれていたという時に

何があったと思います?

雨が降ったか 誰かが水を打ったか…。

例えば さっき水まいてきたよって
誰かが言ったら

雨は どう思います?
じゃあ 雨じゃないんだな~。

何で 雨じゃないんだなと思うんですかね。
誰かが「水打ったよ」って言ったから…。

それっていうのは 実は

ベイジアンネットワーク的な
推論をしてることになるんですね。

なぜかっていうと 家の前の道路が
水でぬれているっていう現象を

説明する時に
誰かが水を打ったっていう仮説と

雨が降ったという仮説が両方あると。
誰かが 水を打ったんだということが

真だということが分かれば

この事象を説明する別の理由である
雨が降ったっていう仮説を

とらなくて済むんです。 なので

だから 雨が降ったのではなくて
誰かが水をまいたんだというふうな

推論をする。
これは 要するに 日常生活においては

比較的 直感的に 多くの人が
やってることなんですけども…。

人間の皆さんが直感で理解することを
私たちAIは論理で突き止めていきます。

例えば のどが痛いといっても
原因は 風邪? 花粉症?

さまざまに考えられます。

更に 鼻水も?
今年は花粉も多いそうですね。

多くの可能性を検証して
因果関係を絞り込んでいきます。

過去の診断データによる確率を利用して
本当の病気が何か?

推測の精度を高めていくのです。

ベイジアンネットワーク使って
確率で病気を絞り込んでいくっていう

この考え方っていうのは いかがですか?
今 お話を聞いて

僕らが ふだんやってることを
別の切り口で説明して頂いたみたいな

感じがしました。
例えば 鼻水でも 医者の頭の中には

アレルギー性鼻炎 まあ 要は
花粉症なのか 風邪なのかとか

副鼻腔炎なのか 蓄のう症なのか
頭の中で考えてるんですね。

話を聞きながら これ さすがに
3年間続く… 風邪じゃありえないとか

そういった一つ一つの問診の情報を
頭の中で解釈して

どれが ぽい どれが ぽくない…
可能性 上がった下がったっていうのを

やっているので 何か 思考過程を

こういうふうに
図示して頂いたような気がします。

鼻水と聞いたら 医師には
こんな選択肢が思い浮かびます。

それぞれの選択肢における 鼻水の確率は
臨床データで明らかになっています。

症状を聞きながら
選択肢を絞り込んでいく。

この医師の思考過程を

確率を伴う因果関係で表すのが
ベイジアンネットワーク。

いわば ベテラン医師の直感を

私たちAIは膨大な確率のネットワークで
処理するのです。

理論的には 恐らく こういうことで
できるんだろうというのが

あるんですけども
ただ お医者さんの頭の中には

相当いろんなことが入っていて

例えば この人の職業が何だろうとか

家族の既往歴が どういうのがあるかとか
無意識の中も含めて

相当広い範囲のことを
総合的に考えておられる…。

そこがAIが弱いところでして
社会の仕組みとか知らないので

こういう職業の人が
こういう生活のことが多いとかですね

そういうのは 全然分かんないんですよね。

あくまでも データとして見る
範囲の中での推論であれば

そこそこはできるんだけど

それ以上のことが分かんないって
いうのが限界でもありますよね。

そうですね。          これ 八重樫さんね
研修医とAIと アシスタントに

どっちかをするってなったら
どっちを選ばれますか?

圧倒的に研修医です。
というのは 僕 教育者でもあって

過去13年 自分の教え子を育てて できる人
医者を育てたいと思ってやってるんで

教育者なんで。
それ まあ うわべの話なんですが

え~っと 本音としては
両方使っちゃ駄目ですかっていうのが…。

まあ でも 両方使えますし…
やっぱり いいところが…。

それぞれに
いいところがあると思うんです。

僕も 自分だけで外来とかやりますんで
そういう時にAIの今の入力とかあれば

すっごい楽だと思います。

とりあえず
病気の診断をつけるというところで

医療って終わりじゃなくて やっぱり
患者さんって よくなりたいからとか

不安を どうにかしたいからっていうので
受診してますよね。

というので
そのあとに患者さんが納得して

納得した方針で治療をするとか

ものによっても安心させるだけでもいいと
思うんですけど

そういうところ…
そういったのも全部含めて

診断だけじゃなくて
全部ひっくるめて診療ですね。

そりゃ 患者の方にもね… とっても
それはいいような気はしますけれども。

これ 人間と問診のAIが導く
解の差っていうのが

お医者さんにも大事なんですかね
大事だと思いますね。

やっぱり これ
患者さんから どういうふうに

情報を引き出すっていうのが重要なので
やばい病気を

見逃しちゃいけないとか
そういうのは やっぱり 医者って

診療で 常に心がけているので
人間のチェックが必要だと思いますし

AIで 助けにはなるんですけども

まだ 最終的に
AIの出した答えだけでいこうという

レベルでは 問診というところでは
いってないと思います。

病歴から診断する
っていうところではですね。

問診の要は
言葉の外にある情報に気付くこと。

どこまで このネットワークを広げれば

皆さんの経験と観察力に
迫れるでしょうか?

論文から症状と病気の因果関係を学び

病気の絞り込みはできるようになってきた
AI。

その導入については
今まさに 議論が行われています。

診断の最終判断の責任は医師にある
としつつも

AIによる問診を 治療の過程に
積極的に取り入れようというのです。

患者の皆さんとお医者さんの橋渡しを
まずは頑張ります。

頭つけて頂いて。 まっすぐ見て下さいね。

すいません まっすぐ見て下さ~い。

まばたき なるべく控えて下さいね。

控える 控える。

これは 何をするんですかね?

実は これ アメリカで初めて認可された
AI診断システム。

眼底 目の奥を写真撮影できます。

皆さんの目は
光など ささいなことで反応します。

専門医でも難しいとされる目の撮影が
ボタン一つで できるのです。

この装置は
全自動で測定ができるので

簡単に
オペレーターが操作できます。

AI診断にとっては この画像の均質化
っていうのが とても大事なんですよ。

大丈夫です。 はい OKです。

これで?
これで 機械撮りは おしまいですね。

あっという間ですね。

画像から分析できるのは 糖尿病網膜症。

糖尿病の合併症として起こる
目の病気です。

網膜は 眼球の奥側の壁面にあります。

しかし 糖尿病によって 血糖値が高いまま
長期間過ごしてしまうと

網膜の血管が損傷。

血管が詰まり それを補うための
新生血管が作られます。

新生血管は 非常に細いため
出血を引き起こしやすいのです。

網膜剥離が起き 視力低下
更には失明するおそれもあります。

自覚症状が少なく 手遅れになることも。

アメリカなんですけれども

糖尿病の患者さん
すごい いっぱいいるんですよね。

国民の6割超が
大体 日本の基準でいったら肥満なので。

糖尿病を診療するとしたら
眼科に 1年か2年に1回は行って

それで 糖尿病性網膜症をチェックする。
これが ちゃんとやられてないと

あなたのとこの診療は 質低いですねって
いうふうになってるんですね。

じゃあ ああいう機械があると
かなり助かる部分は…?

めちゃくちゃ助かりますね。
っていうのは やっぱり

糖尿病の診断ついたら 本当に

眼科に 1年か2年に 1回は 絶対
行って下さいって言うんですけれども

例えば 田舎だと
運転して眼科に行くとなると

散瞳っていって
瞳孔を広げる薬使うんですね。

そうじゃないと
ああいう写真が撮れないんで

そうなると
それが嫌だから行かないとか

誰か運転してくれないから行けないとか
言って やらなくて

それで 例えば 糖尿病性網膜症って
日本で視力失う原因の2番目なんですよ。

そうなんですね。 そうなんですね。 だから
これで できれば 本当に助かります。

じゃあ ちょっと そういう面倒くさいとか
そんなんで ほっといて

視力失ってしまった人が
かなりいるっていうことですね。

それが防げると思うし 僕らも 何か

こういう眼底鏡とか
ふだん使ってるやつなんですけども

こういうので見ても
結構技術も難しいし

更に 見えたとしても ちょこっと
中心のところしか見えないんで

網膜症ないですよって
言えないんですね。

だから あれがあると すごい助かります。
そうなんですね~。

アメリカ・アイオワ州。

このAI診断システムの開発者に
話を聞きました。

このシステムに使われているAIこそ
ご存じ ディープラーニング。

たくさんの眼底写真を学習し
異常とされる僅かな差を見いだします。

ディープラーニングによる画像分析力は
既に人間を上回ります。

即座に 異常を持つ網膜写真を判定。
その精度は およそ90%といわれています。

手軽な検査で 早期発見が期待できます。

人体は 巨大なネットワーク。

異常サインの場所が
病気の原因とは限りません。

糖尿病が 局所の網膜に現れるように
連動しています。

今は AIが局所を分析します。
全体の判断は 皆さんが慎重に。

やっぱり 撮影もすごいですけども
ディープラーニングの技術によって

画像認識ができるようになった。

それの精度が 本当に
人間を超えるようなところまで

向上していったっていうのが
背景にあって

こういう技術が実現されている
ということかなと思いますね。

あの… こういう眼底の検査なんかは

やっぱり 世界中でいろんな会社が
競って開発してまして

ディープラーニングで非常に有名な
ディープマインドっていう会社もですね

こういった取り組み やってますし

技術が非常に使いやすい分野の一つかな
というふうに思いますね。

僕 以前 ロンドンに行った時に

大学の研究の一つとして

そういう医療の画像のデータが少ないのを
もっと増やすために

敵対的生成ネットワークっていう
技術によって増やすんだっていう

プレゼンを
聞いたことがあるんですけども

そういうものも使えるんですかね。

正答率を上げるには 学習データが必要。

しかし 難病の写真は少なく

データとして不十分です。

そんな時 画像を増やす方法があります。

それは 敵対する2人が
競い合うことで学習するというもの。

いわば 偽物のお金を作る人と

それを見破る人が戦っている状態です。

作る人は 見破る人をだまそうとして
精度を高め

見破る人は 作る人の偽物を見抜く技術を
高めていく。

これを繰り返して
数が少ない画像を生成する方法です。

しかし…。

今のところは しっかり臨床試験をして

そのデータを使って
成果を出すものですから

自動的に生成するってことは

今のところは
認められていないと思います。

学習データが増えると
アップデートできるんだけど

でも医療機器として
アップデートしていいのっていうのは

これまた重要な問題で

やっぱり 法律も含めて
ソートは ちゃんと議論して

固めないといけない
っていうことですよね。

日本も そういう議論やってますし
世界各国でも 今 そういう議論が

すごく行われている
ということかなと思いますね。

僕 思うのが やっぱり 日本みたいに
高度に医療が進んでる国っていうのは

使い方っていうのを うまく設計していく
必要があると思うんですけども

世界各国の中では やっぱり
医療にアクセスできない人っていうのも

たくさんおられて…。
で そういう人に対して

例えば こういう自動のシステムなんかが
普及していくことによって

やっぱり 本当は お医者さんに聞いた方が
いいんだけども

そうじゃなくても
最低限 こういう機械の…

まあ データを参考にして下さい
っていうですね

そういうふうになっていくっていうのも
いいのかなというふうに思いますね。

何か おじいちゃんおばあちゃん
お孫さんに車で乗っけてもらわんと

病院まで行かれへんとかいう人
いっぱい いますもんね。

国内でも
内視鏡によるポリープの判定に

AIが試験的に導入されています。

お医者さんのサポートを頑張ります。

家庭での医療のサポートにも
AIは お役に立ちます。

ニューヨークでは
意外な医療AIが活躍しています。

開発会社に伺いました。

携帯のカメラを使って 患者の顔

そして処方された薬

更に ちゃんと服薬したかを認識し

データを医師に送ります。

ちゃんと薬をのんでいるかどうか
いわば 画像分析を利用した 見守りAI。

のみ忘れや つい自己判断で

服薬をやめてしまうケースが
あるからです。

皆さんも
身に覚えがあるんじゃないですか?

薬を勝手にやめちゃうなんて
自己判断は危険ですよ。

ニューヨークで
5年間 研修してたんですよ。

結核っていうのは
本当に いい例だと思うんですけども

結核って ちゃんと治療しないと
自分が被害被るだけじゃなくって

ほかの人にも うつして
迷惑かけるんですね。

だから こういうシステムがない僕の時代
2000年から2005年なんですけれども

看護師さんとかが DOT
ダイレクト オブザベーション セラピーっていって

ちゃんと 会って
1週間に5回とか

ちゃんと 薬のんだねって
会って確認してたんですね。

それが
このAI アンド スマホでできる…。

もう労力 圧倒的に低いじゃないですか。
そうですね。

それで 本当に ほかの人が害を被るとか
その人が悪くなっちゃうっていうのが

少なくなるのは
とってもすばらしいことだと思います。

これは すばらしいですね。

看護師の方が 患者さんがのむのを
目で見てるんですか?

目で見てるんですよ。
週5回とか週3回とか。

まあ あの 当時は週5回ぐらいは
のまなくちゃ駄目ってされてたんで

今は 週3回とかもありますけれども
実際に見てるんですよ。

すっげえ手間暇かかってるわけですよ。

まあ確かにね 自己判断で

「もう のまんでもええわ」とか
なっちゃいがちですもんね。

何となく治ったら早く止めた方が
体にいい気が…。

自己判断なんでしょうけど
してしまいますもんね。

それにしても
なぜ AIによる見守りが必要?

実は アメリカならではの医療費の
仕組みが関係しているのかもしれません。

アメリカでは 個人の医療費は
加入している保険会社次第。

保険会社によっては
薬をのんだことを証明できないと

治療費が支払われないケースも
あるのです。

画像解析による見守りは更に
副次的な効果もあるといいます。

顔色も画像解析することで
体調の変化も同時に計測できるのです。

顔色や表情 肌の艶など
僅かな変化をAIは認識。

私たちAIの方が 客観的に
表面の差をお知らせできますか?

究極の未来予測 余命。

過去の医療データは
時に現実を突きつけます。

例えば 胃がん。

進行の程度によって その生存率は
既にデータ化されています。

判断の決め手は患部の写真。

画像から進行度を判定します。

しかし 実際の余命には

数多くの要因が影響するもの。

その予測を AIがやると?

2017年11月。

アメリカ スタンフォード大学が
その論文を発表。

患者の余命を90%の精度で
3か月から12か月に分類できるとのこと。

皆さん…

余命を伝えることとか

こういうふうに計測してしまうこと自体
いろんな問題 はらんでますよね。

まあね。 倫理的な問題とかっていうのは
だいぶ はらんでると思いますけれども。

これ実際
AIで余命をはかるっていうのって

そんなこと できるんですか?
一番極端に言うと

年齢別の平均余命っていうのは
統計的に出てますから

それから多少 精度がいいっていうのは
いくらでもできるわけで。

例えば たばこを吸う人の平均余命
吸わない人の平均余命。

この病気にかかってる人の平均余命。

いろいろですね 統計的には
出すことができるので

そこまでは できるんですね。
それをもって

「あなたの平均余命は

この値から この値までに入ってる確率は
何%ですよ」みたいなことを

突きつけるのかどうかみたいなのは

また別の問題として
僕はあると思いますね。

やっぱ 先生とかね 日頃 患者さんと
常に向き合ってらっしゃいますけども

余命を こう… 伝えるっていうのは
どうですか?

あの 結構やってますが
やっぱり 実はですね

AIを使わなくても
ある程度 患者さんの余命を

データから出してっていうのは
AI使わなくても

医者の方でやってるんですね 実は。

その上で その情報を どういうふうに
扱うかっていうのは すごい重要で

全く知りたくないっていう人もいれば

いや もう全部伝えてくれ 悪い情報でも
っていうことがありますので

前もって検査とかする前に
患者さんに聞いちゃいます。

そうすると 知りたい人には そこまで
伝えてっていうふうになりますし。

あとは やっぱり知りたいって言っても

病気と あと
どこまで進んでるか知りたい。

でも寿命は知りたくないっていう人も
いるので

話してる中で
「どこまで知りたいですか?

ここまで説明したけども もうちょっと
更に知りたいですか?」とか

そういうふうに聞きながらやる
っていうのが

ここが すごく 医療のアートが
必要なとこだと思います。

診療には デリケートなセンスが必要?

「医は仁術」というそうですが
私たちAIは どうすれば?

たまに こう あの… 人の話なんかで
余命3か月って言われてたけど

いや そっから1~2年 生きたよっていう
お話も聞いたりするじゃないですか。

今の段階で
どのぐらいの精度なんですか?

先生が今 宣告している余命の精度
みたいな…。

非常にいい質問ですね。 あの~
そこら辺 やっぱり人間相手なんで…。

…で いろんな要素が絡んでくるんで

あんまり正確じゃないところも
あるんですね。

ただ 医者が言う余命っていうのは
結構 楽観的で

本当の寿命とか余命よりも長いとは
データでは分かっています。

やっぱり人間ですから
ちょっと その…

希望というか そうあってほしいって
いうのも含まれてるってことですよね。

やっぱ その人の性格とか考え方に
よるところ大きそうですよね。

…で あの ちょっとですね
このAIの部分について

解説していきたいと思うんですけども

先ほど ディープラーニングの話
ありましたけども

ディープラーニングの中では
最適化っていうのが行われてます。

最適化は モデルの予測値と
実際の値の誤差の目的関数から考えます。

そのために重要なのは
電気信号が通る道の太さ。

同じ信号を受け取っても
道の太さで重要度を変えています。

この太さは
データからの学習で変化していきます。

この学習を
何層もあるネットワークでやります。

学習する前の太さは仮のもの。

ですから 判定が合っていることもあれば
間違っていることもあります。

学習のお手本となるのがデータ。

データにある入力と出力と
同じ答えになるように

道の太さを変えていきます。

答え合わせと修正を繰り返すことで

正しく判定できるネットワークに
徐々になっていくのです。

余命AIは
200万人分のデータを使って学習し

患者のカルテ 数年分を入力としています。

画像分析同様 ある人の情報が
どの余命ゾーンに入るのか

モデルに当てはめて
分析するという仕組みです。

最も適切な太さのモデルを作るには

この目的関数での最小値 谷底に
いかに到達するかを考えます。

最適化って何かっていうとですね

こういう谷みたいなのがあった時に
谷の谷底を探すっていう作業なんですね。

こういうところからスタートして
谷底に向かって進みますと。

こう 低い方に低い方に行くと
いずれ 谷底に着きますねと。

そのために この反復的な計算をやります。

ところがですね この進み幅を 今
このぐらいに適当に決めましたけども

非常に大きくしちゃうと。
このぐらいにしちゃうと。

そうすると こっから いきなり急に
ここに行きますよね。

今度 こっちにですね
また同じぐらい行っちゃいますよね。

…っていうふうにしてですね
振動しちゃって

なかなか最適化に
行かないということもあります。

ですから この進む幅っていうのは
結構 重要なんですね。

これを うまくチューニングしながら
学習させていくっていうことがあります。

最も正答率を高くするため
谷底を目指します。

そこに人間の直感を理解するカギが
あるはず?

今 谷底を1次元と説明しましたけども

これ 2次元だと考えて
等高線みたいなの考えましょうと。

等高線の中で谷底を探す
っていうことを考えます。

そうするとですね
何が起こるかというと

今 ここにいるとしましょうと。

ここから一番下がる方向って
どっちの方向かというと

この接線にですね 垂直な方向なんですね。
こっちなんですね。

なので こっから
こっちの方に進んでいきますと。

例えば ここに来ましたと。
ここに来たら

今度 次 どっちの方向に行くかっていうと
またこれ この接線の方向になるので

こっちなんですね。

つまり こういうふうにして
下がっていくわけです。

これってですね すごく大変なんですね。
グニャグニャ グニャグニャ曲がって

もっと こっちの方に早く行ったら
いいじゃんというふうに思うわけです。

AIの私たちには
数学的な説明で分かりやすかったけど

皆さんには どうでしたか?

しかも余命を予測するには
2次元どころではありません。

患者の年齢 病歴

近親者の病歴 薬剤反応性

更には白血球の数など

情報は複雑に絡み合っています。

この太さを最も早く決める目的関数を

3次元のCGで説明。

ボールが谷底に到達すると学習完了です。

一般的な手法では 一定の行進幅で

斜面を下りながら谷底の答えを探します。

一定の幅なので ロスが出ますね。

これでは時間がかかります。

素早く谷底に到達するためには
どんなコースを取ればいいでしょうか?

谷の幅に合わせて 行進幅を調整。

省略が可能な部分は省略して
転がっていきます。

また 長い距離を移動する場合は
その分 加速します。

こうした数学的な効率化を
組み合わせる最適化により

深く早い学習が可能になったのです。

これが 2次元の空間でも
このぐらい非効率なのに

ディープラーニングの場合 数万次元とか
時には数億次元ってありますから

こういう非効率なことが
すごく発生するわけです。

これを どうやったらいいでしょうと
いうと どう思います?

もっと谷底の方に すぐに行きたいと。

谷底 指さして そこに向かうじゃ
駄目なんですか?

谷底っていうのは これは 我々
俯瞰的に見てるから分かるんですけども

例えば山の中にいて
森で うっそうと覆われてると。

見えないといった時に
どっちに歩いていったらいいのかです。

全然 分かんないです。
全く分かんないですね。        (笑い声)

まどろっこしく感じるこの手順こそ
大事な推論の過程です。

要するに
こっちに行って こっちに行って

ジグザグに行ってるっていうことは

平均とればいいんですね。
そうすると 平均すると

こうと こうの平均だから
こっちになるじゃないですか。

こういう方法を
モーメンタムっていって

要するに 今までの
動き方っていうのを参考にしながら

それも加味して
次の動き方を決めましょうというので

モーメンタムっていうふうになります。

更にですね こっちの方に
ずっと進んでいくんだったら

もっと加速してもいいじゃないですか。

なので その成分が
大きい方向については加速し

成分が少ない方向については
減速するみたいなことを入れると

更に速くなるんですね。

こういう複数の考え方を
うまく組み合わせた方法を

Adamっていうふうにいって

ディープラーニングにおける最適化の中で
非常によく使われる手法の一つです。

特に医者が聞いて…
いない所で聞いたところで

例えば その情報だけ見て 先走ったこと
しないといいなと 本当に思いました。

確かにね~。 そういう意味では
その情報を扱うのっていうのは

かなり慎重にしないといけないし。

まあこれ どんどん AIが
患者さんを診ていくっていうところが

増えていくんでしょうけども

そうなった場合に
人間の医師っていうのは

どういうところを診ていくんですかね?
あの~ やっぱり

さっきの眼底の話じゃないですけど

画像とか そういったのは
AIは得意なんですけれども

やっぱり患者さんとお話をして
診断をつけて それで治療…

特に治療も全部 副作用も
可能性としてはありますんで

そこに踏み切るっていうのは
やっぱり まだ医者の助け

良い 悪い点
リスクも利益も分かった

人間の医者が判断した方が
いいと思いますし

患者さんが納得した上で
その方針にするっていう。

納得させられるのは
やっぱ人間じゃないかなと思います。

やっぱり データの分析の部分だとか

傾向をつかむ部分 確率を出す部分
っていうのは

AIは どんどん使っていった方がいい
いうふうに思いますけども

やっぱり総合的な診断だったり
それを踏まえて

どういうふうな治療にしていくのか
っていうのを決める部分だったり

そこは やっぱり人と人との対話が
一番大事な部分で

それが すごく重要な

お医者さんの仕事なんじゃないかな
というふうに思いますね。

価値観っていうのもあったりします。

例えば こういう選択肢 こういう選択肢
ありますよっていうところに

この人は もう
とことん病気と闘いたいから化学療法

この人は もう 痛いこと つらいこと
嫌だから緩和ケアとか

そういった患者さんの価値観に応じて
合わせるというのも

人間ならではなところじゃないかなと
思います。

そうですよね。 確かに 確かに。

あの~ 余命について ちょっと何か
単なる小ばなしなんですけど

昔 たばこ吸ってる友達に

「たばこ吸ったら 1日に5分ぐらい
寿命が減るらしいよ」みたいな

まあ よく言われるじゃないですか。
そういうことを言ったら

「うるさい」みたいな。 「1日生きたら
1日寿命は減るんじゃ」みたいな。

確かに…。    確かにね。
それは名言だと思いました。    (笑い声)

人間が抱える合理性と不合理性の
せめぎ合い。

そこに命を科学することの難しさが
あります。

人間の体を数値のデータと見なし
解析するAIと

それだけでは納得できない人間。

AIの恩恵を感じながらも
あなたは つぶやくことでしょう。

人間ってナンだ?


関連記事