JP6827245B1 - Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム - Google Patents

Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム Download PDF

Info

Publication number
JP6827245B1
JP6827245B1 JP2020178144A JP2020178144A JP6827245B1 JP 6827245 B1 JP6827245 B1 JP 6827245B1 JP 2020178144 A JP2020178144 A JP 2020178144A JP 2020178144 A JP2020178144 A JP 2020178144A JP 6827245 B1 JP6827245 B1 JP 6827245B1
Authority
JP
Japan
Prior art keywords
medical image
medical
learning
patient
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020178144A
Other languages
English (en)
Other versions
JP2022069143A (ja
Inventor
佐々木 浩二
浩二 佐々木
恵子 塩沢
恵子 塩沢
井上 和治
和治 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AdIn Research Inc
Original Assignee
AdIn Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AdIn Research Inc filed Critical AdIn Research Inc
Priority to JP2020178144A priority Critical patent/JP6827245B1/ja
Application granted granted Critical
Publication of JP6827245B1 publication Critical patent/JP6827245B1/ja
Publication of JP2022069143A publication Critical patent/JP2022069143A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】様々な症状を精度良く診断する補助を行う。【解決手段】診断装置が、患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、前記患者の医療情報を入力する医療情報入力部と、前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析部と、前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習部とを含むことを特徴とする。【選択図】図1

Description

本発明は、AIを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラムに関する。
AI(Artificial Intelligence)により、医用画像に基づいて病名等に対して診断の補助を行う方法が知られている。
具体的には、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)等のネットワーク構造をしたAIが、マージ画像を用いることで大型血管炎等の診断を補助する技術が知られている(例えば、特許文献1等を参照)。
特許第6737491号公報
従来の技術では、腫瘍、癌、及び、新型コロナウイルス感染症(COVID−19)等の診断には、精度が十分でない場合がある等の課題がある。すなわち、従来の技術は、より様々な症状を精度良く診断する補助をするのが難しいという課題がある。
本発明は、様々な症状を精度良く診断の補助を行うことを目的とする。
上記の課題を解決するため、本発明の一態様は、診断装置が、
患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
前記患者の医療情報を入力する医療情報入力部と、
前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析部と、
前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習部とを含む。
本発明によれば、様々な症状を精度良く診断する補助ができる。
診断装置11を用いる全体構成例を示す図である。 診断装置11のハードウェア構成例を示す図である。 学習モデル、及び、学習済みモデルのネットワーク構造例を示す図である。 全体処理例を示す図である。 医用画像D1の第1例を示す図である。 医用画像D1の第2例を示す図である。 診断装置11の機能構成例を示す図である。 第2実施形態における学習データ生成装置201を用いる全体構成例を示す図である。 範囲D21の第1入力例を示す図である。 範囲D21の第2入力例を示す図である。 範囲D21の第3入力例を示す図である。 第2実施形態における全体処理例を示す図である。 第2実施形態における学習データ生成装置201の機能構成例を示す図である。 第3実施形態におけるデータ要求装置202を用いる全体構成例を示す図である。 第3実施形態における全体処理例を示す図である。 第3実施形態におけるデータ要求装置202の機能構成例を示す図である。 第4実施形態における診断装置11を用いる全体構成例を示す図である。 第4実施形態における全体処理例を示す図である。 説明情報D41の出力例を示す図である。 第4実施形態における診断装置11の機能構成例を示す図である。 医用画像D1の第1変形例を示す図である。 医用画像D1の第2変形例を示す図である。 医用画像D1の第3変形例を示す図である。 医用画像D1の第4変形例を示す図である。 医用画像D1の第5変形例を示す図である。
以下、添付する図面を参照して、具体例を説明する。なお、以下の説明において、図面に記載する符号は、符号が同一の場合には同一の要素を指す。
[第1実施形態]
図1は、診断装置11を用いる全体構成例を示す図である。例えば、診断装置11は、以下のような全体構成で用いられる。以下、診断対象となる人物を「患者10」という。
診断装置11は、医用画像D1、及び、医療情報D2等のデータを入力する。例えば、診断装置11は、以下のような装置である。
[診断装置11のハードウェア構成例]
図2は、診断装置11のハードウェア構成例を示す図である。例えば、診断装置11は、Central Processing Unit(CPU、以下「CPU11H1」という。)、記憶装置11H2、インタフェース11H3、入力装置11H4、及び、出力装置11H5等を有するハードウェア構成である。
CPU11H1は、演算装置及び制御装置の例である。例えば、CPU11H1は、プログラム又は操作等に基づいて演算を行う。
記憶装置11H2は、メモリ等の主記憶装置である。なお、記憶装置11H2は、SSD(Solid State Drive)、又は、ハードディスク等の補助記憶装置があってもよい。
インタフェース11H3は、ネットワーク、又は、ケーブル等を介して外部装置とデータを送受信する。例えば、インタフェース11H3は、コネクタ又はアンテナ等である。
入力装置11H4は、ユーザによる操作を入力する装置である。例えば、入力装置11H4は、マウス又はキーボード等である。
出力装置11H5は、ユーザに対して処理結果等を出力する装置である。例えば、出力装置11H5は、ディスプレイ等である。
なお、診断装置11は、上記以外のハードウェア資源を内部又は外部に更に有するハードウェア構成であってもよい。また、診断装置11は、複数の装置であってもよい。
医用画像生成装置12は、患者10の一部、又は、全身を対象とする医用画像D1を生成する装置である。例えば、医用画像生成装置12は、レントゲン装置、MRI(磁気共鳴診断装置)、CT(コンピュータ断層撮影装置)、CR(コンピュータ・ラジオグラフィ)、DR(デジタルX線撮影装置)、XA(血管造影X線診断装置)、US(超音波診断装置)、ES(内視鏡装置)、PET(陽電子放出断層撮影装置)、又は、これらの組み合わせ等である。なお、医用画像D1は、以前に生成され、記録媒体、又は、サーバ等が記憶するデータを読み込んで、診断装置11に入力されてもよい。
医用画像D1は、患者10における診断対象とする部位を投影した画像、患者10の全身を投影した画像、又は、これらの画像の組み合わせ等である。また、医用画像D1は、モノクロ画像でもよいし、カラー画像でもよい。
なお、医用画像D1は、医用画像生成装置12が生成した画像に限られず、例えば、医用画像D1は、医用画像生成装置12が生成した画像を加工して生成された画像であってもよい。また、医用画像D1は、放射線画像、診断用画像、又は、医療用画像等と呼ばれる場合もある。
医療情報D2は、患者10による操作、医師による操作、又は、所定のサーバ等からデータを取得して得られる情報である。例えば、医療情報D2は、患者10を健康診断、検査、又は、医師が診断した結果等を示す情報である。なお、医療情報D2は、テキスト等で入力されてもよいし、センサ等で患者10をセンシングして医療情報D2を生成して入力されてもよい。
なお、医療情報D2には、患者10の病歴、デオキシリボ核酸(DNA)検査結果、血液検査結果、尿検査結果、癌探知犬の嗅覚結果、又は、これらの組み合わせ等が含まれるのが望ましい。このような情報が医療情報D2に含まれると、診断装置11は、癌等の病名を精度良く診断できる。
癌探知犬の嗅覚結果は、具体的には、いわゆる癌探知犬に患者10の尿を嗅がせた結果である。癌探知犬は、尿に含まれる癌特有の臭いを高い精度で嗅ぎ分けることができる。したがって、このような検査結果等が含まれると、癌等を早期に発見できる。また、尿による検査で済むため、患者10は、検査による負担を少なくできる。
判断結果D3は、例えば、病名に対する判断結果である。なお、病名は、例えば、事前に設定される。具体的には、判断結果D3は、患者10が所定の病名に対して、陽性であるか陰性であるかの結果を示す。
なお、判断結果D3は、病名が陽性である確率値を示す形式でもよい。具体的には、判断結果D3は、「90%の確率でCOVID−19について、陽性である。」等のような結果を表示するデータでもよい。また、判断結果D3は、複数の病名について結果(それぞれの確率値を含む。)を示してもよい。
[診断装置11におけるAIのネットワーク構造例]
診断装置11は、プログラム等により、例えば、以下のようなネットワーク構造のAIにより学習モデルを構成して、機械学習等を実現する。なお、以下の説明では、学習データ(「教師データ」等ともいう。)を用いて学習が行われる前の学習モデルを、単に「学習モデル」という。一方で、学習データにより、教師ありの学習が行われた後の学習モデルを「学習済みモデル」という。
例えば、学習モデル、及び、学習済みモデルのネットワーク構造は、以下のような構造である。
図3は、学習モデル、及び、学習済みモデルのネットワーク構造例を示す図である。例えば、学習モデル、及び、学習済みモデルは、処理部の例である、入力層L1、隠れ層L2、及び、出力層L3を有するネットワーク構造である。
学習モデル、及び、学習済みモデルは、ニューラルネットワークの構造である。例えば、学習モデル、及び、学習済みモデルは、CNN等の構造である。
入力層L1は、入力データDINを入力する層である。
隠れ層L2は、入力層L1から入力される入力データDINに対して、畳み込み、プーリング、正規化、又は、これらの組み合わせ等の処理を行う層である。
出力層L3は、隠れ層L2で処理された結果を出力データDOUTで出力する層である。例えば、出力層L3は、全結合層等で構成される。
畳み込み(Convolution)は、例えば、フィルタ、マスク、又は、カーネル(以下単に「フィルタ」という。)等に基づいて、画像、又は、画像に対して所定の処理を行って生成される特徴マップ等に対して、フィルタ処理を行って、特徴マップを生成する処理である。具体的には、フィルタは、フィルタ係数(「重み」又は「パラメータ」等という場合もある。)を画像又は特徴マップの画素値に乗じる計算をするのに用いるデータである。なお、フィルタ係数は、学習又は設定等により定まる値である。そして、畳み込みの処理は、画像又は特徴マップを構成する画素のそれぞれの画素値に、フィルタ係数を乗じる計算を行い、計算結果を構成要素とする特徴マップを生成する処理である。
このように、畳み込みの処理が行われると、画像又は特徴マップの特徴が抽出できる。特徴は、例えば、エッジ成分、又は、対象とする画素の周辺を統計処理した結果等である。また、畳み込みの処理が行われると、対象とする画像又は特徴マップが示す被写体等が、上下にずれる、左右にずれる、斜めにずれる、回転、又は、これらの組み合わせとなる画像又は特徴マップであっても同様の特徴が抽出できる。
プーリング(Pooling)は、対象とする範囲に対して、平均の計算、最小値の抽出、又は、最大値の抽出等の処理を行って、特徴を抽出して特徴マップを生成する処理である。すなわち、プーリングは、maxプーリング、又は、avgプーリング等である。
なお、畳み込み、及び、プーリングは、ゼロパディング(Zero Padding)等の前処理があってもよい。
以上のような、畳み込み、プーリング、又は、これらの組み合わせによって、いわゆるデータ量削減効果、合成性、又は、移動不変性等が獲得できる。
正規化(Normalization)は、例えば、分散及び平均値を揃える処理等である。なお、正規化は、局所的に行う場合を含む。そして、正規化が行われるとは、データは、所定の範囲内の値等になる。ゆえに、以降の処理においてデータの扱いが容易にできる。
全結合(Fully connected)は、特徴マップ等のデータを出力に落とし込む処理である。
例えば、出力は、「YES」又は「NO」、若しくは、「陽性」又は「陰性」等のように、出力が2値の形式である。このような出力形式では、全結合は、2種類のうち、いずれかの結論となるように、隠れ層L2で抽出される特徴に基づいてノードを結合する処理である。
一方で、出力が3種類以上ある場合等には、全結合は、いわゆるソフトマックス関数等を行う処理である。このようにして、全結合により、最尤推定法等によって分類(確率を示す出力を行う場合を含む。)を行うことができる。
医療情報D2は、例えば、図示するように入力される。すなわち、ニューラルネットワークでは、入力データDIN及び医療情報D2をマージしたデータ(以下「マージデータDME」という。)が生成されるのが望ましい。
図示するように、医療情報D2は、画像の特徴を抽出する段階よりも、診断の段階に寄与する。したがって、マージデータDMEは、全結合が行われる段階、又は、全結合が行われる前の段階で入力データDIN(入力データDINから特徴量を抽出した特徴マップを含む。)及び医療情報D2をマージして生成するのが望ましい。
なお、医療情報D2は、図示するような段階でマージされるに限られない。例えば、医療情報D2は、入力データDINと同じ段階等に入力されてもよい。また、医療情報D2には、症状に応じて重み付けがされてもよい。
学習は、例えば、いわゆる教師データ(「訓練データ」、「既知の結果を示すデータ」又は「正解のラベル付きデータ」等という場合もある。)を用いる「教師あり」の形式で行う。このような学習により、学習モデルは、学習後、学習済みモデルとなる。具体的には、学習は、学習データを用いる順伝搬法(フォワードプロパゲーション、Forwardpropagation)、及び、誤差逆伝播法(バックプロパゲーション、Backpropagation)の繰り返しで実現する。
すなわち、学習は、学習データによる損失関数による計算結果が最小化するように、フィルタ係数を調整又は他の構成要素を変更する処理である。なお、学習は、転移学習(Transfer Learning)、又は、蒸留(distillation)等の処理を含んでもよい。
[全体処理例]
図4は、全体処理例を示す図である。以下、学習データを用いて学習モデルを学習させ、学習済みモデルを生成する処理を「学習処理」という。一方で、学習処理により、学習済みモデルを生成した後、学習済みモデルを用いて、未知の入力データに対する判断を行う処理を「実行処理」という。
なお、学習処理は、実行処理よりも前に行う順序であればよい。したがって、学習処理、及び、実行処理は、連続して行われなくともよい。また、以前に実行する学習処理により、学習済みモデルが生成されているのであれば、学習処理は省略されてもよい。
[学習処理の例]
ステップS0401では、診断装置11は、学習データを入力する。例えば、学習データは、医用画像D1、医療情報D2、質感データ、及び、正解を示すデータの組み合わせである。なお、質感データの詳細は後述する。
ステップS0402では、診断装置11は、ステップS0401で入力する学習データにより、学習モデルを学習する。
[質感データの例]
質感データは、医用画像D1等から診断装置11が生成してもよいし、外部から入力するでもよい。例えば、質感データは、以下のように生成される。
質感データは、画像が示す対象の質感を示すデータである。具体的には、質感データは、入力する医用画像D1をテクスチャ解析(Texture Analysis)し、解析で生成する測定値を示すデータである。
質感は、例えば、光沢、ざらつき、周期性、不均一性、又は、これらの組み合わせ等を示す。このような対象とする箇所の質感を示すデータがあると、診断装置11は、質感により、画像を分類できる。
テクスチャ解析は、例えば、MTV(代謝腫瘍体積、Metabolic Tumor Volume)を計算して、所定の領域に対して行う。
具体的には、テクスチャ解析は、「“Volumetric and texture analysis on FDG PET in evaluating and predicting treatment response and recurrence after chemotherapy in follicular lymphoma”.Tatsumi M, Isohashi K,Matsunaga K,Watabe T,Kato H,Kanakura Y,Hatazawa J. Int J Clin Oncol. 24:1292−1300,2019」、及び、「Peritumoral Lymphatic Vessels Associated with Resistance to Neoadjuvant Chemotherapy and Unfavorable Survival in Esophageal Cancer.Hara T,Makino T,Yamasaki M,Tanaka K,Yamashita K,Nogi Y,Saito T,Takahashi T,Kurokawa Y,Tatsumi M,Nakajima K,Morii E,Eguchi H,Doki Y.Ann Surg Oncol. 2020 Apr 23」等に示す方法で行う。
MTVは、SUV値(Standardized Uptake Value)に基づいて定まる体積である。したがって、診断装置11は、MTVを定めるため、まず、SUV値等を算出する。具体的には、MTVは、腫瘍の体積等を示す値である。
SUV値は、例えば、PET等で生成する医用画像D1における画素値を放射性薬剤の種類、放射性薬剤の投与量、放射性薬剤を投与してから経過した時間、患者の体重/身長(患者の体重を身長で除算した計算結果をいう。)、又は、これらの組み合わせに基づいて正規化した値である。
なお、SUV値を算出するのに、PET画像に対して、対象とする領域を設定がされてもよい。ただし、ROIは、症状によっては設定が必須でない。例えば、血液に関する癌の症状等を対象とする場合には、ROIが設定しにくい。このような場合には、MTVは、全身を対象に算出される。
一方で、全身でないような症状では、PET画像に、いわゆるROI(関心領域、Region Of Interest)を設定する。ROIは、例えば、MTV用では、球形又は直方体で設定する。ただし、画像のスライスが1枚の場合には、ROIは、円形又は多角形の形状で設定する。
次に、設定するROIにおいて、SUV値は、下記(1)式のように、単位体積あたりの放射性薬剤の濃度(下記(1)式における分子に相当する。)を投与量及び体重(下記(1)式における分母に相当する。)で正規化して算出する値である。

SUV値=(組織放射能(Bq)/組織体積(ml))/(放射性薬剤の投与量(Bq)/体重(g)) (1)

なお、SUV値は、上記(1)式のように体重で正規化するSUV bw(body weight)等である。また、SUV値は、体重に代えて、除脂肪体重(lean body mass、LBM)によって正規化するSUV lbm等でもよい。ほかにも、SUV値は、体重に代えて、体表面面積(body surface area、BSA)によって正規化するSUV bsa等でもよい。
MTVは、SUV値が閾値以上の画素であり、画素が連続して存在する領域の体積等である。なお、閾値は、例えば、事前に設定する値である。このように計算する高い値のSUV値が一定以上連続して存在する3次元領域に対して、テクスチャ解析が行われる。このような領域を解析すると、例えば、以下のような質感データが生成できる。
質感データは、例えば、ヒストグラム(Histogram)を示す。具体的には、ヒストグラムは、SUV値の分布を示すデータである。したがって、ヒストグラムを生成する上で、診断装置11は、グレースケール情報の分布を計算する。まず、診断装置11は、すべての画素のSUV値を算出した後、すべてのSUV値のうち、最大値、及び、最小値を算出する。そして、最大値、及び、最小値の間を所定数の階調(例えば、階調は、4、16、32、又は、64段階等に事前に設定する。)に分けて、どの階調に属するかを示す値がグレースケール情報となる。
質感データは、グレースケール情報の分布を分散又はエントロピーで示すのが望ましい。すなわち、質感データは、統計量を含むデータであるのが望ましい。なお、統計量は、平均値、尖度、又は、歪度等があってもよい。このような統計量が分かると、SUV値のばらつきが把握できる。
SUV値のばらつきが大きい場合には、SUV値を利用して生成するモデルの精度が低くなりやすい。例えば、頸部、及び、胸部は、医用画像D1を撮影する時点で体重が対象とする部位にかかる等の事情で、発汗等があるとばらつく要因になる。このような要因が発生しているか否かに基づき、根拠とする医用画像D1の精度等が評価できる。したがって、分散及びエントロピー等が高い値である場合には、対象とする医用画像D1の信用度が低い。ゆえに、このように信用が低い医用画像D1による結果を外す、又は、重みを小さくする等の処理に反映させてもよい。このように、分散及びエントロピー等の統計量を利用すると、診断装置11は、高い精度の判断結果D3を出力できる。
また、グレースケール情報を生成した上で、診断装置11は、共起行列(Cooccurrence Matrix)、近傍行列(Neighborhood Matrix)、gray level size zone matrix、及び、grey−level run length matrix等を解析してもよい。
共起行列は、グレースケール情報等の解析の結果、共起する成分を示すベクトルで構成する行列である。共起行列は、いわゆるNGLCM(Normalized Gray−Level Cooccurrence Matrix)である。
GLCM(Gray−Level Cooccurrence Matrix)は、行に解析における中心の画素の輝度値を示し、かつ、列に周辺の画素の輝度値を示す。なお、正規化した後は、NGLCM(Normalized Gray−Level Cooccurrence Matrix)となる。そして、GLCMが有する要素は、周辺に所定値の輝度値がいくつかあるか(画素数である。)を示す値である。
例えば、共起行列を構成するベクトル(共起行列における「行」に相当する。)は、コサイン類似度等を計算すると、類似する要素(共起行列における「列」に相当する。)を算出できる。
また、共起行列を解析することで、例えば、一様性(Uniformity)、エントロピー(Entropy)、異質性(Dissimilarity)、コントラスト(Contrast)、均質性(Homogeneity)、逆差分モーメント(inverse difference moment)、及び、相関(Correlation)等が容易に解析できる。
近傍行列は、グレースケール情報等の解析の結果、領域同士の結びつきの強さを示す行列である。近傍行列において、近傍である領域同士には、大きな重みが設定される。一方で、近傍の関係にない領域同士には、近傍行列において、重みは「0」と設定される。
近傍行列は、いわゆるNGTDM(Neighborhood Gray−Tone Difference Matrix)である。
また、近傍行列を解析することで、例えば、粗さ(Coarseness)、コントラスト(Contrast)、混雑度(Busyness)、複雑さ(Complexity)、及び、強度(Strength)等が容易に解析できる。
さらに、診断装置11は、拡張して、質感データを3次元の方向に生成するのが望ましい。すなわち、診断装置11は、NGLCMを3次元の方向について生成する。すなわち、診断装置11は、NGLCM3Dを生成する。
このように、3次元の方向について解析すると、例えば、一様性(Uniformity)、エントロピー(Entropy)、異質性(Dissimilarity)、コントラスト(Contrast)、均質性(Homogeneity)、及び、相関(Correlation)等が容易に解析できる。
グレーレベルサイズゾーンマトリックス(gray level size zone matrix、GLSZM)は、行に輝度値を示し、かつ、列に連続している範囲(例えば、画素数である。)を示す。そして、GLSZMが有する要素は、連続している範囲がいくつあるかを示す値である。
診断装置11は、グレースケール情報等の解析の結果、すなわち、SUV値をグレースケールの階調(階調を示す値が輝度値となる。)で示す画像に基づいてGLSZMを生成する。このようなGLSZMにより、不均一性等の質感が解析できる。
NGTDMの生成は、まず、解析の中心となる画素を除き、中心となる画素の周辺画素を平均した平均輝度値を示す値を要素とする行列(以下「第1行列」という。)を生成する。次に、診断装置11は、第1行列が示す要素を行ごとに平均する。このようにして、NGTDMが生成される。したがって、NGTDMは、1列の行列になる。このようにして生成されるNGTDMの要素は、中心画素と、周辺画素の平均との差の合計を示す値である。このようなNGTDMの要素の値から、不均一性等が分かる。
グレーレベルランレングスマトリックス(grey−level run length matrix、GLRLM)は、医用画像D1が有する統計的な特徴を抽出するために行われる。また、GLRLMを用いると、高次の統計的なテクスチャ解析が可能である。
GLRLMは、SUV値をグレーレベルとし、同じ値が一定の方向に隣接する画素の数を計算する。具体的には、GLRLMは、方向ごとに、医用画像D1に含まれる濃度「i」、及び、長さ「j」の直線(いわゆるランレングスである。)を行列「p(i,j)」として計算する。
例えば、方向は、「0°(画像を右方向に進む方向である。)」、「45°」、「90°」、及び、「135°」等のように事前に設定される。また、長さ「j」は、例えば、「2」乃至「32」(単位は、画素となる。)等のような値となる。なお、「32」は、画像のサイズ等により異なる値が設定される。
なお、質感データの生成では、まず、医用画像D1は、画像サイズ、及び、輝度を正規化する処理が行われるのが望ましい。例えば、輝度は、最大値及び最小値の範囲を4、16、32、又は、64段階となるように正規化する。また、画像サイズは、例えば、画像をマトリックスに変換して正規化する。
以上のように、質感データを生成すると、医用画像D1、医療情報D2、及び、質感データを合成したデータが生成できる。このようにして、マージデータが生成されてもよい。すなわち、診断装置11は、医用画像D1、及び、医療情報D2に、更に質感データをマージしてマージデータを生成してもよい。このようなマージデータが生成されると、診断装置11は、学習データ等として情報処理装置が扱いやすい。
[実行処理の例]
学習処理を実行すると、学習済みモデルが生成できる。このように生成された学習済みモデルを用いて、例えば、以下のように実行処理が行われる。
ステップS0403では、診断装置11は、医用画像D1を入力する。例えば、以下のような画像である。
図5は、医用画像D1の第1例を示す図である。例えば、医用画像D1は、図示するような部位、及び、形式で入力される。なお、医用画像D1は、「http://www.jira−net.or.jp/dicom/dicom_data_01_02.html」を引用する。
図5に示す医用画像D1は、主に肺に関する症状を診断する場合等に、直接の患部、すなわち、肺となる部位を示す医用画像として用いる。
図6は、医用画像D1の第2例を示す図である。例えば、医用画像D1は、図示するように、全身を含む範囲となる医用画像でもよい。
診断装置11は、以上のような医用画像D1を1つ以上入力する。一方で、診断装置11は、1つの診断に対して、複数の医用画像D1を入力してもよい。
なお、医用画像D1は、図示する画像に限られない。医用画像D1の変形例は、後述する。
ステップS0404では、診断装置11は、医療情報D2を入力する。例えば、以下のような画像である。
ステップS0405では、診断装置11は、医用画像D1を解析して質感データを生成する。
ステップS0406では、診断装置11は、医用画像D1、医療情報D2、及び、質感データの入力に対して、病名に対する判断結果を出力する。
上記のような判断結果の出力は、例えば、新型コロナウイルス感染症、又は、肺癌等の呼吸器に関する症状を精度良く診断する補助ができる。
Genome Environment、及び、Traitは、下記(2)式のような関係がある。

Genome×Environment=Trait (2)

上記(2)式は、「GET」と呼ばれる場合もある。「GET」は、「遺伝子×環境=特性」という関係を示す。したがって、診断装置11は、上記(2)式における「Genome」に相当するDNA検査結果が入力されると、症状をより精度良く診断する補助ができる。
また、医療情報D2は、以下のような情報を含むのが望ましい。
医療情報D2は、例えば、既往歴、業務歴、自覚症状の有無、他覚症状の有無、身長、体重、腹囲、視力、聴力、胸部エックス線検査結果、喀痰検査結果、血圧、血色素量、赤血球数、グルタミン酸オキサロ酢酸トランスアミナーゼ(GOT)検査結果、グルタミン酸ピルビン酸トランスアミナーゼ(GPT)、γグルタミルトランスペプチダーゼ(γ−GTP)、悪玉(LDL)コレステロール検査結果、善玉(HDL)コレステロール検査結果、血清トリグリセライド、血糖検査結果、尿内の糖の有無、尿内の蛋白の有無、及び、心電図の検査結果等である。
このように、医療情報D2は、健康診断の結果等から得られる情報等である。したがって、このような医療情報D2は、医師以外の人(例えば、患者10等である。)でも入手が容易な情報である。
[機能構成例]
図7は、診断装置11の機能構成例を示す図である。例えば、診断装置11は、医用画像入力部11F1、医療情報入力部11F2、解析部11F3、及び、学習部11F4等を含む機能構成である。
医用画像入力部11F1は、患者の診断対象とする部位、又は、患者の全身を投影した医用画像D1を入力する医用画像入力手順を行う。例えば、医用画像入力部11F1は、インタフェース11H3等で実現する。
医療情報入力部11F2は、患者の医療情報D2を入力する医療情報入力手順を行う。例えば、医療情報入力部11F2は、インタフェース11H3等で実現する。
解析部11F3は、医用画像D1に基づいて、医用画像D1を解析して質感データを生成する解析手順を行う。例えば、解析部11F3は、CPU11H1等で実現する。
学習部11F4は、学習済みモデルM2によって、医用画像D1、医療情報D2、及び、質感データの入力に対して、病名に対する判断結果を出力する学習手順を行う。例えば、学習部11F4は、CPU11H1等で実現する。
以上のような構成であると、診断装置11は、様々な症状を精度良く診断する補助ができる。このようにして、出力される判断結果D3を参考にすると、例えば、医師は、診断において見逃し、又は、誤った判断を少なくできる。
[第2実施形態]
図8は、第2実施形態における学習データ生成装置201を用いる全体構成例を示す図である。第1実施形態における診断装置11を用いる全体構成と比較すると、医師20がいる全体構成となる点が異なる。
第2実施形態は、学習データ生成装置201が学習データD23を生成する。そして、学習データD23を用いて、学習モデルM1が学習を行い、学習済みモデルM2となる。なお、学習は、学習データ生成装置201が行ってもよい。又は、学習データ生成装置201は、他の装置に学習データD23を送信して、他の装置が学習を行ってもよい。
以下、第1実施形態と同様の構成は、同一の符号を付し、重複する説明を省略する。以下の説明は、第1実施形態と異なる点を中心に説明する。
学習データ生成装置201は、学習データD23を生成するため、第1実施形態と同様に、医用画像D1、及び、医療情報D2を入力する。また、学習データ生成装置201は、第1実施形態と同様に、医用画像D1に基づいて質感データを生成する。
医師20は、患者10を直接見る、医用画像D1を見る、及び、医療情報D2を見る等により、診断結果D22を学習データ生成装置201に入力する。
診断結果D22は、所定の病名に対して、最終的に陽性であるか陰性であるかを診断した結果である。したがって、診断結果D22は、学習における「正解」を示すデータとなる。
また、医師20は、医用画像D1に対して、患部を示す範囲(以下「第1範囲」という。)、及び、患部を診断するのに参照する部位を示す範囲(以下「第2範囲」という。)を入力する。以下、第1範囲及び第2範囲をまとめて「範囲D21」という場合がある。また、範囲D21は、1つの医用画像D1に対して入力される。したがって、第1範囲及び第2範囲は、同一の医用画像D1に対して入力し、範囲D21は、別の画像を複数用いて入力しない。特に、特許第6737491号公報に示す第1医用画像及び第2医用画像という形式では入力しない。
例えば、範囲D21は、以下のように入力する。
図9は、範囲D21の第1入力例を示す図である。例えば、医師20は、医用画像D1に対して、第1矩形PT1、第2矩形PT2、及び、第3矩形PT3等のように、第1範囲、及び、第2範囲を入力する。この例は、範囲D21を指定する所定形状を矩形とする例である。
例えば、第1矩形PT1、及び、第3矩形PT3は、眼球を示す範囲である。また、第2矩形PT2は、鼻腔を示す範囲である。このような範囲が入力されると、学習により、画像において、眼球及び鼻腔等の臓器を認識できる。
具体的には、第1矩形PT1、第2矩形PT2、及び、第3矩形PT3は、医用画像D1を表示する画面上において、矩形の左上となる点、及び、矩形の右下となる点を医師20が指定する操作によって入力する。また、第1範囲、及び、第2範囲は、以下のように入力してもよい。
図10は、範囲D21の第2入力例を示す図である。例えば、医師20は、医用画像D1に対して、画素PT20を指定して、第1範囲、及び、第2範囲を入力する。この例は、入力に用いる所定形状を画素(複数の画素を指定した画素の集まりを含む。)にする例である。
画素PT20は、骨及び心臓を形状に沿ってマーキングした入力の例である。
具体的には、画素PT20は、医用画像D1を表示する画面上において、第1範囲、及び、第2範囲となる範囲を医師20がポインタ等のインタフェースを利用して、いわゆる「塗り潰し」形式で指定する操作によって入力する。なお、この図は、画素PT20で指定された範囲を白色で示す。
また、画素PT20は、指定した画素と一定範囲内の画素値をグループ化して指定できてもよい。すなわち、医用画像D1において、指定した点と同じような色をグルーピングしてもよい。
このように、画素単位で指定できると、第1範囲、及び、第2範囲を細かく入力できる。
なお、所定形状は、上記の形状に限られず、任意の形状をしたマスク等でもよい。
図11は、範囲D21の第3入力例を示す図である。例えば、新型コロナウイルス感染症等を対象とする場合には、肺の一部である部位(以下「第1部位PT31」という。)を含むように入力する。
例えば、診断装置11は、第1部位PT31において、健常時と比較して影の有無を判断する。具体的には、診断装置11は、第1部位PT31に、すりガラス影又は浸潤影があるか否か等を判断する。このような判断により、肺炎、又は、新型コロナウイルス感染症等の診断を精度良く補助できる。
例えば、PET(Positron Emission Tomography)等の検査では、人体に特殊な薬剤が投与される。このような特殊な薬剤は、人により反応が異なる。そのため、同一人物において、異なる部位を比較するのが有効である。このように、所定の薬剤を用いる検査では、医用画像D1は、診断対象とする部位、すなわち、直接患部となる部位を示す画像と、診断対象となる画像とは別に、参考となる部位を示す画像が入力されるのが望ましい。
一方で、CT又はCR等による検査では、健常時との比較が行われる場合が多い。このような場合には、例えば、医用画像D1は、診断時の部位を示す画像と、健常時の部位を示す画像とが入力されるのが望ましい。
以上のように、範囲D21が入力されると、学習データ生成装置201は、ROI(Region of interest、関心領域)が分かる。例えば、医用画像D1が全身を含む状態であると、患部となる範囲が含まれていても、どの部位が重要であるかが分かりづらく、学習データとしての精度が高くできない。
一方で、範囲D21が入力されると、学習データ生成装置201は、ROIにより重要な部位が分かる。具体的には、範囲D21は、患部となる部位を示す第1範囲、及び、医学的に関連の深い部位第2範囲等を含むように入力する。このように、ROIが分かると、例えば、重要な臓器等をバウンディングボックス(Bounding Box)を使用した機械学習による一般物体検知、又は、インスタンスセグメンテーション(Instance Segmentation)により認識できる。
学習データ生成装置201は、例えば、範囲D21が示す範囲を中心に切り出し、又は、拡大等の加工をして学習データを生成する。このように、重要な部位等を中心にして学習データが生成されると、学習データ生成装置201は、高い精度で診断ができるように学習させる学習データを生成できる。
[全体処理例]
図12は、第2実施形態における全体処理例を示す図である。
ステップS1201では、学習データ生成装置201は、医用画像D1を入力する。例えば、ステップS1201は、ステップS0403と同様である。
ステップS1202では、学習データ生成装置201は、物体検知により画像診断を行う範囲を検出する。物体検知は、画像全体から対象となる物体の位置と範囲を見つける機械学習で実現する。すなわち、物体認識処理等により、学習データ生成装置201は、ステップS1204で入力する範囲等を画像内から検出する。そして、学習データ生成装置201は、病名等に対応する臓器等が十分に含まれる範囲等を臓器の形状等に基づいて検出する。
ステップS1203では、学習データ生成装置201は、医療情報D2を入力する。例えば、ステップS1203は、ステップS0404と同様である。
ステップS1204では、学習データ生成装置201は、第1範囲、及び、第2範囲を入力する。例えば、学習データ生成装置201は、図9乃至図11のように範囲D21を入力する。
ステップS1205では、学習データ生成装置201は、医用画像D1を解析して、質感データを生成する。なお、学習データ生成装置201は、質感データを入力してもよい。
ステップS1206では、学習データ生成装置201は、診断結果D22を入力する。
なお、ステップS1201乃至ステップS1206は、図示するような手順でなくともよい。例えば、ステップS1201乃至ステップS1206は、図示する手順とは異なる順序、又は、並列に行うでもよい。
ステップS1207では、学習データ生成装置201は、学習データを生成する。すなわち、学習データ生成装置201は、医用画像D1、医療情報D2、質感データ、診断結果D22、第1範囲、及び、第2範囲を合わせて学習データを生成する。
なお、学習データは、医用画像D1を加工してデータ数を増やすのが望ましい。いわゆるデータ拡張(Augmentation、「Data Augmentation」等を呼ばれる場合もある。)により、データ数を増やせると、学習データは、データ数が多くでき、学習モデルを多くのデータ数で学習できる。
また、データ数を増やす場合において、医用画像D1は、診断に用いる形式に合わせて加工するのが望ましい。例えば、医用画像D1は、一定の形式が定まっている。具体的には、画像において、患者10の頭が上に位置し、かつ、患者10の足が下に位置にする。この位置関係が大きく異なる場合は少ないため、医用画像D1は、回転又は上下反転等の加工でデータ数を増やさず、患者の頭及び足の位置関係を維持して加工するのが望ましい。
また、医用画像D1を撮影する上で、患者10は、取ることができる姿勢は限られている場合が多い。例えば、患者10は、医用画像生成装置12に対して、動ける範囲及び対向する角度等が定まっている場合がある。具体的には、患者10は、医用画像生成装置12に対して、90°又は180°を超えて回転した姿勢で撮影される可能性は少ない。
したがって、このような動ける範囲及び対向する角度等の範囲で、学習データ生成装置201は、医用画像D1を回転、シフト移動又はこれらの組み合わせとなる加工でデータ数を増やす。すなわち、医用画像D1は、一般用の画像と比較して、形式等がある程度定まる画像である。
ほかにも、臓器は、一定以上又は一定以下の大きさになる場合は少ない。したがって、学習データ生成装置201は、医用画像D1を拡大又は縮小する加工において、倍率を臓器の大きさ等を考慮して設定するのが望ましい。具体的には、肺等は、患者10の体型及び呼吸状態等で臓器の大きさが変化する。一方で、体型及び呼吸状態等で拡大する大きさ、又は、縮小する大きさは、呼吸量等から考えて一定以上の変化がある場合は少ない。
同様に、医用画像D1は、階調も医用画像生成装置12の仕様及び放射性薬剤等に基づいて、一定の範囲である場合が多い。
以上のように、医用画像D1は、画像の形式、並びに、患者10の位置、及び、角度等を可能性のある範囲(以下「拡張用設定範囲」という。)で設定して加工し、データ数を増やすのが望ましい。
学習データ生成装置201は、拡張用設定範囲が示す範囲で医用画像D1を加工して新たに画像(以下「拡張画像」という。)を生成する。このように、拡張用設定範囲の範囲内で移動、回転、拡大、縮小、階調処理、又は、これらの組み合わせで加工された拡張画像を用いると、診断の精度が高い学習済みモデルM2を学習で生成できる。
特に、希少な症状、又は、COVID−19といった新しい症状等では、症例数が少ないため、医用画像D1が少ない場合がある。また、医用画像D1は、医師等による専門家でないと撮影できない場合が多い。このような場合であっても、拡張画像を生成することでデータ数を増やせると、診断の精度が高い学習済みモデルM2を学習で生成できる。
ステップS1208では、学習データ生成装置201は、ステップS1207で生成する学習データにより、学習モデルM1を学習して、学習済みモデルM2を生成する。
[機能構成例]
図13は、第2実施形態における学習データ生成装置201の機能構成例を示す図である。例えば、学習データ生成装置201は、医用画像入力部11F1、医療情報入力部11F2、解析部11F3、範囲入力部11F21、診断結果入力部11F22、及び、学習データ生成部11F23等を含む機能構成である。
医用画像入力部11F1、医療情報入力部11F2、及び、解析部11F3は、例えば、第1実施形態と同様の構成である。
範囲入力部11F21は、医用画像D1に対して、患部を示す第1範囲、及び、患部の診断に参照する第2範囲等を含む範囲D21を入力する範囲入力手順を行う。例えば、範囲入力部11F21は、インタフェース11H3等で実現する。
診断結果入力部11F22は、患者が所定の病名に対して陽性であるか陰性であるかを診断した診断結果を入力する診断結果入力手順を行う。例えば、診断結果入力部11F22は、入力装置11H4等で実現する。
学習データ生成部11F23は、医用画像D1、医療情報D2、質感データ、診断結果D22、第1範囲、及び、第2範囲を合わせて学習データを生成する学習データ生成手順を行う。例えば、学習データ生成部11F23は、CPU11H1等で実現する。
以上のような構成であると、学習データ生成装置201は、様々な症状を精度良く診断する補助ができる学習済みモデルM2を生成できる。このように生成される学習データD23で学習して生成する学習済みモデルM2を用いると、精度のよい診断結果を出力できるため、医師は、診断において見逃し、又は、誤った判断を少なくできる。
[第3実施形態]
図14は、第3実施形態におけるデータ要求装置202を用いる全体構成例を示す図である。第1実施形態における診断装置11を用いる全体構成、及び、第2実施形態における学習データ生成装置201を用いる全体構成と比較すると、学習前において(学習データで学習モデルM1を学習している前又は学習中をいう。図では、上半分で示す。)、医師20が診断結果D22を入力する全体構成となる点が異なる。
さらに、学習後(データ要求装置202が学習済みモデルM2を使用できる状態をいう。図では、下半分で示す。)において、医師20が診断対象とする病名D31を入力すると、データ要求装置202は、データ要求出力D32を行う点が異なる。
なお、データ要求装置202は、学習の前後、すなわち、学習モデルM1を学習する装置と、学習済みモデルM2を用いる装置とは異なるハードウェアでもよい。例えば、学習モデルM1は、第1情報処理装置で学習する。このようにして、第1情報処理装置が学習済みモデルM2を生成する。その後、学習済みモデルM2は、ネットワークを介して送信され、第2情報処理装置で用いる構成であってもよい。
以下、第1実施形態及び第2実施形態と同様の構成は、同一の符号を付し、重複する説明を省略する。以下の説明は、第1実施形態及び第2実施形態と異なる点を中心に説明する。
[全体処理例]
図15は、第3実施形態における全体処理例を示す図である。
[学習処理の例]
ステップS1501では、データ要求装置202は、医用画像D1を入力する。例えば、ステップS1501は、ステップS0403と同様である。
ステップS1502では、データ要求装置202は、は、医療情報D2を入力する。例えば、ステップS1502は、ステップS0404と同様である。
ステップS1503では、データ要求装置202は、医用画像D1を解析して、質感データを生成する。なお、データ要求装置202は、質感データを入力してもよい。
ステップS1504では、データ要求装置202は、診断結果D22を入力する。例えば、ステップS1504は、ステップS1205と同様である。
なお、ステップS1501乃至ステップS1504は、図示するような手順でなくともよい。例えば、ステップS1501乃至ステップS1504は、図示する手順とは異なる順序、又は、並列に行うでもよい。
ステップS1505では、データ要求装置202は、判断結果を出力する。例えば、データ要求装置202は、第1実施形態における学習済みモデルM2を用いて判断結果を出力する。なお、判断結果は、第1実施形態以外の学習済みモデルを用いてもよい。
ステップS1506では、データ要求装置202は、ステップS1501乃至ステップS1505で生成される医用画像D1、医療情報D2、質感データ、診断結果D22、及び、判断結果を学習データとして学習モデルM1を学習する。
そして、ある程度の学習処理が繰り返し行われると、学習済みモデルM2が生成される。
[実行処理の例]
ステップS1507では、データ要求装置202は、病名D31を入力する。すなわち、データ要求装置202は、診断の対象とする病名D31を医師20の操作等により入力する。
ステップS1508では、データ要求装置202は、データを要求する。
[機能構成例]
図16は、第3実施形態におけるデータ要求装置202の機能構成例を示す図である。学習前において、例えば、データ要求装置202は、医用画像入力部11F1、医療情報入力部11F2、解析部11F3、学習部11F4、及び、診断結果入力部11F22等を含む機能構成である。
学習後において、例えば、データ要求装置202は、要求部11F30等を含む機能構成である。
医用画像入力部11F1、医療情報入力部11F2、及び、解析部11F3は、例えば、第1実施形態と同様の構成である。
診断結果入力部11F22は、例えば、第2実施形態と同様の構成である。
学習部11F4は、医用画像D1、医療情報D2、質感データ、判断結果D3、及び、診断結果D22を合わせた学習データD23で学習モデルM1を学習させて学習済みモデルM2を生成する学習手順を行う。例えば、学習部11F4は、CPU11H1等で実現する。
要求部11F30は、病名が入力されると、学習済みモデルM2により、データを要求する要求手順を行う。例えば、要求部11F30は、出力装置11H5等で実現する。
なお、学習前は、要求部11F30がなくともよい。一方で、学習後は、学習部11F4がなくともよい。
学習処理では、学習モデルM1は、診断結果D22を「正解」とし、病名D31が陽性であるか陰性であるか(確率値を示す形式を含む。)を示す判断結果が精度よくなる医用画像D1、医療情報D2、及び、質感データの組み合わせを学習する。
診断において、医用画像D1、医療情報D2、及び、質感データのうち、データがない、又は、データが不十分(一部のデータが不適切、又は、画像の写りがよくない等を含む。)であると、診断の精度が高くできない場合がある。
そこで、データ要求装置202は、データ要求出力D32によって、不足しているデータを要求する。このような要求ができると、第1実施形態等における学習済みモデル等が精度よく診断を補助できる。
データの種類は、膨大及び複雑である場合もある。そこで、データ要求装置202は、データ要求出力D32により、医用画像D1の取り直し、又は、検査のやり直しを含む、不足しているデータを要求する。このような要求がされると、不十分なデータで診断がされるのを防ぐことができる。
なお、病名D31は、複数入力されてもよい。この場合には、データ要求装置202は、それぞれの病名D31ごとにデータを要求してもよい。一方で、データ要求装置202は、複数の病名D31に対して共通して要求するデータがある場合には、共通して用いると要求してもよい。また、データ要求出力D32は、データの重要度等といた付属情報があってもよい。
[第4実施形態]
図17は、第4実施形態における診断装置11を用いる全体構成例を示す図である。第1実施形態における診断装置11を用いる全体構成と比較すると、説明情報D41が追加して出力される点が異なる。
以下、第1実施形態と同様の構成は、同一の符号を付し、重複する説明を省略する。以下の説明は、第1実施形態と異なる点を中心に説明する。
説明情報D41は、判断結果D3が示す結果を説明する情報を示す。すなわち、説明情報D41は、判断結果D3が示す結果(例えば、所定の病名に対して陽性という結果である。)がなった上で重要な情報等を示す。
[全体処理例]
図18は、第4実施形態における全体処理例を示す図である。例えば、ステップS1801乃至ステップS1806は、第1実施形態におけるステップS0401乃至ステップS0406等と同様の処理である。
ステップS1807では、診断装置11は、説明情報D41を出力する。なお、説明情報D41の出力は、判断結果D3の出力より後のタイミングに限られず、同時、並行、又は、「陽性」と判断するのに大きな要素が発生次第等のタイミングでもよい。
例えば、説明情報D41は、以下のように出力される。以下、判断結果D3が所定の病名に対して「陽性」である場合を例に説明する。
例えば、消化器の穿孔等の症状は、医用画像D1で診断される場合が多い。そこで、診断装置11は、穿孔であると考えられる部位等を強調表示で出力するのが望ましい。このような部位を見逃してしまうと、誤診等が発生する可能性がある。したがって、穿孔等が医用画像D1上で強調されると、医師20の診断を精度良く補助できる。
なお、強調表示は、図示するように、矩形で示す形式に限られない。例えば、強調表示は、理由となる説明をテキストで表示する、又は、点滅等で表示する等の形式でもよい。
また、説明情報D41は、患者10の情報以外に参照情報を付加してもよい。例えば、学習データのうち、「陽性」の教師データであって、最も類似する症例(すなわち、過去の事案を特定できる番号、又は、学習データにおける医用画像等である。)等を出力してもよい。このように、根拠となる過去の事案等が説明されると、医師20は、診断が容易にできる。
図19は、説明情報D41の出力例を示す図である。例えば、判断結果D3が「陽性」を確率値で示す形式の場合には、説明情報D41は、図示するように、確率値の内訳を示す。
「貢献度」は、確率値を構成する割合を示す。例えば、ニューラルネットワークの全結合層で「貢献度」の値を合計すると確率値となる。
「根拠情報」は、診断に用いた医用画像D1、医療情報D2、又は、これらの組み合わせ等である。
例えば、説明情報D41は、「貢献度」の高い順に「根拠情報」をソートして表示する。このように、説明が出力されると、どういった根拠で「陽性」と判断されたかが分かりやすい。
なお、説明情報D41は、図示する形式でなくともよい。例えば、「貢献度が+20%以上」等のように閾値を事前に設定し、説明情報D41は、「貢献度」が高い「根拠情報」を絞って表示する形式等でもよい。
また、どのような「根拠情報」が「貢献度」の高い情報となるかは、人により異なる。
図20は、第4実施形態における診断装置11の機能構成例を示す図である。学習前において、例えば、診断装置11は、医用画像入力部11F1、医療情報入力部11F2、解析部11F3、学習部11F4、及び、説明情報出力部11F40等を含む機能構成である。
例えば、医用画像入力部11F1、医療情報入力部11F2、解析部11F3、及び、学習部11F4は、第1実施形態と同様の構成である。
説明情報出力部11F40は、説明情報D41を出力する説明情報出力手順を行う。例えば、説明情報出力部11F40は、出力装置11H5等で実現する。
以上のように、説明情報D41が出力されると、診断における見逃し等を少なくできる。
AI等による判断結果D3は、最終的な結果だけであると、判断を行った理由が分からず、受け入れられにくい場合がある。そこで、診断装置11は、説明情報D41により、説明を行う構成が望ましい。このようにすると、判断結果と、根拠となる情報又は画像等が意味づけされるため、医師20は、診断を見直しやすい。
例えば、医用画像D1を用いる診断では、医師20は、PETの集積性状(具体的には、強さ、及び、不均一さ等である。)、CT所見、病歴、及び、理学所見(具体的には、血液等を検査した結果等である。)等の項目を見て、総合的に判断を行う。したがって、説明情報D41は、上記のような因果関係が深い項目を中心に示すのが望ましい。
例えば、上記のような項目は、事前に医師20が設定する。
なお、説明情報D41は、上記のような症状と因果関係が深い項目については「陰性」である場合であっても列挙し、所定の症状について「陰性」を積極的に支持する内容(すなわち、「陽性」を否定する根拠を示す。)を明示してもよい。このような説明情報D41が出力されると、診断における項目の「漏れ」をチェックしやすい。
<医用画像D1の変形例>
例えば、医用画像D1は、以下のような画像でもよい。
図21は、医用画像D1の第1変形例を示す図である。図21に示す医用画像D1は、アキシャル(Axial)で撮影したCT画像から構築した冠状面(Coronal)画像である。そして、図21に示す医用画像D1は、肺野を強調する階調に変える処理等により生成される。このように、所定の部位を診断するのに適した条件で撮影された画像が用いられてもよい。
図22は、医用画像D1の第2変形例を示す図である。図22に示す医用画像D1は、アキシャル(Axial)で撮影したCT画像から構築した冠状面(Coronal)画像をDigital Imaging and COmmunications in Medicine(DICOM)規格に基づくJoint Photographic Experts Group(JPEG)形式に圧縮する処理を行って生成される画像である。
図23は、医用画像D1の第3変形例を示す図である。図23に示す医用画像D1は、図22に示す画像に対して、肺野を強調する階調に変える処理を行って生成される画像である。
図22及び図23に示すように、医用画像D1は、所定の規格等に基づいて圧縮等の加工がされて生成された画像でもよい。なお、圧縮は、非可逆圧縮及び可逆圧縮のいずれでもよい。
図24は、医用画像D1の第4変形例を示す図である。
図25は、医用画像D1の第5変形例を示す図である。
例えば、図24、及び、図25に示す医用画像D1は、肺癌等の症状を診断する場合に用いられるのが望ましい。
[対象とする症状の例]
診断装置11は、例えば、新型コロナウイルス感染症、又は、肺癌等の呼吸器に関する症状を診断する場合に補助を行う。又は、診断装置11は、例えば、固形癌、胃癌、腫瘍、及び、消化器の穿孔等の症状を対象にしてもよい。なお、これらの病名は、複数を同時に診断の対象としてもよい。
[その他の実施形態]
実施形態は、上記の実施形態を組み合わせたものでもよい。
実施形態では、ドロップアウト等といった過学習(「過剰適合」又は「過適合」等ともいう。overfitting)を軽減化させる処理が行われてもよい。ほかにも、次元削減等の処理が行われてもよい。
学習モデルの学習、及び、学習済みモデルによる実行は、同一の情報処理装置で行われなくともよい。すなわち、学習モデルの学習、及び、学習済みモデルによる実行は、異なる情報処理装置で行われてもよい。
ゆえに、学習済みモデルは、学習によって生成された後、ネットワーク等を介して配信され、学習された情報処理装置とは異なる装置で実行されてもよい。なお、他の情報処理装置において学習して生成された学習モデルに対し、追加して学習が行われてもよい。
学習モデル、及び、学習済みモデルは、CNNのネットワーク構造に限られない。例えば、ネットワーク構造は、RNN(再帰型ニューラルネットワーク、Recurrent Neural Network)又はLSTM(Long Short−Term Memory)等の構成を有してもよい。
また、学習モデル、及び、学習済みモデルは、ハイパパラメータを有する構成であってもよい。すなわち、学習モデル、及び、学習済みモデルは、一部の設定をユーザが行う構成でもよい。
ほかにも、例えば、グラフ(頂点、及び、辺で構成されるデータである。)を扱う場合には、学習モデル、及び、学習済みモデルは、GNN(グラフニューラルネットワーク、Graph Neural Network)等の構造を有してもよい。
また、学習モデル、及び、学習済みモデルは、他の機械学習を利用してもよい。例えば、学習モデル、及び、学習済みモデルは、教師なしのモデルにより、正規化等を前処理で行ってもよい。
本発明は、上記に例示する診断方法、学習データ生成方法、データ要求方法、又は、上記に示す処理と等価な処理を実行するプログラム(ファームウェア、及び、プログラムに準ずるものを含む。以下単に「プログラム」という。)で実現されてもよい。
すなわち、本発明は、コンピュータに対して指令を行って所定の結果が得られるように、プログラミング言語等で記載されたプログラム等で実現されてもよい。なお、プログラムは、処理の一部をIC(集積回路、Integrated Circuit)等のハードウェア又はGPU(Graphics Processing Unit)等の演算装置等で実行する構成であってもよい。
プログラムは、コンピュータが有する演算装置、制御装置、及び、記憶装置等を協働させて上記に示す処理等をコンピュータに実行させる。すなわち、プログラムは、主記憶装置等にロードされて、演算装置に命令を発して演算を行わせてコンピュータを動作させる。
また、プログラムは、コンピュータが読み込み可能な記録媒体、又は、ネットワーク等の電気通信回線を介して提供されてもよい。
本発明は、複数の装置で構成されるシステムで実現されてもよい。すなわち、複数のコンピュータによる診断システムは、上記に示す処理を冗長、並列、分散、又は、これらの組み合わせとなるように実行してもよい。したがって、本発明は、上記に示すハードウェア構成以外の装置、及び、上記に示す装置以外のシステムで実現されてもよい。
なお、本発明は、上記に例示する各実施形態に限定されない。したがって、本発明は、技術的な要旨を逸脱しない範囲で、構成要素の追加、又は、変形が可能である。ゆえに、特許請求の範囲に記載された技術思想に含まれる技術的事項のすべてが本発明の対象となる。なお、上記に例示する実施形態は、実施において好適な具体例である。そして、当業者であれば、開示した内容から様々な変形例を実現で可能であって、このような変形例は、特許請求の範囲に記載された技術的範囲に含まれる。
10 :患者
11 :診断装置
11F1 :医用画像入力部
11F2 :医療情報入力部
11F21 :範囲入力部
11F22 :診断結果入力部
11F23 :学習データ生成部
11F3 :解析部
11F30 :要求部
11F4 :学習部
11F40 :説明情報出力部
12 :医用画像生成装置
20 :医師
201 :学習データ生成装置
202 :データ要求装置
D1 :医用画像
D2 :医療情報
D21 :範囲
D22 :診断結果
D23 :学習データ
D3 :判断結果
D31 :病名
D32 :データ要求出力
D41 :説明情報
M1 :学習モデル
M2 :学習済みモデル
PT1 :第1矩形
PT2 :第2矩形
PT3 :第3矩形
PT20 :画素
PT31 :第1部位

Claims (14)

  1. 患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
    前記患者の医療情報を入力する医療情報入力部と、
    前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析部と、
    前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習部とを含む
    診断装置。
  2. 前記判断結果は、前記病名が陽性であるか陰性であるかの結果、及び、前記病名が陽性である確率値のうち、少なくともいずれかを示す
    請求項1に記載の診断装置。
  3. 前記解析部は、
    前記医用画像における画素値を放射性薬剤の種類、前記放射性薬剤の投与量、前記放射性薬剤を投与してから経過した時間、前記患者の体重、又は、これらの組み合わせに基づいて正規化して算出するSUV値を算出し、かつ、前記SUV値が閾値以上である画素が一定以上連続して存在する領域を解析し、
    前記質感データは、
    前記SUV値の最大値、及び、最小値を算出して、前記最大値及び前記最小値の間を所定数の階調に分けた前記階調を示すグレースケール情報の分布における分散又はエントロピーを示す
    請求項1又は2に記載の診断装置。
  4. 前記解析部は、
    前記グレースケール情報に基づいて、共起行列、近傍行列、グレーレベルサイズゾーンマトリックス、及び、グレーレベルランレングスマトリックスを解析する
    請求項3に記載の診断装置。
  5. 前記解析部は、
    前記質感データを3次元の方向について生成する
    請求項1乃至4のいずれか1項に記載の診断装置。
  6. 前記学習済みモデルは、
    前記医用画像に対して、畳み込み、プーリング、正規化、又は、これらの組み合わせを行う処理部を含む
    請求項1乃至5のいずれか1項に記載の診断装置。
  7. 前記医療情報は、
    前記患者の病歴、DNA検査結果、血液検査結果、尿検査結果、癌探知犬の嗅覚結果、又は、これらの組み合わせを示す
    請求項1乃至6のいずれか1項に記載の診断装置。
  8. 診断装置に診断方法を実行させるためのプログラムであって、
    診断装置が、患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力手順と、
    診断装置が、前記患者の医療情報を入力する医療情報入力手順と、
    診断装置が、前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析手順と、
    診断装置が、前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習手順と
    を実行させるためのプログラム。
  9. 患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
    前記患者の医療情報を入力する医療情報入力部と、
    前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析部と、
    前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習部とを含む
    診断システム。
  10. 患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
    前記患者の医療情報を入力する医療情報入力部と、
    前記医用画像に基づいて、質感を示す質感データを生成する解析部と、
    前記患者が所定の病名に対して陽性であるか陰性であるかを診断した診断結果を入力する診断結果入力部と、
    前記医用画像に対して、前記部位を示す第1範囲、及び、前記部位の診断に参照する前記部位とは異なる部位であって、前記第1範囲を入力する医用画像と同一の医用画像に含まれる第2範囲を入力する範囲入力部と、
    前記医用画像、前記医療情報、前記質感データ、前記診断結果、前記第1範囲、及び、前記第2範囲を合わせて学習データを生成する学習データ生成部とを含む
    学習データ生成装置。
  11. 前記範囲入力部は、
    前記医用画像に対して所定形状、又は、前記医用画像を構成する画素を指定する形式で前記第1範囲、及び、前記第2範囲を入力する
    請求項10に記載の学習データ生成装置。
  12. 前記学習データ生成部は、
    診断に用いる形式、並びに、前記患者の位置及び角度を拡張用設定範囲が示す範囲で前記医用画像を加工して拡張画像を生成する
    請求項10又は11に記載の学習データ生成装置。
  13. 患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
    前記患者の医療情報を入力する医療情報入力部と、
    前記医用画像に基づいて、質感を示す質感データを生成する解析部と、
    前記患者が所定の病名に対して陽性であるか陰性であるかを診断した診断結果を入力する診断結果入力部と、
    前記医用画像、前記医療情報、及び、前記質感データに基づく病名に対する判断結果、前記医用画像、前記医療情報、前記質感データ、並びに、前記診断結果を合わせた学習データで学習モデルを学習させて学習済みモデルを生成する学習部と、
    病名が入力されると、前記学習済みモデルにより、データを要求する要求部とを含む
    データ要求装置。
  14. 患者の診断対象とする部位、又は、前記患者の全身を投影した医用画像を入力する医用画像入力部と、
    前記患者の医療情報を入力する医療情報入力部と、
    前記医用画像に基づいて、前記医用画像を解析して質感を示す質感データを生成する解析部と、
    前記医用画像、前記医療情報、及び、前記質感データを学習データとして学習した学習済みモデルによって、前記医用画像、前記医療情報、及び、前記質感データの入力に対して、病名に対する判断結果を出力する学習部と、
    前記判断結果が示す結果を説明する説明情報を出力する説明情報出力部とを含む
    診断装置。
JP2020178144A 2020-10-23 2020-10-23 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム Active JP6827245B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020178144A JP6827245B1 (ja) 2020-10-23 2020-10-23 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178144A JP6827245B1 (ja) 2020-10-23 2020-10-23 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム

Publications (2)

Publication Number Publication Date
JP6827245B1 true JP6827245B1 (ja) 2021-02-10
JP2022069143A JP2022069143A (ja) 2022-05-11

Family

ID=74529611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020178144A Active JP6827245B1 (ja) 2020-10-23 2020-10-23 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6827245B1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4480508B2 (ja) * 2004-08-02 2010-06-16 富士通株式会社 診断支援プログラムおよび診断支援装置
JP6390746B2 (ja) * 2016-09-01 2018-09-19 カシオ計算機株式会社 診断支援装置、及び診断支援装置における画像処理方法、並びにプログラム
JP6737491B1 (ja) * 2020-01-09 2020-08-12 株式会社アドイン研究所 Aiを用いる診断装置、診断システム、及び、プログラム

Also Published As

Publication number Publication date
JP2022069143A (ja) 2022-05-11

Similar Documents

Publication Publication Date Title
Al-Antari et al. Fast deep learning computer-aided diagnosis of COVID-19 based on digital chest x-ray images
US11238587B2 (en) Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
KR101887194B1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
US10997475B2 (en) COPD classification with machine-trained abnormality detection
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US20180061049A1 (en) Systems and methods for analyzing in vivo tissue volumes using medical imaging data
Sander et al. Automatic segmentation with detection of local segmentation failures in cardiac MRI
JP6957214B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
Gündel et al. Robust classification from noisy labels: Integrating additional knowledge for chest radiography abnormality assessment
US20220172826A1 (en) Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up examination
US11669960B2 (en) Learning system, method, and program
US20230154620A1 (en) Apparatus and method for assisting reading of chest medical images
CN111815643A (zh) 基于人工智能的copd评估
Hussain et al. Deep learning-based diagnosis of disc degenerative diseases using MRI: a comprehensive review
JP2018201870A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6827245B1 (ja) Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム
CN110570425A (zh) 一种基于深度强化学习算法的肺结节分析方法及装置
US20220277445A1 (en) Artificial intelligence-based gastroscopic image diagnosis assisting system and method
EP4235566A1 (en) Method and system for determining a change of an anatomical abnormality depicted in medical image data
Chaisangmongkon et al. External validation of deep learning algorithms for cardiothoracic ratio measurement
KR20230040484A (ko) 흉부 의료 영상 객체 검출 시스템 및 그 방법
Lee et al. Learning radiologist’s step-by-step skill for cervical spinal injury examination: Line drawing, prevertebral soft tissue thickness measurement, and swelling detection
EP4356837A1 (en) Medical image diagnosis system, medical image diagnosis system evaluation method, and program
US11508065B2 (en) Methods and systems for detecting acquisition errors in medical images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201023

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201023

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R150 Certificate of patent or registration of utility model

Ref document number: 6827245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250