JP6737491B1 - Aiを用いる診断装置、診断システム、及び、プログラム - Google Patents

Aiを用いる診断装置、診断システム、及び、プログラム Download PDF

Info

Publication number
JP6737491B1
JP6737491B1 JP2020001974A JP2020001974A JP6737491B1 JP 6737491 B1 JP6737491 B1 JP 6737491B1 JP 2020001974 A JP2020001974 A JP 2020001974A JP 2020001974 A JP2020001974 A JP 2020001974A JP 6737491 B1 JP6737491 B1 JP 6737491B1
Authority
JP
Japan
Prior art keywords
medical image
image
learning
region
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020001974A
Other languages
English (en)
Other versions
JP2021111076A (ja
Inventor
宇貴秀 立石
宇貴秀 立石
佐々木 浩二
浩二 佐々木
井上 和治
和治 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Medical and Dental University NUC
AdIn Research Inc
Original Assignee
Tokyo Medical and Dental University NUC
AdIn Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Medical and Dental University NUC, AdIn Research Inc filed Critical Tokyo Medical and Dental University NUC
Priority to JP2020001974A priority Critical patent/JP6737491B1/ja
Application granted granted Critical
Publication of JP6737491B1 publication Critical patent/JP6737491B1/ja
Publication of JP2021111076A publication Critical patent/JP2021111076A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】特定の症状を画像に基づいて精度良く判断する診断装置、診断システム及びプログラムを提供する。【解決手段】診断システムにおいて、診断装置の機能構成は、患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、第1医用画像及び第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、学習モデルを用いて、第1部位及び第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部とを含む。【選択図】図13

Description

本発明は、AIを用いる診断装置、診断システム、及び、プログラムに関する。
従来、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)等のAI(Artificial Intelligence)によって、画像に基づいて診断を行う方法が知られている。
図1は、従来技術における症状の分類器アーキテクチャをモデル化して示す図である。例えば、図示するように、MR(Magnetic Resonance)又はPET(Positron Emission Tomography)等で生成される診断用の画像に対して、図示するようなネットワーク構造のCNNを適用して診断を行う方法が知られている。
図2は、MR画像及びPET画像を用いる症状の分類器アーキテクチャをモデル化して示す図である。さらに、図示するように、まず、MR画像及びPET画像に対して、別々にVGG(Visual Geometry Group)−11のネットワーク構造であるCNNを適用して結果を抽出する。そして、それぞれの結果を連結する。このように、診断用の画像を複数入力するCNN等が知られている(例えば、非特許文献1等)。
Original Research ARTICLE Front. Neurosci., 31 May 2019、"Diagnosis of Alzheimer's Disease via Multi−Modality 3D Convolutional Neural Network"、[online]、2019年5月31日、[2019年10月25日検索]、インターネット〈URL:https://www.frontiersin.org/articles/10.3389/fnins.2019.00509/full〉
しかしながら、従来の方法は、患者全身のうち、1種類の臓器又は臓器周辺の部位(以下単に「部位」という。)1箇所のみを投影した画像だけで診断を行う場合が多い。そのため、血管炎(「大型血管炎」、「高安動脈炎」、「血管炎症候群」又は「全身性血管炎」等を含む。以下「大型血管炎」という。)又は白質脳症等といった特定の症状が対象となると、判断の精度が悪い場合が多い。
そこで、本発明に係る一実施形態は、上記のような課題を解決するためになされたものであり、特定の症状であっても、画像に基づいて精度良く判断できる診断装置、診断システム、及び、プログラムを提供することを目的とする。
本発明の一実施形態に係る、診断装置は、
患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
を含む。
特定の症状であっても、画像に基づいて精度良く判断できる診断装置、診断システム、及び、プログラムを提供できる。
症状の分類器アーキテクチャをモデル化して示す図である。 MR画像及びPET画像を用いる症状の分類器アーキテクチャをモデル化して示す図である。 診断システムの全体構成例を示す図である。 診断装置のハードウェア構成例を示す図である。 全体処理例を示す図である。 第1医用画像及び第2医用画像の生成例を示す図である。 ネットワーク構造例を示す図である。 畳み込み処理の例を示す図である。 プーリング処理の例を示す図である。 全結合処理の例を示す図である。 ドロップアウト処理の例を示す図である。 実行処理に用いるネットワークの例を示す図である。 機能構成例を示す図である。 スライス医用画像群を用いる診断システムの全体構成例を示す図である。 白質脳症用のネットワーク構造例を示す図である。 第1部位の変形例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
<全体構成例>
図3は、診断システムの全体構成例を示す図である。例えば、診断システム2は、医用画像生成システム21、及び、診断装置の例であるPC(Personal Computer)(以下単に「PC20」という。)を含む構成である。
医用画像生成システム21は、例えば、レントゲン装置又はMRI等である。なお、医用画像生成システム21は、医用画像を生成できる装置であればよい。
医用画像は、人体における内臓等を撮影又は透過して投影した画像である。したがって、医用画像は、放射線を利用する方法、MRI(核磁気共鳴画像法、Magnetic Resonance Imaging)、PET(ポジトロン断層法、Positron Emission Tomography)、CT(コンピュータ断層撮影、Computed Tomography)等で生成される画像である。また、医用画像は、放射線画像、診断用画像又は医療用画像等と呼ばれる場合もある。
なお、医用画像は、例えば、血管造影等で生成される画像、超音波を利用して生成される画像、サーモグラフィを利用して生成される画像、内視鏡を利用して生成される画像、又は、これらと上記の方法との組み合わせによって生成された画像でもよい。
医用画像は、モノクロ画像でもよいし、カラー画像でもよい。
以下、医用画像、及び、医用画像に基づいて生成される特徴マップを単に「画像」と呼ぶ場合がある。
なお、医用画像生成システム21は、PACS(Picture Archiving and Communication Systems)を有する構成でもよい。
また、医用画像生成システム21は、診断システム2において必須な構成ではない。すなわち、医用画像は、PC20に接続されていない他の外部装置によって生成されてもよい。この場合には、医用画像は、例えば、通信回線又は記録媒体等を介してPC20に入力される。
PC20は、例えば、以下のような情報処理装置である。
図4は、診断装置のハードウェア構成例を示す図である。例えば、診断装置20は、CPU(Central Processing Unit、以下単に「CPU20H1」という。)、記憶装置20H2、通信装置20H3、入力装置20H4、出力装置20H5、及び、インタフェース20H6等を有するハードウェア構成である。
CPU20H1は、演算装置及び制御装置の例である。
記憶装置20H2は、いわゆるメモリ等の主記憶装置である。また、記憶装置20H2は、ハードディスク又はSSD(Solid State Drive)等の補助記憶装置を更に有してもよい。
通信装置20H3は、外部装置と無線又は有線で通信を行う。例えば、通信装置20H3は、コネクタ又はアンテナ等である。
入力装置20H4は、ユーザによる操作を入力する装置である。例えば、入力装置20H4は、キーボード又はマウス等である。
出力装置20H5は、ユーザに対して処理結果等を出力する装置である。例えば、出力装置20H5は、ディスプレイ等である。
インタフェース20H6は、外部装置と有線又は無線で接続してデータを入出力する。例えば、インタフェース20H6は、コネクタ等である。
なお、診断装置は、図示するようなハードウェア構成に限られない。例えば、診断装置は、演算装置、制御装置、記憶装置、入力装置、出力装置、又は、補助装置等を更に有するハードウェア構成であってもよい。
上記のようなPC20に対して、学習データ(「教師データ」等と呼ばれる場合もある。)となる、第1医用画像IMG1及び第2医用画像IMG2が入力されると、PC20は、1医用画像IMG1及び第2医用画像IMG2に基づいて、ネットワークの学習を行う。以下、学習処理が完了したネットワークを「学習モデル22」という。このようにして、PC20は、学習モデル22をあらかじめ学習処理により構築する。
なお、ネットワーク及び学習モデル22は、CNNのネットワーク構造であるのが望ましい。以下、ネットワーク及び学習モデル22がCNNである例で説明する。ただし、ネットワーク及び学習モデル22は、RNN(Recurrent Neural Network、再帰型ニューラルネットワーク)等でもよい。
学習モデル22が構築された後、症状を判断する対象となる医用画像(以下「実行医用画像IMG3」という。)が入力されると、PC20は、学習モデル22に基づいて、特定の症状であるか否かの判断を示す判断結果3を出力できる。
なお、判断結果3は、患者1が特定の症状であるか否かという2値データでなくともよい。例えば、判断結果3は、特定の症状である確率を数値で示してもよい。さらに、判断結果3は、判断の根拠(判断に影響が大きい画像又はその画像の一部等である。)を示してもよい。また、判断結果3は、現状だけでなく、将来的に症状になる可能性、又は、傾向等を示唆してもよい。
<全体処理例>
例えば、診断装置は、以下のような全体処理を行って、特定の症状について判断する。
図5は、全体処理例を示す図である。以下、図示するように、ステップS1乃至ステップS4等の「学習処理」があらかじめ実行されるとする。そして、このような学習処理によって、学習が完了した後、ステップS5及びステップS6のような「実行処理」が行われる全体処理であるとする。
<学習処理例>
(第1医用画像の入力例)
ステップS1では、診断装置は、第1医用画像を入力する。
(第2医用画像の入力例)
ステップS2では、診断装置は、第2医用画像を入力する。
例えば、ステップS1及びステップS2は、以下のように行われる。
<第1医用画像及び第2医用画像の入力例>
以下、特定の症状を「大型血管炎」とする場合の例で説明する。ただし、対象となる症状は、大型血管炎以外の症状であってもよい。
例えば、第1医用画像IMG1及び第2医用画像IMG2は、以下のように生成される画像である。
図6は、第1医用画像及び第2医用画像の生成例を示す図である。
例えば、第1医用画像及び第2医用画像は、図6(A)に示すような患者1の全身を示す医用画像(以下「全身医用画像」という。)から、第1医用画像IMG1及び第2医用画像IMG2となる領域を切り出して生成される。具体的には、例えば、第1医用画像IMG1及び第2医用画像IMG2は、以下のように生成される。
図6(B)は、第1医用画像IMG1の例を示す図である。
第1医用画像IMG1は、患者の部位のうち、症状が発生する部位(以下「第1部位P1」という。)が投影された医用画像である。具体的には、図示するように、大型血管炎の場合には、第1医用画像IMG1は、縦隔の部位を含むように投影された医用画像である。
縦隔は、胸部にある左右肺、胸椎、及び、胸骨に囲まれた部位である。したがって、第1医用画像IMG1は、胸部にある左右肺、胸椎、及び、胸骨に囲まれた範囲が含まれる画像であるのが望ましい。以下、第1部位P1が縦隔である場合を例に説明する。ただし、第1部位P1は、症状の種類によって異なるため、症状の種類ごとに設定される。
図6(C)は、第2医用画像IMG2の例を示す図である。
第2医用画像IMG2は、第1部位P1に基づいて症状を判断するのに、基準となる画像である。そして、第2医用画像IMG2は、第1部位P1とは異なる部位の一部(以下「第2部位P2」という。)を投影した医用画像である。具体的には、図示するように、大型血管炎の場合には、第2医用画像IMG2は、肝臓の一部を含むように投影された医用画像である。ただし、第2部位P2は、症状の種類によって異なるため、症状の種類ごとに設定される。
なお、第1医用画像IMG1は、第2医用画像IMG2より解像度が高い画像であるのが望ましい。すなわち、第1医用画像IMG1は、第2医用画像IMG2より画素数が多い画像であるのが望ましい。
第1医用画像IMG1は、第1部位P1を直接示す画像であるため、詳細が分かる画像であるのが望ましい。ゆえに、第1医用画像IMG1は、少なくとも第2医用画像IMG2より解像度が高く、第1部位P1の詳細を示す画像であるのが望ましい。
また、第2医用画像IMG2は、図6(C)に示すように、肝臓全体でなく、肝臓の一部を切り出した画像であるのが望ましい。
第2医用画像IMG2は、肝臓を示す画素のうち、同一の色を示す画素、同一の画素値を示す画素、又は、基準値以内の画素のいずれかの集まりを含む領域を示す画像であるのが望ましい。なお、医用画像では、画素値は、明暗を示す値、いわゆる輝度値である場合が多い。ただし、医用画像は、カラー画像でもよい。例えば、サーモグラフィ、超音波又は内視鏡を用いて投影する場合には、医用画像は、カラー画像である場合が多い。このような場合には、カラー画像(例えば、RGB形式等である。)は、各色の画素値に基づいて輝度値が計算されてもよい。いわゆるYUV変換等の計算によって、RGB形式の値は、「Y」を含む形式に変換できる。このようにして計算される「Y」の値を画素値として使用してもよい。又は、画素値は、カラー画像を構成する複数の色のうち、いずれかの色を示す値を代表にして画素値に用いてもよい。
例えば、肝臓を含む領域に対して、いわゆるラベリング等の画像処理を行うと、同じような色、又は、同じような画素値を示す画素が連続して続くような領域が抽出される。具体的には、まず、肝臓を示す複数の画素について、それぞれの画素値を比較する処理が行われる。例えば、肝臓を示す複数の画素のうち、画素値があらかじめ設定される基準値以内の差である画素が「同じ色を示す画素」として抽出される。そして、抽出された画素が隣接している場合には、画素は、同じグループであるとラベリングされる。
このようにラベリング等によって、同じような画素の集まりが複数抽出できる場合がある。このような場合には、集まりのうち、最も画素数が多い集まりが画像の中心になるようにして、第2医用画像IMG2が生成されるのが望ましい。このようにすると、肝臓の代表的な色を最もよく示す医用画像が生成できる。
ただし、図6(C)に示すように、第2医用画像IMG2は、同じグループの画素だけを示す医用画像でなくともよい。すなわち、第2医用画像IMG2は、肝臓を示す画素のうち、代表的な色又は画素値を示す画素の集まりが中心となるように示す医用画像であればよく、周辺の画素を一部に含む医用画像でもよい。
また、第2医用画像IMG2は、図示する第2部位P2のように、肝臓全体でなく、臓器の中心を切り出した画像であるのが望ましい。すなわち、第2医用画像IMG2は、臓器の輪郭を含まないように、臓器の内側にフォーカスした医用画像であるのが望ましい。
第2医用画像IMG2が肝臓の輪郭を示すと、第2医用画像IMG2に基づいて、肝臓の形状等が学習の対象、いわゆる特徴量になりやすくなる。一方で、大型血管炎が判断される場合には、臓器の輪郭、すなわち、形状等は、診断において参考にならない場合が多く、色又は画素値に基づいて症状が判断されるのが望ましい。
大型血管炎の判断を行うには、縦隔等の色を肝臓の色と比較して判断すると、精度良く判断できる。したがって、肝臓の形状等が第2医用画像IMG2に基づいてあまり学習されないように、第2医用画像IMG2は、肝臓の中心付近を拡大して示すような画像であるのが望ましい。このような範囲を示す第2医用画像IMG2を用いると、特徴量に色又は画素値が採用されやすくなり、特定の症状をより精度良く判断できる。
なお、第1医用画像IMG1及び第2医用画像IMG2は、ステップS1及びステップS2というように、第1医用画像IMG1及び第2医用画像IMG2の順で入力されなくともよい。例えば、第1医用画像IMG1及び第2医用画像IMG2は、第2医用画像IMG2が先に入力される、又は、並行して入力されてもよい。すなわち、第1医用画像IMG1及び第2医用画像IMG2は、入力の順序を問わない。
また、第1医用画像IMG1及び第2医用画像IMG2は、全身医用画像が入力され、入力された全身医用画像に基づいて、切り出し又は拡大等によって生成されたそれぞれの医用画像が第1医用画像IMG1及び第2医用画像IMG2となって入力されてもよい。一方で、第1医用画像IMG1及び第2医用画像IMG2は、他の装置であらかじめ全身医用画像から切り出されて入力されてもよい。
又は、第1医用画像IMG1及び第2医用画像IMG2は、全身医用画像から生成されるのではなく、医用画像生成システム21等によって、第1部位P1及び第2部位P2に絞って別々に生成される医用画像でもよい。以下、第1医用画像IMG1が「128×128」(pixel)、かつ、第2医用画像IMG2が「32×32」(pixel)の解像度である場合を例に説明する。ただし、第1医用画像IMG1及び第2医用画像IMG2は、上記以外の解像度であってもよい。
(マージ画像の生成例)
ステップS3では、診断装置は、第1医用画像及び第2医用画像に基づく画像をマージして、マージ画像を生成する。
(マージ画像に基づく学習例)
ステップS4では、診断装置は、マージ画像に基づいて学習を行う。
例えば、上記のような学習処理は、以下のような構造のネットワークで行われる。
図7は、ネットワーク構造例を示す図である。まず、上記のように、ステップS1及びステップS2が行われると、第1医用画像IMG1及び第2医用画像IMG2がPC20に入力される。
例えば、ネットワークNWは、図示するようなCNNのネットワーク構造であるのが望ましい。
なお、学習処理において、ネットワークNWは、マージ画像IMG4を生成する上で、第1医用画像IMG1及び第2医用画像IMG2に対して、隠れ層を有するネットワーク構造であるのが望ましい。
以下、第1医用画像IMG1に対する隠れ層を「第1隠れ層L1」という。一方で、第2医用画像IMG2に対する隠れ層を「第2隠れ層L2」という。
第1隠れ層L1は、例えば、畳み込み層とプーリング層の組み合わせで構成される層である。具体的には、第1隠れ層L1は、例えば、第11畳み込み層LC11、第11プーリング層LP11、第12畳み込み層LC12、第12プーリング層LP12、第13畳み込み層LC13の順に層構成される。このような第1隠れ層L1により、第1医用画像IMG1に基づいて、第1特徴マップMP1が生成される。
第11畳み込み層LC11は、この例では、畳み込み処理によって「128×128」の特徴マップを64枚生成する。なお、畳み込み処理の詳細は後述する。
第11プーリング層は、この例では、第11畳み込み層LC11が生成する特徴マップに対してプーリング処理を行うことで「64×64」の特徴マップを生成する。なお、プーリング処理の詳細は後述する。
第12畳み込み層LC12は、この例では、畳み込み処理によって「64×64」の特徴マップを128枚生成する。
第12プーリング層LP12は、この例では、第12畳み込み層LC12が生成する特徴マップに対してプーリング処理を行うことで「32×32」の特徴マップを生成する。
第13畳み込み層LC13は、畳み込み処理によって「32×32」の特徴マップを128枚生成する。
例えば、上記のような第1隠れ層L1に基づいて第1医用画像IMG1が処理されると、第1特徴マップMP1が生成できる。一方で、第1隠れ層L1に基づく処理とは、別に、第2隠れ層L2に基づく処理が行われる。なお、それぞれの処理は、並行して行われてもよいし、順に行われてもよい。
第2隠れ層L2は、例えば、畳み込み層で構成される層である。具体的には、第2隠れ層L2は、第2畳み込み層LC2で層構成される。このような第2隠れ層L2により、第2医用画像IMG2に基づいて、第2特徴マップMP2が生成される。
第2畳み込み層LC2は、畳み込み処理によって「32×32」の特徴マップを128枚生成する。
次に、ネットワークNWでは、第1特徴マップMP1及び第2特徴マップMP2に基づいて、マージ画像IMG4が生成される。
マージ画像IMG4は、第1特徴マップMP1及び第2特徴マップMP2に対するマージ処理によって生成される画像である。
このように、マージ処理によって生成されるマージ画像IMG4は、第1医用画像IMG1に基づいて症状を判断する上で、第2医用画像IMG2が示す代表的な色又は画素値を考慮した結果を示す。
なお、図7に示すネットワーク構造の例では、まず、あらかじめ隠れ層に基づく処理によって、第1医用画像IMG1及び第2医用画像IMG2に基づいて、第1特徴マップMP1及び第2特徴マップMP2が生成される。その後、第1特徴マップMP1及び第2特徴マップMP2に基づいて、マージ画像IMG4が生成されるネットワーク構造である。このようなネットワーク構造であっても、第1特徴マップMP1及び第2特徴マップMP2は、第1医用画像IMG1及び第2医用画像IMG2の特徴を示す画像である。したがって、以下の説明では、説明を簡略にするため、図7に示すネットワーク構造の例のように、第1特徴マップMP1及び第2特徴マップMP2に対してマージ処理を行う場合であっても、第1医用画像IMG1及び第2医用画像IMG2に対する処理と表現して説明する。なお、ネットワークNWは、第1隠れ層L1、第2隠れ層L2、又は、両方がない構造でもよい。
例えば、マージ処理は、画素値を加算、減算、又は、乗算する処理である。
具体的には、マージ画像IMG4を第1医用画像IMG1及び第2医用画像IMG2が有する画素のそれぞれの画素値の差を計算するマージ処理によって生成する場合には、マージ画像IMG4は、第1医用画像IMG1及び第2医用画像IMG2に基づいて生成される特徴マップの画素値の差を示す画像となる。
したがって、マージ画像IMG4は、第2医用画像IMG2が示す色に対する第1医用画像IMG1の明暗差等を示すような画像にできる。このように、マージ画像IMG4は、第2医用画像IMG2が示す色を基準に、第1医用画像IMG1を判断するような画像であるのが望ましい。
第2医用画像IMG2のように、基準となる色を示す補助的な画像があると、第1医用画像IMG1のみ、すなわち、1箇所の部位だけに着目して判断する場合よりも、症状を精度良く判断できる。したがって、マージ画像IMG4は、第2医用画像IMG2が示す色等を基準にするように生成されるのが望ましい。
なお、マージ処理において、例えば、第1医用画像IMG1の画素値から第2医用画像IMG2の画素値を減算する場合において、第2医用画像IMG2の画素値にあらかじめ設定する係数を乗算してから減算が行われてもよい。すなわち、マージ処理を行う上で、どちらか一方の医用画像の画素値に重み付けがされてもよい。
以上のようなマージ処理で生成されるマージ画像IMG4に基づいて、例えば、第3隠れ層L3に基づいて処理が行われる(ステップS4)。
第3隠れ層L3は、例えば、第31プーリング層LP31、第31畳み込み層LC31、第32プーリング層LP32、第32畳み込み層LC32、第33プーリング層LP33、第33畳み込み層LC33、及び、第34プーリング層LP34等で構成される。さらに、第3隠れ層L3は、例えば、正規化層LN3、第1全結合層LF31、第1ドロップアウト層LD31、第2全結合層LF32、及び、第2ドロップアウト層LD32等を有する構成である。
第31プーリング層LP31は、この例では、マージ画像IMG4に対してプーリング処理を行うことで「16×16」の特徴マップを生成する。
第31畳み込み層LC31は、この例では、第31プーリング層LP31が生成する特徴マップに対して畳み込み処理を行い、「16×16」の特徴マップを256枚生成する。
第32プーリング層LP32は、この例では、第31畳み込み層LC31が生成する特徴マップに対してプーリング処理を行うことで「8×8」の特徴マップを生成する。
第32畳み込み層LC32は、この例では、第32プーリング層LP32が生成する特徴マップに対して畳み込み処理を行い、「8×8」の特徴マップを256枚生成する。
第33プーリング層LP33は、この例では、第32畳み込み層LC32が生成する特徴マップに対してプーリング処理を行うことで「4×4」の特徴マップを生成する。
第33畳み込み層LC33は、この例では、第33プーリング層LP33が生成する特徴マップに対して畳み込み処理を行い、「4×4」の特徴マップを256枚生成する。
第34プーリング層LP34は、この例では、第33畳み込み層LC33が生成する特徴マップに対してプーリング処理を行うことで「1×1」の特徴マップを生成する。
正規化層LN3は、第34プーリング層LP34が生成する特徴マップを正規化する。なお、正規化の処理の詳細は後述する。
第1全結合層LF31、及び、第2全結合層LF32は、全結合処理を行う。なお、全結合処理の詳細は後述する。
第1ドロップアウト層LD31、第2ドロップアウト層LD32は、ドロップアウト処理を行う。なお、ドロップアウト処理の詳細は後述する。
なお、ネットワークNWの構成において、画素数(画像の縦及び横のサイズでもある。)及び生成する特徴マップの数は、上記の例に限られない。すなわち、上記の例と異なる画素数及び特徴マップの数が生成されるネットワーク構造でもよい。
また、層構成等は、上記に示す例の構成に限られない。すなわち、上記に示す以外の層がある層構成であってもよい。さらに、層構成は、学習処理等によって変更されてもよい。
なお、学習処理では、学習モデルが評価されてもよい。例えば、精度を向上させるために、第1医用画像IMG1又は第2医用画像IMG2のうち、少なくともいずれか一方が投影する範囲を変更する等の調整がされてもよい。
<畳み込み処理例>(Convolution)
畳み込み処理は、入力される画像又は特徴マップの特徴を抽出する処理である。
畳み込み処理では、まず、フィルタ(「カーネル」と呼ばれる場合もある。)に基づいて、フィルタを構成するフィルタ係数(「重み」と呼ばれる場合もある。)を画素値と乗算し、それぞれの画素値に対して乗算結果を算出していく処理が行われる。次に、それぞれの乗算結果を総和して特徴マップを構成する各値を算出する処理が行われる。このように、畳み込み処理は、いわゆるフィルタ処理によって特徴マップを生成する処理である。
図8は、畳み込み処理の例を示す図である。例えば、図8(A)に示すような画像(医用画像又は特徴マップ等である。以下「第1入力画像IN1」という。)が畳み込み処理の対象であるとする。
図8(A)に示すように、第1入力画像IN1は、横にM行、かつ、縦にN列、すなわち、M×N個の画素を有する画像であるとする。また、図では、それぞれの画素値を「A00」(図は、下1桁目が行を示し、下2桁目が列を示す記載とする。)のように示す。
図8(B)は、第1フィルタF1を示す図である。なお、第1フィルタF1は、「3×3」のサイズの例である。ただし、フィルタのサイズは、「3×3」以外でもよい。以下、第1フィルタF1を構成するフィルタ係数を図では、第1入力画像IN1の画素値と同様の形式で示す。
畳み込み処理は、例えば、第1入力画像IN1の左上、すなわち、「A11」を中心にフィルタ係数を乗じる計算を行う。具体的には、「A00×B00」、「A01×B01」、・・・のように乗算結果が算出され、これらの乗算結果を総和すると、特徴マップを構成する特徴値の1つである「C00」が生成される。
図8(C)は、第1出力特徴マップOUT1を示す図である。以下、図では、畳み込み処理結果を示す第1出力特徴マップOUT1を構成する特徴値を第1入力画像IN1の画素値と同様の形式で示す。そして、図示するように、第1フィルタF1を適用する位置を変えていくと、第1出力特徴マップOUT1における特徴値が「C01」、「C02」・・・のように生成される。
そして、フィルタ係数が学習処理により、変更される。このように、いわゆる誤差逆伝播によって、フィルタ係数が変更され、畳み込み処理に用いられるフィルタが学習処理により生成される。また、畳み込み処理の処理結果、すなわち、特徴マップは、畳み込み処理に用いるフィルタのフィルタ係数又は入力画像の少なくとも一方が異なれば違う処理結果となる。
このような畳み込み処理を行うと、例えば、入力される医用画像又は特徴マップ等において特徴を示す画素が、他の画像とは、上下左右にずれる、又は、回転等の違いがあっても、同様の特徴が抽出できる。すなわち、人の局所受容野のように、いわゆる移動不変性を確保できる。
なお、畳み込み処理では、処理対象となる画像の端部に、あらかじめ設定する画素値の画素を周辺に追加する事前処理、いわゆるパディング(Padding)が行われてもよい。パディングが行われると、畳み込み処理によってサイズが小さくなるのを防げる。また、パディングが行われると、端部までフィルタ処理が可能になる。
さらに、畳み込み処理におけるフィルタ処理は、間隔が1画素でなく、間隔が2画素以上であってもよい。すなわち、畳み込み処理では、いわゆるストライド(Stride)が行われてもよい。ストライドが行われると、特徴マップを小さく生成できる。
<プーリング処理例>(Pooling)
プーリング処理は、特徴点の位置をロバストにする処理である。
プーリング処理は、あらかじめ設定される演算を行って、入力画像をダウンサイズさせた特徴マップを生成する処理である。なお、プーリング処理は、ダウンサンプリング処理又はサブサンプリング処理等と呼ばれる場合もある。
図9は、プーリング処理の例を示す図である。例えば、図9(A)に示すような画像(医用画像又は特徴マップ等である。以下「第2入力画像IN2」という。)がプーリング処理の対象であるとする。
プーリング処理は、例えば、設定される範囲にある画素のうち、最も画素値が大きい値を抽出する処理(「maxサンプリング」等と呼ばれる場合もある。)である。図示する例では、プーリング処理は、「2×2」の範囲ごとに、最大値を抽出していく処理である。
図9(A)に示すように、例えば、第2入力画像IN2の左上の位置において、「2×2」の範囲に、「3」、「5」、「4」、及び、「−1」という画素値の画素がある場合には、これらの画素値で最も画素値が大きい「5」という画素値の画素が、プーリング処理によって抽出される。このような処理が行われると、出力特徴マップを構成する特徴値の1つである「5」が生成される。
図9(B)は、第2出力特徴マップOUT2を示す図である。以下、プーリング処理結果を示す第2出力特徴マップOUT2を構成する特徴値を第1入力画像IN1の画素値と同様の形式で示す。そして、図示するように、処理の対象となる範囲を変えていくと、第2出力特徴マップOUT2における特徴値が「5」、「5」・・・のように生成される。
なお、プーリング処理は、最大値を抽出する処理に限られない。すなわち、プーリング処理は、設定される範囲における画素値に基づいて代表値を定める処理であればよい。例えば、プーリング処理は、平均値又は中央値等の統計値を抽出する処理でもよい。
また、プーリング処理は、パディングが行われてもよい。
<正規化の処理例>(Normalization)
正規化の処理は、分散及び平均値を揃える処理である。例えば、正規化の処理は、データの分散が「1」となり、かつ、平均値が「0」となるように、データを変更する処理である。なお、正規化の処理は、最大値、最小値又はこれら双方を設定値以内の値にする等の処理を含んでもよい。
このように、正規化の処理が行われると、学習係数を大きくできる。また、正規化の処理が行われると、多層であっても値が収束するようにできる。
また、正規化の処理は、層ごとに行われてもよい。すなわち、正規化の処理は、いわゆるバッチノーマライゼーション等でもよい。
<全結合処理例>(Full connected)
全結合処理は、前に行われる畳み込み処理等で生成される特徴マップを出力層へ落とし込む処理である。
図10は、全結合処理の例を示す図である。例えば、全結合処理は、図示するように、全結合処理より前に行われる処理によって、複数の「特徴マップ」が生成される場合において、それぞれの特徴マップを出力層LOに関連付けさせる処理である。
図示する例は、出力層LOが「Yes」又は「No」等のように、最終的に出力する形式が2つに設定された場合の例である。したがって、全結合処理は、それぞれの特徴マップに基づいて、活性化関数(いわゆる「softmax」等である。)等によって出力層LOにあらかじめ設定される出力形式のいずれに該当するかを判定する処理である。
なお、それぞれの特徴マップには、重み付けがされてもよい。
また、全結合層より後に出力層がないネットワーク構造、すなわち、出力が特徴マップとなる構成でもよい。具体的には、いわゆるGAP(Global Average Pooling)層等が採用されてもよい。このようにGAP層を用いて、パラメータを少なくするようにしてもよい。
<ドロップアウト処理例>(Dropout)
図11は、ドロップアウト処理の例を示す図である。例えば、ドロップアウト処理を行うドロップアウト層DPは、図示するように、全結合層LFの前後に設定される。
図において、丸印(○)は、パーセプトロン(「ノード」等と呼ばれる場合もある。)を示す。また、図では、線で結ぶことで、前後のパーセプトロンを関連付けして示す。
ドロップアウト処理は、学習処理において、所定の確率で関連付けをなくす処理である。この図では、ドロップアウト層DPは、前の全結合層LFと、後の全結合層LFとを結ぶ線であって、ドロップアウト層DPを通過する線のうち、一部の線を所定の確率で消す処理となる。
ドロップアウト処理は、学習処理において、例えば、ランダムにノードを使わないようにして、出力及び誤差逆伝播等を行う処理である。ドロップアウト処理を行うと、ノード間の依存関係を減らすことができる。したがって、過学習等を防ぐことができる。
<実行処理例>
(実行医用画像の入力例)
ステップS5では、診断装置は、実行医用画像を入力する。
(実行医用画像に基づく判断例)
ステップS6では、診断装置は、実行医用画像に基づいて判断を行う。
例えば、上記のような実行処理は、あらかじめ行われる学習処理で生成されるネットワークに基づいて、以下のように実行される。
図12は、実行処理に用いるネットワークの例を示す図である。例えば、診断装置は、あらかじめ学習データを入力して行う学習処理によって、ネットワークの学習を行う。
学習処理が実行された後、診断装置は、学習モデル22に対して実行医用画像IMG3を入力して実行処理を行う。
実行医用画像IMG3は、例えば、全身医用画像等である。ただし、実行医用画像IMG3は、第1部位P1及び第2部位P2の両方を含む範囲を示す医用画像であればよく、全身がすべて含まれる医用画像でなくともよい。
実行処理が行われると、大型血管炎等の症状であるか否かを判断した判断結果3が出力される。判断結果3は、例えば、出力装置によって、医師等が見れるように出力される。
例えば、医師は、このように出力される判断結果3を症状の診断を行うのに参考にして最終的な診断を行う。
なお、実行医用画像IMG3は、学習処理と同様に、第1医用画像IMG1及び第2医用画像IMG2という2つの医用画像の組み合わせでもよい。
また、診断装置は、第1医用画像IMG1及び第2医用画像IMG2等の画像以外に、更にパラメータを入力してもよい。
なお、第2部位P2は、上記の例に示すように1箇所の部位でなくともよい。すなわち、第2医用画像IMG2は、2種類以上の部位を示す画像であってもよい。さらに、第2医用画像IMG2は、2種類以上の画像であってもよい。
また、上記の例において、マージ画像IMG4を生成する位置は、図示する位置以外であってもよい。
なお、第1医用画像IMG1、第2医用画像IMG2、実行医用画像IMG3又はこれらの画像のうち、2つ以上の組み合わせは、入力において、階調又はコントラスト等が調整されてもよい。
<機能構成例>
図13は、機能構成例を示す図である。例えば、診断装置又は診断システムは、第1医用画像入力部FN1、第2医用画像入力部FN2、学習部FN3、実行画像入力部FN4、及び、判断部FN5等を含む機能構成である。
第1医用画像入力部FN1は、患者の第1部位P1を投影した第1医用画像IMG1を入力する第1医用画像入力手順を行う。例えば、第1医用画像入力部FN1は、通信装置20H3、又は、インタフェース20H6等で実現する。
第2医用画像入力部FN2は、第2部位P2を投影した第2医用画像IMG2を入力する第2医用画像入力手順を行う。例えば、第2医用画像入力部FN2は、通信装置20H3、又は、インタフェース20H6等で実現する。
学習部FN3は、第1医用画像IMG1及び第2医用画像IMG2に基づいて、ネットワークNWの学習を行い、学習モデル22を構築する学習手順を行う。例えば、学習部FN3は、CPU20H1等で実現する。
実行画像入力部FN4は、実行医用画像IMG3を入力する実行医用画像入力手順を行う。例えば、実行画像入力部FN4は、通信装置20H3、又は、インタフェース20H6等で実現する。
判断部FN5は、学習モデル22を用いて、実行医用画像IMG3に基づいて、症状について判断を行う判断手順を行う。例えば、判断部FN5は、CPU20H1等で実現する。
なお、第1医用画像入力部FN1、第2医用画像入力部FN2、及び、学習部FN3は、学習処理が行われる場合に存在すればよい。したがって、学習処理が完了して、学習モデル22が構築された後、すなわち、実行処理を行う場合には、診断装置又は診断システムは、第1医用画像入力部FN1、第2医用画像入力部FN2、及び、学習部FN3がない機能構成でもよい。
同様に、実行画像入力部FN4は、学習モデル22が構築された後、実行処理を行う場合に存在すればよい。したがって、学習処理が完了する前、すなわち、学習処理を行う場合には、診断装置又は診断システムは、実行画像入力部FN4がない機能構成でもよい。
ゆえに、学習処理と実行処理は、異なる装置が別々に行う構成でもよい。
なお、診断装置又は診断システムは、例えば、図7に示すように、隠れ層に基づいて、畳み込み処理、及び、プーリング処理等を行う処理部が更に含まれる機能構成であるのが望ましい。
以上のような機能構成であると、診断装置又は診断システムは、大型血管炎等のように、症例数が数百件以下の希少な症状であっても、画像に基づいて精度良く症例を判断できる。
希少な症状は、例えば、「難病の患者に対する医療等に関する法律」(平成二十六年法律第五十号)、いわゆる難病法(以下「難病法」という。)で難病と指定される症状である。なお、難病法では、大型血管炎は、高安動脈炎という名称で指定される症状である。したがって、本実施形態では、難病法における高安動脈炎が対象となってもよい。
<対象となる特定の症状の例>
特定の症状は、症例が少ない症状である。AI等における学習は、学習データとしての画像は、数万枚以上あるのが望ましい場合が多い。一方で、大型血管炎等の症状は、これほど発生しない症状である。このような症状では、機械学習等で十分に学習ができるほど、症例の画像を準備するのが難しい場合が多い。
学習データを準備するのに、学習データの数を増やすため、1つの画像を加工する方法がある。例えば、元の画像に対して、回転、反転、変形、移動、又は、これらの組み合わせ等の加工を行って、別の画像を生成して画像の数を増やす方法がある。いわゆる「データ拡張(Data Augmentation)」と呼ばれる方法である。
医用画像に基づく判断では、データ拡張等の方法によって生成された画像では、精度が向上しない場合が多い。例えば、データ拡張によって生成された画像であると、医師等が診断に一般的に用いる画像からかけ離れた形式になり、学習の妨げになる場合がある。
また、前提的な症例の画像(例えば、医学書等に記載される例となる画像等である。)では、症状が起きた臓器を同じような形状等を示す場合が多い。そのため、このような画像を学習データに用いると、形状等だけを学習してしまい、形状等だけで判断するように学習してしまうような場合もある。したがって、特定の症状には、データ拡張等の方法で学習データを増やして学習させても、精度が向上しない場合がある。
また、医用画像に特化した学習モデルは、公開されていない場合が多い。特に、放射線科に係る医用画像を学習データとした学習モデルは、公開されていない場合が多い。そして、一般的な画像を学習データとする学習モデルでは、精度が高くできない場合が多い。例えば、ImageNet、FMD(Flickr Material Database)、又は、The KTH−TIPS and KTH−TIPS2 image databases等で提供されている画像を学習データにして学習した学習モデルでは、精度が向上しない場合がある。したがって、医用画像を入力とし、特定の症状を判断させるような処理では、一般的な画像で学習済みのネットワークを利用する、いわゆる転移学習では、精度が向上しない場合がある。
なお、診断装置によって判断される対象となる症状は、白質脳症であってもよい。
図14は、スライス医用画像群を用いる診断システムの全体構成例を示す図である。例えば、特定の症状が白質脳症である場合には、医用画像生成システム21は、スライス医用画像群IMG10を生成する。
スライス医用画像群IMG10は、例えば、患者1の頭頂部乃至鼻孔部を対象範囲として、生成される複数の医用画像である。具体的には、スライス医用画像群IMG10を構成するそれぞれの医用画像は、例えば、対象範囲において、一定の間隔ごとに投影、いわゆるスライス状に生成される医用画像である。したがって、スライス医用画像群IMG10を構成するそれぞれの医用画像は、一定の間隔、ずれた部位を示す画像である。
なお、一定の間隔は、あらかじめ設定され、医用画像生成システム21の仕様等によって定まる。
例えば、このように生成されるスライス医用画像群IMG10のうち、任意に選択される2枚以上の医用画像が、第1医用画像IMG1及び第2医用画像IMG2、すなわち、学習データとなってもよい。以下、大型血管炎と同様に、図5に示すような全体処理が行われてもよい。
なお、特定の症例が白質脳症である場合には、ネットワーク構造は、例えば、以下のような構造でもよい。
図15は、白質脳症用のネットワーク構造例を示す図である。例えば、スライス医用画像群IMG10を構成する医用画像が学習データ及び実行用のデータとなる場合には、図示するようなネットワーク構造であってもよい。
以上のように、診断装置又は診断システムは、異なる部位を示す複数の医用画像を入力して、学習処理及び実行処理を行う構成である。
<変形例>
なお、第1部位には、縦隔以外の部位が含まれてもよい。例えば、第1部位には、縦隔に加えて、首あたりまでの範囲等が更に含まれてもよい。具体的には、第1部位には、以下のような範囲が含まれてもよい。
図16は、第1部位の変形例を示す図である。具体的には、第1部位には、大動脈弓分枝血管P11、上行大動脈P12、大動脈弓P13、胸部下行大動脈P14(単に「下行大動脈」と呼ばれる場合もある。)、腹部大動脈P15、及び、腎動脈P16(右腎動脈及び左腎動脈である。)等が含まれてもよい。
大動脈弓分枝血管P11は、例えば、腕頭動脈、右鎖骨下動脈、右総頚動脈、左総頚動脈、左鎖骨下動脈、又は、これらの一部である。さらに、上行大動脈P12、大動脈弓P13、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等が加わってもよい。
大型血管炎は、例えば、病変部位によって、大動脈弓分枝血管(分類 タイプ1)、上行大動脈、大動脈弓、及び、分枝血管(分類 タイプ2a)、上行大動脈、大動脈弓、分枝血管、及び、胸部下行大動脈(分類 タイプ2b)、胸部下行大動脈、腹部大動脈、及び、腎動脈(分類 タイプ3)、腹部大動脈、及び/又は、腎動脈(分類 タイプ4)、並びに、上行大動脈、大動脈弓、分枝血管、胸部下行大動脈、腹部大動脈、及び/又は、腎動脈(分類 タイプ5)という6種類に分類される。
すなわち、大型血管炎では、縦隔に症状が発生する場合であっても、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等の部位にも症状が発生する場合がある。そこで、第1部位に胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等を加えて学習及び実行が行われてもよい。このような部位が加わると、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等の部位にも症状が発生しているか否か等も判断できる。すなわち、タイプ1乃至タイプ5に分類される症状も判断できる。なお、これらの部位は、すべて1つの医用画像に含まれる必要はなく、別の医用画像で入力されてもよい。
なお、第1医用画像及び第2医用画像は、データ拡張が行われてもよい。ただし、医用画像を対象にデータ拡張する場合には、例えば、以下のような条件が設定されるのが望ましい。
医用画像の拡大及び縮小は、人間の常識で考えられる範囲内で行われるのが望ましい。例えば、心臓及び血管等は、一般的な大きさに対して、2倍の大きさになる場合は少ない。したがって、医用画像の拡大及び縮小は、0.9倍乃至1.1倍程度の範囲で行われるのが望ましい。
医用画像のコントラスト変更は、人間が医用画像を見て形状等を判断できる範囲内で変更されるのが望ましい。すなわち、医用画像のコントラスト変更は、形状及び色等が分からなくなるレベルまで画像を暗く又は明るくしない範囲が望ましい。
なお、上記に示す方法と、他のデータ拡張が組み合わせて行われてもよい。
また、マージ画像を生成する画像は、第1部位を示す画像及び第2部位を示す画像に基づく画像であればよい。したがって、学習処理では、マージ画像を生成するのに用いられる画像は、第1医用画像及び第2医用画像が用いられてもよいし、これらの画像に対して何らかの処理を行って生成される画像でもよい。一方で、実行処理では、マージ画像を生成するのに用いられる画像は、実行医用画像が用いられてもよいし、実行医用画像に対して何らかの処理を行って生成される画像でもよい。
<その他の実施形態>
上記に示す各装置は、1台の装置でなくともよい。すなわち、各装置は、複数の装置で構成されてもよい。また、各装置は、上記に示す以外の装置を内部又は外部に有線又は無線で接続して有してもよい。
本発明に係る実施形態では、診断装置、又は、診断システムが有する情報処理装置等は、並行、分散又は冗長して処理を行ってもよい。
また、本発明に係る処理及びデータは、クラウドコンピュータ等を利用して、並行、分散又は冗長して処理されてもよい。さらに、データは、クラウドコンピュータ又はRAID等で冗長又は分散して記憶されてもよい。
また、本実施形態は、コンピュータに診断方法を実行させるためのプログラム等で実現されてもよい。
したがって、プログラムに基づいて、診断方法を実現する各処理が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。このように、プログラムに基づいて、各ハードウェア資源が協働して処理を実行することで診断方法が行われてもよい。
また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。
以上、本発明の例示的な実施形態について説明したが、本発明は、具体的に開示された実施の形態に限定されない。すなわち、特許請求の範囲から逸脱することなく、種々の変形、改良又は変更が可能である。
1 患者
2 診断システム
3 判断結果
20 診断装置
21 医用画像生成システム
22 学習モデル
DP ドロップアウト層
F1 第1フィルタ
FN1 第1医用画像入力部
FN2 第2医用画像入力部
FN3 学習部
FN4 実行画像入力部
FN5 判断部
IMG1 第1医用画像
IMG2 第2医用画像
IMG3 実行医用画像
IMG4 マージ画像
IMG10 スライス医用画像群
IN1 第1入力画像
IN2 第2入力画像
L1 第1隠れ層
L2 第2隠れ層
L3 第3隠れ層
LC11 第11畳み込み層
LC12 第12畳み込み層
LC13 第13畳み込み層
LC2 第2畳み込み層
LC31 第31畳み込み層
LC32 第32畳み込み層
LC33 第33畳み込み層
LD31 第1ドロップアウト層
LD32 第2ドロップアウト層
LF 全結合層
LF31 第1全結合層
LF32 第2全結合層
LN3 正規化層
LO 出力層
LP11 第11プーリング層
LP12 第12プーリング層
LP31 第31プーリング層
LP32 第32プーリング層
LP33 第33プーリング層
LP34 第34プーリング層
MP1 第1特徴マップ
MP2 第2特徴マップ
NW ネットワーク
OUT1 第1出力特徴マップ
OUT2 第2出力特徴マップ
P1 第1部位
P2 第2部位

Claims (13)

  1. 患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
    前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
    前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
    前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
    を含み、
    前記学習部は、前記第1医用画像及び前記第2医用画像に基づいてマージ画像を生成して、前記マージ画像を用いて学習を行う
    診断装置。
  2. 前記第1部位は、縦隔であり、
    前記第2部位は、肝臓である
    請求項1に記載の診断装置。
  3. 前記症状は、大型血管炎である
    請求項1又は2に記載の診断装置。
  4. 前記第1医用画像は、前記第2医用画像より解像度が高い画像である
    請求項1乃至3のいずれか1項に記載の診断装置。
  5. 前記第2医用画像は、前記第2部位における同一の色を示す画素、同一の画素値を示す画素、又は、基準値以内の画素のうち、いずれかの集まりを含む画像である
    請求項1乃至4のいずれか1項に記載の診断装置。
  6. 前記第2医用画像は、前記第2部位における臓器の輪郭を含まない位置を示す
    請求項5に記載の診断装置。
  7. 前記第1医用画像及び前記第2医用画像は、前記第1部位及び前記第2部位の両方を示す医用画像から切り出して生成される
    請求項1乃至6のいずれか1項に記載の診断装置。
  8. 前記マージ画像は、前記第1医用画像及び前記第2医用画像のそれぞれの色又は画素値を比較した結果を示す画像である
    請求項1乃至7のいずれか1項に記載の診断装置。
  9. 前記マージ画像は、前記画素値の差を計算して生成される画像である
    請求項に記載の診断装置。
  10. 前記ネットワークは、隠れ層を有し、
    前記第1医用画像及び前記第2医用画像に対して、前記隠れ層に基づく、畳み込み、プーリング、又は、これらの組み合わせを行う処理部を更に含み、
    前記マージ画像は、前記処理部が前記第1医用画像及び前記第2医用画像を処理して生成する第1特徴マップ及び第2特徴マップに基づいて生成される
    請求項1乃至9のいずれか1項に記載の診断装置。
  11. 前記第1部位は、大動脈弓分枝血管、上行大動脈、大動脈弓、胸部下行大動脈、腹部大動脈、及び、腎動脈のうち、いずれを含み、かつ、前記第1部位は、縦隔を更に含み、
    前記第2部位は、肝臓である
    請求項1乃至10のいずれか1項に記載の診断装置。
  12. 患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
    前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
    前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
    前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
    を含み、
    前記学習部は、前記第1医用画像及び前記第2医用画像に基づいてマージ画像を生成して、前記マージ画像を用いて学習を行う
    診断システム。
  13. コンピュータに診断方法を実行させるためのプログラムであって、
    コンピュータが、患者の第1部位を投影した第1医用画像を入力する第1医用画像入力手順と、
    コンピュータが、前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力手順と、
    コンピュータが、前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習手順と、
    コンピュータが、前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断手順と
    を実行させ
    前記学習手順では、前記第1医用画像及び前記第2医用画像に基づいてマージ画像を生成して、前記マージ画像を用いて学習を行う
    プログラム。
JP2020001974A 2020-01-09 2020-01-09 Aiを用いる診断装置、診断システム、及び、プログラム Active JP6737491B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020001974A JP6737491B1 (ja) 2020-01-09 2020-01-09 Aiを用いる診断装置、診断システム、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001974A JP6737491B1 (ja) 2020-01-09 2020-01-09 Aiを用いる診断装置、診断システム、及び、プログラム

Publications (2)

Publication Number Publication Date
JP6737491B1 true JP6737491B1 (ja) 2020-08-12
JP2021111076A JP2021111076A (ja) 2021-08-02

Family

ID=71949278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001974A Active JP6737491B1 (ja) 2020-01-09 2020-01-09 Aiを用いる診断装置、診断システム、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6737491B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022069143A (ja) * 2020-10-23 2022-05-11 株式会社アドイン研究所 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6727543B2 (ja) * 2016-04-01 2020-07-22 富士ゼロックス株式会社 画像パターン認識装置及びプログラム
JP6915349B2 (ja) * 2017-04-04 2021-08-04 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6930283B2 (ja) * 2017-08-18 2021-09-01 コニカミノルタ株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN116741352A (zh) * 2017-11-24 2023-09-12 佳能医疗系统株式会社 医用数据处理装置、磁共振成像装置及学习完毕模型生成方法
JP6882216B2 (ja) * 2018-02-28 2021-06-02 富士フイルム株式会社 診断支援システム、診断支援方法、及びプログラム
JP7094511B2 (ja) * 2018-03-15 2022-07-04 ライフサイエンスコンピューティング株式会社 人工知能を用いた病変の検知方法、及び、そのシステム
EP3791310A4 (en) * 2018-05-07 2022-03-30 Zebra Medical Vision Ltd. SYSTEMS AND METHODS FOR PREPROCESSING ANATOMIC IMAGES FOR INTRODUCTION TO A CLASSIFICATION NEURAL NETWORK

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022069143A (ja) * 2020-10-23 2022-05-11 株式会社アドイン研究所 Aiを用いる診断装置、学習データ生成装置、データ要求装置、診断システム、及び、プログラム

Also Published As

Publication number Publication date
JP2021111076A (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
JP6657132B2 (ja) 画像分類装置、方法およびプログラム
US20210353216A1 (en) Dental Image Feature Detection
Dangi et al. A distance map regularized CNN for cardiac cine MR image segmentation
JP6525912B2 (ja) 画像分類装置、方法およびプログラム
JP7134962B2 (ja) 解剖学的画像処理における確率的セグメンテーションのためのシステム及び方法
US10664979B2 (en) Method and system for deep motion model learning in medical images
US11861851B2 (en) Anatomical and functional assessment of CAD using machine learning
US20220028085A1 (en) Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
CN111563523B (zh) 利用机器训练的异常检测的copd分类
Hernandez et al. Deep learning in spatiotemporal cardiac imaging: A review of methodologies and clinical usability
US11308613B2 (en) Synthesis of contrast enhanced medical images
JP2018175226A (ja) 医用画像分類装置、方法およびプログラム
JP2022018060A (ja) 医用情報処理装置及び医用情報処理プログラム
JP6737491B1 (ja) Aiを用いる診断装置、診断システム、及び、プログラム
AU2019204365C1 (en) Method and System for Image Segmentation and Identification
KR102556646B1 (ko) 의료 영상 생성 방법 및 장치
CN114565623A (zh) 肺血管分割方法、装置、存储介质及电子设备
CN114331877A (zh) 一种血管内超声影像修复方法及系统
Benjamins et al. Hybrid cardiac imaging: the role of machine learning and artificial intelligence
Sasikala et al. Classification of diabetic retinopathy based on Functional Linked Neural network utilizing segmented fundus image features
Huang et al. Direct full quantification of the left ventricle via multitask regression and classification
US11847779B2 (en) Clinical decision support for cardiovascular disease based on a plurality of medical assessments
US20240233945A1 (en) Multi-modality neural network for alzheimer's disease classifcation
US20230368398A1 (en) Anatomical and functional assessment of coronary artery disease using machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200128

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6737491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250