JP7140630B2 - 画像処理装置、データ生成装置及びプログラム - Google Patents

画像処理装置、データ生成装置及びプログラム Download PDF

Info

Publication number
JP7140630B2
JP7140630B2 JP2018197801A JP2018197801A JP7140630B2 JP 7140630 B2 JP7140630 B2 JP 7140630B2 JP 2018197801 A JP2018197801 A JP 2018197801A JP 2018197801 A JP2018197801 A JP 2018197801A JP 7140630 B2 JP7140630 B2 JP 7140630B2
Authority
JP
Japan
Prior art keywords
data
region
image
lesion
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018197801A
Other languages
English (en)
Other versions
JP2020062355A (ja
Inventor
仁 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018197801A priority Critical patent/JP7140630B2/ja
Publication of JP2020062355A publication Critical patent/JP2020062355A/ja
Application granted granted Critical
Publication of JP7140630B2 publication Critical patent/JP7140630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、画像処理装置、データ生成装置及びプログラムに関する。
コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習し、その特徴量に人間がラベル(記号)を与えることによって学習済モデルを生成する場合がある。
病変の特徴量を基に判定を行う学習済モデルを生成する過程の学習には、一般に訓練データが多数必要となる。例えば、深層学習(ディープラーニング)を用いて学習を行う場合、学習済モデルを生成するための医用データが訓練データとして、例えば数万個程度必要となる場合もある。しかし、これら訓練用の医用データを十分な数、入手するのが、難しい場合もある。この結果、学習された学習済モデルの判定精度が低下する場合があった。
特開2016-7270号公報
本発明が解決しようとする課題は、学習された学習済モデルの判定精度を高めることである。
実施形態に係る画像処理装置は、抽出部と、学習部とを備える。抽出部は、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する。学習部は、入力医用データについての判定を行う学習済モデルを、抽出部が抽出した第1のデータと、第2のデータと、第3のデータとを訓練データとして用いて生成する。
図1は、実施形態に係る画像処理装置を示す図である。 図2は、実施形態に係る画像処理装置が行う処理について説明した図である。 図3は、実施形態に係る画像処理装置が行う画像抽出の処理の流れについて説明したフローチャートである。 図4は、実施形態に係る画像処理装置が行う処理について説明した図である。 図5は、実施形態に係る画像処理装置が行う学習の処理の流れについて説明したフローチャートである。 図6は、実施形態に係る画像処理装置が行う処理について説明した図である。 図7は、実施形態に係る画像処理装置が行う学習済モデルの実行の処理の流れについて説明したフローチャートである。
以下、本発明の実施形態について図面を参照しながら説明する。ここで、互いに同じ構成には共通の符号を付して、重複する説明は省略する。
(実施形態)
図1の実施形態に係る画像処理装置100を示すブロック図である。
医用画像診断装置10は、被検体の撮影又は撮像を行い、医用データを生成する装置である。また、医用画像診断装置10は、被検体の撮像を行い生成した医用データを、画像処理装置100に送信する。ここで、医用画像診断装置10は、例えば、X線CT(Computed Tomography)装置である。かかる場合、医用画像診断装置10は、被検体に対してX線CT撮影を行い、X線CTデータまたはX線CT画像を生成する。医用画像診断装置10は、生成したX線CTデータまたはX線CT画像を、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、画像処理装置100に送信する。画像処理装置100は、後述する、第1の処理回路120が有するインタフェース機能120a又は第2の処理回路130が有するインタフェース機能130aにより、医用画像診断装置10から、X線CTデータまたはX線CT画像を取得する。
なお、医用画像診断装置10が、被検体に対してX線CT撮影を行うことにより得られたX線CTデータに基づいてX線CT画像を生成してもよいし、画像処理装置100が、医用画像診断装置10から取得したX線CTデータに基づいてX線CT画像を生成してもよい。
画像処理装置100は、医用画像診断装置10に接続され、学習済モデルの生成、学習済モデルの実行、及び様々な画像処理を実行する。画像処理装置100は、医用画像診断装置10が生成する医用データを、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、利用する。画像処理装置100は、これらの入力医用データ及び訓練用の医用データを、例えばそれぞれ入力医用画像及び訓練用の医用画像の形で、利用する。
画像処理装置100は、メモリ132、入力装置134、ディスプレイ135、第1の処理回路120、第2の処理回路130を備える。第1の処理回路120は、インタフェース機能120a、制御機能120b、生成機能120c、訓練用データ作成機能1、学習機能2を備える。訓練用データ作成機能1の中には、抽出機能4が含まれ、より詳細には、抽出機能4は、異常領域抽出機能4a、境界領域抽出機能4b、正常領域抽出機能4cが含を含む。また、学習機能2は、異常領域学習機能2a、境界領域学習機能2b、正常領域学習機能2cを含む。また、第2の処理回路130は、インタフェース機能130a、制御機能130b、生成機能130c、判定機能3を備える。
実施形態では、インタフェース機能120a、制御機能120b、生成機能120c、訓練用データ作成機能1(抽出機能4を含み、より詳細には、異常領域抽出機能4a、境界領域抽出機能4b、正常領域抽出機能4cを含む)、学習機能2(異常領域学習機能2a、境界領域学習機能2b、正常領域学習機能2cを含む)、インタフェース機能130a、制御機能130b、生成機能130c、判定機能3にて行われる各処理機能、及び学習済モデルは、コンピュータによって実行可能なプログラムの形態でメモリ132へ記憶されている。第1の処理回路120及び第2の処理回路130はプログラムをメモリ132から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の第1の処理回路120は、図1の第1の処理回路120内に示された各機能を有することになる。また、各プログラムを読み出した状態の第2の処理回路130は、図1の第2の処理回路130内に示された各機能を有することになる。また、学習済モデルに対応するプログラムを読み出した状態の第2の処理回路130が実行されると、当該学習済モデルに従った処理が行われる。なお、図1においては第1の処理回路120及び第2の処理回路1330にて、それぞれ単一の処理回路により、これらの処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせてそれぞれ第1の処理回路120及び第2の処理回路130を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよい。また、単一の処理回路により、第1の処理回路120及び第2の処理回路130の両方が実現されてもよい。別の例として、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。なお、図1において、抽出機能4、学習機能2、判定機能3、インタフェース機能120a及び130a、制御機能120b及び130b、生成機能120c及び130cは、それぞれ抽出部、学習部、判定部、受付部、制御部、画像生成部の一例である。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ132に保存されたプログラムを読み出し実行することで機能を実現する。
また、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。従って、例えばメモリ132に学習済モデルが保存される代わりに、プロセッサの回路内に学習済モデルに係るプログラムが直接組み込まれていてもよい。
なお、第1の処理回路120は、主に訓練用データの作成および、訓練用データを用いた学習による学習済モデルの生成を主に担う処理回路であり、第2の処理回路130は、生成された学習済モデルを鑑別対象のデータに適用して鑑別を行う機能を主に担う処理回路である。
第1の処理回路120は、訓練用データ作成機能1により、医用画像診断装置10から取得したデータに基づいて、後述の学習機能2により学習を行うための訓練データを生成する。第1の処理回路120は、訓練用データ作成機能1により生成された訓練用データに対して、学習機能2を用いて学習を行い、学習済モデルを生成する。また、第2の処理仮130は、生成された学習済モデルに対して鑑別を行い、判定を行う。これら、訓練用データ作成機能1、学習機能2及び判定機能3については、後述する。
また、第1の処理回路120は、インタフェース機能120aにより、訓練用データの取得に係る医用画像診断装置10の撮影の制御に係る情報を医用画像診断装置10へ送信し、また、医用画像診断装置10から、撮影により得られた訓練用データを取得する。また、インタフェース機能120aを有する第1の処理回路120は、受信した訓練用データをメモリ132に格納する。
同様に、第2の処理回路130は、インタフェース機能130aにより、鑑別対象のデータの取得に係る医用画像診断装置10の撮影の制御に係る情報を医用画像診断装置10へ送信し、また、医用画像診断装置10から、撮影により得られた鑑別対象のデータを取得する。また、第1の処理回路120は、インタフェース機能120aを有する第1の処理回路120は、受信した鑑別対象のデータをメモリ132に格納する。
第1の処理回路120は、制御機能120bにより、また第2の処理回路130は、制御機能130bにより、医用画像診断装置10及び画像処理装置100の全般的な制御を行い、撮像や画像の生成、画像の表示等を制御する。
また、第1の処理回路120は、生成機能120cにより、訓練用データに基づいて、訓練用の医用画像を生成し、または生成された訓練用の医用画像に対して、種々の画像処理を行う。同様に、第2の処理回路130は、生成機能120cにより、鑑別対象のデータに基づいて、鑑別対象の医用画像を生成し、または生成された鑑別対象の医用画像に対して、種々の画像処理を行う。
メモリ132は、上述の訓練用データ及び鑑別対象のデータ等、様々なデータを記憶する。メモリ132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。
入力装置134は、操作者からの各種指示や情報入力を受け付ける。入力装置134は、例えば、マウスやトラックボール等のポインティングデバイス、モード切替スイッチ等の選択デバイス、あるいはキーボード等の入力デバイスである。ディスプレイ135は、制御機能133による制御の下、撮像条件の入力を受け付けるためのGUI(Graphical User Interface)や、生成機能120cや130cによって生成された画像等を表示する。ディスプレイ135は、例えば、液晶表示器等の表示デバイスである。ディスプレイ135は、表示部の一例である。
続いて、実施形態に係る背景について簡単に説明する。
コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習を行って、その特徴量にラベル(記号)を人間が与えて学習済モデルを生成する場合がある。
病変の特徴量を基に判定を行う学習済モデルを生成する過程で行われる学習には、一般に訓練データが多数必要となる。例えば、深層学習(ディープラーニング)を用いて学習を行う場合、学習済モデルを生成するための医用データが訓練データとして、例えば数万個程度必要となる場合もある。しかし、これら訓練用の医用データを十分な数入手するのが、難しい場合もある。例えば、肺がんなどでは、商業的に利用可能な臨床データが数千個程度に留まっており、これは、深層学習を用いた学習を行う場合には、必ずしも十分な数とは言い切れない。この結果、生成された学習済モデルが、十分な判別精度を持たない場合もある。
かかる背景に鑑みて、実施形態に係る画像処理装置100は、第1の処理回路120と、第2の処理回路130とを有する。第1の処理回路120は、抽出機能4により、訓練用の医用データから、病変内部の領域である第1の領域(異常領域)の画像に係る第1のデータと、病変周囲の領域である第2の領域(境界領域)の画像に係る第2のデータと、病変外部の領域である第3の領域(正常領域)の画像に係る第3のデータとを抽出する。また、第1の処理回路120は、学習機能2により、入力医用データについての判定を行う学習済モデルを、抽出機能4により抽出された第1のデータと、第2のデータと、第3のデータとを訓練データとして用いて生成する。
すなわち、実施形態においては、第1の処理回路120は、抽出機能4により、病変内部の領域である第1の領域(異常領域)に関するデータである第1のデータと、病変周囲の領域である第2の領域(境界領域)に関するデータである第2のデータと、病変外部の領域の領域である第3の領域(正常領域)に関するデータである第3のデータとを抽出する。かかる状況の一例が、図2に示されている。図2は、実施形態に係る画像処理装置が行う処理について説明した図である。
図2において、異常領域11は、ある臓器内における病変部である第1の領域を表す。また、境界領域12は、病変部である異常領域11の周囲に広がる領域である第2の領域を表す。また、正常領域13a、13b、13c、13d、13e、13fは、異常領域11から十分離れているために、病変外部の正常な領域であると考えられる第3の領域を表す。なお、病変を抱えている人の病変外部の正常領域と、病変が全く無い人の正常領域との差異は、いわゆる全身性疾患ではない固形がんなどの局在性の高い病変を対象にする場合、微小であることから、少なくともかかるケースにおいては、異常領域11から十分離れている領域である第3の領域を、正常な領域として取り扱うことができる。
図2の例では、第1の処理回路120は、抽出機能4により、異常領域11、境界領域12、及び正常領域13a~13fを抽出する。その後、第2の処理回路130が、抽出した異常領域11、境界領域12及び正常領域13a~13fを訓練データとして学習を行って、学習済みモデルを生成する。
図2の例では、第1に、第1の処理回路120は、一つの臨床データから、正常領域13a~13fを複数個抽出し、これら複数個のデータを用いて学習を行う。これにより、第1の処理回路120は、少ない臨床例で、多数の有効な訓練データを生成することができ、学習の効率を向上させることができる。
また、第2に、第1の処理回路120は、異常領域11だけではなく、異常領域11の周囲の広がる領域である境界領域12をも抽出し、抽出された境界領域12に係るデータを用いて学習を行う。さらに、第2の処理回路130は、異常領域11の情報のみならず、境界領域12に係る情報をも用いて病変の鑑別を行う。これにより、異常領域11のみならず境界領域12に係る特徴量が病変の鑑別に利用されることで、第2の処理回路130が行う判定の精度を向上させることができる。
以上のことを、図3~図7を用いてより詳細に説明する。
はじめに、図3及び図4を用いて、第1の処理回路120が訓練用データ作成機能1、特に抽出機能4を用いて行う、訓練用データの作成手順について説明する。
はじめに、第1の処理回路120は、抽出機能4により、医用画像診断装置10から取得した訓練用の医用データから、病変内部の領域である第1の領域(異常領域)を抽出する(ステップS100)。具体的には、第1の処理回路120は、異常領域抽出機能4aにより、医用画像診断装置10から取得した訓練用の医用データに基づいて生成機能120cにより生成された医用画像に対して、例えばLevel set法等の輪郭抽出技術を用いて、病変部位の輪郭を抽出し、異常領域11を、病変内部の領域である第1の領域として抽出する。この処理に基づき、第1の処理回路120は、異常領域抽出機能4aにより、訓練用の医用画像から、病変内部の領域である第1の領域の画像に係る第1のデータを抽出する。
続いて、第1の処理回路120は、抽出機能4により、医用画像診断装置10から取得した訓練用の医用データから、病変周囲の領域である第2の領域を抽出する(ステップS110)。具体的には、第1の処理回路120は、境界領域抽出機能4bにより、医用画像診断装置10から取得した訓練用の医用データに基づいて生成機能120cにより生成された医用画像に対して、例えば morphological filteringのdilation処理を行うことにより、境界領域12を、病変周囲の領域である第2の領域として抽出する。
図4に、morphological filteringのdilation処理の一例が示されている。図4は、実施形態に係る画像処理装置が行う処理について説明した図である。
図4において、第1の領域20は、病変の内部の領域をあらわす領域である。第1の領域20は、図2の異常領域11に対応する領域である。第1の処理回路120は、異常領域抽出機能4aにより、第1の領域20から定められた距離の範囲にある領域、すなわち第1の領域20とdilation envelop22とで囲まれた領域を、第2の領域として抽出する。ここで、dilation envelop 22は、当該定められた距離を半径とする円21が第1の領域20と外接するように、円21を第1の領域20の周囲で動かした場合における円21の中心の描く軌跡である。ここで、当該定められた距離の範囲(dilationの拡張幅)は、病変の種類に応じた値として設定された値となる。一例として、第1の処理回路120は、病変の種類が「肝臓がん」の場合、当該定められた距離を「X mm」とし、病変の種類が「肺がん」の場合、当該定められた距離を「Y mm」と設定する。なお、第1の処理回路120は、例えば2つのがんが隣接している場合、まとめて1つの病変周辺領域として取り扱っても良い。
これらの処理に基づき、第1の処理回路120は、境界領域抽出機能4bにより、訓練用の医用画像から、病変周囲の領域である第2の領域の画像に係る第2のデータを抽出する。
図3に戻り、続いて、第1の処理回路120は、正常領域抽出機能4cにより、医用画像診断装置10から取得した訓練用の医用データから、病変外部の領域である第3の領域を抽出する(ステップS120)。
具体的には、第1の処理回路120は、正常領域抽出機能4cにより、判定の対象となる臓器自身の輪郭を、Level set法等の輪郭抽出技術を用いて抽出する。続いて、第1の処理回路120は、正常領域抽出機能4cにより、ステップS100で抽出した第1の領域及びステップS110で抽出した第2の領域の外側の領域を、病変外部の領域である第3の領域として抽出する。この際、第1の処理回路120は、正常領域抽出機能4cにより、第3の領域(第3の領域の画像に係る第3のデータ)の抽出の際、訓練を行う対象の組織とは異なる組織を除外して、例えば一定の大きさのVOI(Volume Of Interest)となるように抽出を行う。ここで、訓練を行う対象の組織とは異なる組織の例としては、例えば主要血管や、気管支等の主要管状組織が挙げられる。このように、第1の処理回路120は、正常領域抽出機能4cにより、がんの影響を受ける可能性のある主要血管や気管支領域そのもの、及びその周辺を取り除くことで、訓練データの質を向上させることができる。第1の処理回路120は、正常領域抽出機能4cにより、このような条件を満たす領域であって、例えば5mmの球が内接できる領域で、重なりの無い複数の球状領域を、正常領域である第3の領域として、複数個抽出する。
これらの処理に基づき、第1の処理回路120は、正常領域抽出機能4cにより、訓練用の医用画像から、病変外部の領域である第3の領域の画像に係る第3のデータを抽出する。
なお、上述の例では、抽出を行う画像が、病変を有している患者に係る画像の場合について説明した。第1の処理回路120は、抽出機能4により、病変を有していない正常人の画像を用いても良い。かかる場合、第1の処理回路120は、異常領域抽出機能4a及び境界領域抽出機能4bを用いず、正常領域抽出機能4cのみを用い、第3の領域の画像に係る第3のデータのみを抽出する。
以上のステップS100~ステップS120により、第1の処理回路120は、抽出機能4により、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出した。第1の処理回路120は、続いて、これら抽出したデータに対して、学習機能2により、学習を行い、学習済モデルを生成する。
続いて、図5及び図6を用いて、第1の処理回路120が、抽出機能4により抽出されたデータに基づいて行う学習の手順について説明する。図5は、実施形態に係る画像処理装置100が行う学習の処理の流れについて説明したフローチャートである。
ここで、学習を行う一つの例として、例えば、重み付けが未調整の学習対象のモデルの重み付けを訓練データを用いて調整し、重み付けが調整された学習済モデルを生成することが挙げられる。このような学習対象のモデルの例としては、一定の入力に対して重み付けに応じた一定の出力を返すノードが2以上集まることにより構成されるニューラルネットワークが挙げられる。このようなニューラルネットワークの例として、例えば、2層のニューラルネットワークや、3層以上の多層ニューラルネットワークがあり、また画像処理において使われる多層ニューラルネットワークの例として、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が挙げられる。また、ニューラルネットワークの学習は、例えば教師有りデータに対して逆誤差伝搬法等を用いて行われる。
また、学習を行う別の例として、特徴量の抽出が可能であるが、取りだした特徴量に対してラベル付けまでは行わない識別手法、例えばSVM(Support Vector Machine)またはその他の分類器を用いた機械学習の手法も挙げられる。
以下、実施形態では、学習の例として、深層学習を用いる場合で説明するが、実施形態はこれに限られず、実施形態はSVMを使う手法等についても同様に適用できる。
図5において、はじめに、第1の処理回路120は、正常領域学習機能2cにより、病変外部の領域である第3の領域の画像に係る第3のデータを訓練データとして用いて学習を行って、病変外部の領域である第3の領域についての学習済モデルを生成する(ステップS200)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS120において正常領域抽出機能4cを用いて抽出した第3のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、正常領域学習機能2cにより、第3のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変外部の領域である第3の領域についての学習済モデルを生成する。
同様に、第1の処理回路120は、境界領域学習機能2bにより、病変周囲の領域である第2の領域の画像に係る第2のデータを訓練データとして用いて学習を行って、病変周囲の領域である第2の領域についての学習済モデルを生成する(ステップS210)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS110において境界領域抽出機能4bを用いて抽出した第2のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、境界領域学習機能2bにより、第2のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変周囲の領域である第2の領域についての学習済モデルを生成する。なお、深層学習を行う場合、第1の処理回路120は、境界領域学習機能2bにより、これに加えて、第2のデータに基づいて、例えばオートエンコーダーを用いて学習を行ってもよい。
また、第1の処理回路120は、異常領域学習機能2aにより、病変内部の領域である第1の領域の画像に係る第1のデータを訓練データとして用いて学習を行って、病変内部の領域である第1の領域についての学習済モデルを生成する(ステップS220)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS100において異常領域抽出機能4aを用いて抽出した第1のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、異常領域学習機能2aにより、第1のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変内部の領域である第1の領域についての学習済モデルを生成する。なお、深層学習を行う場合、第1の処理回路120は、異常領域学習機能2aにより、これに加えて、第1のデータに基づいて、例えばオートエンコーダーを用いて学習を行ってもよい。
なお、第1の処理回路120は、ステップS220における学習済モデルの生成にあたって、第2のデータ及び第3のデータに基づいて生成されたデータを訓練データとして追加的に用いて学習を行っても良い。
続いて、第1の処理回路120は、学習機能2により、ステップS200で生成された学習済モデル、ステップS210で生成された学習済モデル及びステップS220で生成された学習済モデルを統合・集約して、一つの学習済モデルを生成する(ステップS230)。例えば、第1の処理回路120は、学習機能2により、ステップS200で生成された学習済モデル、ステップS210で生成された学習済モデル及びステップS220で生成された学習済モデルを線形結合して、一つの学習済モデルを生成する。
このように、第1の処理回路120は、抽出機能4により図3のステップS100~S120において抽出された、第1のデータと、第2のデータと、第3のデータとを、訓練データとして用いて、学習機能2により学習を行い、鑑別の対象となる医用画像である入力医用画像についての判定を行う学習済モデルを生成する。
図6に、このような処理の一例が示されている。図6は、実施形態に係る画像処理装置100が行う処理について説明した図である。
図6において、データセット30は、同一症例内で抽出されるデータセットを表している。第1の処理回路120は、病変を有している患者からは、抽出機能4により、一つの臨床データから、正常領域(病変外部の領域)に係るデータである第3のデータ31a、31b、31c、31d、31e、境界領域(病変周囲の領域)に係るデータである第2のデータ33、及び異常領域(病変内部の領域)に係るデータである第1のデータ32を抽出する。一方で、第1の処理回路120は、病変を有していない患者の臨床データからは、正常領域抽出機能4cにより、正常領域(病変外部の領域)に係るデータである第3のデータ34a、34b、34c、34d、34eのみを抽出する。
ステップS200において、第1の処理回路120は、正常領域学習機能2cにより、第3のデータ31a、31b、31c、31d、31e、34a、34b、34c、34d、34eに基づいて学習を行い、学習済モデル5cを生成する。また、ステップS210において、第1の処理回路120は、境界機能学習機能2bにより、第2のデータ33に基づいて学習を行い、学習済モデル5bを生成する。また、ステップS220において、第1の処理回路120は、異常機能学習機能2aにより、第1のデータ32に基づいて学習を行い、学習済モデル5b及び5cの結果と統合して、学習済モデル5aを生成する。
続いて、第1の処理回路120が学習機能2に基づいて生成した学習済モデルの実行について説明する。図7は、実施形態に係る画像処理装置が行う学習済モデルの実行の流れについて説明したフローチャートである。
第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデルに基づいて、入力医用データについての判定(病変の鑑別)を行う(ステップS300)。例えば、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデルに基づいて、画像に対する病変の有無を判定する。すなわち、第2の処理回路130は、判定機能3により、入力医用データに係る画像が、病変の画像であるか否かを判定する。
また、第2の処理回路130は、判定機能3により、入力医用データに係る画像について、その他の判定を追加的に行ってもよい。例えば、ステップS300において、入力医用データに係る画像が、病変の画像であると判定された場合、第2の処理回路130は、判定機能3により、当該病変が、良性の病変であるか、あるいは悪性の病変であるかも追加的に判定する。また、第2の処理回路130は、判定機能3により、さらに病変領域の特定を行い、または病変の尤度などを算出してもよい。
また、第2の処理回路130は、判定機能3により、病変鑑別に使用した画像領域の特徴量を更に算出する。例えば、学習済モデルがニューラルネットワークの場合、第2の処理回路130は、判定機能3により、当該ニューラルネットワークのうちの所定のニューロンモデルを用いて、病変鑑別に使用した画像領域の特徴量を算出する。また、SVMを用いて機械学習を行う場合、第2の処理回路130は、SVMを用いて得られた所定の固有ベクトルに基づいて、病変鑑別に使用した画像領域の特徴量を算出する。
なお、算出したこれらの特徴量に関して、第2の処理回路130は、判定機能3により、算出した特徴量を、例えば病変の病理学的な性質に応じて、入力医用データについての判定を行う際の補助判定情報として用いてもよい。補助判定情報を利用することで、第2の処理回路130は、入力医用データに係る画像が、病変の画像であるか否かにかかる判定の精度を、更に向上させることができる。
補助判定情報を利用する一例として、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデル及び、第1の領域と第2の領域との位置関係に基づいて、入力医用データについての判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデル及び、第1の領域が第2の領域に囲まれるように位置しているかに基づいて、入力医用データについての判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、第1の領域が第2の領域に囲まれる度合いが大きいほど、病変が存在する可能性が高いと判定する。
また、第2の処理回路130は、病変周囲の領域の情報を加味して、入力医用データに係る画像が病変の画像であるか否かに係る判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、病変周囲の領域である第2の領域における特徴量及び学習済モデルに基づいて、入力医用データについての判定を行っても良い。また、例えば、第2の処理回路130は、病変周囲の領域に対してテキスチャ解析を行い、行ったテキスチャ解析の結果に基づいて、入力医用データについての判定を行っても良い。
続いて、第2の処理回路130は、制御機能130bにより、ステップS300において判定機能3により行われた判定結果をディスプレイ135に表示させる(ステップS310)。
続いて、第2の処理回路130は、制御機能130bにより、ステップS300において判定機能3により算出された特徴量を、ディスプレイ135に表示させる(ステップS320)。
実施形態は、上述の例に限られない。
実施形態では、医用画像診断装置10が、X線CT装置である場合について説明したが、実施形態はこれに限られない。
一例として、医用画像診断装置10は、例えば、磁気共鳴イメージング装置である。かかる場合、医用画像診断装置10は、被検体に対して磁気共鳴イメージング撮像を行い、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を生成する。医用画像診断装置10は、生成した磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を、学習済モデルが判定を行う対象となる入力医用画像として、または、学習済モデルを生成するための訓練用の医用画像として、画像処理装置100に送信する。画像処理装置100は、インタフェース機能120a又はインタフェース機能130aにより、医用画像診断装置10から、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を取得する。
なお、医用画像診断装置10が、磁気共鳴イメージング撮像を行うことにより得られた磁気共鳴イメージングデータに基づいて磁気共鳴イメージング画像を生成してもよいし、画像処理装置100が、医用画像診断装置10から取得した磁気共鳴イメージングデータに基づいて、生成機能120c又は生成機能130cにより、磁気共鳴イメージング画像を生成してもよい。
また、医用画像診断装置10は、超音波診断装置、陽電子放射断層撮影装置等の核医学診断装置、デジタルX線診断装置等の、その他の種類の医用機器であってもよい。かかる場合、医用画像診断装置10は、被検体の撮影又は撮像を行って生成したデータを、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、画像処理装置100に送信する。
また、入力医用データや、訓練用の医用データ等に代表される医用データの形式は、ボリュームデータを基に再構成された画像データ、生データを基に再構成された画像データ、画像データに対してさらに加工が行われた画像データ、例えば画像データのエッジを強調したデータ等の加工済み画像データなど、様々な形式の画像データを含む。
また、画像処理装置100が、医用画像診断装置10から、訓練用の医用データまたは入力医用データを取得する場合について説明したが、実施形態は、画像処理装置100が、医用画像診断装置10から、直接、訓練用の医用データまたは入力医用データを取得する場合に限られない。例えば、医用画像診断装置10が、別途存在する画像保存サーバなどの記憶装置に医用データを訓練用の医用データまたは入力医用データとして送信し、当該記憶装置に保存された医用データを、画像処理装置100が取得してもよい。この場合、当該記憶装置に保存された医用データは、単一の医用画像診断装置10により生成されたものに限られず、複数の医用画像診断装置10により生成されてもよい。
また、鑑別対象となる入力医用データは、医用画像診断装置10により撮影された画像に限られず、例えば被検体細胞を採取して顕微鏡で撮影した病理画像などのデータであってもよい。
また、図3のステップS120で、第1の処理回路120が、第3の領域又は第3の領域の画像に係る第3のデータの抽出の際、血管や気管支など、訓練を行う対象の組織とは異なる組織を除外して抽出を行う場合について説明したが、実施形態はこれに限られない。例えば、第1の処理回路120は、抽出機能4により、第1のデータ(第1の領域)や第2のデータ(第2の領域)の抽出の際においても、血管や気管支など、訓練を行う対象の組織とは異なる組織を除外して抽出を行ってもよい。
また、病変周辺領域は、病変領域に隣接する領域に限られない。第1の処理回路120は、境界領域抽出機能4bにより、病変周囲の領域である第2の領域として、病変内部の領域である第1の領域に接続する血管や気管支に対して周辺に位置する細胞の領域を含めても良い。
また、第2の処理回路130が判定機能3により行った判定に対して、ユーザがフィードバックを与え、第1の処理回路120が、学習機能2により、ユーザから与えられたフィードバックを基に、学習済モデルの内部アルゴリズムを更新してもよい。すなわち、第1の処理回路120は、学習機能2により、ユーザからのフィードバックを基に学習済モデルを更新し続けることにより、自己学習を行っても良い。
また、実施形態の画像処理装置100のうち、学習機能2を除いた部分が、独立したデータ生成装置として構成されていてもよい。かかるデータ生成装置は、学習機能2を除き、実施形態の画像処理装置100と同様な機能を有する。例えば、当該データ生成装置は、抽出部と、出力部とを備える。抽出部は、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する。出力部は、抽出部が抽出した第1のデータと、第2のデータと、第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する。ここで、抽出部、出力部は、それぞれ、例えば図1における抽出機能4及び制御機能120bと同様の構成を有する。
また、かかるデータ生成装置に組み込まれるプログラムは、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出し、抽出した第1のデータと、第2のデータと、第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する各処理をコンピュータに実行させる。
以上述べた少なくとも一つの実施形態の画像処理装置によれば、学習に用いる訓練データを多くの数生成することができ、これにより学習の判定精度を高めることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 訓練用データ作成機能
2 学習機能
2a 異常領域学習機能
2b 境界領域学習機能
2c 正常領域学習機能
3 判定機能
4 抽出機能
4a 異常領域抽出機能
4b 境界領域抽出機能
4c 正常領域抽出機能
100 画像処理装置
120 第1の処理回路
130 第2の処理回路

Claims (11)

  1. 訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する抽出部と、
    入力医用データについての判定を行う学習済モデルを、前記抽出部が抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを訓練データとして用いて生成する学習部と、
    を備える、
    画像処理装置。
  2. 前記学習済モデルに基づいて、前記入力医用データについての前記判定を行う判定部を更に備える、請求項1に記載の画像処理装置。
  3. 前記判定部は、前記第2の領域における特徴量に基づいて、前記判定を行う、請求項2に記載の画像処理装置。
  4. 前記判定部は、前記第1の領域と前記第2の領域との位置関係に基づいて、前記判定を行う、請求項2に記載の画像処理装置。
  5. 前記判定部は、前記第1の領域が前記第2の領域に囲まれるように位置しているかに基づいて、前記判定を行う、請求項4に記載の画像処理装置。
  6. 前記抽出部は、前記第3のデータの抽出の際、訓練を行う対象の組織とは異なる組織を除外して抽出を行う、請求項2に記載の画像処理装置。
  7. 前記異なる組織は、血管又は気管支である、請求項6に記載の画像処理装置。
  8. 前記抽出部は、前記第1の領域から定められた距離の範囲にある領域を、前記第2の領域として抽出する、請求項1に記載の画像処理装置。
  9. 前記距離の範囲は、病変の種類に応じた値として設定された値である、請求項8に記載の画像処理装置。
  10. 訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する抽出部と、
    前記抽出部が抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する出力部とを備える、
    データ生成装置。
  11. 訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出し、
    抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する
    各処理をコンピュータに実行させる、プログラム。
JP2018197801A 2018-10-19 2018-10-19 画像処理装置、データ生成装置及びプログラム Active JP7140630B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018197801A JP7140630B2 (ja) 2018-10-19 2018-10-19 画像処理装置、データ生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197801A JP7140630B2 (ja) 2018-10-19 2018-10-19 画像処理装置、データ生成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020062355A JP2020062355A (ja) 2020-04-23
JP7140630B2 true JP7140630B2 (ja) 2022-09-21

Family

ID=70387986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197801A Active JP7140630B2 (ja) 2018-10-19 2018-10-19 画像処理装置、データ生成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7140630B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059315A1 (ja) 2020-09-15 2022-03-24 国立研究開発法人国立がん研究センター 画像符号化装置、方法およびプログラム、画像復号化装置、方法およびプログラム、画像処理装置、学習装置、方法およびプログラム、並びに類似画像検索装置、方法およびプログラム
WO2022059799A1 (ja) * 2020-09-18 2022-03-24 国立大学法人群馬大学 情報処理装置及びプログラム
WO2022201992A1 (ja) * 2021-03-24 2022-09-29 ソニーグループ株式会社 医療用画像解析装置、医療用画像解析方法及び医療用画像解析システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325640A (ja) 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の表示方法及び医用画像処理システム
JP2010504129A (ja) 2006-09-22 2010-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 肺結節の高度コンピュータ支援診断
US20160148376A1 (en) 2014-11-26 2016-05-26 Samsung Electronics Co., Ltd. Computer aided diagnosis (cad) apparatus and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6510189B2 (ja) * 2014-06-23 2019-05-08 キヤノンメディカルシステムズ株式会社 医用画像処理装置
JP6670222B2 (ja) * 2016-11-01 2020-03-18 株式会社日立ハイテク 画像診断支援装置及びシステム、画像診断支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325640A (ja) 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の表示方法及び医用画像処理システム
JP2010504129A (ja) 2006-09-22 2010-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 肺結節の高度コンピュータ支援診断
US20160148376A1 (en) 2014-11-26 2016-05-26 Samsung Electronics Co., Ltd. Computer aided diagnosis (cad) apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
理化学研究所, 国立がん研究センター,AIで早期胃がん領域の高精度検出に成功 -早期発見・領域検出で早期治療に大きく貢献-,国立がん研究センタープレスリリース,2018年07月20日,インターネット:<https://www.ncc.go.jp/jp/information/pr_release/2018/0721/index.html>

Also Published As

Publication number Publication date
JP2020062355A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
Weng et al. INet: convolutional networks for biomedical image segmentation
Deniz et al. Segmentation of the proximal femur from MR images using deep convolutional neural networks
Streba et al. Contrast-enhanced ultrasonography parameters in neural network diagnosis of liver tumors
JP7140630B2 (ja) 画像処理装置、データ生成装置及びプログラム
JP2018139693A (ja) 画像分類装置、方法およびプログラム
Ruba et al. Accurate classification and detection of brain cancer cells in MRI and CT images using nano contrast agents
Jung et al. Deep learning for medical image analysis: Applications to computed tomography and magnetic resonance imaging
Tyagi et al. CSE-GAN: A 3D conditional generative adversarial network with concurrent squeeze-and-excitation blocks for lung nodule segmentation
Rani et al. Superpixel with nanoscale imaging and boosted deep convolutional neural network concept for lung tumor classification
Maity et al. Automatic lung parenchyma segmentation using a deep convolutional neural network from chest X-rays
Marhamati et al. LAIU-Net: A learning-to-augment incorporated robust U-Net for depressed humans’ tongue segmentation
Pujitha et al. Solution to overcome the sparsity issue of annotated data in medical domain
Nizamani et al. Advance Brain Tumor segmentation using feature fusion methods with deep U-Net model with CNN for MRI data
Midya et al. Computerized diagnosis of liver tumors from CT scans using a deep neural network approach
Fontanella et al. Diffusion models for counterfactual generation and anomaly detection in brain images
Park et al. Selective ensemble methods for deep learning segmentation of major vessels in invasive coronary angiography
Wang et al. AVDNet: Joint coronary artery and vein segmentation with topological consistency
Streba et al. Artificial intelligence and automatic image interpretation in modern medicine
Rahmany et al. A priori knowledge integration for the detection of cerebral aneurysm
Cau et al. Applications of artificial intelligence-based models in vulnerable carotid plaque
Celik et al. Forecasting the “T” Stage of Esophageal Cancer by Deep Learning Methods: A Pilot Study
Burrows et al. Evaluation of a hybrid pipeline for automated segmentation of solid lesions based on mathematical algorithms and deep learning
Bi et al. Hybrid CNN-transformer network for interactive learning of challenging musculoskeletal images
Srivastava et al. Design of novel hybrid model for detection of liver cancer
Maaref Prediction of Chemotherapy Response of Liver Metastases from Baseline CT-Images Using Deep Neural Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150