JP2020042559A - 画像処理装置、及びプログラム - Google Patents

画像処理装置、及びプログラム Download PDF

Info

Publication number
JP2020042559A
JP2020042559A JP2018169663A JP2018169663A JP2020042559A JP 2020042559 A JP2020042559 A JP 2020042559A JP 2018169663 A JP2018169663 A JP 2018169663A JP 2018169663 A JP2018169663 A JP 2018169663A JP 2020042559 A JP2020042559 A JP 2020042559A
Authority
JP
Japan
Prior art keywords
organ
image
unit
learning
learning result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018169663A
Other languages
English (en)
Other versions
JP7330476B2 (ja
Inventor
掛谷 英紀
Hidenori Kakeya
英紀 掛谷
俊之 岡田
Toshiyuki Okada
俊之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2018169663A priority Critical patent/JP7330476B2/ja
Publication of JP2020042559A publication Critical patent/JP2020042559A/ja
Application granted granted Critical
Publication of JP7330476B2 publication Critical patent/JP7330476B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】CT画像に撮像された体の構成要素の識別率を向上させることができること。【解決手段】画像処理装置は、体の構成要素のうちの複数種類の構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている第1被撮像構成要素の種類が、第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得部と、第2教師データを取得する第2教師データ取得部と、多クラス学習結果と、第2教師データとを用いて第2画像に撮像されている第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得部と、構成要素が撮像された第3画像を取得する画像取得部と、少クラス学習結果に基づいて、第3画像に撮像されている構成要素の種類を判定する判定部とを備える。【選択図】図1

Description

本発明は、画像処理装置、及びプログラムに関する。
畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いた深層学習が、医療画像の解析に用いられている。CNNを用いた多層のニューラルネットワークとしてU−netが知られている(非特許文献1)。U−netは、様々な生体医学的な画像を部分毎に識別する処理において、従来のアルゴリズムに比べて優れている。
3次元画像を解析するためのCNNを用いた多層のニューラルネットワークとして、3D U−netが提案されている(非特許文献2)。3D U−netでは、3次元の畳み込みが用いられ、3次元画像が部分毎に識別される。3D U−netは、複数の臓器が撮像されたCT(Computed Tomography)画像の臓器の識別処理に応用されている。複数の臓器が撮像されたCT画像の各臓器の識別処理は、CT画像がコンピュータ支援診断(CAD:Computer−aided diagnostic)や治療に利用される際の前処理として重要である。
Olaf Ronneberger, Philipp Fischer, and Thomas Brox、"U−Net: Convolutional Networks for Biomedical Image Segmentation"、「MICCAI2015.LNCS」、Springer International Publishing Switzerland 2015、2015、vol.9351、p.234−241 Ozgun Cicek、Ahmed Abdulkadir、Soeren S. Lienkamp、Thomas Brox、Olaf Ronneberger、"3D U−Net: Learning Dense Volumetric Segmentation from Sparse Annotation"、「MICCAI2016.LNCS」、Springer International Publishing AG 2016、2016、vol.9901、p.424−432
非特許文献1に記載のU−netや、非特許文献2に記載の3D U−netなどの従来技術では、特定の臓器が撮像されている局所的な部分が撮像されたCT画像に基づいて学習が行われていた。従来技術では、複数の種類の臓器が撮像されたCT画像の臓器の識別処理において、特に膵臓や胆嚢、下大静脈などの臓器の識別率が高くなかった。
本発明は上記の点に鑑みてなされたものであり、CT画像に撮像された体の構成要素の識別率を向上させることができる画像処理装置、及びプログラムを提供する。
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得部と、前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得部と、前記多クラス学習結果取得部により取得された前記多クラス学習結果と、前記第2教師データ取得部により取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得部と、前記構成要素が撮像された第3画像を取得する画像取得部と、前記少クラス学習結果取得部により取得された前記少クラス学習結果に基づいて、前記画像取得部により取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定部とを備える画像処理装置である。
また、本発明の一態様は、上記の画像処理装置において、前記判定部は、前記第3画像の部分毎に前記構成要素の種類の確率分布を示す確率アトラスを用いて判定する。
また、本発明の一態様は、コンピュータに、体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得ステップと、前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得ステップと、前記多クラス学習結果取得ステップにより取得された前記多クラス学習結果と、前記第2教師データ取得ステップにより取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得ステップと、前記構成要素が撮像された第3画像を取得する画像取得ステップと、前記少クラス学習結果取得ステップにより取得された前記少クラス学習結果に基づいて、前記画像取得ステップにより取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定ステップとを実行させるためのプログラムである。
本発明によれば、CT画像に撮像された体の構成要素の識別率を向上させることができる。
本発明の第1の実施形態に係る画像処理装置の構成の一例を示す図である。 本発明の第1の実施形態に係るニューラルネットワークの一例を示す図である。 本発明の第1の実施形態に係る臓器識別処理の一例を示す図である。 本発明の第1の実施形態に係る臓器画像の一例を示す図である。 本発明の第1の実施形態に係る判定結果画像の一例を示す図である。 本発明の第2の実施形態に係る画像処理装置の構成の一例を示す図である。 本発明の第2の実施形態に係る臓器識別処理の一例を示す図である。 本発明の第3の実施形態に係る画像処理装置の構成の一例を示す図である。 本発明の第3の実施形態に係る病変部判定処理の一例を示す図である。 従来の2D U−netにより判定された判定結果画像の一例を示す図である。 従来のS−CSL−UIにより判定された判定結果画像の一例を示す図である。
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係る画像処理装置1の構成の一例を示す図である。
[画像処理装置の構成]
画像処理装置1は、深層学習を用いて3次元のCT画像から各臓器が撮像された領域を抽出する。画像処理装置1は、まず全臓器の識別を同時に行う学習を行う。ここで画像処理装置1は、ニューラルネットワークにCT画像に撮像されている臓器の種類をボクセル毎に学習させる。
次に、画像処理装置1は、臓器の種類と同じ数の複数のニューラルネットワークそれぞれに、全臓器の識別において学習した結合荷重を初期値として各臓器の周辺を学習させる。ここで画像処理装置1は、複数のニューラルネットワークそれぞれに、CT画像に撮像されている臓器のうち特定の臓器がCT画像に撮像されているかをボクセル毎に学習させる。
本実施形態では、一例として、臓器の種類の数である臓器種類数Nが8である場合について説明する。本実施形態では、臓器の種類には、一例として、肝臓、脾臓、右腎臓、左腎臓、膵臓、胆嚢、大動脈、及び下大静脈がある。
画像処理装置1は、複数臓器教師付き画像取得部10と、複数臓器学習部11と、複数臓器学習結果取得部12と、臓器教師付き画像取得部13と、臓器毎学習部14と、臓器毎学習結果取得部15と、臓器画像取得部16と、判定部17とを備える。
複数臓器教師付き画像取得部10は、複数臓器教師付き画像供給部2から供給される複数臓器教師付き画像PLDを取得する。ここで複数臓器教師付き画像PLDとは、複数臓器画像PDに含まれるボクセルのうち部分領域の各ボクセルと、部分領域の各ボクセルのクラス分類を示す値とが対応づけられた画像である。ここで部分領域とは、複数臓器画像PDのうちの一部の領域である。複数臓器教師付き画像PLDは、第1教師データの一例である。
複数臓器画像PDとは、複数の種類の臓器が撮像された3次元のCT画像である。複数臓器教師付き画像PLDにおけるクラス分類を示す値は、臓器種類数Nと、画像処理装置1が識別する臓器以外とに対応して、臓器種類数Nに1を加えた種類だけある。本実施形態では、臓器種類数Nが8であるからクラス分類を示す値は9種類ある。
画像処理装置1では、複数臓器画像PDの全体が部分領域に分けられ、部分領域を単位として臓器の種類についてのクラス分類が行われる。複数臓器教師付き画像PLDでは、1枚の複数臓器画像PDに対して、複数臓器画像PDに含まれる部分領域の数だけの教師データが対応している。
ここで複数臓器画像PDのボクセル数は、一例として、132×132×116ボクセルである。複数臓器画像PDの部分領域のサイズは、一例として、44×44×28ボクセルである。したがって、1枚の複数臓器画像PDに対して、少なくとも3×3×4個の教師データが対応してよい。
なお、部分領域のサイズは、抽出対象の臓器の種類や、画像処理装置1の利用可能なメモリなどによって決定されてよい。部分領域のサイズは、複数臓器画像PDのサイズと等しくてもよい。
複数臓器学習部11は、複数臓器教師付き画像取得部10により取得された複数臓器教師付き画像PLDを用いて学習を行う。ここで複数臓器学習部11は、公知の3D U−netを用いて学習を行う。3D U−netとは、CNNを用いた多層のニューラルネットワークである。複数臓器学習部11は、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である複数臓器学習結合荷重PWを算出する。
以下では、複数臓器学習部11が学習に用いる3D U−netを、複数臓器判定用ニューラルネットワークCNという。
ここで図2を参照し、複数臓器判定用ニューラルネットワークCNについて説明する。
図2は、本実施形態に係るニューラルネットワークの一例を示す図である。複数臓器判定用ニューラルネットワークCNの入力層のノードの数は、複数臓器画像PDのボクセル数と同じ数である。複数臓器画像PDのボクセル数は132×132×116ボクセルであるから、複数臓器判定用ニューラルネットワークCNの入力層のノードの数は132×132×116である。
一方、複数臓器判定用ニューラルネットワークCNの出力層のノードの数は、複数臓器画像PDの部分領域のボクセル数に、分類されるクラスの数を乗じた数である。複数臓器判定用ニューラルネットワークCNにおいて分類されるクラスの数であるクラス数は、臓器の8種類と、それらの臓器以外の1種類とに対応して9種類である。複数臓器画像PDの部分領域のボクセル数は44×44×28ボクセルであるから、複数臓器判定用ニューラルネットワークCNの出力層のノードの数は、44×44×28×9である。
図1に戻って画像処理装置1の構成の説明を続ける。
複数臓器学習結果取得部12は、複数臓器学習部11により算出された複数臓器学習結合荷重PWを取得する。
臓器教師付き画像取得部13は、臓器教師付き画像供給部3から供給される第i臓器教師付き画像LD−i(i=1、2、・・・、8)を取得する。ここで第i臓器教師付き画像LD−iには、臓器種類数Nと同じ数の種類がある。ここで第i臓器教師付き画像LD−iとは、第i臓器画像PD−i(i=1、2、・・・、8)に含まれるボクセルのうち部分領域の各ボクセルと、部分領域の各ボクセルのクラス分類を示す値とが対応づけられた画像である。第i臓器教師付き画像LD−iは、第2教師データの一例である。
第i臓器画像PD−iとは、画像処理装置1が識別する臓器の種類のうち第i臓器の全体または一部が撮像された3次元のCT画像である。第i臓器教師付き画像LD−iにおけるクラス数は、第i臓器の1種類と、第i臓器以外の1種類とに対応して、2種類ある。
第i臓器画像PD−iと、複数臓器画像PDとでは、撮像されている臓器の種類の数が異なる以外は、画像のサイズや部分領域のサイズは等しい。
なお、第i臓器画像PD−iには、第i臓器の全体または一部が撮像されていれば、画像処理装置1が識別する臓器の種類のうち第i臓器以外の臓器の全体または一部が含まれていても構わない。
臓器毎学習部14は、第i臓器学習部14−i(i=1、2、・・・、8)をそれぞれ備える。ここで第i臓器学習部14−iは、臓器種類数Nと同じ数の種類がある。
第i臓器学習部14−iは、臓器教師付き画像取得部13により取得された第i臓器教師付き画像LD−iと、複数臓器学習結果取得部12により取得された複数臓器学習結合荷重PWと、を用いて学習を行う。ここで第i臓器学習部14−iは、公知の3D U−netを用いて、複数臓器学習結合荷重PWを初期値として学習を行う。第i臓器学習部14−iは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である第i臓器学習結合荷重W−iを算出する。
以下では、第i臓器学習部14−iが学習に用いる3D U−netを、第i臓器判定用ニューラルネットワークCN−iという。
ここで再び図2を参照し、第i臓器判定用ニューラルネットワークCN−iについて説明する。
第i臓器判定用ニューラルネットワークCN−iは、分類されるクラスの数が異なる点以外は、複数臓器判定用ニューラルネットワークCNと同様である。第i臓器判定用ニューラルネットワークCN−iにより分類されるクラスの数が複数臓器判定用ニューラルネットワークCNにより分類されるクラスの数と異なるため、第i臓器判定用ニューラルネットワークCN−iの出力層のノードの数は、複数臓器判定用ニューラルネットワークCNの出力層のノードの数と異なる。
第i臓器判定用ニューラルネットワークCN−iにおいて、分類されるクラスの数は、第i臓器と、第i臓器以外とに対応して2であり、第i臓器画像PD−iの部分領域のボクセル数は44×44×28ボクセルであるから、第i臓器判定用ニューラルネットワークCN−iの出力層のノードの数は、44×44×28×2である。
図1に戻って画像処理装置1の構成の説明を続ける。
臓器毎学習結果取得部15は、第i臓器学習結果取得部15−i(i=1、2、・・・、8)をそれぞれ備える。ここで第i臓器学習結果取得部15−iは、臓器種類数Nと同じ数の種類がある。
第i臓器学習結果取得部15−iは、第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iを取得する。
臓器画像取得部16は、臓器画像供給部4から供給される臓器画像P1を取得する。ここで臓器画像P1とは、画像処理装置1により識別される臓器が撮像された3次元のCT画像である。すなわち、臓器画像取得部16は、臓器が撮像された臓器画像P1を取得する。
判定部17は、第i臓器判定部17−iをそれぞれ備える。ここで第i臓器判定部17−iは、臓器種類数Nと同じ数の種類がある。
第i臓器判定部17−iは、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。ここで第i臓器判定部17−iは、第i臓器学習結合荷重W−iを結合荷重として、第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。
提示部5は、判定部17の判定結果に基づいて、判定結果画像P2を提示する。ここで判定結果画像P2とは、臓器画像P1に撮像された各臓器に対応する領域が識別可能な態様に処理された画像である。本実施形態では、判定結果画像P2は、一例として、各臓器に対応する領域がそれぞれ異なる色を用いて表現された2次元の画像である。なお、判定結果画像P2は、臓器画像P1に撮像された各臓器に対応する領域が識別可能な態様に処理された3次元の画像であってもよい。
提示部5は、判定結果画像P2を、例えば外部の表示装置に表示させることにより判定結果画像P2を提示する。なお、提示部5は、判定結果画像P2を外部の記憶装置に出力させてもよい。
また、提示部5は、判定部17の判定結果を外部の3Dプリンタに出力し、3Dプリンタに各臓器の形状を造形させてもよい。
複数臓器教師付き画像供給部2は、画像処理装置1に対して複数臓器教師付き画像PLDを供給する。
臓器教師付き画像供給部3は、画像処理装置1に対して第i臓器教師付き画像LD−iを供給する。
臓器画像供給部4は、画像処理装置1に対して臓器画像P1を供給する。
複数臓器教師付き画像供給部2、臓器教師付き画像供給部3、及び臓器画像供給部4はそれぞれ、例えば、キーボードやタブレット、スキャナなどのヒューマンインタフェイス装置によって実現されてもよいし、サーバなどの情報記憶装置によって実現されてもよい。
[画像処理装置の処理]
次に図3を参照し、画像処理装置1が臓器画像P1に撮像された各臓器を識別する処理について説明する。
図3は、本実施形態に係る臓器識別処理の一例を示す図である。
ステップS100:複数臓器教師付き画像取得部10は、複数臓器教師付き画像供給部2から供給される複数臓器教師付き画像PLDを取得する。複数臓器教師付き画像PLDは、複数臓器画像PDに撮像されている第1臓器〜第N臓器の種類を示す。
複数臓器教師付き画像取得部10は、取得した複数臓器教師付き画像PLDを複数臓器学習部11に供給する。
ステップS110:複数臓器学習部11は、複数臓器教師付き画像取得部10により取得された複数臓器教師付き画像PLDと、複数臓器判定用ニューラルネットワークCNとを用いて学習を行う。複数臓器学習部11は、学習の結果として複数臓器学習結合荷重PWを算出する。複数臓器学習部11は、算出した複数臓器学習結合荷重PWを複数臓器学習結果取得部12に供給する。
ここで複数臓器学習結合荷重PWは、臓器のうちの複数種類の臓器である第1臓器〜第N臓器が撮像された複数臓器画像PDに撮像されている第1臓器〜第N臓器の種類が、複数臓器教師付き画像PLDを用いて学習された学習結果である。
ステップS120:複数臓器学習結果取得部12は、複数臓器学習部11により算出された複数臓器学習結合荷重PWを取得する。複数臓器学習結果取得部12は、取得した複数臓器学習結合荷重PWを臓器毎学習部14に供給する。
ステップS130:臓器教師付き画像取得部13は、臓器教師付き画像供給部3から供給される第i臓器教師付き画像LD−i(i=1、2、・・・、8)を取得する。臓器教師付き画像取得部13は、取得した第i臓器教師付き画像LD−iを第i臓器学習部14−iにそれぞれ供給する。
ここで第i臓器教師付き画像LD−iは、第i臓器が撮像された第i臓器画像PD−iに撮像されている第i臓器の種類を示す。第i臓器は、臓器のうちの複数臓器画像PDに撮像されている第1臓器〜第N臓器のうちの部分集合の種類の臓器である。したがって、第i臓器教師付き画像LD−iは、臓器のうちの複数臓器画像PDに撮像されている第1臓器〜第N臓器のうちの部分集合の種類の臓器である第i臓器が撮像された第i臓器画像PD−iに撮像されている第i臓器の種類を示す。
ステップS140:臓器毎学習部14は、第i臓器毎に学習を行う。ここで臓器毎学習部14に備えられる第i臓器学習部14−iが、臓器教師付き画像取得部13により取得された第i臓器教師付き画像LD−iと、複数臓器学習結果取得部12により取得された複数臓器学習結合荷重PWと、第i臓器判定用ニューラルネットワークCN−iとを用いて学習を行う。
第i臓器学習部14−iは、複数臓器学習結合荷重PWを第i臓器判定用ニューラルネットワークCN−iの各ノードの間の結合荷重の初期値として学習を行う。つまり、第i臓器学習部14−iは、複数臓器教師付き画像PLDが用いられて複数臓器判定用ニューラルネットワークCNにより学習された結果である複数臓器学習結合荷重PWを用いて転移学習を行う。
ここでステップS110において複数の臓器の学習に用いられる複数臓器判定用ニューラルネットワークCNと、ステップS140において臓器毎の学習に用いられる第i臓器判定用ニューラルネットワークCN−iとでは、分類されるクラスの数が異なる。上述したように、複数臓器判定用ニューラルネットワークCNにおいて分類されるクラスの数は、臓器種類数Nの種類の臓器と、それらの臓器以外とを分類するため、臓器種類数Nに1を加えた数である。一方、第i臓器判定用ニューラルネットワークCN−iにおいて分類されるクラス数は、第i臓器であるか否かを分類するため2である。
ステップS140においては、臓器画像P1の部分領域の各ボクセルが臓器種類数Nに1を加えた数のクラスに分類されることにより学習された結果である複数臓器学習結合荷重PWを用いて、臓器画像P1の部分領域の各ボクセルが臓器種類数Nに1を加えた数よりも少ない数のクラスに分類されることにより転移学習が行われる。
第i臓器学習部14−iは、学習の結果として第i臓器学習結合荷重W−iを算出する。ここで第i臓器学習結合荷重W−iは、複数臓器学習結果取得部12により取得された複数臓器学習結合荷重PWと、臓器教師付き画像取得部13により取得された第i臓器教師付き画像LD−iと、を用いて第i臓器画像PD−iに撮像されている種類が学習された学習結果である。
ステップS150:臓器毎学習結果取得部15は、第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iを取得する。ここで臓器毎学習結果取得部15に備えられる第i臓器学習結果取得部15−iが、第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iをそれぞれ取得することである。
第i臓器学習結果取得部15−iは、取得した第i臓器学習結合荷重W−iを第i臓器判定部17−iにそれぞれ供給する。
ステップS160:臓器画像取得部16は、臓器画像供給部4から供給される臓器画像P1を取得する。臓器画像取得部16は、取得した臓器画像P1を判定部17に供給する。
ここで図4を参照し、臓器画像P1の具体例について説明する。
図4は、本実施形態に係る臓器画像P1の一例を示す図である。ここで図4では、3次元のCT画像である臓器画像P1の2次元の断面が示されている。臓器画像P1には、肝臓、脾臓、右腎臓、左腎臓、膵臓、胆嚢、大動脈、及び下大静脈の8種類の臓器がそれぞれ撮像されている。
図3に戻って画像処理装置1の処理の説明を続ける。
ステップS170:判定部17は、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。ここで判定部17に備えられる第i臓器判定部17−iが、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。第i臓器判定部17−iは、第i臓器学習部14−iにより学習に用いられた第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。
判定部17は、第i臓器判定用ニューラルネットワークCN−i毎の判定結果を提示部5に供給する。ここで第i臓器判定用ニューラルネットワークCN−i毎の判定結果とは、臓器画像P1において第i臓器に対応する領域がボクセルを単位として示された情報である。
ステップS180:提示部5は、判定部17の判定結果に基づいて、判定結果画像P2を提示する。
ここで図5を参照し、判定結果画像P2の具体例について説明する。
図5は、本実施形態に係る判定結果画像P2の一例を示す図である。図5では、一例として、判定部17の判定結果のうち第1臓器判定領域R1と、第2臓器判定領域R2と、第3臓器判定領域R3とが示されている。第1臓器判定領域R1は、臓器画像P1のうち膵臓と判定された領域である。第2臓器判定領域R2は、臓器画像P1のうち胆嚢と判定された領域である。第3臓器判定領域R3は、臓器画像P1のうち下大静脈と判定された領域である。
画像処理装置1と比較するために、図10及び図11を参照し、従来技術による判定結果について説明する。
図10は、従来の2D U−netにより判定された第1比較判定結果画像P10の一例を示す図である。図10では、一例として、2D U−netにより判定された判定結果のうち第1臓器判定領域R101と、第2臓器判定領域R102と、第3臓器判定領域R103とが示されている。第1臓器判定領域R101は、臓器画像P1のうち膵臓と判定された領域である。第2臓器判定領域R102は、臓器画像P1のうち胆嚢と判定された領域である。第3臓器判定領域R103は、臓器画像P1のうち下大静脈と判定された領域である。
図10の第1臓器判定領域R101を、図5の膵臓と判定された第1臓器判定領域R1と比較すると、第1臓器判定領域R101は、第1臓器判定領域R1のうち例えば矢印A1により示される領域を含んでいない。ここで矢印A1により示される領域は膵臓である。つまり従来の2D U−netでは、矢印A1により示される領域を膵臓と判定できていない。
図11は、従来のS−CSL−UIにより判定された第2比較判定結果画像P20の一例を示す図である。図11では、一例として、S−CSL−UIにより判定された判定結果のうち第1臓器判定領域R201と、第2臓器判定領域R202と、第3臓器判定領域R203とが示されている。第1臓器判定領域R201は、臓器画像P1のうち膵臓と判定された領域である。第2臓器判定領域R202は、臓器画像P1のうち胆嚢と判定された領域である。第3臓器判定領域R203は、臓器画像P1のうち下大静脈と判定された領域である。
図11の第1臓器判定領域R201を、図5の膵臓と判定された第1臓器判定領域R1と比較すると、第1臓器判定領域R201は、第1臓器判定領域R1には含まれていない例えば矢印A2により示される領域を含んでいる。ここで矢印A2により示される領域は膵臓ではない。つまり従来のS−CSL−UIでは、矢印A2により示される領域を誤って膵臓と判定してしまっている。
また、図11の第3臓器判定領域R203を、図5の下大静脈と判定された第3臓器判定領域R3と比較すると、第3臓器判定領域R203は、第3臓器判定領域R3には含まれていない例えば矢印A3により示される領域を含んでいる。ここで矢印A3により示される領域は下大静脈ではない。つまり従来のS−CSL−UIでは、矢印A3により示される領域を誤って下大静脈と判定してしまっている。
なお、本実施形態では、一例として、画像処理装置1が、臓器画像P1の部分領域の各ボクセルを、第i臓器であるか否かに基づいて2つのクラスに分類する場合について説明したが、これに限らない。画像処理装置1は、臓器画像P1の部分領域の各ボクセルを、臓器種類数Nよりも少ない種類である少臓器種類数Mの臓器のいずれかであるかに基づいて、少臓器種類数Mに1を加えた数のクラスに分類してもよい。
例えば、臓器種類数Nが8である場合、画像処理装置1は、臓器画像P1の部分領域の各ボクセルを、膵臓、脾臓、及び下大静脈の3種類の臓器か、それら3種類の臓器以外であるかに基づいて4つのクラスに分類してよい。
画像処理装置1が臓器画像P1の部分領域の各ボクセルを少臓器種類数Mに1を加えた数のクラスに分類する場合、画像処理装置1は、臓器画像P1の部分領域の各ボクセルが臓器種類数Nに1を加えた数のクラスに分類されることにより学習された結果である複数臓器学習結合荷重PWを用いて、臓器画像P1の部分領域の各ボクセルが少臓器種類数Mに1を加えた数のクラスに分類されることにより転移学習を行う。
また、本実施形態では、一例として、臓器種類数Nが8である場合について説明したが、これに限らない。臓器種類数Nは、転移学習が行われるため2以上であればよい。
また、本実施形態では、一例として、複数臓器学習結果取得部12が、複数臓器学習部11により算出された複数臓器学習結合荷重PWを取得する場合について説明したが、これに限らない。複数臓器学習結果取得部12は、外部装置において算出された複数臓器学習結合荷重PWを取得してもよい。
また、本実施形態では、一例として、臓器毎学習結果取得部15に備えられる第i臓器学習結果取得部15−iが、臓器毎学習部14に備えられる第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iを取得する場合について説明したが、これに限らない。第i臓器学習結果取得部15−iは、外部装置において算出された第i臓器学習結合荷重W−iを取得してもよい。
以上に説明したように、本実施形態に係る画像処理装置1は、多クラス学習結果取得部(複数臓器学習結果取得部12)と、第2教師データ取得部(臓器教師付き画像取得部13)と、少クラス学習結果取得部(臓器毎学習結果取得部15)と、画像取得部(臓器画像取得部16)と、判定部17とを備える。
多クラス学習結果取得部(複数臓器学習結果取得部12)は、体の構成要素(臓器)のうちの複数種類の構成要素(臓器)である第1被撮像構成要素(第1臓器〜第N臓器)が撮像された第1画像(複数臓器画像PD)に撮像されている第1被撮像構成要素(第1臓器〜第N臓器)の種類が、第1画像(複数臓器画像PD)に撮像されている第1被撮像構成要素(第1臓器〜第N臓器)の種類を示す第1教師データ(複数臓器教師付き画像PLD)を用いて学習された学習結果である多クラス学習結果(複数臓器学習結合荷重PW)を取得する。
第2教師データ取得部(臓器教師付き画像取得部13)は、体の構成要素(臓器)のうちの複数種類のうちの部分集合の種類の体の構成要素(臓器)である第2被撮像構成要素(第i臓器)が撮像された第2画像(第1臓器画像PD−1)に撮像されている第2被撮像構成要素(第i臓器)の種類を示す第2教師データ(第i臓器教師付き画像LD−i)を取得する。
少クラス学習結果取得部(臓器毎学習結果取得部15)は、多クラス学習結果取得部(複数臓器学習結果取得部12)により取得された多クラス学習結果(複数臓器学習結合荷重PW)と、第2教師データ取得部(臓器教師付き画像取得部13)により取得された第2教師データ(第i臓器教師付き画像LD−i)と、を用いて第2画像(第i臓器画像PD−i)に撮像されている第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果(第i臓器学習結合荷重W−i)を取得する。
画像取得部(臓器画像取得部16)は、体の構成要素(臓器)が撮像された第3画像(臓器画像P1)を取得する。
判定部17は、少クラス学習結果取得部(臓器毎学習結果取得部15)により取得された少クラス学習結果(第i臓器学習結合荷重W−i)に基づいて、画像取得部(臓器画像取得部16)により取得された第3画像(臓器画像P1)に撮像されている体の構成要素(臓器)の種類を判定する。
この構成により、本実施形態に係る画像処理装置1では、複数種類の体の構成要素を判定して得られた学習結果を用いて、判定対象の構成要素について転移学習をすることができるため、CT画像に撮像された体の構成要素の識別率を向上させることができる。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、画像処理装置が、転移学習により学習された臓器判定用ニューラルネットワークを用いて各臓器の判定を行う場合について説明をした。本実施形態では、画像処理装置が、臓器判定用ニューラルネットワークを用いて各臓器の判定を行う前に、確率アトラスを用いて各臓器の位置の候補を絞り込む場合について説明をする。
本実施形態に係る画像処理装置を画像処理装置1aという。
[画像処理装置の構成]
図6は、本実施形態に係る画像処理装置1aの構成の一例を示す図である。本実施形態に係る画像処理装置1a(図6)と第1の実施形態に係る画像処理装置1(図1)とを比較すると、判定部17a、及び確率アトラス取得部18が異なる。ここで、他の構成要素(複数臓器教師付き画像取得部10、複数臓器学習部11、複数臓器学習結果取得部12、臓器教師付き画像取得部13、臓器毎学習部14、臓器毎学習結果取得部15、及び臓器画像取得部16)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
確率アトラス取得部18は、確率アトラス供給部6から供給される確率アトラスPAを取得する。ここで確率アトラスPAとは、臓器画像P1において第i臓器の確率分布をボクセル毎に示す情報である。つまり、確率アトラスPAは、臓器画像P1の部分毎に体の構成要素の種類の確率分布を示す。確率アトラスPAは、第i臓器毎に確率分布を示す。
判定部17aは、第i臓器判定部17a−i(i=1、2、・・・、8)と、臓器候補位置判定部170とを備える。
臓器候補位置判定部170は、確率アトラス取得部18により取得された確率アトラスPAに基づいて、臓器画像P1の第i臓器の候補となる位置を判定する。
第i臓器判定部17a−iは、臓器候補位置判定部170の判定結果と、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。ここで第i臓器判定部17−iは、第i臓器学習部14−iにより学習に用いられた第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。
確率アトラス供給部6は、画像処理装置1aに対して確率アトラスPAを供給する。確率アトラス供給部6は、例えば、キーボードやタブレット、スキャナなどのヒューマンインタフェイス装置によって実現されてもよいし、サーバなどの情報記憶装置によって実現されてもよい。
[画像処理装置の処理]
次に図7を参照し、画像処理装置1aが臓器画像P1に撮像された各臓器を、確率アトラスPAを用いて識別する処理について説明する。
図7は、本実施形態に係る臓器識別処理の一例を示す図である。
なお、ステップS200、ステップS210、ステップS220、ステップS230、ステップS240、ステップS250、ステップS260、及びステップS295の各処理は、図3におけるステップS100、ステップS110、ステップS120、ステップS130、ステップS140、ステップS150、ステップS160、及びステップS180の各処理と同様であるため、説明を省略する。
ステップS270:確率アトラス取得部18は、確率アトラス供給部6から供給される確率アトラスPAを取得する。確率アトラス取得部18は、取得した確率アトラスPAを臓器候補位置判定部170に供給する。
ステップS280:臓器候補位置判定部170は、確率アトラス取得部18により取得された確率アトラスPAに基づいて、臓器画像P1の第i臓器の候補となる位置を判定する。ここで臓器候補位置判定部170は、臓器画像P1のボクセル群のうち、全てのボクセルの確率アトラスPAが第i臓器の候補である確率が所定の値より大きいボクセル群を、臓器画像P1の第i臓器の候補となる位置であると判定する。一方、臓器候補位置判定部170は、臓器画像P1のボクセル群のうち、全てのボクセルの確率アトラスPAが第i臓器の候補である確率が所定の値以下であるボクセルを、臓器画像P1の第i臓器の候補となる位置でないと判定する。
ここで所定の値とは、例えば、1パーセントである。なお、所定の値は、臓器の種類によらず共通の値が用いられてもよいし、臓器の種類に応じて異なる値が用いられてもよい。また、所定の値は0であってもよい。
臓器候補位置判定部170は、判定結果を第i臓器判定部17a−iにそれぞれ供給する。
ステップS290:第i臓器判定部17a−iは、臓器候補位置判定部170の判定結果と、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。つまり、判定部17aは確率アトラスPAを用いて判定する。
ここで第i臓器判定部17−iは、第i臓器学習部14−iにより学習に用いられた第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。第i臓器判定部17a−iは、臓器画像P1のあるボクセルについて、臓器候補位置判定部170の判定結果が第i臓器の候補となる位置でないことを示す場合、第i臓器判定用ニューラルネットワークCN−iによる判定結果にかかわらず、当該ボクセルを第i臓器が撮像されていないボクセルであると判定する。
以上に説明したように、本実施形態に係る画像処理装置1aは、判定部17aを備える。判定部17aは、第3画像(臓器画像P1)の部分毎に体の構成要素(臓器)の種類の確率分布を示す確率アトラスPAを用いて判定する。
この構成により、本実施形態に係る画像処理装置1では、確率アトラスPAを用いて体の構成要素の位置の候補を絞り込むことができるため、確率アトラスPAを用いない場合に比べてCT画像に撮像された体の構成要素の識別率を向上させることができる。
(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
上記第1の実施形態、及び第2の実施形態では、画像処理装置が、CT画像に撮像されている臓器の種類を識別する場合について説明をした。本実施形態では、画像処理装置が、CT画像に撮像されている体の構成要素の病変部を識別する場合について説明する。
本実施形態に係る画像処理装置を画像処理装置1bという。
[画像処理装置の構成]
図8は、本実施形態に係る画像処理装置1bの構成の一例を示す図である。第1実施形態の画像処理装置1(図1)が、第1臓器〜第N臓器を判定したのに対して、本実施形態の画像処理装置1b(図8)は、健常部、及び病変部を判定する。画像処理装置1b(図8)と、画像処理装置1(図1)とでは、判定対象である体の構成要素と、当該構成要素の種類の数とが異なる。
画像処理装置1bは、臓器健常部−病変部教師付き画像取得部10bと、健常部病変部学習部11bと、健常部病変部学習結果取得部12bと、病変部教師付き画像取得部13bと、病変部学習部14bと、病変部学習結果取得部15bと、画像取得部16bと、病変部判定部17bとを備える。
臓器健常部−病変部教師付き画像取得部10bは、臓器健常部−病変部教師付き画像供給部2bから供給される臓器健常部−病変部教師付き画像HLLDを取得する。ここで臓器健常部−病変部教師付き画像HLLDとは、健常部病変部画像HLPDに含まれるボクセルのうち部分領域の各ボクセルと、部分領域の各ボクセルのクラス分類を示す値とが対応づけられた画像である。臓器健常部−病変部教師付き画像HLLDは、第1教師データの一例である。
健常部病変部画像HLPDとは、臓器の健常部と病変部とが撮像された3次元のCT画像である。臓器健常部−病変部教師付き画像HLLDにおけるクラス数は、健常部である臓器の8種類と、病変部の1種類と、臓器以外の部分の1種類とに対応して、10種類ある。
健常部病変部学習部11bは、臓器健常部−病変部教師付き画像取得部10bにより取得された臓器健常部−病変部教師付き画像HLLDを用いて学習を行う。ここで健常部病変部学習部11bは、公知の3D U−netを用いて学習を行う。健常部病変部学習部11bは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である健常部病変部結合荷重HLWを算出する。
以下では、健常部病変部学習部11bが学習に用いる3D U−netを、健常部病変部判定用ニューラルネットワークHLCNという。
ここで健常部病変部画像HLPDの部分領域のボクセル数は44×44×28ボクセルである。健常部病変部判定用ニューラルネットワークHLCNにおいて分類されるクラスの数は、10種類である。健常部病変部判定用ニューラルネットワークHLCNの出力層のノードの数は、44×44×28×10である。
健常部病変部学習結果取得部12bは、健常部病変部学習部11bにより算出された健常部病変部結合荷重HLWを取得する。
病変部教師付き画像取得部13bは、病変部教師付き画像供給部3bから供給される病変部教師付き画像LLDを取得する。ここで病変部教師付き画像LLDとは、病変部画像LPDに含まれるボクセルのうち部分領域の各ボクセルと、部分領域の各ボクセルのクラス分類を示す値とが対応づけられた画像である。病変部教師付き画像LLDは、第2教師データの一例である。
病変部画像LPDとは、臓器の病変部の全体または一部が撮像された3次元のCT画像である。病変部教師付き画像LLDにおけるクラス数は、病変部の1種類と、病変部以外の1種類とに対応して、2種類ある。ここで病変部以外には、健常部、及び臓器以外の部分が含まれる。
病変部学習部14bは、病変部教師付き画像取得部13bにより取得された病変部教師付き画像LLDと、健常部病変部学習結果取得部12bにより取得された健常部病変部結合荷重HLWとを用いて学習を行う。ここで病変部学習部14bは、公知の3D U−netを用いて、健常部病変部結合荷重HLWを初期値として学習を行う。病変部学習部14bは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である病変部結合荷重LWを算出する。
以下では、病変部学習部14bが学習に用いる3D U−netを、病変部判定用ニューラルネットワークLCNという。
ここで病変部画像LPDの部分領域のボクセル数は44×44×28ボクセルである。病変部判定用ニューラルネットワークLCNにおいて分類されるクラスのクラス数は、2種類である。病変部判定用ニューラルネットワークLCNの出力層のノードの数は、44×44×28×2である。
病変部学習結果取得部15bは、病変部学習部14bにより算出された病変部結合荷重LWを取得する。
画像取得部16bは、画像供給部4bから供給される画像DP1を取得する。ここで画像DP1とは、画像処理装置1bにより病変部を識別される臓器が撮像された3次元のCT画像である。画像DP1に撮像されている臓器には、病変部が含まれていてもよいし、病変部が含まれていなくてもよい。
病変部判定部17bは、病変部学習結果取得部15bにより取得された病変部結合荷重LWに基づいて、画像取得部16bにより取得された画像DP1に撮像されている臓器の病変部を判定する。ここで病変部判定部17bは、病変部結合荷重LWを結合荷重として、病変部判定用ニューラルネットワークLCNを用いて病変部を判定する。
提示部5bは、病変部判定部17bの判定結果に基づいて、診断結果画像DP2を提示する。ここで診断結果画像DP2は、画像DP1に撮像された病変部に対応する領域が識別可能な態様に処理された画像である。
臓器健常部−病変部教師付き画像供給部2bは、画像処理装置1bに対して臓器健常部−病変部教師付き画像HLLDを供給する。
病変部教師付き画像供給部3bは、画像処理装置1bに対して病変部教師付き画像LLDを供給する。
画像供給部4bは、画像処理装置1bに対して画像DP1を供給する。
[画像処理装置の処理]
次に図9を参照し、画像処理装置1bが画像DP1に撮像された病変部を判定する処理について説明する。
図9は、本実施形態に係る病変部判定処理の一例を示す図である。
ステップS300:臓器健常部−病変部教師付き画像取得部10bは、臓器健常部−病変部教師付き画像供給部2bから供給される臓器健常部−病変部教師付き画像HLLDを取得する。臓器健常部−病変部教師付き画像取得部10bは、取得した臓器健常部−病変部教師付き画像HLLDを健常部病変部学習部11bに供給する。
ステップS310:健常部病変部学習部11bは、臓器健常部−病変部教師付き画像取得部10bにより取得された臓器健常部−病変部教師付き画像HLLDを用いて学習を行う。ここで健常部病変部学習部11bは、健常部病変部判定用ニューラルネットワークHLCNを用いて学習を行う。
健常部病変部学習部11bは、学習の結果として、健常部病変部結合荷重HLWを算出する。健常部病変部学習部11bは、算出した健常部病変部結合荷重HLWを健常部病変部学習結果取得部12bに供給する。
ステップS320:健常部病変部学習結果取得部12bは、健常部病変部学習部11bにより算出された健常部病変部結合荷重HLWを取得する。
ステップS330:病変部教師付き画像取得部13bは、病変部教師付き画像供給部3bから供給される病変部教師付き画像LLDを取得する。病変部教師付き画像取得部13bは、取得した病変部教師付き画像LLDを病変部学習部14bに供給する。
ステップS340:病変部学習部14bは、病変部教師付き画像取得部13bにより取得された病変部教師付き画像LLDと、健常部病変部学習結果取得部12bにより取得された健常部病変部結合荷重HLWとを用いて学習を行う。ここで病変部学習部14bは、公知の病変部判定用ニューラルネットワークLCNを用いて、健常部病変部結合荷重HLWを初期値として学習を行う。
病変部学習部14bは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である病変部結合荷重LWを算出する。病変部学習部14bは、病変部結合荷重LWを病変部学習結果取得部15bに供給する。
ステップS350:病変部学習結果取得部15bは、病変部学習部14bにより算出された病変部結合荷重LWを取得する。病変部学習結果取得部15bは、取得した病変部結合荷重LWを画像取得部16bに供給する。
ステップS360:画像取得部16bは、画像供給部4bから供給される画像DP1を取得する。画像取得部16bは、取得した画像DP1を病変部判定部17bに供給する。
ステップS370:病変部判定部17bは、病変部学習結果取得部15bにより取得された病変部結合荷重LWに基づいて、画像取得部16bにより取得された画像DP1に撮像されている臓器の病変部を判定する。ここで病変部判定部17bは、病変部結合荷重LWを結合荷重として、病変部判定用ニューラルネットワークLCNを用いて病変部を判定する。
病変部判定部17bは、判定結果を提示部5bに供給する。
ステップS380:提示部5bは、病変部判定部17bの判定結果に基づいて、診断結果画像DP2を提示する。
なお、画像処理装置1bは、第2の実施形態において説明した確率アトラスPAを用いて、病変部判定用ニューラルネットワークLCNによる判定の前に、画像DP1における病変部の位置の候補を絞り込んでもよい。
なお、上述した実施形態における画像処理装置1、画像処理装置1a、及び画像処理装置1bの一部、例えば、複数臓器教師付き画像取得部10、複数臓器学習部11、複数臓器学習結果取得部12、臓器教師付き画像取得部13、臓器毎学習部14、臓器毎学習結果取得部15、臓器画像取得部16、判定部17、確率アトラス取得部18、臓器健常部−病変部教師付き画像取得部10b、健常部病変部学習部11b、健常部病変部学習結果取得部12b、病変部教師付き画像取得部13b、病変部学習部14b、病変部学習結果取得部15b、画像取得部16b、及び病変部判定部17bをコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像処理装置1、または画像処理装置1a、または画像処理装置1bに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における画像処理装置1、画像処理装置1a、及び画像処理装置1bの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像処理装置1、画像処理装置1a、及び画像処理装置1bの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。本文説明はX線照射装置を用いたCT画像について記したが、色彩情報を伴う可視光画像、温度分布情報を伴う遠赤外線画像、や、陽子線、中性子線などの重粒子線を用いて撮像された画像、超音波画像、など、及びこれら画像の組み合わせ、を、複数臓器教師付き画像や臓器教師付き画像、臓器画像に利用することも可能である。
1、1a、1b…画像処理装置、2…複数臓器教師付き画像供給部、3…臓器教師付き画像供給部、4…臓器画像供給部、5、5b…提示部、10…複数臓器教師付き画像取得部、11…複数臓器学習部、12…複数臓器学習結果取得部、13…臓器教師付き画像取得部、14…臓器毎学習部、14−i…第i臓器学習部、15…臓器毎学習結果取得部、15−i…第i臓器学習結果取得部、16…臓器画像取得部、17、17a…判定部、17−i、17a−i…第i臓器判定部、18…確率アトラス取得部、170…臓器候補位置判定部、6…確率アトラス供給部、2b…臓器健常部−病変部教師付き画像供給部、3b…病変部教師付き画像供給部、4b…画像供給部、10b…臓器健常部−病変部教師付き画像取得部、11b…健常部病変部学習部、12b…健常部病変部学習結果取得部、13b…病変部教師付き画像取得部、14b…病変部学習部、15b…病変部学習結果取得部、16b…画像取得部、17b…病変部判定部

Claims (3)

  1. 体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得部と、
    前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得部と、
    前記多クラス学習結果取得部により取得された前記多クラス学習結果と、前記第2教師データ取得部により取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得部と、
    前記構成要素が撮像された第3画像を取得する画像取得部と、
    前記少クラス学習結果取得部により取得された前記少クラス学習結果に基づいて、前記画像取得部により取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定部と
    を備える画像処理装置。
  2. 前記判定部は、前記第3画像の部分毎に前記構成要素の種類の確率分布を示す確率アトラスを用いて判定する
    請求項1に記載の画像処理装置。
  3. コンピュータに、
    体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得ステップと、
    前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得ステップと、
    前記多クラス学習結果取得ステップにより取得された前記多クラス学習結果と、前記第2教師データ取得ステップにより取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得ステップと、
    前記構成要素が撮像された第3画像を取得する画像取得ステップと、
    前記少クラス学習結果取得ステップにより取得された前記少クラス学習結果に基づいて、前記画像取得ステップにより取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定ステップと
    を実行させるためのプログラム。
JP2018169663A 2018-09-11 2018-09-11 画像処理装置、及びプログラム Active JP7330476B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018169663A JP7330476B2 (ja) 2018-09-11 2018-09-11 画像処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169663A JP7330476B2 (ja) 2018-09-11 2018-09-11 画像処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020042559A true JP2020042559A (ja) 2020-03-19
JP7330476B2 JP7330476B2 (ja) 2023-08-22

Family

ID=69798314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169663A Active JP7330476B2 (ja) 2018-09-11 2018-09-11 画像処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7330476B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172817A1 (ja) * 2021-02-10 2022-08-18 富士フイルム株式会社 学習装置、学習方法、学習済みモデル、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SAWADA, YOSHIHIDE、他1名: "Transfer learning method using multi-prediction deep Boltzmann machines for a small scale dataset", 2015 14TH IAPR INTERNATIONAL CONFERENCE ON MACHINE VISION APPLICATIONS (MVA), JPN6022036410, 18 May 2015 (2015-05-18), pages 110 - 113, XP033173087, ISSN: 0004987973, DOI: 10.1109/MVA.2015.7153145 *
ZHANG, YAO、他6名: "SequentialSegNet: Combination with Sequential Feature for Multi-Organ Segmentation", 2018 24TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR), JPN6022036409, 20 August 2018 (2018-08-20), pages 3947 - 3952, XP033457322, ISSN: 0004987972, DOI: 10.1109/ICPR.2018.8546017 *
清水 昭伸、他1名: "多臓器・多疾病診断支援のための医用画像処理", 電子情報通信学会技術研究報告, vol. 第106巻 第74号, JPN6022036411, 18 May 2006 (2006-05-18), JP, pages 95 - 100, ISSN: 0004987974 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172817A1 (ja) * 2021-02-10 2022-08-18 富士フイルム株式会社 学習装置、学習方法、学習済みモデル、及びプログラム

Also Published As

Publication number Publication date
JP7330476B2 (ja) 2023-08-22

Similar Documents

Publication Publication Date Title
CN110276411B (zh) 图像分类方法、装置、设备、存储介质和医疗电子设备
Zhu et al. Deeplung: Deep 3d dual path nets for automated pulmonary nodule detection and classification
US20210365717A1 (en) Method and apparatus for segmenting a medical image, and storage medium
CN109598697B (zh) 二维乳腺造影数据组的确定
McEvoy et al. Using machine learning to classify image features from canine pelvic radiographs: evaluation of partial least squares discriminant analysis and artificial neural network models
CN109492547B (zh) 一种结节识别方法、装置和存储介质
US10706534B2 (en) Method and apparatus for classifying a data point in imaging data
Matuszewski et al. Minimal annotation training for segmentation of microscopy images
CN112132815A (zh) 肺结节检测模型训练方法、检测方法及装置
CN110197206A (zh) 图像处理的方法及装置
EP3712845B1 (en) Image identifying method and image identifying device
CN112820399A (zh) 自动诊断甲状腺结节良恶性的方法及装置
Hossain et al. Developing breast lesion detection algorithms for digital breast tomosynthesis: Leveraging false positive findings
CN111144449B (zh) 图像处理方法、装置、存储介质及电子设备
JP7330476B2 (ja) 画像処理装置、及びプログラム
CN112200780B (zh) 骨组织定位方法、装置、计算机设备和存储介质
WO2021259604A1 (en) Domain aware medical image classifier interpretation by counterfactual impact analysis
CN112488178A (zh) 网络模型的训练方法及装置、图像处理方法及装置、设备
Kondo et al. GMDH-type neural network algorithm with a feedback loop for structural identification of RBF neural network
US7831104B2 (en) Using geometric wavelets based on active contours for signal processing
CN115136193A (zh) 基于模型的图像分割
Kassim et al. A cell augmentation tool for blood smear analysis
Mallios et al. Deep Rectum Segmentation for Image Guided Radiation Therapy with Synthetic Data
JP7342120B2 (ja) 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル
US11861828B2 (en) Automated estimation of midline shift in brain ct images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7330476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150