JP2020042559A - 画像処理装置、及びプログラム - Google Patents
画像処理装置、及びプログラム Download PDFInfo
- Publication number
- JP2020042559A JP2020042559A JP2018169663A JP2018169663A JP2020042559A JP 2020042559 A JP2020042559 A JP 2020042559A JP 2018169663 A JP2018169663 A JP 2018169663A JP 2018169663 A JP2018169663 A JP 2018169663A JP 2020042559 A JP2020042559 A JP 2020042559A
- Authority
- JP
- Japan
- Prior art keywords
- organ
- image
- unit
- learning
- learning result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 98
- 238000003384 imaging method Methods 0.000 claims description 13
- 210000000056 organ Anatomy 0.000 description 479
- 230000003902 lesion Effects 0.000 description 114
- 238000013528 artificial neural network Methods 0.000 description 53
- 238000002591 computed tomography Methods 0.000 description 24
- 230000008878 coupling Effects 0.000 description 22
- 238000010168 coupling process Methods 0.000 description 22
- 238000005859 coupling reaction Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 210000000496 pancreas Anatomy 0.000 description 13
- 210000001631 vena cava inferior Anatomy 0.000 description 10
- 238000000034 method Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 210000000232 gallbladder Anatomy 0.000 description 6
- 238000013526 transfer learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000003734 kidney Anatomy 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 3
- 210000000952 spleen Anatomy 0.000 description 3
- 210000000709 aorta Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004195 computer-aided diagnosis Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000004185 liver Anatomy 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010884 ion-beam technique Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係る画像処理装置1の構成の一例を示す図である。
画像処理装置1は、深層学習を用いて3次元のCT画像から各臓器が撮像された領域を抽出する。画像処理装置1は、まず全臓器の識別を同時に行う学習を行う。ここで画像処理装置1は、ニューラルネットワークにCT画像に撮像されている臓器の種類をボクセル毎に学習させる。
次に、画像処理装置1は、臓器の種類と同じ数の複数のニューラルネットワークそれぞれに、全臓器の識別において学習した結合荷重を初期値として各臓器の周辺を学習させる。ここで画像処理装置1は、複数のニューラルネットワークそれぞれに、CT画像に撮像されている臓器のうち特定の臓器がCT画像に撮像されているかをボクセル毎に学習させる。
本実施形態では、一例として、臓器の種類の数である臓器種類数Nが8である場合について説明する。本実施形態では、臓器の種類には、一例として、肝臓、脾臓、右腎臓、左腎臓、膵臓、胆嚢、大動脈、及び下大静脈がある。
複数臓器画像PDとは、複数の種類の臓器が撮像された3次元のCT画像である。複数臓器教師付き画像PLDにおけるクラス分類を示す値は、臓器種類数Nと、画像処理装置1が識別する臓器以外とに対応して、臓器種類数Nに1を加えた種類だけある。本実施形態では、臓器種類数Nが8であるからクラス分類を示す値は9種類ある。
ここで複数臓器画像PDのボクセル数は、一例として、132×132×116ボクセルである。複数臓器画像PDの部分領域のサイズは、一例として、44×44×28ボクセルである。したがって、1枚の複数臓器画像PDに対して、少なくとも3×3×4個の教師データが対応してよい。
なお、部分領域のサイズは、抽出対象の臓器の種類や、画像処理装置1の利用可能なメモリなどによって決定されてよい。部分領域のサイズは、複数臓器画像PDのサイズと等しくてもよい。
以下では、複数臓器学習部11が学習に用いる3D U−netを、複数臓器判定用ニューラルネットワークCNという。
図2は、本実施形態に係るニューラルネットワークの一例を示す図である。複数臓器判定用ニューラルネットワークCNの入力層のノードの数は、複数臓器画像PDのボクセル数と同じ数である。複数臓器画像PDのボクセル数は132×132×116ボクセルであるから、複数臓器判定用ニューラルネットワークCNの入力層のノードの数は132×132×116である。
複数臓器学習結果取得部12は、複数臓器学習部11により算出された複数臓器学習結合荷重PWを取得する。
第i臓器画像PD−iとは、画像処理装置1が識別する臓器の種類のうち第i臓器の全体または一部が撮像された3次元のCT画像である。第i臓器教師付き画像LD−iにおけるクラス数は、第i臓器の1種類と、第i臓器以外の1種類とに対応して、2種類ある。
なお、第i臓器画像PD−iには、第i臓器の全体または一部が撮像されていれば、画像処理装置1が識別する臓器の種類のうち第i臓器以外の臓器の全体または一部が含まれていても構わない。
第i臓器学習部14−iは、臓器教師付き画像取得部13により取得された第i臓器教師付き画像LD−iと、複数臓器学習結果取得部12により取得された複数臓器学習結合荷重PWと、を用いて学習を行う。ここで第i臓器学習部14−iは、公知の3D U−netを用いて、複数臓器学習結合荷重PWを初期値として学習を行う。第i臓器学習部14−iは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である第i臓器学習結合荷重W−iを算出する。
以下では、第i臓器学習部14−iが学習に用いる3D U−netを、第i臓器判定用ニューラルネットワークCN−iという。
第i臓器判定用ニューラルネットワークCN−iは、分類されるクラスの数が異なる点以外は、複数臓器判定用ニューラルネットワークCNと同様である。第i臓器判定用ニューラルネットワークCN−iにより分類されるクラスの数が複数臓器判定用ニューラルネットワークCNにより分類されるクラスの数と異なるため、第i臓器判定用ニューラルネットワークCN−iの出力層のノードの数は、複数臓器判定用ニューラルネットワークCNの出力層のノードの数と異なる。
第i臓器判定用ニューラルネットワークCN−iにおいて、分類されるクラスの数は、第i臓器と、第i臓器以外とに対応して2であり、第i臓器画像PD−iの部分領域のボクセル数は44×44×28ボクセルであるから、第i臓器判定用ニューラルネットワークCN−iの出力層のノードの数は、44×44×28×2である。
臓器毎学習結果取得部15は、第i臓器学習結果取得部15−i(i=1、2、・・・、8)をそれぞれ備える。ここで第i臓器学習結果取得部15−iは、臓器種類数Nと同じ数の種類がある。
第i臓器学習結果取得部15−iは、第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iを取得する。
第i臓器判定部17−iは、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。ここで第i臓器判定部17−iは、第i臓器学習結合荷重W−iを結合荷重として、第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。
提示部5は、判定結果画像P2を、例えば外部の表示装置に表示させることにより判定結果画像P2を提示する。なお、提示部5は、判定結果画像P2を外部の記憶装置に出力させてもよい。
また、提示部5は、判定部17の判定結果を外部の3Dプリンタに出力し、3Dプリンタに各臓器の形状を造形させてもよい。
臓器教師付き画像供給部3は、画像処理装置1に対して第i臓器教師付き画像LD−iを供給する。
臓器画像供給部4は、画像処理装置1に対して臓器画像P1を供給する。
複数臓器教師付き画像供給部2、臓器教師付き画像供給部3、及び臓器画像供給部4はそれぞれ、例えば、キーボードやタブレット、スキャナなどのヒューマンインタフェイス装置によって実現されてもよいし、サーバなどの情報記憶装置によって実現されてもよい。
次に図3を参照し、画像処理装置1が臓器画像P1に撮像された各臓器を識別する処理について説明する。
図3は、本実施形態に係る臓器識別処理の一例を示す図である。
複数臓器教師付き画像取得部10は、取得した複数臓器教師付き画像PLDを複数臓器学習部11に供給する。
ここで第i臓器教師付き画像LD−iは、第i臓器が撮像された第i臓器画像PD−iに撮像されている第i臓器の種類を示す。第i臓器は、臓器のうちの複数臓器画像PDに撮像されている第1臓器〜第N臓器のうちの部分集合の種類の臓器である。したがって、第i臓器教師付き画像LD−iは、臓器のうちの複数臓器画像PDに撮像されている第1臓器〜第N臓器のうちの部分集合の種類の臓器である第i臓器が撮像された第i臓器画像PD−iに撮像されている第i臓器の種類を示す。
第i臓器学習結果取得部15−iは、取得した第i臓器学習結合荷重W−iを第i臓器判定部17−iにそれぞれ供給する。
図4は、本実施形態に係る臓器画像P1の一例を示す図である。ここで図4では、3次元のCT画像である臓器画像P1の2次元の断面が示されている。臓器画像P1には、肝臓、脾臓、右腎臓、左腎臓、膵臓、胆嚢、大動脈、及び下大静脈の8種類の臓器がそれぞれ撮像されている。
ステップS170:判定部17は、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。ここで判定部17に備えられる第i臓器判定部17−iが、第i臓器学習結果取得部15−iにより取得された第i臓器学習結合荷重W−iに基づいて、臓器画像取得部16により取得された臓器画像P1に撮像されている臓器の種類を判定する。第i臓器判定部17−iは、第i臓器学習部14−iにより学習に用いられた第i臓器判定用ニューラルネットワークCN−iを用いて臓器の種類を判定する。
図5は、本実施形態に係る判定結果画像P2の一例を示す図である。図5では、一例として、判定部17の判定結果のうち第1臓器判定領域R1と、第2臓器判定領域R2と、第3臓器判定領域R3とが示されている。第1臓器判定領域R1は、臓器画像P1のうち膵臓と判定された領域である。第2臓器判定領域R2は、臓器画像P1のうち胆嚢と判定された領域である。第3臓器判定領域R3は、臓器画像P1のうち下大静脈と判定された領域である。
図10は、従来の2D U−netにより判定された第1比較判定結果画像P10の一例を示す図である。図10では、一例として、2D U−netにより判定された判定結果のうち第1臓器判定領域R101と、第2臓器判定領域R102と、第3臓器判定領域R103とが示されている。第1臓器判定領域R101は、臓器画像P1のうち膵臓と判定された領域である。第2臓器判定領域R102は、臓器画像P1のうち胆嚢と判定された領域である。第3臓器判定領域R103は、臓器画像P1のうち下大静脈と判定された領域である。
例えば、臓器種類数Nが8である場合、画像処理装置1は、臓器画像P1の部分領域の各ボクセルを、膵臓、脾臓、及び下大静脈の3種類の臓器か、それら3種類の臓器以外であるかに基づいて4つのクラスに分類してよい。
また、本実施形態では、一例として、臓器毎学習結果取得部15に備えられる第i臓器学習結果取得部15−iが、臓器毎学習部14に備えられる第i臓器学習部14−iにより算出された第i臓器学習結合荷重W−iを取得する場合について説明したが、これに限らない。第i臓器学習結果取得部15−iは、外部装置において算出された第i臓器学習結合荷重W−iを取得してもよい。
多クラス学習結果取得部(複数臓器学習結果取得部12)は、体の構成要素(臓器)のうちの複数種類の構成要素(臓器)である第1被撮像構成要素(第1臓器〜第N臓器)が撮像された第1画像(複数臓器画像PD)に撮像されている第1被撮像構成要素(第1臓器〜第N臓器)の種類が、第1画像(複数臓器画像PD)に撮像されている第1被撮像構成要素(第1臓器〜第N臓器)の種類を示す第1教師データ(複数臓器教師付き画像PLD)を用いて学習された学習結果である多クラス学習結果(複数臓器学習結合荷重PW)を取得する。
第2教師データ取得部(臓器教師付き画像取得部13)は、体の構成要素(臓器)のうちの複数種類のうちの部分集合の種類の体の構成要素(臓器)である第2被撮像構成要素(第i臓器)が撮像された第2画像(第1臓器画像PD−1)に撮像されている第2被撮像構成要素(第i臓器)の種類を示す第2教師データ(第i臓器教師付き画像LD−i)を取得する。
少クラス学習結果取得部(臓器毎学習結果取得部15)は、多クラス学習結果取得部(複数臓器学習結果取得部12)により取得された多クラス学習結果(複数臓器学習結合荷重PW)と、第2教師データ取得部(臓器教師付き画像取得部13)により取得された第2教師データ(第i臓器教師付き画像LD−i)と、を用いて第2画像(第i臓器画像PD−i)に撮像されている第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果(第i臓器学習結合荷重W−i)を取得する。
画像取得部(臓器画像取得部16)は、体の構成要素(臓器)が撮像された第3画像(臓器画像P1)を取得する。
判定部17は、少クラス学習結果取得部(臓器毎学習結果取得部15)により取得された少クラス学習結果(第i臓器学習結合荷重W−i)に基づいて、画像取得部(臓器画像取得部16)により取得された第3画像(臓器画像P1)に撮像されている体の構成要素(臓器)の種類を判定する。
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、画像処理装置が、転移学習により学習された臓器判定用ニューラルネットワークを用いて各臓器の判定を行う場合について説明をした。本実施形態では、画像処理装置が、臓器判定用ニューラルネットワークを用いて各臓器の判定を行う前に、確率アトラスを用いて各臓器の位置の候補を絞り込む場合について説明をする。
本実施形態に係る画像処理装置を画像処理装置1aという。
図6は、本実施形態に係る画像処理装置1aの構成の一例を示す図である。本実施形態に係る画像処理装置1a(図6)と第1の実施形態に係る画像処理装置1(図1)とを比較すると、判定部17a、及び確率アトラス取得部18が異なる。ここで、他の構成要素(複数臓器教師付き画像取得部10、複数臓器学習部11、複数臓器学習結果取得部12、臓器教師付き画像取得部13、臓器毎学習部14、臓器毎学習結果取得部15、及び臓器画像取得部16)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
臓器候補位置判定部170は、確率アトラス取得部18により取得された確率アトラスPAに基づいて、臓器画像P1の第i臓器の候補となる位置を判定する。
次に図7を参照し、画像処理装置1aが臓器画像P1に撮像された各臓器を、確率アトラスPAを用いて識別する処理について説明する。
図7は、本実施形態に係る臓器識別処理の一例を示す図である。
なお、ステップS200、ステップS210、ステップS220、ステップS230、ステップS240、ステップS250、ステップS260、及びステップS295の各処理は、図3におけるステップS100、ステップS110、ステップS120、ステップS130、ステップS140、ステップS150、ステップS160、及びステップS180の各処理と同様であるため、説明を省略する。
ここで所定の値とは、例えば、1パーセントである。なお、所定の値は、臓器の種類によらず共通の値が用いられてもよいし、臓器の種類に応じて異なる値が用いられてもよい。また、所定の値は0であってもよい。
臓器候補位置判定部170は、判定結果を第i臓器判定部17a−iにそれぞれ供給する。
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
上記第1の実施形態、及び第2の実施形態では、画像処理装置が、CT画像に撮像されている臓器の種類を識別する場合について説明をした。本実施形態では、画像処理装置が、CT画像に撮像されている体の構成要素の病変部を識別する場合について説明する。
本実施形態に係る画像処理装置を画像処理装置1bという。
図8は、本実施形態に係る画像処理装置1bの構成の一例を示す図である。第1実施形態の画像処理装置1(図1)が、第1臓器〜第N臓器を判定したのに対して、本実施形態の画像処理装置1b(図8)は、健常部、及び病変部を判定する。画像処理装置1b(図8)と、画像処理装置1(図1)とでは、判定対象である体の構成要素と、当該構成要素の種類の数とが異なる。
健常部病変部画像HLPDとは、臓器の健常部と病変部とが撮像された3次元のCT画像である。臓器健常部−病変部教師付き画像HLLDにおけるクラス数は、健常部である臓器の8種類と、病変部の1種類と、臓器以外の部分の1種類とに対応して、10種類ある。
以下では、健常部病変部学習部11bが学習に用いる3D U−netを、健常部病変部判定用ニューラルネットワークHLCNという。
病変部画像LPDとは、臓器の病変部の全体または一部が撮像された3次元のCT画像である。病変部教師付き画像LLDにおけるクラス数は、病変部の1種類と、病変部以外の1種類とに対応して、2種類ある。ここで病変部以外には、健常部、及び臓器以外の部分が含まれる。
以下では、病変部学習部14bが学習に用いる3D U−netを、病変部判定用ニューラルネットワークLCNという。
病変部学習結果取得部15bは、病変部学習部14bにより算出された病変部結合荷重LWを取得する。
病変部教師付き画像供給部3bは、画像処理装置1bに対して病変部教師付き画像LLDを供給する。
画像供給部4bは、画像処理装置1bに対して画像DP1を供給する。
次に図9を参照し、画像処理装置1bが画像DP1に撮像された病変部を判定する処理について説明する。
図9は、本実施形態に係る病変部判定処理の一例を示す図である。
健常部病変部学習部11bは、学習の結果として、健常部病変部結合荷重HLWを算出する。健常部病変部学習部11bは、算出した健常部病変部結合荷重HLWを健常部病変部学習結果取得部12bに供給する。
病変部学習部14bは、学習の結果として、3D U−netの各ノードの間の結合荷重(パラメータ)である病変部結合荷重LWを算出する。病変部学習部14bは、病変部結合荷重LWを病変部学習結果取得部15bに供給する。
病変部判定部17bは、判定結果を提示部5bに供給する。
また、上述した実施形態における画像処理装置1、画像処理装置1a、及び画像処理装置1bの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像処理装置1、画像処理装置1a、及び画像処理装置1bの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Claims (3)
- 体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得部と、
前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得部と、
前記多クラス学習結果取得部により取得された前記多クラス学習結果と、前記第2教師データ取得部により取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得部と、
前記構成要素が撮像された第3画像を取得する画像取得部と、
前記少クラス学習結果取得部により取得された前記少クラス学習結果に基づいて、前記画像取得部により取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定部と
を備える画像処理装置。 - 前記判定部は、前記第3画像の部分毎に前記構成要素の種類の確率分布を示す確率アトラスを用いて判定する
請求項1に記載の画像処理装置。 - コンピュータに、
体の構成要素のうちの複数種類の前記構成要素である第1被撮像構成要素が撮像された第1画像に撮像されている前記第1被撮像構成要素の種類が、前記第1画像に撮像されている前記第1被撮像構成要素の種類を示す第1教師データを用いて学習された学習結果である多クラス学習結果を取得する多クラス学習結果取得ステップと、
前記構成要素のうちの前記複数種類のうちの部分集合の種類の前記構成要素である第2被撮像構成要素が撮像された第2画像に撮像されている前記第2被撮像構成要素の種類を示す第2教師データを取得する第2教師データ取得ステップと、
前記多クラス学習結果取得ステップにより取得された前記多クラス学習結果と、前記第2教師データ取得ステップにより取得された前記第2教師データと、を用いて前記第2画像に撮像されている前記第2被撮像構成要素の種類が学習された学習結果である少クラス学習結果を取得する少クラス学習結果取得ステップと、
前記構成要素が撮像された第3画像を取得する画像取得ステップと、
前記少クラス学習結果取得ステップにより取得された前記少クラス学習結果に基づいて、前記画像取得ステップにより取得された前記第3画像に撮像されている前記構成要素の種類を判定する判定ステップと
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018169663A JP7330476B2 (ja) | 2018-09-11 | 2018-09-11 | 画像処理装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018169663A JP7330476B2 (ja) | 2018-09-11 | 2018-09-11 | 画像処理装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042559A true JP2020042559A (ja) | 2020-03-19 |
JP7330476B2 JP7330476B2 (ja) | 2023-08-22 |
Family
ID=69798314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018169663A Active JP7330476B2 (ja) | 2018-09-11 | 2018-09-11 | 画像処理装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7330476B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172817A1 (ja) * | 2021-02-10 | 2022-08-18 | 富士フイルム株式会社 | 学習装置、学習方法、学習済みモデル、及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017106645A1 (en) * | 2015-12-18 | 2017-06-22 | The Regents Of The University Of California | Interpretation and quantification of emergency features on head computed tomography |
-
2018
- 2018-09-11 JP JP2018169663A patent/JP7330476B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017106645A1 (en) * | 2015-12-18 | 2017-06-22 | The Regents Of The University Of California | Interpretation and quantification of emergency features on head computed tomography |
Non-Patent Citations (3)
Title |
---|
SAWADA, YOSHIHIDE、他1名: "Transfer learning method using multi-prediction deep Boltzmann machines for a small scale dataset", 2015 14TH IAPR INTERNATIONAL CONFERENCE ON MACHINE VISION APPLICATIONS (MVA), JPN6022036410, 18 May 2015 (2015-05-18), pages 110 - 113, XP033173087, ISSN: 0004987973, DOI: 10.1109/MVA.2015.7153145 * |
ZHANG, YAO、他6名: "SequentialSegNet: Combination with Sequential Feature for Multi-Organ Segmentation", 2018 24TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR), JPN6022036409, 20 August 2018 (2018-08-20), pages 3947 - 3952, XP033457322, ISSN: 0004987972, DOI: 10.1109/ICPR.2018.8546017 * |
清水 昭伸、他1名: "多臓器・多疾病診断支援のための医用画像処理", 電子情報通信学会技術研究報告, vol. 第106巻 第74号, JPN6022036411, 18 May 2006 (2006-05-18), JP, pages 95 - 100, ISSN: 0004987974 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172817A1 (ja) * | 2021-02-10 | 2022-08-18 | 富士フイルム株式会社 | 学習装置、学習方法、学習済みモデル、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7330476B2 (ja) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276411B (zh) | 图像分类方法、装置、设备、存储介质和医疗电子设备 | |
Zhu et al. | Deeplung: Deep 3d dual path nets for automated pulmonary nodule detection and classification | |
US20210365717A1 (en) | Method and apparatus for segmenting a medical image, and storage medium | |
CN109598697B (zh) | 二维乳腺造影数据组的确定 | |
McEvoy et al. | Using machine learning to classify image features from canine pelvic radiographs: evaluation of partial least squares discriminant analysis and artificial neural network models | |
CN109492547B (zh) | 一种结节识别方法、装置和存储介质 | |
US10706534B2 (en) | Method and apparatus for classifying a data point in imaging data | |
Matuszewski et al. | Minimal annotation training for segmentation of microscopy images | |
CN112132815A (zh) | 肺结节检测模型训练方法、检测方法及装置 | |
CN110197206A (zh) | 图像处理的方法及装置 | |
EP3712845B1 (en) | Image identifying method and image identifying device | |
CN112820399A (zh) | 自动诊断甲状腺结节良恶性的方法及装置 | |
Hossain et al. | Developing breast lesion detection algorithms for digital breast tomosynthesis: Leveraging false positive findings | |
CN111144449B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP7330476B2 (ja) | 画像処理装置、及びプログラム | |
CN112200780B (zh) | 骨组织定位方法、装置、计算机设备和存储介质 | |
WO2021259604A1 (en) | Domain aware medical image classifier interpretation by counterfactual impact analysis | |
CN112488178A (zh) | 网络模型的训练方法及装置、图像处理方法及装置、设备 | |
Kondo et al. | GMDH-type neural network algorithm with a feedback loop for structural identification of RBF neural network | |
US7831104B2 (en) | Using geometric wavelets based on active contours for signal processing | |
CN115136193A (zh) | 基于模型的图像分割 | |
Kassim et al. | A cell augmentation tool for blood smear analysis | |
Mallios et al. | Deep Rectum Segmentation for Image Guided Radiation Therapy with Synthetic Data | |
JP7342120B2 (ja) | 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル | |
US11861828B2 (en) | Automated estimation of midline shift in brain ct images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7330476 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |