JP2004097535A - Method for region segmentation of three-dimensional medical image data - Google Patents

Method for region segmentation of three-dimensional medical image data Download PDF

Info

Publication number
JP2004097535A
JP2004097535A JP2002264212A JP2002264212A JP2004097535A JP 2004097535 A JP2004097535 A JP 2004097535A JP 2002264212 A JP2002264212 A JP 2002264212A JP 2002264212 A JP2002264212 A JP 2002264212A JP 2004097535 A JP2004097535 A JP 2004097535A
Authority
JP
Japan
Prior art keywords
dimensional image
pcnn
image data
seed
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002264212A
Other languages
Japanese (ja)
Inventor
Calderon Arturo
アルトウロ・カルデロ
Hitoshi Yamagata
山形 仁
Yasuhei Kondo
近藤 泰平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002264212A priority Critical patent/JP2004097535A/en
Publication of JP2004097535A publication Critical patent/JP2004097535A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform time reduction of PCNN algorithm, and non-segmentation of an unnecessary region. <P>SOLUTION: In a method for setting a region to three-dimensional medical image data by applying a pulse combination neural network algorithm (PCNN), a seed point to a three-dimensional medical image is set based on input to an input device (S2), a threshold is obtained based on the seed point (S3 and S4), threshold processing is performed based on the value of the seed point and the value of a point adjacent to the seed point (S9) and a new seed point is decided based on the result of this threshold processing (S10). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、総体的には診断目的で患者から得た医用3次元画像データ(医用3次元画像データ)のセグメンテーション(領域分割)の方法に関する。
【0002】
【従来の技術】
臨床的に有用な医用3次元画像データを得ることができる処理速度および解像度能力を備えた医用機器は、現在ほとんどの大病院で幅広く利用可能になりつつある。例えば、螺旋回転CT、エコープラナーイメージング等の超高速MRI撮影技術、3D超音波などである。これと同時に、グラフィックコンピュータの演算能力向上と低価格化が継続的に進み、より多くの人々がこういつた大きな医用3次元画像データを再構成、処理、表示することが可能となった。
【0003】
しかしながら、電子的手段による画像処理は、相互に結合した何百万ものニューロンを使って特定の画像を理解したり処理したりするタスク(例えば典型的なCTやMRIのデータに見られる膨大な量の情報から、関心領域(ROI)を分割するようなタスク)を行う人間の脳の性能にはまだ到達できていない。
【0004】
そのため、これまでに脳の働きを模倣する試みがいくつかなされてきた。その主要な例の1つが、人工ニューラルネットワーク(ANN)である。ANNでは、生体のニューロンを模した単位のさまざまなグループを相互に接続し、それらの接続に対して重み付けを行なっている。これらのネットワークは通常いくつかのステージ(すなわち入力、出力、および隠れ(hidden))で構成されており、それぞれのステージがその設計された目的のタスクで訓練を必要とする。近年、新しいタイプのANNが評判になってきている。
【0005】
パルス結合ニューラルネットワーク(PCNN)と呼ばれるこの新タイプは、従来のANNとは異なり、1つのステージのみで構成され、かつ訓練を必要としない。その性能は、重み付けではなく一組のパラメータによって決まる。PCNNは主として画像の基礎的条件(エッジ、テクスチャー、セグメント)を抽出し、オリジナルのデータを簡素化して2値画像またはパルス画像の形で次の分類、定量、あるいは表示のステージに提供する。
【0006】
PCNNの別のバージョンも提案されている。Abrahamsonモデルに基づき図1を参照して簡単に述べる。すなわち、オリジナルのデータ内の各ボクセル(またはピクセル)は、PCNNのニューロン平面内の1つのニューロンと結び付いている。このニューロンは、同一平面上にある範囲のニューロンおよび、ボリューム内の隣接した画像に対応する隣接平面上の隣接ニューロンに繋がっている。
【0007】
中央のボクセルを供給入力(F)と呼び、隣接ニューロンの総和を連結入力(L)と呼ぶ。Fの値は何の変更も加えられずにボクセル輝度に設定され、一方、Lの値は重み付けが行われる。この重みは徐々に減衰される。F値にL値を加算して中間値(内部アクティビティ)(U)を求め、次にそのUの値がしきい値Tと比較される。Uの値がTより大きい場合、そのニューロンは“発火した(fire)”とみなされ、そのIDが“1”に設定される。それ以外の場合は、0に設定される。
【0008】
周辺の発火したニューロン(ボクセル)ひとつひとつが中心ボクセルとして、そのボクセル値に隣接ニューロン(ボクセル)の総和の重み付け値が加算され、さらにしきい値Tと比較される。このように発火ボクセルを次々と連鎖させていくことによりクラスタを拡大していく。現在のしきい値で発火する周辺ニューロンがなくなるまで、このプロセスが繰り返される。
【0009】
時間t=0では、しきい値はニューロンの発火が決して起こらないような非常に高い値に設定される。時間t=1(最初のタイムステップ)では、しきい値Tはユーザ指定の減衰定数に従って減衰され、その値がすべてのニューロンのU値と比較される。このタイムステップ中に発火できるニューロンがなくなったら、時間が先に進められる。Tは再び減衰され、プロセスが繰り返される。
【0010】
各タイムステップごとに、発火ニューロンの一群でクラスタが形成される。クラスタの値は、対応するニューロンが発火したタイムステップの番号に設定される。特定回数分、タイムステップが進むか、または画像データ内のすべてのニューロン(ボクセル又はピクセル)が発火した時点で、PCNNアルゴリズムは終了する。
【0011】
PCNNに基づく領域分割(セグメンテーション)のプロセスの流れを図1に沿って順番に説明する。医用3次元画像データ(ボリュームデータ)がロードされ、またPCNNパラメータが設定される。主要なパラメータは、連結半径(r)(すなわち各ニューロンに接続された連結入力の数)、連結の強さ(β)(すなわち全L値の合計に加えた重み)、LおよびTの減衰時定数、そしてタイムステップ数である。タイムステップ♯1では、各ニューロンがTと比較され、発火するニューロンがなくなるまで上述のプロセスが繰り返される。次のタイムステップに時間が進められる。Tは減衰され、すべてのニューロンがTと比較される。前のタイムステップ中に発火したニューロンは無視される。指定された回数だけ繰り返される。全てのクラスタから成る結果が出力される。
【0012】
この従来のPCNNアルゴリズムは、次の2つの基本的な問題がある。
まず、時間がかかることがあげられる。各タイムステップ毎に、ボリューム内の全てのボクセルを対象としてしきい値処理がなされる。現在の撮像装置の典型的な512x512x500で得られるボリュームサイズの場合、PCNNアルゴリズムの終了までに数分かかることがある。PCNNを臨床の場に適用しようとする場合、これは受け入れられない。
【0013】
次に、不要な部位まで抽出されることがあげられる。通常、関心領域は特定のクラスタにグループ化されたボクセルの小さなサブセットから成る。しかし、PCNNは、関心のない領域まで抽出してしまうので、ユーザは対象クラスタの選択が必要になる。
【0014】
【発明が解決しようとする課題】
本発明の目的は、PCNNアルゴリズムの時間短縮、不要領域の非分割にある。
【0015】
【課題を解決するための手段】
本発明の第1の局面では、パルス結合ニューラルネットワークアルゴリズム(PCNN)を適用して医用3次元画像データに領域を設定する方法において、入力装置への入力に基づいて前記医用3次元画像にシード点を設定し、前記シード点に基づいてしきい値を求め、前記シード点の値及び前期シード点に隣接する点の値に基づいてしきい値処理を行い、このしきい値処理の結果に基づいて新たなシード点を決める。
本発明の第2の局面では、パルス結合ニューラルネットワークアルゴリズム(PCNN)を適用して医用3次元画像データに領域を設定する方法において、前記医用3次元画像データから関心領域を含む2次元画像データを作成し、前記2次元画像データに基づいて2次元画像を表示する第1のステップと、入力装置への入力に基づいて前記2次元画像にシードボクセルを設定する第2のステップと、前記シードボクセルに基づいてしきい値を求める第3のステップと、前記シードボクセル及びその周辺ボクセルの値から求めた値を前記しきい値と比較して前記シードボクセルの発火を判定する第4のステップと、前記判定により発火したボクセルを新たなシードボクセルとして前記第3、第4のステップを実行する第5のステップと備える。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明のパルス結合ニューラルネットワーク(PCNN)のアルゴリズムを適用した医用3次元画像データ領域分割方法を実施形態により説明する。なお、パルス結合ニューラルネットワーク(PCNN)のアルゴリズムは典型的にはソフトウェアで実現される。しかし、ソフトウェアで実用されることには限定されず、そのパルス結合ニューラルネットワーク(PCNN)のアルゴリズムに従ってデザインされたハードウェアで実現されるようにしても良い。
【0017】
なお、医用3次元画像データ(ボリュームデータともいう)は、螺旋回転CT(ヘリカル型X線コンピュータ断層撮影装置)、エコープラナーイメージング等の超高速型のMRI装置(磁気共鳴映像化装置)、3次元超音波診断装置、ガンマカメラ(SPECT,PET)により発生される。
【0018】
まず、本実施形態の概要として、パルス結合ニューラルネットワーク(PCNN)は、ボクセルを同一クラスタに含めるか否かを、ボクセルの輝度だけでなく、その輝度とともに、その周辺のボクセルの輝度を関連付けて判定することを基本としている。つまり、あるボクセルをクラスタに含めるか、又は排除するかの決定は、脳細胞が情報を処理するのと同様の方法で、ボクセルおよびその周辺のボクセルを総合的に特徴付けて行われる。
【0019】
従来では、ボリュームを構成する全てのボクセルを対象として、様々な条件下で数回調べられる。そのため、PCNNアルゴリズムをソフトウェアで実現するには、かなり時間がかかる。また、重要でない多くのクラスタも、重要な関心の高いクラスタと一緒に分割さてしまう。そのため重要な関心の高いクラスタが、重要でない多くのクラスタの中に埋没してしまうことがある。
【0020】
本実施形態は、PCNNアルゴリズムの処理時間を短縮し、しかも重要でない多くのクラスタを分割を排除して、重要な関心の高いクラスタだけを分割する(抽出する)ことを実現するために工夫されている。
【0021】
本実施形態のPCNNアルゴリズムは、ユーザが関心領域内の所望の位置を指定すると、その位置に対応する1つのボクセルを、シードボクセル(探索の開始点)として設定する機能を備えている。
【0022】
そして、そのシードボクセルが、発火するように、しきい値を初期化する。具体的には、所定の時定数でしきい値を減衰する。この場合、発火とは、シードボクセルの値が、しきい値を超過することをいう。
【0023】
そのしきい値でシードボクセルに隣接するボクセルが発火するか否かをチェックする。隣接ボクセルの値に、周辺ボクセルの総和又はその総和から導出される値に重み(連結ウェイト)をかけて、加算する。その加算値を、しきい値と比較し、加算値がしきい値を超過しているとき、当該隣接ボクセルは“発火”したと判定される。発火したボクセルは、シードボクセルのクラスタに分類される。
【0024】
このしきい値処理は、シードボクセルに隣接する全てのボクセルに対して個々に繰り返される。発火した隣接ボクセルを、新たなシードボクセルとして同様のしきい値処理を繰り返す。このようにシードボクセルを起点として周囲に連鎖的に“発火”が調べられる。
【0025】
最終的に、隣接ボクセルの全てが発火しなくなった時点で、当該シードボクセルを起点としたPCNNアルゴリズムが終了する。他のクラスタを得るために、他のボクセルをシードに設定して、同様の処理が繰り返されるかもしれない。
【0026】
本実施形態では、PCNNアルゴリズムの対象範囲を小さなサブボリュームに制限することによって、PCNNプロセスは従来のようにボリューム全体を対象としてタイムステップでしきい値を減衰しながら数回繰り返すのではなく、1回だけ実行される。大きなボリューム(512x512x500)の場合、これが処理時間の大幅な短縮につながる。また、シードPCNNセグメンテーションの他の重要な利点は、無関係なクラスタの分割を伴うことなく、重要なシードクラスタだけを分割することができる。
【0027】
また、無関係なクラスタの排除を促進するために、無関係なクラスタ、特に、関心領域より高い輝度値をもつボクセルで構成されるクラスタを排除するために、本実施形態では、輝度の上限値を設定する。この上限値より高い輝度値を持つボクセルは、予めセグメンテーンヨンの対象から除外される。
【0028】
以下、具体的に説明する。医用3次元画像データから関心領域を抽出するのにかかる時間、つまりPCNN処理時間を短縮し、また無関係なクラスタを抽出しないことによってPCNNセグメンテーションの性能を高める方法の手順が、図2に示されている。
【0029】
まず、ボリュームデータがロードされる(S1)。また、ステップS1では、PCNNアルゴリズムで使用する複数のパラメータが設定される。このパラメータの設定は典型的には入力装置を介してユーザにより行われる。しかし、パラメータは最適値に自動的に設定されるかもしれない。
【0030】
次に、図5に示すように、ボリュームに対して関心領域を含む任意の断面がユーザにより設定され、その断面の2次元画像がボリュームデータから作成される、表示され、その2次元画像の関心領域内にシードが設定される(S2)。つまり、2次元画像内の関心領域内において希望するひとつの位置にカーソルを合わせマウスボタンをクリックすることにより、その位置に対応する関心領域内部のボクセルが、初期的なシードボクセルとして設定される。カーソル位置のボクセル(シードボクセル)の座標とそれに対応する輝度値(SV=シード値)が保存される。
【0031】
PCNNの初期的なシードボクセルの選択後、しきい値Tが減衰される(S3)。そのしきい値で、シードボクセルの輝度値(SV=シード値)が、そのままで発火できるかどうかがチェックされる(S4)。シードボクセルが発火できるまで、しきい値Tが1回又は数回、所定の時定数に従って減衰される。そのシードボクセルにID(タイムステップ番号、ここでは1)が割り当てられ、保存される(S5)。保存されたボクセルは、発火ボクセルである。発火とは、中間値Uがしきい値を超過することをいう。
【0032】
S6(後述)を経て、発火ボクセルの位置が読み出され(S8)、その発火ボクセルに隣接するボクセル各々について発火するか否かが調べられる(S9)。つまり、図3に示すように、シードボクセル(図4では輝度値9のボクセル)の隣接ボクセル(図4では、輝度値6,5,7の3つのボクセル)を対象として、それぞれを中心として連接半径rの距離以内で周辺に分布する複数のボクセルの総和、又は総和から導出される連結入力(L)に連接ウェイトβで重み付けが行われ、シードボクセルの値、つまり供給入力(F)にβで重み付けされた連結入力Lを加算して、作業中間値(内部アクティビティ)(U)を求め、次にそのUの値を、初期設定されたしきい値Tと比較する。Uの値がTより大きい場合、その隣接ボクセルは“発火した(fire)”とみなされ、“1”が与えられ、スタック(保存)される(S10)。それ以外の場合は、“0”に設定される。図4の例では、輝度値7のボクセルが発火している。
【0033】
さらに、発火した輝度値7のボクセルを新たなシードボクセルとして、その輝度値7のボクセルの周辺であって、発火済みのボクセルは省略し、発火していないボクセルを対象として、発火するか否かが個々に調べられる。それぞれを中心として連接半径rの距離以内で周辺に分布する複数のボクセルの総和、又は総和から導出される連結入力(L)に連接ウェイトβで重み付けが行われ、シードボクセルの値、つまり供給入力(F)にβで重み付けされた連結入力Lを加算して、作業中間値(内部アクティビティ)(U)を求め、次にそのUの値を、初期設定されたしきい値Tと比較する。Uの値がTより大きい場合、そのニューロンは“発火した”とみなし、“1”を与え、スタック(保存)する(S10)。それ以外の場合は、“0”に設定する。
【0034】
このような連鎖的な発火のチェックを、隣接ボクセルが1つも発火しない状態になるまで繰り返す(S6,S8,S9,S10)。周辺ボクセルが1つも発火しないとき、S7で結果を出力し、PCNNアルゴリズムを終了する。なお、従来では、しきい値Tを減衰しながら、全てのボクセルが発火するまでPCNNアルゴリズムを何度も繰り返す。しかし、本実施形態では、初期設定された値にしきい値Tを固定し、そのしきい値で、隣接ボクセルの発火を判断し、その判断を発火した隣接ボクセルをシードボクセルに置き換えて同様の処理を連鎖的に拡大していき、そして隣接ボクセルが1つも発火しなくなった時点で、スタックエンプティ、つまり発火ボクセルのIDが1つも保存されていない状態になった時点で、当該PCNNアルゴリズムは終了する。
【0035】
図6は、比較のために、図3に示すボリュームを入力とした従来のPCNNベースのセグメンテーションアルゴリズムで得られた結果を示した概略図である。右側の画像上に重なって表示されている点線矢印は、ボリューム全体が処理中であることを示している。ROIクラスタ(腹部大動脈)と一緒に、隣接する臓器(肝臓、腎臓など)内の関連ボクセルの各グループに対応する異なるクラスタが表示される。場合によっては背面から見たときに脊柱が大動脈の大部分に重なってしまうように、ROIクラスタ以外のクラスタがROIの表示を遮ってしまうことがある。したがって、他のクラスタからROIを分離するために追加的な処理ステップが必要となる。
【0036】
一方、図7には、本実施形態によるシードベースのPCNNセグメンテーションアルゴリズムで得られた結果を示している。ROI上に重なって表示されている点線矢印は、ROIだけが処理中であることを示している。したがって唯一結果として生じるクラスタはそのROIだけであり、他のクラスタからそのROIを分離する追加的なステップは必要ない。
【0037】
なお、図8には、本実施形態において、時間的に連続な画像データを順番にPCNNにかける場合、PCNN適用範囲を、前の画像で抽出したROIを含む範囲(サブボリューム)に制限することを示している。PCNN適用範囲を、前の画像で抽出したROIを含むサブボリュームに制限することで処理の短時間化をさらに促進することができる。
【0038】
以上のように、本実施形態では、シードボクセルに隣接するボクセルが全て発火しなくなった時点で、セグメンテーションプロセスが終了する。セグメンテーションの結果は、表示および/または分析を目的としてファイルに出力される単一のROIクラスタで構成される。したがって、従来のPCNNセグメンテーション法で得られるような無関係なクラスタは含まれないため、結果の解析および解釈が容易になる。先に記載したプロセスを繰り返し実行して、複数のROIを分割することができる。この場合の最終出力は、単一ボリューム内のすべてのROIクラスタの集合体で構成される。PCNNベースのセグメンテーションを高速化することにより、セグメンテーション機能の向上を目的とするPCNNパラメータの微調整が可能になる。これは、超音波撮像装置で得られるような低コントラストのデータセットを扱う上で非常に有用となりえる。当然ながら、上記内容の視点から本実施形態の変形例か数多く可能である。つまり、医用3次元画像データセットのセグメンテーションに適用したときに、パルス結合ニューラルネットワークの速度性能およびROI抽出能力を向上させる方法であり、以下のものからなる。
【0039】
図9は、上述したシードベースのPCNNのパラメータの最適化処理の流れ図である。この最適化のために、例えばボリュームから2次元画像を切り出し(画像選択)、さらにその2次元画像から前処理及びPCNNアルゴリズムの試行領域を限局し(領域選択、領域解析)、前処理及びPCNNアルゴリズムのパラメータの変更を伴って前処理及びPCNNアルゴリズムを繰り返しながら、それぞれの結果を観察して、パラメータを最適値に近似させていくことにより行われる。
【0040】
領域の解析方法と、その結果からパラメータを最適化する方法とは、良く分かりませんでした。また、前処理とはどのような処理なのか、そのパラメータも良く分かりませんでした(ここまで打ち合わせが進んでいけませんでした)。
【0041】
以下の文章の加筆、修正を宜しくお願いいたします。
【0042】
対象領域の設定方法としては、図11に示すように、オートとマニュアルとが用意され、オートの場合、シードがユーザにより指定されると、輝度値に基づいて周辺を探索する方法の他に、シードを中心として放射状に探索し、輝度又は輝度勾配が所定条件を満たす端(最外)の点を抽出し、その端の点を連結して解析領域の輪郭を描き、ユーザによる修正、例えば端の点の追加、削除、移動を伴う連結の繰り返しを経て、解析領域を設定する。
【0043】
前処理として、例えば図10に示すように、周辺ボクセルの半数以上が発火するようにシードボクセル値をファクタ(補正値)により補正し、これを対象領域内の全ボクセル個々に行う処理、また解析領域内のボクセルの輝度分布に基づいて、PCNNアルゴリズムで対象とする輝度値の上限値を設定し、その上限値以下にあるボクセルだけをボリューム全体から抽出し、その抽出したボクセルだけを対象にPCNNアルゴリズムで処理するものである。
【0044】
また、PCNNのパラメータには、連結半径r、連結ウェイトβが含まれる。設定後、そのパラメータで前処理及びPCNNセグメンテーションが行われ、その結果が表示される。ユーザは確認し、必要に応じて、パラメータを再設定する。
【0045】
PCNNのパラメータの設定は、例えば図12に示すように、グラフィカルユーザインタフェース(GUI)により提供される。GUIは、PCNN結果としての領域の大きさ、鮮鋭度、持続性という分かりやすい態様でしかもそれぞれがスライダボタンにより、ユーザには理解が困難なPCNNパラメータの設定を支援するように構成される。例えば、大きさ及び鮮鋭度は、連結半径rと連結ウェイトβの相関により決まる。予め大きさ及び鮮鋭度それぞれに対して、設定値(大きさ、鮮鋭度)に対して連結半径rと連結ウェイトβの組み合わせが関連つけられている。
【0046】
このパラメータ最適化処理は、ボリューム全体を対象としてなされるため、長時間化する。そのため、図13に示すように、ボリュームの中の一部分(サブボリューム)に限局して、パラメータの最適化することが好ましい。
【0047】
(変形例)
本発明は、上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々変形して実施することが可能である。さらに、上記実施形態には種々の段階が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されてもよい。
【0048】
【発明の効果】
本発明によれば、PCNNにより良好な関心領域の設定を高速に行うことができる。
【図面の簡単な説明】
【図1】従来のPCNNの手順を示すフローチャート。
【図2】本発明の実施形態によるPCNNの手順を示すフローチャート。
【図3】図2の周辺ニューロン(周辺ボクセル)の発火判断ステップ内のしきい値処理の説明図。
【図4】図2のしきい値減衰ステップの説明図。
【図5】図2のシード入力ステップの補足説明図。
【図6】従来のPCNNアルゴリズムの補足図。
【図7】図2の結果出力の例を示す図。
【図8】本実施形態において、時間的に連続な画像データを順番にPCNNにかける場合のPCNN適用範囲の連鎖性を示す図。
【図9】本実施形態において、PCNNのパラメータを調整する手順を示すフローチャート。
【図10】図9の前処理の説明図。
【図11】図9の領域選択の手順を示すフローチャート。
【図12】図9のPCNNパラメータ設定のためのGUIの例を示す図。
【図13】本実施形態において、PCNNのパラメータを調整する他の手順を示すフローチャート。
【符号の説明】
S1…医用3次元画像データ(ボリュームデータ)及びPCNNパラメータの入力ステップ、
S2…シード入力ステップ、
S3…しきい値減衰ステップ、
S4…シード発火判断ステップ、
S5…発火ニューロンスタックステップ、
S6…スタックエンプティ判断ステップ、
S7…結果出力ステップ、
S8…ニューロンID読出ステップ、
S9…周辺ニューロン発火判断ステップ、
S10…発火ニューロンスタックステップ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention generally relates to a method for segmenting (region dividing) medical three-dimensional image data (medical three-dimensional image data) obtained from a patient for diagnostic purposes.
[0002]
[Prior art]
Medical equipment with the processing speed and resolution capability that can obtain clinically useful medical three-dimensional image data is now becoming widely available in most large hospitals. For example, an ultra-high-speed MRI imaging technique such as spiral rotation CT and echo planar imaging, 3D ultrasound, or the like is used. At the same time, the computational power of the graphic computer has been continuously improved and the price has been reduced, so that more people can reconstruct, process and display such large medical three-dimensional image data.
[0003]
However, image processing by electronic means is the task of understanding and processing a particular image using millions of interconnected neurons (eg, the vast amount of data found in typical CT and MRI data). , The ability of the human brain to perform a task of dividing a region of interest (ROI) has not yet been reached.
[0004]
For this reason, several attempts have been made to mimic the function of the brain. One of the main examples is an artificial neural network (ANN). In ANN, various groups of units imitating neurons of a living body are connected to each other and weighted for these connections. These networks are usually composed of several stages (ie, inputs, outputs, and hidden), each of which requires training in its designed task. In recent years, a new type of ANN has become popular.
[0005]
This new type, called pulse-coupled neural network (PCNN), unlike conventional ANNs, consists of only one stage and does not require training. Its performance is determined by a set of parameters, not weighting. PCNN mainly extracts the basic conditions (edges, textures, segments) of the image and simplifies the original data and provides it to the next classification, quantification or display stage in the form of a binary or pulsed image.
[0006]
Other versions of PCNN have been proposed. This will be briefly described with reference to FIG. 1 based on the Abrahamson model. That is, each voxel (or pixel) in the original data is associated with one neuron in the PCNN neuron plane. This neuron is connected to a range of neurons on the same plane and to adjacent neurons on an adjacent plane corresponding to adjacent images in the volume.
[0007]
The central voxel is called the supply input (F) and the sum of adjacent neurons is called the connected input (L). The value of F is set to voxel intensity without any change, while the value of L is weighted. This weight is gradually attenuated. The intermediate value (internal activity) (U) is obtained by adding the L value to the F value, and then the value of U is compared with the threshold value T. If the value of U is greater than T, the neuron is considered "fire" and its ID is set to "1". Otherwise, it is set to zero.
[0008]
Each of the peripherally fired neurons (voxels) is set as a central voxel, and the weight value of the sum of the adjacent neurons (voxels) is added to the voxel value, and further compared with a threshold value T. As described above, the firing voxels are successively chained to expand the cluster. This process is repeated until no peripheral neurons fire at the current threshold.
[0009]
At time t = 0, the threshold is set to a very high value so that firing of the neuron never occurs. At time t = 1 (first time step), the threshold T is attenuated according to a user-specified decay constant, and its value is compared to the U values of all neurons. If there are no more neurons that can fire during this time step, time is advanced. T is attenuated again and the process is repeated.
[0010]
At each time step, a group of firing neurons forms a cluster. The value of the cluster is set to the number of the time step at which the corresponding neuron fired. The PCNN algorithm ends when the time step advances a specified number of times or when all neurons (voxels or pixels) in the image data have fired.
[0011]
A process flow of region division (segmentation) based on PCNN will be described in order with reference to FIG. Medical three-dimensional image data (volume data) is loaded, and PCNN parameters are set. The key parameters are the connection radius (r) (ie, the number of connection inputs connected to each neuron), the connection strength (β) (ie, the weight added to the sum of all L values), and the decay of L and T. A constant and the number of time steps. At time step # 1, each neuron is compared to T and the above process is repeated until no more neurons fire. The time advances to the next time step. T is attenuated and all neurons are compared to T. Neurons that fired during the previous time step are ignored. Repeated the specified number of times. A result consisting of all clusters is output.
[0012]
This conventional PCNN algorithm has the following two basic problems.
First, it takes time. At each time step, threshold processing is performed on all voxels in the volume. For a volume size obtained at the typical 512x512x500 of current imaging devices, it may take several minutes for the PCNN algorithm to finish. This is not acceptable if PCNN is to be applied in a clinical setting.
[0013]
Next, an unnecessary part is extracted. Typically, the region of interest consists of a small subset of voxels grouped into a particular cluster. However, since the PCNN extracts an area of no interest, the user needs to select a target cluster.
[0014]
[Problems to be solved by the invention]
An object of the present invention is to reduce the time of the PCNN algorithm and to not divide unnecessary areas.
[0015]
[Means for Solving the Problems]
According to a first aspect of the present invention, in a method for setting an area in medical three-dimensional image data by applying a pulse-coupled neural network algorithm (PCNN), a seed point is added to the medical three-dimensional image based on an input to an input device. Is set, a threshold value is determined based on the seed point, threshold processing is performed based on the value of the seed point and the value of a point adjacent to the seed point, and based on the result of the threshold processing. To determine a new seed point.
According to a second aspect of the present invention, there is provided a method for setting a region in medical three-dimensional image data by applying a pulse-coupled neural network algorithm (PCNN), wherein the two-dimensional image data including a region of interest is extracted from the medical three-dimensional image data. A first step of creating and displaying a two-dimensional image based on the two-dimensional image data; a second step of setting a seed voxel in the two-dimensional image based on an input to an input device; A third step of determining a threshold value based on the threshold value; and a fourth step of comparing the value determined from the values of the seed voxel and its surrounding voxels with the threshold value to determine firing of the seed voxel; A fifth step of executing the third and fourth steps using the voxel fired by the determination as a new seed voxel.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a method for dividing a medical three-dimensional image data region using a pulse-coupled neural network (PCNN) algorithm according to the present invention will be described with reference to the drawings. The algorithm of the pulse-coupled neural network (PCNN) is typically realized by software. However, the present invention is not limited to practical use by software, and may be realized by hardware designed according to the algorithm of the pulse-coupled neural network (PCNN).
[0017]
The medical three-dimensional image data (also referred to as volume data) is an ultra-high-speed MRI apparatus (magnetic resonance imaging apparatus) such as spiral rotation CT (helical X-ray computed tomography apparatus), echo planar imaging, etc. It is generated by an ultrasonic diagnostic apparatus and a gamma camera (SPECT, PET).
[0018]
First, as an outline of the present embodiment, a pulse-coupled neural network (PCNN) determines whether or not to include a voxel in the same cluster by associating not only the luminance of the voxel but also the luminance of the surrounding voxels with the luminance. It is based on doing. That is, the decision whether to include or exclude a voxel from the cluster is made by comprehensively characterizing the voxel and its surrounding voxels in a manner similar to how brain cells process information.
[0019]
Conventionally, all voxels constituting a volume are examined several times under various conditions. Therefore, it takes much time to implement the PCNN algorithm by software. Also, many unimportant clusters are split together with important clusters of interest. As a result, important clusters of high interest may be buried in many unimportant clusters.
[0020]
This embodiment is devised in order to shorten the processing time of the PCNN algorithm, and to divide (extract) only important clusters of interest by eliminating the division of many unimportant clusters. I have.
[0021]
The PCNN algorithm according to the present embodiment has a function of, when a user designates a desired position in a region of interest, setting one voxel corresponding to the position as a seed voxel (a search start point).
[0022]
Then, the threshold value is initialized so that the seed voxel fires. Specifically, the threshold value is attenuated at a predetermined time constant. In this case, firing means that the value of the seed voxel exceeds a threshold.
[0023]
It is checked whether the voxel adjacent to the seed voxel fires at the threshold value. The value of an adjacent voxel is added to a value obtained by multiplying the sum of neighboring voxels or a value derived from the sum by a weight (connection weight). The added value is compared with a threshold value, and when the added value exceeds the threshold value, it is determined that the adjacent voxel has “fired”. The firing voxels are classified into clusters of seed voxels.
[0024]
This thresholding process is repeated individually for all voxels adjacent to the seed voxel. The same threshold processing is repeated with the fired adjacent voxel as a new seed voxel. In this way, "firing" is checked in a chain around the seed voxel.
[0025]
Finally, when all of the adjacent voxels no longer fire, the PCNN algorithm starting from the seed voxel ends. A similar process may be repeated with other voxels set as seeds to obtain other clusters.
[0026]
In this embodiment, by restricting the scope of the PCNN algorithm to a small sub-volume, the PCNN process does not repeat several times with the time step attenuating the entire volume, but instead of repeating it several times, as in the prior art. Executed only once. For large volumes (512x512x500), this leads to a significant reduction in processing time. Another important advantage of seed PCNN segmentation is that only important seed clusters can be split without splitting irrelevant clusters.
[0027]
In addition, in order to promote elimination of irrelevant clusters, in order to eliminate irrelevant clusters, in particular, clusters composed of voxels having a luminance value higher than the region of interest, the present embodiment sets an upper limit value of luminance. I do. Voxels having a luminance value higher than this upper limit value are excluded from the target of the segmentation in advance.
[0028]
Hereinafter, a specific description will be given. FIG. 2 shows a procedure of a method for shortening the time required to extract a region of interest from medical three-dimensional image data, that is, the PCNN processing time, and improving the performance of PCNN segmentation by not extracting irrelevant clusters. I have.
[0029]
First, volume data is loaded (S1). In step S1, a plurality of parameters used in the PCNN algorithm are set. The setting of this parameter is typically performed by a user via an input device. However, the parameters may be set automatically to optimal values.
[0030]
Next, as shown in FIG. 5, an arbitrary section including a region of interest is set by the user with respect to the volume, a two-dimensional image of the section is created and displayed from the volume data, and the interest of the two-dimensional image is displayed. A seed is set in the area (S2). That is, by moving the cursor to a desired position in the region of interest in the two-dimensional image and clicking the mouse button, the voxel in the region of interest corresponding to that position is set as an initial seed voxel. The coordinates of the voxel (seed voxel) at the cursor position and the corresponding luminance value (SV = seed value) are stored.
[0031]
After the initial seed voxel selection of the PCNN, the threshold T is attenuated (S3). At the threshold value, it is checked whether or not the brightness value (SV = seed value) of the seed voxel can be fired as it is (S4). The threshold T is attenuated once or several times according to a predetermined time constant until the seed voxel can fire. An ID (time step number, here, 1) is assigned to the seed voxel and stored (S5). The stored voxels are firing voxels. Firing means that the intermediate value U exceeds a threshold.
[0032]
After S6 (described later), the position of the firing voxel is read (S8), and it is checked whether or not each voxel adjacent to the firing voxel fires (S9). That is, as shown in FIG. 3, adjacent voxels (three voxels having luminance values of 6, 5, and 7 in FIG. 4) adjacent to the seed voxel (in FIG. 4, voxels having a luminance value of 9) are connected with each other as a center. The sum of a plurality of voxels distributed around within a distance of radius r, or a connected input (L) derived from the sum is weighted by a concatenation weight β, and the value of the seed voxel, that is, the supply input (F) is β Are added to obtain a work intermediate value (internal activity) (U), and then the value of U is compared with an initially set threshold value T. If the value of U is larger than T, the adjacent voxel is regarded as “fired”, given “1”, and is stacked (saved) (S10). Otherwise, it is set to "0". In the example of FIG. 4, a voxel having a luminance value of 7 is ignited.
[0033]
Further, the voxel having the luminance value of 7 that has fired is set as a new seed voxel, and voxels around the voxel having the luminance value of 7 that have already been fired are omitted. Are examined individually. The sum of a plurality of voxels distributed around within a distance of a connection radius r around each of them, or a connection input (L) derived from the sum is weighted with a connection weight β, and the value of the seed voxel, that is, the supply input The work input value (internal activity) (U) is obtained by adding the connection input L weighted by β to (F), and then the value of U is compared with the threshold value T that is initially set. If the value of U is larger than T, the neuron is regarded as "ignited", given "1", and is stacked (saved) (S10). Otherwise, it is set to “0”.
[0034]
Such a chained firing check is repeated until no adjacent voxel is fired (S6, S8, S9, S10). If no neighboring voxels fire, the result is output in S7, and the PCNN algorithm ends. Conventionally, the PCNN algorithm is repeated many times while the threshold value T is attenuated until all the voxels are fired. However, in the present embodiment, the threshold value T is fixed to the initially set value, the firing of the adjacent voxel is determined based on the threshold value, and the determined voxel is replaced with the seed voxel. The PCNN algorithm terminates when no adjacent voxel fires any more and the stack becomes empty, that is, when no firing voxel ID is stored. .
[0035]
FIG. 6 is a schematic diagram showing, for comparison, results obtained by a conventional PCNN-based segmentation algorithm using the volume shown in FIG. 3 as an input. A dotted arrow overlappingly displayed on the right image indicates that the entire volume is being processed. Along with the ROI cluster (abdominal aorta), different clusters corresponding to each group of related voxels in adjacent organs (liver, kidney, etc.) are displayed. In some cases, a cluster other than the ROI cluster may block the display of the ROI so that the spine overlaps most of the aorta when viewed from the back. Therefore, additional processing steps are required to separate the ROI from other clusters.
[0036]
On the other hand, FIG. 7 shows a result obtained by the seed-based PCNN segmentation algorithm according to the present embodiment. Dotted arrows overlaid on the ROI indicate that only the ROI is being processed. Thus, the only resulting cluster is that ROI, and no additional steps are required to separate that ROI from other clusters.
[0037]
FIG. 8 shows that in the present embodiment, when temporally continuous image data is sequentially applied to the PCNN, the PCNN application range is limited to a range (sub-volume) including the ROI extracted in the previous image. Is shown. By limiting the PCNN application range to the sub-volume including the ROI extracted in the previous image, the processing can be further shortened.
[0038]
As described above, in the present embodiment, the segmentation process ends when all the voxels adjacent to the seed voxel no longer fire. The result of the segmentation consists of a single ROI cluster that is output to a file for display and / or analysis. Therefore, irrelevant clusters, such as those obtained with the conventional PCNN segmentation method, are not included, which facilitates analysis and interpretation of the results. The above described process can be repeated to split multiple ROIs. The final output in this case consists of the aggregate of all ROI clusters in a single volume. Accelerating PCNN-based segmentation allows for fine tuning of PCNN parameters for the purpose of improving the segmentation function. This can be very useful in dealing with low contrast data sets such as those obtained with ultrasound imaging devices. Naturally, many modifications of the present embodiment are possible from the viewpoint of the above contents. That is, when applied to segmentation of a medical three-dimensional image data set, this is a method for improving the speed performance and ROI extraction capability of a pulse-coupled neural network, and comprises the following.
[0039]
FIG. 9 is a flowchart of the seed-based PCNN parameter optimization processing described above. For this optimization, for example, a two-dimensional image is cut out from a volume (image selection), and the preprocessing and the trial area of the PCNN algorithm are limited from the two-dimensional image (area selection, area analysis), and the preprocessing and the PCNN algorithm are performed. This is performed by observing the respective results while approximating the parameters to the optimum values while repeating the preprocessing and the PCNN algorithm with the parameter change.
[0040]
I didn't know how to analyze the area and how to optimize the parameters from the results. Also, I didn't know exactly what the pre-processing was like (parameters couldn't go so far).
[0041]
Please add or modify the following sentence.
[0042]
As shown in FIG. 11, as a setting method of the target area, an auto and a manual are prepared. In the case of the auto, when a seed is designated by a user, in addition to a method of searching for a periphery based on a luminance value, A radial search is performed centering on the seed, an edge (outermost) point where the luminance or the luminance gradient satisfies a predetermined condition is extracted, and the points at the ends are connected to draw a contour of the analysis area. The analysis area is set through the repetition of connection involving addition, deletion, and movement of points.
[0043]
As pre-processing, for example, as shown in FIG. 10, a seed voxel value is corrected by a factor (correction value) so that more than half of the surrounding voxels are fired, and this is performed individually for all voxels in the target area. Based on the luminance distribution of voxels in the region, the PCNN algorithm sets an upper limit of the target luminance value, extracts only voxels below the upper limit from the entire volume, and performs PCNN only on the extracted voxels. It is processed by an algorithm.
[0044]
The PCNN parameters include a connection radius r and a connection weight β. After setting, preprocessing and PCNN segmentation are performed with the parameters, and the results are displayed. The user checks and, if necessary, resets the parameters.
[0045]
The setting of the PCNN parameters is provided by a graphical user interface (GUI), for example, as shown in FIG. The GUI is configured in an easy-to-understand manner such as the size, sharpness, and persistence of the area as a PCNN result, and each is provided with a slider button to assist in setting PCNN parameters that are difficult for the user to understand. For example, the size and the sharpness are determined by the correlation between the connection radius r and the connection weight β. For each of the size and the sharpness, a combination of the connection radius r and the connection weight β is associated with the set value (the size and the sharpness) in advance.
[0046]
Since this parameter optimization process is performed for the entire volume, it takes a long time. For this reason, as shown in FIG. 13, it is preferable to optimize the parameters limited to a part (sub-volume) of the volume.
[0047]
(Modification)
The present invention is not limited to the above-described embodiment, and can be implemented in various forms without departing from the spirit of the invention at the stage of implementation. Furthermore, the above-described embodiment includes various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed components. For example, some components may be deleted from all the components shown in the embodiment.
[0048]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the setting of a favorable region of interest by PCNN can be performed at high speed.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a procedure of a conventional PCNN.
FIG. 2 is a flowchart illustrating a procedure of a PCNN according to an embodiment of the present invention.
FIG. 3 is an explanatory diagram of threshold processing in a firing determination step of peripheral neurons (peripheral voxels) in FIG. 2;
FIG. 4 is an explanatory diagram of a threshold decay step in FIG. 2;
FIG. 5 is a supplementary explanatory diagram of the seed input step of FIG. 2;
FIG. 6 is a supplementary diagram of the conventional PCNN algorithm.
FIG. 7 is a view showing an example of a result output of FIG. 2;
FIG. 8 is a diagram showing a chain of PCNN application ranges when temporally continuous image data is sequentially applied to a PCNN in the embodiment.
FIG. 9 is a flowchart illustrating a procedure for adjusting a PCNN parameter in the embodiment.
FIG. 10 is an explanatory diagram of the preprocessing in FIG. 9;
FIG. 11 is a flowchart showing a procedure of region selection in FIG. 9;
FIG. 12 is a view showing an example of a GUI for setting PCNN parameters in FIG. 9;
FIG. 13 is a flowchart showing another procedure for adjusting PCNN parameters in the embodiment.
[Explanation of symbols]
S1 ... input step of medical three-dimensional image data (volume data) and PCNN parameters;
S2: seed input step,
S3: threshold attenuation step,
S4: seed firing determination step,
S5: Firing neuron stack step,
S6: Stack empty judgment step,
S7: Result output step,
S8: Neuron ID reading step,
S9: peripheral neuron firing determination step,
S10: Firing neuron stack step.

Claims (10)

パルス結合ニューラルネットワークアルゴリズム(PCNN)を適用して医用3次元画像データに領域を設定する方法において、
入力装置への入力に基づいて前記医用3次元画像にシード点を設定し、
前記シード点に基づいてしきい値を求め、
前記シード点の値及び前期シード点に隣接する点の値に基づいてしきい値処理を行い、このしきい値処理の結果に基づいて新たなシード点を決めることを特徴とする医用3次元画像データの領域分割方法。
In a method of setting a region in medical three-dimensional image data by applying a pulse-coupled neural network algorithm (PCNN),
Setting a seed point in the medical three-dimensional image based on an input to the input device;
Determining a threshold based on the seed point;
A threshold value process is performed based on the value of the seed point and a value of a point adjacent to the previous seed point, and a new seed point is determined based on a result of the threshold process. Data area division method.
パルス結合ニューラルネットワークアルゴリズム(PCNN)を適用して医用3次元画像データに領域を設定する方法において、
前記医用3次元画像データから関心領域を含む2次元画像データを作成し、前記2次元画像データに基づいて2次元画像を表示する第1のステップと、
入力装置への入力に基づいて前記2次元画像にシードボクセルを設定する第2のステップと、
前記シードボクセルに基づいてしきい値を求める第3のステップと、
前記シードボクセル及びその周辺ボクセルの値から求めた値を前記しきい値と比較して前記シードボクセルの発火を判定する第4のステップと、
前記判定により発火したボクセルを新たなシードボクセルとして前記第3、第4のステップを実行する第5のステップと備えることを特徴とする医用3次元画像データの領域分割方法。
In a method of setting a region in medical three-dimensional image data by applying a pulse-coupled neural network algorithm (PCNN),
A first step of creating two-dimensional image data including a region of interest from the medical three-dimensional image data and displaying a two-dimensional image based on the two-dimensional image data;
A second step of setting a seed voxel in the two-dimensional image based on an input to an input device;
A third step of determining a threshold based on the seed voxels;
A fourth step of comparing the value obtained from the values of the seed voxel and its surrounding voxels with the threshold to determine firing of the seed voxel;
A fifth step of executing the third and fourth steps using the voxel fired by the determination as a new seed voxel, and a fifth method of segmenting medical three-dimensional image data.
前記第4のステップにおいて、前記シードボクセルに対する前記周辺ボクセルの距離が前記入力装置を介して設定される請求項2記載の医用3次元画像データの領域分割方法。3. The method according to claim 2, wherein, in the fourth step, a distance between the peripheral voxel and the seed voxel is set via the input device. 前記距離の入力のために、分割領域の大きさという表記でスライダボタンがグラフィカルユーザインタフェースにより提供される請求項3記載の医用3次元画像データの領域分割方法。4. The method of dividing medical three-dimensional image data according to claim 3, wherein a slider button is provided by a graphical user interface in the form of the size of the divided region for inputting the distance. 前記第4のステップにおいて、前記シードボクセルの値に、前記周辺のボクセルの値の総和又は総和から導かれる値に重みをかけて加算し、その加算値を前記しきい値と比較する請求項2記載の医用3次元画像データの領域分割方法。3. The method according to claim 2, wherein, in the fourth step, the value of the seed voxel is weighted with a sum of values of the surrounding voxels or a value derived from the sum, and the sum is compared with the threshold value. A method for segmenting medical three-dimensional image data as described. 前記重みが前記入力装置を介して設定される請求項5記載の医用3次元画像データの領域分割方法。6. The method according to claim 5, wherein the weight is set via the input device. 前記重みの入力のために、分割領域の大きさという表記でスライダボタンがグラフィカルユーザインタフェースにより提供される請求項6記載の医用3次元画像データの領域分割方法。7. The method according to claim 6, wherein a slider button is provided by a graphical user interface in the form of the size of the divided area for inputting the weight. 前記入力装置を介して指定された点を含む領域又は輪郭により定義される領域を解析し、前記解析の結果に応じて前記PCNNのパラメータを設定する請求項2記載の医用3次元画像データの領域分割方法。3. The medical three-dimensional image data area according to claim 2, wherein an area including a point specified via the input device or an area defined by an outline is analyzed, and parameters of the PCNN are set according to a result of the analysis. Split method. 前記入力装置を介して指定された点を含む領域又は輪郭により定義される領域を対象として、前記PCNNのパラメータを変えながら前記PCNNの試行を繰り返し、前記PCNNのパラメータを最適値に近似させる請求項2記載の医用3次元画像データの領域分割方法。The method according to claim 1, further comprising: repeating a trial of the PCNN while changing a parameter of the PCNN for an area including a point specified by the input device or an area defined by a contour, so as to approximate the parameter of the PCNN to an optimal value. 2. The method for segmenting medical three-dimensional image data according to item 2. 前記点を中心として放射状に設定された所定数の線の強度勾配に基づいて解析領域を設定する請求項8記載の医用3次元画像データの領域分割方法。9. The method according to claim 8, wherein the analysis area is set based on an intensity gradient of a predetermined number of lines radially set around the point.
JP2002264212A 2002-09-10 2002-09-10 Method for region segmentation of three-dimensional medical image data Pending JP2004097535A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002264212A JP2004097535A (en) 2002-09-10 2002-09-10 Method for region segmentation of three-dimensional medical image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002264212A JP2004097535A (en) 2002-09-10 2002-09-10 Method for region segmentation of three-dimensional medical image data

Publications (1)

Publication Number Publication Date
JP2004097535A true JP2004097535A (en) 2004-04-02

Family

ID=32263715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002264212A Pending JP2004097535A (en) 2002-09-10 2002-09-10 Method for region segmentation of three-dimensional medical image data

Country Status (1)

Country Link
JP (1) JP2004097535A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000301A (en) * 2004-06-16 2006-01-05 National Institute Of Advanced Industrial & Technology Image processor and surgery support system using the same
JP2006102125A (en) * 2004-10-05 2006-04-20 Toshiba Corp Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus
JP2007044346A (en) * 2005-08-11 2007-02-22 Toshiba Corp Method for identifying region concerned with time in medical image processing apparatus and medical image processing apparatus
US7796835B2 (en) 2004-11-18 2010-09-14 Ziosoft, Inc. Computer readable medium for image processing and image processing method
JP4841623B2 (en) * 2005-05-30 2011-12-21 コミッサリア ア レネルジ アトミック エ オー エネルジ アルターネイティブス A method of segmenting a series of 3D images, especially in pharmacological images
US8165370B2 (en) 2006-07-27 2012-04-24 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
CN102592266A (en) * 2012-01-04 2012-07-18 西安工程大学 Dual-simplified pulse coupled neural network-based grey cloth defect division method
CN103247043A (en) * 2013-03-12 2013-08-14 华南师范大学 Three-dimensional medical data segmentation method
CN106296702A (en) * 2016-08-15 2017-01-04 中国农业科学院农业信息研究所 Cotton Images dividing method and device under natural environment
US10366494B2 (en) 2017-04-21 2019-07-30 Samsung Medison Co., Ltd. Image segmentation method and electronic device therefor
WO2019167882A1 (en) * 2018-02-27 2019-09-06 富士フイルム株式会社 Machine learning device and method
CN110400327A (en) * 2019-07-23 2019-11-01 中国计量大学 A kind of tomato plant nighttime image dividing method based on improvement PCNN
CN111402284A (en) * 2020-03-17 2020-07-10 中国人民解放军国防科学技术大学 Image threshold value determination method and device based on three-dimensional connectivity
CN115222725A (en) * 2022-08-05 2022-10-21 兰州交通大学 NSCT domain-based PCRGF and two-channel PCNN medical image fusion method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000301A (en) * 2004-06-16 2006-01-05 National Institute Of Advanced Industrial & Technology Image processor and surgery support system using the same
JP2006102125A (en) * 2004-10-05 2006-04-20 Toshiba Corp Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus
US7796835B2 (en) 2004-11-18 2010-09-14 Ziosoft, Inc. Computer readable medium for image processing and image processing method
JP4841623B2 (en) * 2005-05-30 2011-12-21 コミッサリア ア レネルジ アトミック エ オー エネルジ アルターネイティブス A method of segmenting a series of 3D images, especially in pharmacological images
JP2007044346A (en) * 2005-08-11 2007-02-22 Toshiba Corp Method for identifying region concerned with time in medical image processing apparatus and medical image processing apparatus
US8165370B2 (en) 2006-07-27 2012-04-24 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
CN102592266A (en) * 2012-01-04 2012-07-18 西安工程大学 Dual-simplified pulse coupled neural network-based grey cloth defect division method
CN103247043A (en) * 2013-03-12 2013-08-14 华南师范大学 Three-dimensional medical data segmentation method
CN106296702A (en) * 2016-08-15 2017-01-04 中国农业科学院农业信息研究所 Cotton Images dividing method and device under natural environment
US10366494B2 (en) 2017-04-21 2019-07-30 Samsung Medison Co., Ltd. Image segmentation method and electronic device therefor
WO2019167882A1 (en) * 2018-02-27 2019-09-06 富士フイルム株式会社 Machine learning device and method
JPWO2019167882A1 (en) * 2018-02-27 2021-03-04 富士フイルム株式会社 Machine learning equipment and methods
US11494586B2 (en) 2018-02-27 2022-11-08 Fujifilm Corporation Tomographic image machine learning device and method
CN110400327A (en) * 2019-07-23 2019-11-01 中国计量大学 A kind of tomato plant nighttime image dividing method based on improvement PCNN
CN110400327B (en) * 2019-07-23 2021-07-02 中国计量大学 Tomato plant night image segmentation method based on improved PCNN
CN111402284A (en) * 2020-03-17 2020-07-10 中国人民解放军国防科学技术大学 Image threshold value determination method and device based on three-dimensional connectivity
CN115222725A (en) * 2022-08-05 2022-10-21 兰州交通大学 NSCT domain-based PCRGF and two-channel PCNN medical image fusion method
CN115222725B (en) * 2022-08-05 2023-04-18 兰州交通大学 Medical image fusion method based on NSCT domain PCRGF and dual-channel PCNN

Similar Documents

Publication Publication Date Title
Yuan Hierarchical convolutional-deconvolutional neural networks for automatic liver and tumor segmentation
CN109035197B (en) CT radiography image kidney tumor segmentation method and system based on three-dimensional convolution neural network
EP3316217B1 (en) Deep learning based bone removal in computed tomography angiography
Huang et al. Coronary artery segmentation by deep learning neural networks on computed tomographic coronary angiographic images
Kaluva et al. 2D-densely connected convolution neural networks for automatic liver and tumor segmentation
CN105741251B (en) A kind of blood vessel segmentation method of Hepatic CT A sequence images
US8958618B2 (en) Method and system for identification of calcification in imaged blood vessels
CN104573309B (en) Device and method for computer-aided diagnosis
CN110070540B (en) Image generation method and device, computer equipment and storage medium
US20070116332A1 (en) Vessel segmentation using vesselness and edgeness
CN105096310B (en) Divide the method and system of liver in magnetic resonance image using multi-channel feature
JP2004097535A (en) Method for region segmentation of three-dimensional medical image data
Cheema et al. Liver extraction using residual convolution neural networks from low-dose CT images
Li et al. Automatic quantification of epicardial adipose tissue volume
Pradhan et al. Lung cancer detection using 3D convolutional neural networks
Hong et al. GAN‐LSTM‐3D: An efficient method for lung tumour 3D reconstruction enhanced by attention‐based LSTM
Davamani et al. Biomedical image segmentation by deep learning methods
CN111127487A (en) Real-time multi-tissue medical image segmentation method
Ayalew et al. Deep learning based liver cancer segmentation from computed tomography images
Yang et al. Dual-path network for liver and tumor segmentation in CT images using Swin Transformer encoding approach
Heydarian et al. Optimizing the level set algorithm for detecting object edges in MR and CT images
Affane et al. Robust deep 3-d architectures based on vascular patterns for liver vessel segmentation
Leonardi et al. 3D reconstruction from CT-scan volume dataset application to kidney modeling
Abdalbagi et al. Bata-unet: Deep learning model for liver segmentation
Zhang et al. Context-aware PolyUNet for liver and lesion segmentation from abdominal CT images