JP2011514190A - 画像内の解剖学的構造のセグメンテーションおよびモデリングのための方法およびシステム - Google Patents
画像内の解剖学的構造のセグメンテーションおよびモデリングのための方法およびシステム Download PDFInfo
- Publication number
- JP2011514190A JP2011514190A JP2010548646A JP2010548646A JP2011514190A JP 2011514190 A JP2011514190 A JP 2011514190A JP 2010548646 A JP2010548646 A JP 2010548646A JP 2010548646 A JP2010548646 A JP 2010548646A JP 2011514190 A JP2011514190 A JP 2011514190A
- Authority
- JP
- Japan
- Prior art keywords
- region
- sub
- image
- ventricle
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20128—Atlas-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20156—Automatic seed setting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
3次元脳スキャン画像(たとえば、MRまたはCT)内の1つ以上の脳室をセグメント化するための方法を提案する。前記画像は、1つ以上の脳室それぞれの脳モデルに対してレジストされる。各関心領域は、前記脳室モデルに基づいて画定される。対象領域は、前記関心領域において領域拡張手続きを適用することによって最初に得られるとともに、解剖学的知識に基づいてトリミングされる。1つ以上の対象の3D表面モデルは、セグメント化された構造から3D空間内に構築される。3D表面は、欠落している細部の特徴を示す、3D空間内の修正点をユーザが選択することによって、編集および改良される。次いで、選択された点に近い3D表面の領域は、修正点に向かってスムーズにワーピングされるとともに、修正されたパッチは、他の3D表面と組み合わされ、正確な解剖学的構造モデルを生成する。
Description
本発明は、画像内の解剖学的構造をセグメント化するための方法およびシステム、ならびにセグメント化された構造の3D表面モデルを構築するための方法およびシステムに関する。特定の適用例は、MR画像及びCT画像などの医用画像における脳室系のセグメンテーションおよびモデリングである。
図1に示されているように、ヒト脳室系は、4つの相互連絡する室、すなわち左側脳室、右側脳室、第3脳室、および第4脳室で構成されている。脳質は、白質(WM)および灰白質(GM)によって囲まれた脳脊髄液(CSF)で満たされている。大脳内に位置する2つの側脳室は、比較的大きくかつC字型で、大脳基底核の背側面をおおよそ包み込んでいる。各側脳室は、前角、下角、および後角を経由して前頭葉、側頭葉、および後頭葉にそれぞれ広がっている。側脳室は両方とも室間孔を経由して第3脳室(間脳内の中央に存在する)と連絡し、第3脳室は、中脳水道(中脳内に位置する)を経由して第4脳室(後脳内に存在する)と連絡する。図中の略語は、次のように定義される。すなわち、AC:前交連、BC:基底槽(脚間槽)、CC:脳梁、CP:大脳脚、CQ:四丘体、HP:下垂体(脳下垂体)、ICV:内大脳静脈(横裂内)、IS:漏斗茎、LT:終板、LV:側脳室、MI:中間質(中交連)、MO:延髄、OC:視交叉、PC:後交連、PG:松果体、SP:透明中隔、TC:灰白隆起、TF:横裂(脳梁の下のくも膜下腔)、V3:第3脳室、V4:第4脳室である。
MRイメージングは、in vivoヒト脳の3D画像を非侵襲的に得ることを可能にしている。CSFの容積および脳室の形状における容積は、一般的に、いくつかの内因性および外因性の病変,と関連付けられるため、MR画像からの脳室系のセグメンテーションおよび定量化は最重要である。
脳室の手動セグメンテーションは、時間がかかり、主観的であるとともに、非再現的(または非反復的)であるため、多数の自動化された方法も脳室のセグメンテーションのために提案されている。一般に、脳室のセグメンテーションのための方法は、3D脳室モデルが使用されるかどうかに依存して、モデルベースの方法、または非モデルベースの方法のいずれかに分類することができる。
強度スレッショルディング(非特許文献17)および領域作成法(領域拡張法)(非特許文献12、13、19)などの非モデルベースの方法は、脳室系の形状およびサイズのばらつきに適応可能である。しかし、これらの方法は、脳室の形状の予備知識を利用しないため、脳室領域から非脳室領域への「漏出」を生じ得る。さらに、いくつかの脳室領域は、画像の不均一性、または画像内のノイズおよび部分容積アーチファクトの存在によって、これらの方法では除外されることがある。第3脳室の正確な境界は、それらの形状およびトポロジー制約、ならびに周囲の対象とそれらの関係性に依存するため、これら非モデルベースの方法を使用する場合、第3脳室の正確なセグメンテーションは、特に困難である。
一方、アトラスワーピング(非特許文献4)、またはジオメトリカル・パラメトリックモデル変形(幾何学的パラメトリックモデル変形)(非特許文献3、6、18)などのモデルベースの方法は、脳室の形状の予備知識として振舞う明示的または暗黙的モデルを採用する。モデルの形状と検討される対象との間のばらつきが小さい場合に、これらの方法は、ノイズに対してロバストであるとともに、正確なセグメンテーションを実現することができる。しかし、脳室の形状およびサイズにおける大きなばらつきにより、あらゆるばらつきに対して適応可能なモデル変形を実現するように、妥当なエネルギーまたは相似関数を設計することは困難である。さらに、セグメンテーションの失敗を必然的に生じる局所極小化問題(local minimization problem)が、これらの方法には存在する。
一般に、画像からの解剖学的構造のセグメンテーションには、主に2つの難問がある。第一に、部分容積効果によって、検討される構造(たとえば脳室系)とその周囲の組織(たとえば灰白質)との間の移行領域が存在し得る。移行領域を完全に排除した場合、構造は、不十分にセグメント化される、または数個の断絶されたコンポーネントに分かれ得る。第二に、構造とその周囲の組織との間のいくつかの境界は非常に薄いため、画像内で検出することができない。その結果、いくつかの対象領域は、他の非対象領域に「漏洩(leak)」し得る(すなわち結び付き得る)。現在、移行領域を検出するのと同時に、対象領域の非対象領域への「漏洩」を回避することができる方法は存在していない。
J.C. Bezdek, 1981. Pattern recognition with fuzzy objective function algorithms. Plenum Press, New York.
P. Besl and N. McKay, "A method for registration of 3-D shapes," IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(2), pp. 239-256, 1992.
C. Baillard, P. Hellier, C. Barillot, 2000. "Segmentation of 3D brain structures using level sets and dense registration". IEEE Workshop Math. Methods Biomed. Image Anal. 94-101.
M. Holden, J.A. Schnable, D.L.G. Hill, 2001. "Quantifying small changes in brain ventricular volume using non-rigid registration". MICCAI, 49-56.
K. Held, E.R. Kops, B.J. Krause, (1997). Markov random field segmentation of brain MR images. IEEE Transactions on Medical Imaging 16,876-886.
M.R. Kaus, S.K. Warfield, A. Nabavi, P.M. Black, F.A. Jolesz, R. Kikinis, 2001. "Automated segmentation of MR images of brain tumors," Radiology 218, 586-591.
J. Liu, W. Gao, S. Huang, and W.L. Nowinski, "A model-based, Semi-global Segmentation Approach for Automatic 3D Point Landmark Localization in NeuROImages", TMI-2008 (in press).
J. Liu, W. L. Nowinski, (2006), "A hybrid approach to shape-based interpolation of stereotactic atlases of the human brain," NeuROInformatics, vol. 4, no.2, pp. 177-198.
W.L. Nowinski, G. Qian, K.N.B. Prakash, Q. Hu, A. Aziz 2006 "Fast Talairach Transformation for magnetic resonance neuROImages" Jul-Aug;30(4):629-41. J Comput Assist Tomogr.
K. Rohr, Landmark-based Image Analysis, Kluwer Academic Pub-lishers, 2001.
S.M. Smith. "Fast robust automated brain extraction," Human Brain Mapping, 17(3):143-155, November 2002.
H.G. Schnack, P.H.E. Hulshoff, W.F.C. Baare, M.A. Viergever, R.S. Kahn, 2001, "Automatic segmentation of the ventricular system from MR images of the human brain". Neuroimage 14, 95-104.
M. Sonka, S.K. Tadikonda, S.M. Collins, 1996. "Knowledge-based interpretation of MR brain images". IEEE Trans. Med. Imag. 15, 443-452.
J. Talairach, P. Tournoux (1988) Co-Planar Stereotactic Atlas of the Human Brain, Stuttgart, Thieme.
H. Tang, E.X., Wu, Q., Ma, Y., Gallagher, D., Perera, G.M., and Zhuang, T. (2000). "MRI brain image segmentation by multi-resolution edge detection and region selection". Computerized Medical Imaging and Graphics 24, 349-357.
W. Wells, W. Grimson, R. Kikinis, and F. Jolesz (1996) "Adaptive segmentation of MRI data". IEEE Transactions on Medical Imaging 15, 429-442.
A.J. Worth, N. Makris, M.R. Patti, J.M.Goodman, E.A. Hoge, V.S. Caviness, D.N. Kennedy, 1998. "Precise segmentation of the lateral ventricles and caudate nucleus in MR brain images using anatomically driven histograms", IEEE Trans. Med. Imag. 17, 303-310.
Y. Wang, L.H. Staib, 1998. Boundary finding with correspondence using statistical shape models. "Proceeding IEEE Conference on Computer Vision and Pattern Recognition". IEEE Press, Washington, DC, pp. 338-345.
Y. Xia, Q. Hu, A. Aziz and W. L. Nowinski, "A knowledge-driven algorithm for a rapid and automatic extraction of the human cerebral ventricular system for MR meuroimages.". NeuROImage, 21, 2004, pp. 269-282.
C. Yan, N. Sangt, and T. Zhang, 2003, "Local entropy-based transition region extraction and thresholding", Pattern recognition letters, 24(2003), pp.2935-2941.
Y. Zhang, M. Brady, and S. Smith (2001) "Segmentation of Brain MR Images through hidden markov random field model and the expectation maximization algorithm". IEEE Transactions on Medical Imaging 20, 45-57.
Lorensen WE and Cline HE, "Marching Cubes: A High Resolution 3D Surface Construction Algorithm," Computer Graphics, 1987, 21(4), 163-169.
P. Lindstrom and G. Turk, "Fast and Memory Efficient Polygonal Simplification," Proc. Visualization ’98, IEEE Computer Soc. Press, Oct. 1998, pp. 279-286.
本発明は、画像内の構造のセグメンテーションおよび3D表面モデルの構築のための方法およびシステムを提供することを目的とする。
特に、本発明は、脳スキャンデータにより構成される3次元脳スキャン画像において、1つ以上の脳室をセグメント化するための方法を提案する。前記方法は、(a)前記1つ以上の脳室それぞれの1つ以上の各脳室モデルを具備する脳モデルを前記画像とともにレジストすることによって、前記脳モデル内の位置と前記脳スキャン画像内の位置との間の対応を形成するステップと、(b)前記対応に従って、前記1つ以上の脳室モデルに基づき前記画像内の1つ以上の各関心領域を画定するステップと、(c)前記各脳室を示す各ボリュームを形成するように、脳スキャンデータを使用して前記1つ以上の関心領域に関する領域拡張を実行するステップと、(d)前記各ボリュームを使用して前記脳スキャン画像をセグメント化するステップとを具備する。
本発明は、前記セグメント化された解剖学的構造の表面モデルを構築して、前記セグメンテーションで失われた特徴および細部を正確に記述するように表面モデルを編集するステップをさらに含み得る。
ステップ(c)は、ステップ(d)の前に接続領域の形でボリュームを生成するステップを含み得るとともに、関係する脳室に特有の解剖学的知識に基づいて前記ボリュームをトリミングするステップが存在し得る.
本発明は、そのような方法を実行するコンピュータシステムとして代替的に表されてもよい。このコンピュータシステムは、前記画像を取得するデバイスに統合されてもよい。本発明はさらに、前記方法のステップを実行するようにコンピュータシステムによって動作可能なプログラム命令を有し、有形のコンピュータ媒体上に記録されたものなどの、コンピュータプログラム製品として表されてもよい。
本発明の実施形態は、添付の図面を参照しながら単なる例示目的で説明される。
図2を参照すると、本発明の実施形態であるとともに、脳室の3D表面モデルを生成する方法200の各ステップが例示されている。
方法200への入力は、ボリューム画像である。ステップ202で、ボリューム画像内の脳室はセグメント化される。ステップ204で、3D表面モデルは、各脳室に対して構築されるとともに、3D表面モデルは、その精度を向上させるために編集される。他の実施形態において、ステップ202の後にステップ204が続かない場合もあることを留意されたい。さらに、ステップ204の方法は、前記方法200での適用以外の可能な適用を有しているとともに、3−Dモデリングの広範な場面において別々にまたは組み合わせて行ってもよい。
ステップ202:ボリューム画像における脳室のセグメント化
図3を参照すると、本発明の実施形態であるとともに、脳室系を示すボリューム画像を生成する方法202の各ステップが例示されている。
図3を参照すると、本発明の実施形態であるとともに、脳室系を示すボリューム画像を生成する方法202の各ステップが例示されている。
方法202への入力は、ボリューム画像である。ステップ302において、前記画像は、標準タライラッハ(Talairach)空間に再構成されるとともに、次いで標準脳室モデルは、複数(例えば10個)の自動的に識別された脳室ランドマークに従って、前記画像上にワーピングされる。ステップ304において、各脳室に対する関心領域は、変形された脳室モデルを使用して指定される。ステップ308,310および312において、側脳室、第3脳室、および第4脳室は、セグメント化される。ステップ306a,306bおよび306cにおいて、ヒステリシススレッショルディング(すなわち、ヒステリシスを用いたスレッショルディング)が行われ、最小の非脳室領域を含んだCSF領域とともに、脳室コンポーネントを含んだ接続(connected)CSF領域を生成する。
ステップ302:画像の再構成
ボリューム画像Iを与えれば、画像Iを標準Talairach空間(非特許文献14)に再構成するためにTalairach変換(非特許文献9)が一般的に使用されるため、それは解剖学的知見を用いて処理または理解することができる。しかし、Talairachランドマークを自動的に探索することができる場合があったとしても、Talairach変換を自動化することはできない。
ボリューム画像Iを与えれば、画像Iを標準Talairach空間(非特許文献14)に再構成するためにTalairach変換(非特許文献9)が一般的に使用されるため、それは解剖学的知見を用いて処理または理解することができる。しかし、Talairachランドマークを自動的に探索することができる場合があったとしても、Talairach変換を自動化することはできない。
したがって、例示的な実施形態において、皮質輪郭ベースのレジストレーションアプローチは、前記画像を再構成するために使用される。脳の皮質輪郭は、皮質表面の近似凸包である。画像内の皮質輪郭S1は、形態学的解析(非特許文献11)を使用して自動的に抽出され、3D Talairach空間内の皮質輪郭S2は、3D Talairach-Tournoux(TT)脳アトラスの2Dデジタル電子版を補間する(非特許文献8)ことによって生成されるとともに、3DTT脳アトラス(非特許文献8)における脳室系は、標準ボリューメトリック脳室モデルとして見なされる。
輪郭S1およびS2は、Q1およびQ2としてそれぞれ示された頂点を有する三角メッシュによって表されている。ICP(Iterated Closest Points)法(非特許文献2)を適用して、ポイントセットQ1、Q2をレジストすると、線形変換が得られるとともに、線形変換は画像IをTalairach空間に再構成するために使用される。標準的な放射線学的慣例(http://www.grahamwideman.com/gw/brain/orientation/orientterms.htm)は、3DTTアトラスの前交連に位置する原点を有するとともに、対象の右側から左側に広がるx、対象の後側から前側へ広がるy、および対象の下側から上側へ広がるzを有する、Talairach空間における座標系(xyz)を定義するために採用される。
ステップ304:関心領域の指定
例示的な実施形態において、各脳室コンポーネントに対する関心領域を指定するために、10個の脳室ランドマーク(非特許文献7)が、前記画像および3DTTアトラス内で最初に識別される。モデルベースの半球(semi-global)アプローチは、画像内の10個の脳室ランドマークを自動的に識別するために使用され、MIUE(Medical Image Understanding Environment)(非特許文献7、8)というツールは、専門知識と同様に3DTTアトラス内のこれらのランドマークを対話的に指定するために使用される。
例示的な実施形態において、各脳室コンポーネントに対する関心領域を指定するために、10個の脳室ランドマーク(非特許文献7)が、前記画像および3DTTアトラス内で最初に識別される。モデルベースの半球(semi-global)アプローチは、画像内の10個の脳室ランドマークを自動的に識別するために使用され、MIUE(Medical Image Understanding Environment)(非特許文献7、8)というツールは、専門知識と同様に3DTTアトラス内のこれらのランドマークを対話的に指定するために使用される。
一例において、これらランドマークのうち4つは、各側脳室上にあるとともに、各側脳室の最後部点(most posterior point)、最上部点(most superior point)、前外側前頭極(anterior lateral frontal pole)、および後中心線交差(posterior center-line intersection)である。ランドマークはさらに、第3脳室上の前極(anterior pole)、および第4脳室上の後上部点(posterior-superior point)を含んでいる。
前記画像およびTT脳アトラス内の10個の脳室ランドマークに基づいて、標準脳室モデルは、画像上にレジストされる。自動的に検出されたランドマークの定位は、正確でない場合があるため(非特許文献7、10)、薄板スプライン近似アプローチ(非特許文献10)が、レジストレーション(またはワーピング)機能を得るために使用される。
ワーピングされた(または変形された)ボリュームメトリック脳室モデルは、4つのボリューム:V1(左側脳室)、V2(右側脳室)、V3(第3脳室)ならびにV4(第4脳室および水道)に分割される。各脳室コンポーネントに関して対応する関心領域Ωiは、式(1)に従って、対応するワーピングされたサブボリュームViを拡張することによって定義される。
式(1)において、関心領域Ω1〜Ω4は、左側脳室、右側脳室、および第4脳室それぞれのセグメント化のために使用される。s(Vi,p)は、ボリュームViの境界に対するボクセルp(p=(px,py,pz)∈R3)の符号付き最小ユークリッド距離を、ボクセルpがボリュームViの外側であることを示すs(Vi,p)の正の値と、ボクセルpがボリュームViの内側であることを示すs(Vi,p)の負の値とを用いて示す。一例において、d0が6mmに設定されることによって、各領域は、3種類の脳組織、関連する脳室コンポーネントを含む灰白質、白質、およびCSFを含めるのにちょうど十分な大きさである。これは、前記領域において続いて推定されるように、関連する脳室コンポーネントに対する閾値を与える。加えて、V0は、中矢状スラブを表している。一例において、V0の厚みは、式(2)に従って8mmに設定されるとともに、2つの側脳室の脳半球間CSFへの「漏洩」、または2つの側脳室の互いへの「漏洩」を回避するように、V0は、Ω1およびΩ2から除外される。
V0={p|−4≦x≦4} (2)
V0={p|−4≦x≦4} (2)
ステップ306a,306bおよび306c:ヒステリシススレッショルディングの実行
いくつかの方法(非特許文献5、15、16および21)が、脳ボリュームからCSF領域をセグメント化するのに利用することができるが、抽出されたCSF領域は通常、脳室領域だけなく非脳室領域の大部分も同様に含む。多数の相互接続した非脳室領域から脳室領域をセグメント化することは困難である。その結果、これらの方法は、脳室CSFと非脳室組織との間の移行領域を特定するのに失敗して、不十分なセグメンテーションを生じ得る。既存の方法(非特許文献20)は、移行領域の抽出に利用することができるが、これらの方法は、勾配ベース、または局所エントロピーベースのいずれかである。したがって、これらの方法は、移行領域として非脳室CSF領域の大部分を抽出する可能性がある。
いくつかの方法(非特許文献5、15、16および21)が、脳ボリュームからCSF領域をセグメント化するのに利用することができるが、抽出されたCSF領域は通常、脳室領域だけなく非脳室領域の大部分も同様に含む。多数の相互接続した非脳室領域から脳室領域をセグメント化することは困難である。その結果、これらの方法は、脳室CSFと非脳室組織との間の移行領域を特定するのに失敗して、不十分なセグメンテーションを生じ得る。既存の方法(非特許文献20)は、移行領域の抽出に利用することができるが、これらの方法は、勾配ベース、または局所エントロピーベースのいずれかである。したがって、これらの方法は、移行領域として非脳室CSF領域の大部分を抽出する可能性がある。
例示的な実施形態において、ステップ304において指定された関心領域Ωi(Ω1〜Ω4)は、対応する脳室コンポーネントを含む、接続CSF領域Xを収集するために、ステップ306a,306bおよび306cにおいてガイドとして使用される。ステップ306a,306bおよび306cにおいて、ヒステリシススレッショルディングは、以下のサブステップに従って領域Ωiに対応する領域Xを収集するために使用される。
ステップ1:各領域Ω1内の脳室コンポーネントに対して2組の強度閾値が、それぞれ計算される。
一例において、ステップ1は、以下のステップに従って実行される。
最初に、FCM(fuzzy c-mean)法(非特許文献1)は、領域Ω1内の画像の全ボクセルをそれらの強度に従って5つのクラスタに分類するために使用される。これら5つのクラスタは3種類の組織(GM、WMおよびCSF)、ならびに2つの移行領域(CSF_GM(CSFとGMとの間)、およびGM_WM(GMとWMとの間))を表す。
次に、クラスタkに対する強度gのメンバーシップをuk(g)として、および各クラスタの中心の強度をck(k=1,2,・・・,5)として示し、一般性を喪失することなく、c1≦c2≦…c5と仮定すると、2つのメンバーシップ関数ukおよびuk+1の交点gkは、uk(gk)=uk+1(gk)(ここで、k=1,2,・・・,4)というように計算される。クラスタkの低閾値tkLおよび高閾値tkHは、可能最小強度および可能最大強度に対してそれぞれ設定されているg0およびg5を用いて、gk‐1およびgkにそれぞれ設定される。
専門知識に従って、CSFおよびCSF_GMに対応する2つのクラスタが選ばれる。一例において、T1−MR画像では、強度閾値[t1L,t1H]を有する第1クラスタは、CSFとして選択されるとともに、強度閾値[t2L,t2H]を有する第2クラスタは、CSF_GMとして選択される。CSFクラスタを含む閾値は、狭閾値(狭閾値)[TL1,TH1]であるとされる一方で、CSFおよびCSF_GMクラスタの両方を含む閾値は、広閾値(広閾値)閾値[TL2,TH2]であるとされる。換言すると、TL1=t1L,TH1=t1H,TL2=min{t1L,t2L},TH2=max{t1H,t2H}である。
ステップ2:各Ω1に対して脳室コンポーネントの対応するカーネル領域Kは、狭閾値[TL1,TH1]に従って収集される。
一例において、ステップ2は、以下のステップに従って行われる。
最初に、CSFクラスタ{p|TL1≦I(p)≦TH1}を得るために、前記画像Iは、低閾値TL1および高閾値TH1を用いて2値化される。次に、最大接続領域Kは、6隣接接続性(6-neighbor connectivity)に従ってCSFクラスタから抽出される。前記画像内の対応する脳室コンポーネントと大まかに一致している領域Ωiは、変形された脳室コンポーネントを拡張することによって生成されるため、必然的に領域Kは、領域Ω内の関連する側脳室の主要部分である、または少なくともそれを含む。換言すると、領域Ω3から得られた領域Kは、第3脳室の主要部分を含む一方で、他の領域の各々から得られた領域Kは、左側脳室、右側脳室、または第4脳室の主要部分である。領域Kは、関連する脳室コンポーネントのカーネル領域として示される。
ステップ3: 前記領域Kは、広閾値[TL2,TH2]に従って移行領域を含むように、適応的に拡張される。
一例において、ステップ3は、脳室コンポーネントの移行領域を含むと同時に非脳室領域への領域Kの「漏洩」を回避するように領域Kを適応的に拡張するための境界パッチベースの領域拡張(growing)手続きを使用して行われる。
26個の最近隣qのうち少なくとも1つがq∈Ω‐K、およびTL2≦I(q)≦TH2というような場合、ボリュームの境界ボクセルpは、能動的ボクセルであるとされる。Kの能動的 境界ボクセルは、26隣接接続性(26-neighbor connectivity)に従って境界パッチ{∂1,∂2,…∂n}(nは、パッチ数を表している)のセットにグループ化される。パッチ∂i内の全ボクセルは、接続された26個の近隣である一方で、2つの異なるパッチ∂iおよび∂j(i≠j)は接続されていない。
領域拡張法は、各パッチ∂iに関して別々に適用される。最初に、∂i,0は、∂iとして設定されるとともに、∂i,k+1は、式(3)に従って∂i,kから繰り返し生成される。式(3)において、N26(p)は、ボクセルpの26個の近隣を表している。
∂i,kから∂i,k+1を生成する手続きは、k=ki(以下、kiを記号の添え字として使用する際に、便宜上「(ki)」と表記する)おいて、∂i,(ki)+1が空になるまで、または∂i,(ki)+1内のボクセルの数は、∂i,(ki)内のボクセル数の2倍よりも大きくなるまで、すなわち#∂i,(ki)+1>#∂i,(ki)×2になるまで続く。移行領域のサイズは、∂i,0と同じスケールのものであると予想されるため、停止条件は、非脳室領域への移行領域の「漏洩」を回避するためのものである。
前記手続きの最後に、新しい値
が、パッチ∂i,0から得られる。最後に、新たに拡張されたボリュームViおよびカーネル領域Kは、式(4)に従って接続CSF領域Xを生成するように結合される。
ステップ308,310および312のステップ306a,306bおよび306cにおいてそれぞれ、接続CSF領域は、脳室系の形状、強度および構造に関する専門知識に従って以下のようにさらにトリミングされる。
ステップ308:側脳室のセグメンテーション
2つの側脳室をセグメント化するために、ヒステリシススレッショルディングは、左脳室および右脳室の主要部分である2つのボリュームX1およびX2を得るように、領域Ω1およびΩ2に別々に適用される。
中矢状スラブV0において側脳室の残っていそうな部分を検出するために、領域V0のそれぞれ内側である、X1およびX2の境界パッチ∂1および∂2が最初に特定されるとともに、次いで境界パッチベースの領域拡張手続きは、領域V0内の∂1および∂2を適応的に拡張するために使用される。ここで、左側脳室および右側脳室の残りの部分を含む、2つの新しいボリュームX 1およびX 2(これらの下線は、補正箇所を示すことを意図するものではなく、記号の一部として用いられる)は、得られる。
2つの側脳室をセグメント化するために、ヒステリシススレッショルディングは、左脳室および右脳室の主要部分である2つのボリュームX1およびX2を得るように、領域Ω1およびΩ2に別々に適用される。
中矢状スラブV0において側脳室の残っていそうな部分を検出するために、領域V0のそれぞれ内側である、X1およびX2の境界パッチ∂1および∂2が最初に特定されるとともに、次いで境界パッチベースの領域拡張手続きは、領域V0内の∂1および∂2を適応的に拡張するために使用される。ここで、左側脳室および右側脳室の残りの部分を含む、2つの新しいボリュームX 1およびX 2(これらの下線は、補正箇所を示すことを意図するものではなく、記号の一部として用いられる)は、得られる。
ステップ308a:側脳室の分離
2つの側脳室の間の透明中隔が十分に大きい場合(一例において、矢状方向における少なくとも1つのボクセルの厚みである。これは、テストデータセット内の対象の約30%で生じる。)、X 1およびX 2は、分離しているとともに(すなわち、ボリュームX 1およびX 2の重複X 12=X 1∩X 2は空である)、X1∪X 1およびX2∪X 2は、それぞれ左脳室および右脳室とされる。透明中隔が非常に薄い場合、2つの領域X 1およびX 2は、空でない重複領域X 12によって結合され、以下のステップに従って、左側脳室および右側脳室を分離する必要がある。最初に、2つの領域X’1=X 1−X 12およびX’2=X 2−X 12を得るように、X 12は、X 1およびX 2から除去される。次に、X 12内の各ボクセルpに関して、領域X’1の境界への距離が領域X’2に対してよりも小さい、すなわちs(X’1,p)<s(X’2,p)の場合、ボクセルpは、X’1に分配され、そうではなくs(X’1,p)>s(X’2,p)の場合、ボクセルpは、X’2に分配される。s(X’1,p)=s(X’2,p)の場合、pは、透明中隔からのボクセルとして見なされる。最後に、和集合X 1∪X’1およびX 2∪X’2は、左脳室および右脳室のセグメンテーションとされる。すなわち、X 1およびX 2は、X 1∪X’1およびX 2∪X’2にそれぞれ更新される。
2つの側脳室の間の透明中隔が十分に大きい場合(一例において、矢状方向における少なくとも1つのボクセルの厚みである。これは、テストデータセット内の対象の約30%で生じる。)、X 1およびX 2は、分離しているとともに(すなわち、ボリュームX 1およびX 2の重複X 12=X 1∩X 2は空である)、X1∪X 1およびX2∪X 2は、それぞれ左脳室および右脳室とされる。透明中隔が非常に薄い場合、2つの領域X 1およびX 2は、空でない重複領域X 12によって結合され、以下のステップに従って、左側脳室および右側脳室を分離する必要がある。最初に、2つの領域X’1=X 1−X 12およびX’2=X 2−X 12を得るように、X 12は、X 1およびX 2から除去される。次に、X 12内の各ボクセルpに関して、領域X’1の境界への距離が領域X’2に対してよりも小さい、すなわちs(X’1,p)<s(X’2,p)の場合、ボクセルpは、X’1に分配され、そうではなくs(X’1,p)>s(X’2,p)の場合、ボクセルpは、X’2に分配される。s(X’1,p)=s(X’2,p)の場合、pは、透明中隔からのボクセルとして見なされる。最後に、和集合X 1∪X’1およびX 2∪X’2は、左脳室および右脳室のセグメンテーションとされる。すなわち、X 1およびX 2は、X 1∪X’1およびX 2∪X’2にそれぞれ更新される。
ステップ310:第3脳室のセグメンテーション
接続CSFのボリュームX3を得るために、ヒステリシススレッショルディングが、最初に領域Ω3に適用される。
接続CSFのボリュームX3を得るために、ヒステリシススレッショルディングが、最初に領域Ω3に適用される。
次に、左側脳室または右側脳室のいずれかの部分であると識別されたボクセルは、X3から除去される。換言すると、X3は、X3−(X1+X2)となるように更新される。最後に、他の脳室外部のボクセルがX3から除去される。
ステップ310a:投影ベースの非脳室領域トリミング
一例において、投影ベースのトリミング法は、X3から非脳室ボクセルを除去するために使用される。それは、第3脳室が、脳中央の狭い開口であるとともに、ボリュームX3に含まれる非脳室部分は、矢状(左から右への)方向に沿って第3脳室よりも広いからである。投影ベースのトリミング法のステップは、以下の通りである。
一例において、投影ベースのトリミング法は、X3から非脳室ボクセルを除去するために使用される。それは、第3脳室が、脳中央の狭い開口であるとともに、ボリュームX3に含まれる非脳室部分は、矢状(左から右への)方向に沿って第3脳室よりも広いからである。投影ベースのトリミング法のステップは、以下の通りである。
ステップ1:2次元画像f(y,z)は、式(6)に従って、ボリュームX3を中矢状面x=0上に投影することによって生成される。
f(y,z)=#{p|py=y,pz=z,p∈X3} (6)
f(y,z)=#{p|py=y,pz=z,p∈X3} (6)
式(6)において、#は、1セットのカージナル(cardinal)(すなわち、平面x=0における点(y,z)における)を表しているとともに、f(y,z)は、点(y, z)における投射線上のボリュームX3のボクセル数を表している。
ステップ2:次いで、FCM法は、零でない全ての値{f{y,z}≠0}を2つのクラスタに分類するために使用されるとともに、適応的閾値hが得られ、f(y,z)は、あるクラスタにおけるhよりも小さく、かつ他のクラスタにおけるhよりも大きい。
ステップ3:各ボクセルp∈X3に関して、f(py,pz)>hの場合、ボクセルは、X3から除去される。
ステップ310b:ランドマーク誘導の非脳室領域トリミング
投影ベースの脳室外部トリミング法を適用した後、X3は、第3脳室の前下側部分において狭小の非脳室領域を依然と含み得る。一例において、ランドマーク誘導の非脳室領域トリミング法は、この非脳室領域を除去するために使用される。ランドマーク誘導の非脳室領域トリミング法において、第3脳室の前極に対する全ボクセルの前側は、除去される。ランドマーク(第3脳室の前極)は、モデルベースのアプローチ(非特許文献7)を使用して画像内で識別される。
投影ベースの脳室外部トリミング法を適用した後、X3は、第3脳室の前下側部分において狭小の非脳室領域を依然と含み得る。一例において、ランドマーク誘導の非脳室領域トリミング法は、この非脳室領域を除去するために使用される。ランドマーク誘導の非脳室領域トリミング法において、第3脳室の前極に対する全ボクセルの前側は、除去される。ランドマーク(第3脳室の前極)は、モデルベースのアプローチ(非特許文献7)を使用して画像内で識別される。
ステップ310c:形状ベースの非脳室領域トリミング
第3脳室の上側において、X3は、横裂およびICVによって構成される薄いC字型の領域を含み得る。さらに、PC(またはPG)から下後側に向かって、X3は、基底槽へ「漏洩」する1つ以上の狭小の経路を含み得る。一例において、これらの「漏洩」は、「漏洩」の帯状の形状的特徴に基づく形状ベースの非脳室領域トリミング法を使用して除去される。最初に、除去のための全候補コンポーネントは、後側から前側への冠状スライス上の接続領域をグループ化することによって特定される。次に、これらの候補コンポーネントから帯状の「漏洩」は識別および除去される。一例において、以下のサブステップは、形状ベースの非脳室領域トリミング法において行われる。
第3脳室の上側において、X3は、横裂およびICVによって構成される薄いC字型の領域を含み得る。さらに、PC(またはPG)から下後側に向かって、X3は、基底槽へ「漏洩」する1つ以上の狭小の経路を含み得る。一例において、これらの「漏洩」は、「漏洩」の帯状の形状的特徴に基づく形状ベースの非脳室領域トリミング法を使用して除去される。最初に、除去のための全候補コンポーネントは、後側から前側への冠状スライス上の接続領域をグループ化することによって特定される。次に、これらの候補コンポーネントから帯状の「漏洩」は識別および除去される。一例において、以下のサブステップは、形状ベースの非脳室領域トリミング法において行われる。
ステップ1:候補漏洩コンポーネントセット
および一時的コンポーネントセット
は、初期化される。
ステップ1において、ボリュームX3の最後側冠状スライスy0=min{y|p(x,y,z)∈X3}が特定されるとともに、
は空に設定される一方で、
は、{{C0}|C0∈S0}に設定される。ここで、C0は、y0によってインデックスが付された冠状スライス上のX3の全ての8隣接接続領域S0のうちの1つを示し、{C0}は、領域C0によって構成された候補漏洩コンポーネントである。
ステップ2:
を生成するために、全ての候補漏洩コンポーネントは、
内の各コンポーネントをトレースすることによって特定される。
各コンポーネント
に関して、y0+k+1によってインデックスが付された冠状スライス上の8隣接接続領域Ck+1が存在し、Ck+1が、別のボクセルpk∈Ckの26個の隣接ボクセルである少なくとも1つのボクセルpk+1∈Ck+1が存在するという意味で、Ckに接続されている場合、新しいコンポーネントLk+1={C0,C1,…,Ck,Ck+1}を形成するために、領域Ck+1は、コンポーネントLkに追加される。
Ck内のボクセルに対する、Ck+1内のボクセルの面積比が所与の閾値r(一例において、rは3に設定される)よりも大きい場合、Lk+1は、
に追加される。そうでない場合、Lk+1は、さらなる拡張のために
に追加される。
が空である場合、ステップ2は、
から
を生成することによって繰り返される。
ステップ3:ステップ3において、X3の上側のC字型漏洩コンポーネントが除去される。
以下の3つの条件を満たす場合、候補コンポーネント
は、横裂およびICVによって構成されたC字型漏洩コンポーネントとして識別される。
(1)Ck+1は、分岐領域である、すなわち、別の接続領域C’k∈S(k)およびC’k≠Ckが存在する。
(2)角度∠PkPk+1P’kは、30°よりも小さく、ここで、PkPk+1P’kは、それぞれ領域Ck,Ck+1およびC’kの質量中心である。
(3)各領域Ci∈Lk+1(i=0,1,…k+1)は、y0+iによってインデックスが付された冠状スライスにおけるX3の全ボクセルの上側であり、すなわちmax{z|p(x,y0+i,z)∈Ci}>max{z|p(x,y0+i,z)∈X3−Ci}である。
(1)Ck+1は、分岐領域である、すなわち、別の接続領域C’k∈S(k)およびC’k≠Ckが存在する。
(2)角度∠PkPk+1P’kは、30°よりも小さく、ここで、PkPk+1P’kは、それぞれ領域Ck,Ck+1およびC’kの質量中心である。
(3)各領域Ci∈Lk+1(i=0,1,…k+1)は、y0+iによってインデックスが付された冠状スライスにおけるX3の全ボクセルの上側であり、すなわちmax{z|p(x,y0+i,z)∈Ci}>max{z|p(x,y0+i,z)∈X3−Ci}である。
Lk+1={C0,C1,…,Ck,Ck+1}が、C字型漏洩コンポーネントとして識別された場合、C0,C1,…,Ckは、X3から除去されるとともに、Lk+1は、
から除去される。
ステップ4:ステップ4において、X3の後側の帯状漏洩コンポーネントが除去される。
各候補コンポーネント
に対して、領域Ω3の質量中心G(x,y,z)の後側において特定される、すなわちy0+k+1<Gyである場合、漏洩コンポーネントとして識別される。次いで、C0,C1,…,Ckは、X3から除去される一方で、Lk+1は、
から除去される。
最後のX3領域は、第3脳室のセグメンテーションの結果である。
ステップ312:第4脳室および水道のセグメンテーション
第4脳室と水道との間には明確に定義された境界がないため、それらは同時にセグメント化される。領域Ω4に関してヒステリシススレッショルディングを適用すると、ボリュームX4は得られる。水道と第4脳室との接合部において、水道の後壁(すなわち四丘体)は、非常に薄くなるとともに、画像から識別され得ないため、X4は、第4脳室から小脳周囲の基底槽に「漏洩」し得る。同時に、水道は、第3脳室および第4脳室を接続する狭い経路のみであるため、水道の一部または水道の全体は、X4に含まれ得ない。
第4脳室と水道との間には明確に定義された境界がないため、それらは同時にセグメント化される。領域Ω4に関してヒステリシススレッショルディングを適用すると、ボリュームX4は得られる。水道と第4脳室との接合部において、水道の後壁(すなわち四丘体)は、非常に薄くなるとともに、画像から識別され得ないため、X4は、第4脳室から小脳周囲の基底槽に「漏洩」し得る。同時に、水道は、第3脳室および第4脳室を接続する狭い経路のみであるため、水道の一部または水道の全体は、X4に含まれ得ない。
ステップ312a:第4脳室の形状ベースのトリミング
「漏洩」を除去するために、座標zとしてインデックスが付されたボリュームX4の各軸方向スライスにおけるボクセルf(z)の数が計算される。スライスzmax(f(z)はその最大に達する)が特定される。f(z)>0のスライスに対して、上側または(または背側)方向における、スライスzmaxから次のスライスへの相対増加率は、式(7)に従って計算される。
q(z)=[f(z+1)−f(z)]/f(z) (7)
「漏洩」を除去するために、座標zとしてインデックスが付されたボリュームX4の各軸方向スライスにおけるボクセルf(z)の数が計算される。スライスzmax(f(z)はその最大に達する)が特定される。f(z)>0のスライスに対して、上側または(または背側)方向における、スライスzmaxから次のスライスへの相対増加率は、式(7)に従って計算される。
q(z)=[f(z+1)−f(z)]/f(z) (7)
zmaxから腹側方向に向かう第1漏洩スライス(軸方向スライスzleak)として表される)は、q(z)が正の最大に達するところで特定される。それは、「漏洩」が始まるところでf(z)が顕著に増加するためである。q(z)の最大値が正でない場合、X4は、基底槽に「漏洩」していないことを暗示する。この場合、zleakはV4内のボクセルの最大z座標として設定される。
水道は第3脳室との接合の前方を歪める(slant)ため、漏洩スライスzleak上のボリュームX4の最後側としてyleakを示すと、yleakより小さいy座標を有する背側方向におけるzleak以降の全てのボクセルは、「漏洩」とされるとともに、ボリュームX4から除去される。
下側(または背側)方向に向かうスライスzmaxから、それはf(z)が増加しないことを必要とする。したがって、f(zmin+1)>f(zmin)というようにスライスzminが存在する場合、zminよりも小さいz座標を有する全ボクセルは、X4からトリミングされるであろう。
最後のX4領域は、第4脳室のセグメンテーションの結果である。
水道を見つけるために、[TL2,TH2]を領域Ω4内で得られた広閾値として、Nz+(p)={(px+i,py+j,pz+k)|i,j=−1,0,1,k=0,1}をボクセルp(x,y,z)の方向性近隣(directional neighbors)として、さらにS0をスライスzleak内のボリュームX4の全ボクセルとして示すと、Sn+1は、式(8)に従う方向性領域拡張法によって、Snから生成される。
Sn+1が空になるまで、またはSn+1内のボクセル数が、S0内のボクセルの数よりも大きくなる(すなわち、#(Sn+1)>#(S0))までSn+1は、Snから繰り返し生成される。水道ボリュームは、S1∪S2…∪Snとされる。SnからSn+1を繰り返し生成する手続きが#(Sn+1)>#(S0)のときに停止した場合、これは、第3脳室に達した水道の検出によるものであり得る。一方、SnからSn+1を繰り返し生成する手続きがSn+1が空のときに停止した場合、これは、部分容積効果により第3脳室に達しなかった水道の検出によるものであり得る。多くの状況において、前記手続きは、#(Sn+1)>#(S0)のときに停止する。
ステップ204:脳室の表面モデルの構築および改良
図4は、方法202のセグメンテーション出力から、脳室構造の正確な3D表面モデルを生成する、方法204のフローチャートを例示している。ステップ402で、表面モデルは、脳室構造に関して構築されるとともに、ステップ204で、表面モデルの細部は、局所正弦波ワーピングによって改良される。
図4は、方法202のセグメンテーション出力から、脳室構造の正確な3D表面モデルを生成する、方法204のフローチャートを例示している。ステップ402で、表面モデルは、脳室構造に関して構築されるとともに、ステップ204で、表面モデルの細部は、局所正弦波ワーピングによって改良される。
ステップ202は、脳室のセグメンテーション結果を生成する。しかし、スライス間の距離が大きい、および/または検討中の画像が低品質のものである場合において、いくつかの細部は依然と欠落している、または不正確であり得る。そのような環境において、幾何学的表面モデルは、画像スライス間で紛失した微細な特徴を有する、または画像品質により分断された解剖学的構造を記述するためにより柔軟および平滑である。脳室の正確な表面モデルを構築するために、周知のマーチングキューブ法(非特許文献22)は、ステップ202からの脳室ボリューム出力から初期表面モデルを生成するために使用することができる。次いで、三角メッシュとして表された初期表面モデルは、簡略化され(非特許文献23)、次の処理のための計算時間を減少させるとともに効率性を向上させる。
精度を高めるために、例示的な実施形態においてシステムは、局所正弦波ワーピング法を使用して、ユーザによる表面モデルの修正を支援する。専門知識に基づいて、ユーザは、3Dモデル空間上に修正点を配置することによって、欠落している微細な特徴を示すことができる。局所正弦波変形(LSD)関数は、解剖学的構造の継続性を失うことなく紛失した微細な特徴を回復するために、修正点へスムーズに近づくように限定領域をワーピングする(図5に示されているような)。
図5は、本発明の実施形態による、修正点を使用して表面モデルを修正するプロセスを例示している。
ユーザが、モデルMの近くに修正点Aを配置したことを仮定すると、細部の特徴がモデル内で欠落していることを示している。モデルは、メッシュ上の各頂点Vに対して多角形メッシュとして表され、AからVへの距離は、d(A,V)として示される。Aとモデルとの距離は、d(A,M)=min(d(A,V)|V∈M)である。半径R>d(A,M)(Rはシステムにおいて調節可能である)を与えると、頂点P={p1,p2,…pk|d(A,pi)<R}の限定セットが構築される。セットP内の各点piに対して、対応点qiは以下の通りに計算される。qiは、pi{i=1,2,…k}に対してAに沿った線上に置かれるとともに、Aからqiへの距離は、式(9)に従って、LSD関数により計算される。
各piを上記計算されたqi{i=1,2,…k}で置き換えることによって、表面モデルの局所領域は、修正点Aに向かってワーピングされることによって、欠落した微細な解剖学的特徴を回復することができる。
ステップ204における表面モデル改善手続きは、対話型手続きであるとともに出力が満足されるまで繰り返し実行することできる。
ステップ202の実験結果
図6は、本発明の実施形態による、方法202および側脳室セグメンテーションアプローチを使用して、データセットIBSR−18(IBSR−18−02.img、スライス144a,57c,120s)における左脳室をセグメント化することによって得られた結果を例示している。輪郭線1202〜1218は、左側脳室に対して自動的に定義された、関心領域を示す。輪郭線1220〜1230は、中矢状スラブに拡張された左側脳室モデルの関心領域を示す。輪郭線1232〜1242は、狭閾値によって得られた領域を示すとともに、輪郭線1231〜1242の周囲の輪郭線は、広閾値によって得られた追加的領域を示す。
図6は、本発明の実施形態による、方法202および側脳室セグメンテーションアプローチを使用して、データセットIBSR−18(IBSR−18−02.img、スライス144a,57c,120s)における左脳室をセグメント化することによって得られた結果を例示している。輪郭線1202〜1218は、左側脳室に対して自動的に定義された、関心領域を示す。輪郭線1220〜1230は、中矢状スラブに拡張された左側脳室モデルの関心領域を示す。輪郭線1232〜1242は、狭閾値によって得られた領域を示すとともに、輪郭線1231〜1242の周囲の輪郭線は、広閾値によって得られた追加的領域を示す。
図7は、本発明の実施形態による、方法202を使用してデータセットIBSR−18(IBSR−18−02.img、スライス142a,60c,128s)において、第3脳室をセグメント化することによって得られた結果を例示している。左から右への4つの列は、軸方向、冠状、矢状、および3Dの図を例示している。第1行は、第3脳室に対して自動的に定義された関心領域を示す。第2行は、ROIにおけるヒステリシススレッショルディングの結果を示す。第3行は、投影ベーストリミングによって得られた結果を示すとともに、第4行は、前側部分のランドマーク誘導トリミング、および他の脳室外部コンポーネンの形状ベーストリミングの後の最終結果を示す。
図8は、本発明の実施形態による方法202を使用して、データセットBIL−20(BIL−Ja03、スライス44a,102c,129s)内の第4脳室をセグメント化することによって、得られた結果を例示している。左から右への4つの列は、軸方向、冠状、矢状、および3Dの図を例示している。第1行は、第4脳室に対して自動的に定義された関心領域を示し、第2行は、ROIにおいてヒステリシススレッショルディングを適用することによって得られた結果を示すとともに、第3行は、「漏洩」除去後の最終結果を示す。
図9は、本発明の実施形態によると方法202を使用して、データセットBIL−20における4つの異なる脳ボリュームセットからセグメント化された4つの脳室構造を例示している。第1〜4行は、異常がある成人の脳(脳腫瘍を有する)、正常な成人の脳、小児の脳、および高齢者の脳のボリューム画像を示している。右から左への4つの列は、抽出された脳室系の元スキャンの軸方向図、冠状図、矢状図、および3D図を例示している。をそれぞれ例示している。
例示的な実施形態の利点
ボリューメトリック変形可能モデルは、例示的な実施形態において、検討される構造、たとえば脳室構造のセグメンテーションに関する関心領域を自動的に画定する専門知識としてステップ202で使用される。適切なROIは、正確なセグメンテーションのために重要である。ROIが非常に小さい場合、検討される構造を含まない可能性がある。一方、ROIが非常に大きい場合、セグメンテーションの誤りを導く関連のない情報を非常に多く含む可能性がある。ステップ202において、モデルは、最初に3D点ランドマークベースのワーピングアプローチによって画像内の対応構造に大まかに合うように変形されるとともに、次いでROIは、変形されたモデルを拡張する(または広げる)することによって定義される。その結果生じるROIは、検討される構造の予備形状をとるとともに、従って、ROI内の関連のない情報の量は最小化される。したがって、ステップ202は、ノイズに対してロバストであるとともに、大きい形状およびサイズのばらつきに対してロバストである
ボリューメトリック変形可能モデルは、例示的な実施形態において、検討される構造、たとえば脳室構造のセグメンテーションに関する関心領域を自動的に画定する専門知識としてステップ202で使用される。適切なROIは、正確なセグメンテーションのために重要である。ROIが非常に小さい場合、検討される構造を含まない可能性がある。一方、ROIが非常に大きい場合、セグメンテーションの誤りを導く関連のない情報を非常に多く含む可能性がある。ステップ202において、モデルは、最初に3D点ランドマークベースのワーピングアプローチによって画像内の対応構造に大まかに合うように変形されるとともに、次いでROIは、変形されたモデルを拡張する(または広げる)することによって定義される。その結果生じるROIは、検討される構造の予備形状をとるとともに、従って、ROI内の関連のない情報の量は最小化される。したがって、ステップ202は、ノイズに対してロバストであるとともに、大きい形状およびサイズのばらつきに対してロバストである
さらに、ヒステリシススレッショルディングアプローチは、ステップ202において所与の関心領域における領域拡張手続きのために使用される。ヒステリシススレッショルディングアプローチでは、2組の強度閾値、すなわち狭閾値および広閾値が使用される。狭閾値の範囲は、広閾値の範囲に含まれる。狭閾値のペアは、移行領域を拡張するカーネル部分を収集するために使用され、広閾値のペアは、構造の移行領域を収集するために使用される。「漏洩」が検出された場合、領域拡張手続きは停止する。ステップ202における領域拡張手続きは、移行領域を検出する一方で、「漏洩」を最小化することができる。移行領域の検出能力は、正しい正確なセグメンテーションのために重要であり、「漏洩」の最小化は、領域トリミング手続きに対する負担を顕著に緩和するため、これは有利である
加えて、ステップ202における領域トリミング手続きに対して提案された投影ベース、ランドマーク誘導、および形状ベースのトリミングなどの、複数の知識ベースストラテジーは、第3脳室の正確なセグメンテーションのために重要である。
同様に、ステップ202は、従来技術の方法、たとえば非特許文献19によりも有利である。非特許文献19で提案された方法は、AC、PCおよびMSPの正確な識別に依存し、従って、提供されたAC、PCおよびMSPの位置が、あまり正確性でない(ACおよびPCの位置誤差が3mmよりも小さい必要がある)場合、動作不良を起こし得る。加えて、非特許文献19で提案された方法では、1組のみの閾値が関心領域内で使用されるため、この方法はコンポーネントのいくつかの部分で未接続を生じる部分容積問題に対処することができない。特に、非特許文献19における方法で使用されるROIの形状は、脳室の形状とは非常に異なった長方形である。したがって、大量の非脳室組織がROIに含まれ、非特許文献19では、セグメンテーションエラーの可能性および「漏洩」を招く。これ対して、ステップ202において、10個の脳室 ランドマークは、画像内の対応する脳室構造に合った脳室モデルをワーピングするために使用される。薄板スプライン近似アプローチ(非特許文献10)は、ワーピング機能を得るために使用されるとともに、変形されたモデルは、6mmの厚みにさらに拡張されるため、ステップ202は大きいランドマーク識別エラーに対して、より耐えることができる(IBSR−18において3.4mmに増加)(非特許文献7の表2に示されているように)。第3脳室の前極の誤った識別は、ステップ202によって、第3脳室セグメンテーションの精度に影響する可能性があるが、第3脳室の前極は、第3脳室全体で比較的小さい部分である第3脳室の後側をトリミングするために使用されるだけであるため、この影響は局所的かつ小さい。さらに、ステップ202において、関心領域を適応的に改良するために2組の広閾値および狭閾値を使用するヒステリシススレッショルディングの使用は、移行領域が、ROIに含まれると同時に、非脳室領域の最小化を保証する。同様に、ステップ202に使用されるROIは、脳アトラス内の脳室形状から得られるため、ROIの形状は、対象の構造の形状に非常に近づけられることによって、セグメンテーションエラーの可能性および「漏洩」を有意に減少させる。
200 脳室の3D表面モデルを生成する方法
202 画像内の脳室をセグメント化するステップ
204 セグメント化された各脳室の3D表面モデルを構築するとともに、必要に応じてモデルを改良するステップ
202 画像内の脳室をセグメント化するステップ
204 セグメント化された各脳室の3D表面モデルを構築するとともに、必要に応じてモデルを改良するステップ
Claims (19)
- 脳スキャンデータによって構成された3次元脳スキャン画像において1つ以上の脳室をセグメント化する方法であって、
(a)前記1つ以上の各脳室の1つ以上の各脳室モデルを有する脳モデルを前記画像とともにレジストすることによって、前記脳モデル内の位置と前記脳スキャン画像内の各位置との間の対応を形成するステップと、
(b)前記対応に従って、前記1つ以上の脳室モデルに基づき前記画像内の1つ以上の各関心領域を画定するステップと、
(c)前記各脳室を示す各ボリュームを形成するように、前記脳スキャンデータを使用して前記1つ以上の関心領域に関して領域拡張を実行するステップと、
(d)前記各ボリュームを使用して前記脳スキャン画像をセグメント化するステップと
を具備することを特徴とする方法。 - 前記ステップ(a)は、
(1)前記画像を前記脳モデルの座標系へ再形成するサブステップと、
(2)前記脳モデル内のランドマークに対応する前記再形成された画像内のランドマークを識別するサブステップと、
(3)前記識別されたランドマークに基づいて、前記画像とともに前記脳モデルをレジストするサブステップと
を具備することを特徴とする請求項1に記載の方法。 - 前記ステップ(1)は、
(4)前記画像内の第1皮質輪郭を画定するサブステップと、
(5)前記脳モデル内の第2皮質輪郭を画定するサブステップと、
(6)線形変換を得るように、前記第2皮質輪郭内の点に対する前記第1皮質輪郭内の点をレジストするサブステップと、
(7)前記線形変換を使用して、前記画像を前記脳モデルの座標系へ再形成するサブステップと
を具備することを特徴とする請求項2に記載の方法。 - 前記点は、前記ステップ(6)でICP法を適用することによってレジストされることを特徴とする請求項3に記載の方法。
- 前記ステップ(3)は、
(8)薄板スプライン近似アプローチを使用して、レジストレーション機能を得るサブステップと、
(9)前記レジストレーション機能を使用して、前記識別されたランドマークに基づき前記画像とともに前記脳モデルをレジストするサブステップと
を具備することを特徴とする請求項2〜4のいずれか1項に記載の方法。 - 前記ステップ(c)は、前記1つ以上の各関心領域に対して、
(10)強度閾値の狭いペアと広いペアとをそれぞれ計算するサブステップと、
(11)前記強度閾値の狭いペアに従って、前記関心領域のカーネル領域を画定するサブステップと、
(12)前記ボリュームを接続領域として形成するように、前記強度閾値の広いペアに従って、前記関心領域の周囲の移行領域を含むよう前記カーネル領域を拡張するサブステップと
を具備することを特徴とする請求項1〜5のいずれか1項に記載の方法。 - 前記ステップ(10)は、
(13)強度に従って前記関心領域内のボクセルをクラスタリングするサブステップと、
(14)各クラスタと隣接するクラスタとの交点に基づいて、各クラスタに対する強度閾値のペアを計算するサブステップと、
(15)前記関心領域の強度を有するクラスタの強度閾値のペアを前記強度閾値の狭いペアとして定めるサブステップと、
(16)前記関心領域の強度を有するクラスタ、および前記移行領域の強度を有するクラスタに対する強度閾値のペアの組み合わせの下限および上限を前記強度閾値の広いペアとして定めるサブステップと
を具備することを特徴とする請求項6に記載の方法。 - 前記ステップ(2)は、
(17)クラスタを得るように前記強度閾値の狭いペアで前記画像を2値化するサブステップと、
(18)前記カーネル領域となるように、6隣接接続性アプローチに従って前記クラスタから最大接続領域を抽出するサブステップと
を具備することを特徴とする請求項6または7に記載の方法。 - 前記ステップ(3)は、
(19)前記カーネル領域の能動的境界ボクセルを決定するサブステップと、
(20)26隣接接続性アプローチに従って、前記能動的境界ボクセルを境界パッチへグループ化するサブステップと、
(21)境界パッチの拡張を得るように、領域拡張を各境界パッチに適用するサブステップと、
(22)接続領域を形成するように、前記拡張された境界パッチを含むよう前記カーネル領域を拡張するサブステップと
を具備することを特徴とする請求項6〜8のいずれか1項に記載の方法。 - ステップ(d)の前に、前記対応する脳室に関する特有の処理ステップによって、前記接続領域からボクセルを除去するトリミングステップを具備することを特徴とする請求項6〜8のいずれか1項に記載の方法。
- 前記関心領域のうちの1つは側脳室に対応し、
当該関心領域に対する前記トリミングステップは、以下の
(23)中矢状スラブとともに前記接続領域の共通の境界ボクセルセットを特定するステップと、
(24) 種子点として前記共通の境界ボクセルセットの最大26隣接接続領域を使用して第1の新しい領域を生成するステップと、
(25)後続の新しい領域が空になるまで、前の新しい領域から次の新しい領域を繰り返し生成するステップと、
(26)前記共通の境界ボクセルセットと前記新しい領域との和として、前記接続領域を画定するステップと
を具備することを特徴とする請求項10に記載の方法。 - 前記関心領域のうちの1つは第3脳室に対応し、
前記トリミングステップは、
(27)投影画像を得るように、前記接続領域を中矢状面上に投影するサブステップを具備し、
前記投影画像内の各画素は、前記画素へ向かう投射線に沿った前記接続領域内のボクセル数を表し、
前記トリミングステップは、
(28)2つのクラスタに対して前記投影画像内の画素の閾値クラスタリング値を得るサブステップと、
(29)前記閾値よりも大きい値を有する画素に対応する接続領域からボクセルを除去するサブステップと
を具備することを特徴とする請求項10または11に記載の方法。 - 前記トリミングステップは、
(30)前記画像内のランドマークを識別するサブステップと、
(31)前記ランドマークに関連する配置位置を有する前記接続領域内のボクセルを除去するサブステップと
を具備することを特徴とする請求項10〜12のいずれか1項に記載の方法。 - 前記トリミングステップは、
(32)現在のスライス内のボクセルに対する次のスライス内のボクセルの面積比が、所定の閾値よりも大きくなるまで、前記画像の各スライス上の接続領域に属している画素の8隣接接続領域を繰り返し特定するサブステップと、
(33)前記8隣接接続領域の組み合わせをC字型漏洩コンポーネントとして識別するサブステップと
(34)前記接続領域から前記C字型漏洩コンポーネントを除去するサブステップと
具備することを特徴とする請求項10〜13のいずれか1項に記載の方法。 - 前記トリミングステップは、
(35)前記接続領域内の最大画素数を有する前記画像内の第1スライスを識別するサブステップと、
(36)前記第1スライスから次のスライスに対する前記接続領域内の画素数の増加を計算するサブステップと、
(37)前記接続領域内の画素数の増加が最大である漏洩スライスを識別するサブステップと、
(38)前記漏洩スライスの向こう側にある前記接続領域からボクセルを除去するサブステップと
を具備することを特徴とする請求項10〜13に記載の方法。 - 前記トリミングステップは、
(39)前のスライスに対して比較したように、前記接続領域内で画素数がより大きい第1スライスを識別するサブステップと、
(40)前記第1スライスの向こう側にある前記接続領域からボクセルを除去するサブステップと
を具備することを特徴とする請求項10〜13のいずれか1項に記載の方法。 - 画像内の構造の3D表面モデルを構築する方法であって、
前記方法は、
請求項1に記載の方法によって前記構造をセグメント化するステップと、
3D空間内の前記セグメント化された構造の3D表面モデルを構築するステップと
を具備し、
前記3D表面モデルは複数の頂点を有し、
前記方法は、
以下のステップ(41)〜(43)を繰り返すことによって、3D表面モデルを編集するステップを具備し、
ステップ(41)は、ある特徴が前記3D表面モデルから除かれている位置において前記3D表面モデル上に修正点を配置するステップであり、
ステップ(42)は、前記3D表面モデル内の前記修正点から各頂点までの距離を計算するステップであり、
ステップ(43)は、前記3D表面モデル内の各頂点に対して、前記3D表面モデル内の前記修正点から前記頂点までの距離が所定の閾値よりも小さい場合、前記修正点から対応する点までの距離がsin(πd(A,pi)/2R)になるように、前記修正点を前記頂点に結合する線上に対応点の位置を決めることによって、前記頂点の対応点を計算するステップであり、
d(A,pi)は、前記修正点から前記頂点piまでの距離であるとともに、Rは、前記所定の閾値であることを特徴とする方法。 - 請求項1〜17のいずれか1項に記載の方法を行うように配置されたプロセッサを有することを特徴とするコンピュータシステム。
- コンピュータによって読み取り可能であるとともに、コンピュータシステムのプロセッサに請求項1〜17のいずれか1項に記載の方法を実行させるように、前記プロセッサによって動作可能な命令を含むコンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US3251808P | 2008-02-29 | 2008-02-29 | |
PCT/SG2009/000075 WO2009108135A1 (en) | 2008-02-29 | 2009-02-27 | A method and system for anatomy structure segmentation and modeling in an image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011514190A true JP2011514190A (ja) | 2011-05-06 |
Family
ID=41016356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010548646A Pending JP2011514190A (ja) | 2008-02-29 | 2009-02-27 | 画像内の解剖学的構造のセグメンテーションおよびモデリングのための方法およびシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100322496A1 (ja) |
EP (1) | EP2277148A4 (ja) |
JP (1) | JP2011514190A (ja) |
CN (1) | CN101971213A (ja) |
SG (1) | SG188181A1 (ja) |
WO (1) | WO2009108135A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013066632A (ja) * | 2011-09-26 | 2013-04-18 | Dainippon Printing Co Ltd | 医用画像処理装置、医用画像処理方法、プログラム |
WO2014038428A1 (ja) * | 2012-09-07 | 2014-03-13 | 株式会社 日立メディコ | 画像処理装置及び画像処理方法 |
JP2016524126A (ja) * | 2013-03-28 | 2016-08-12 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | スキャン画像における非対称性を削減する方法及びシステム |
WO2018216504A1 (ja) * | 2017-05-26 | 2018-11-29 | 株式会社アルム | 脳画像データ処理装置、脳画像データ処理方法、および脳画像データ処理プログラム |
WO2019044228A1 (ja) * | 2017-08-28 | 2019-03-07 | 富士フイルム株式会社 | 医用画像処理装置、方法およびプログラム |
JP2021504830A (ja) * | 2017-12-01 | 2021-02-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像内のオブジェクトをセグメント化するためのセグメンテーションシステム |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102171725B (zh) * | 2008-10-07 | 2017-05-03 | 皇家飞利浦电子股份有限公司 | 脑室分析 |
EP2261859A1 (en) | 2009-06-10 | 2010-12-15 | Thomson Licensing | Method for encoding/decoding a 3D mesh model that comprises one or more components |
EP2488105A4 (en) * | 2009-10-13 | 2014-05-07 | Agency Science Tech & Res | METHOD AND SYSTEM ADAPTED TO SEGMENT AN OBJECT IN AN IMAGE (A LIVER IN THE OCCURRENCE) |
JP5580030B2 (ja) * | 2009-12-16 | 2014-08-27 | 株式会社日立製作所 | 画像処理装置、および画像位置合せ方法 |
WO2011088595A1 (en) | 2010-01-25 | 2011-07-28 | Thomson Licensing | Method for encoding normals of a 3d mesh model, method for decoding normals of a 3d mesh model, encoder and decoder |
KR101378675B1 (ko) * | 2010-09-16 | 2014-03-27 | 가톨릭대학교 산학협력단 | 영상진단기기를 이용한 뇌수종 진단 방법 및 장치 |
WO2012035488A1 (en) * | 2010-09-17 | 2012-03-22 | Koninklijke Philips Electronics N.V. | Choosing anatomical variant model for image segmentation |
US8605972B2 (en) * | 2012-03-02 | 2013-12-10 | Sony Corporation | Automatic image alignment |
CN103793711A (zh) * | 2014-01-17 | 2014-05-14 | 首都医科大学 | 一种基于脑部核磁共振图像的多维度纹理提取方法 |
CN103824326B (zh) * | 2014-03-05 | 2017-04-26 | 北京工业大学 | 一种动态的人体三维建模方法 |
CN104933729B (zh) * | 2014-03-18 | 2017-10-03 | 上海联影医疗科技有限公司 | 一种颅内脑组织的提取方法和装置 |
US20170065242A1 (en) * | 2014-05-06 | 2017-03-09 | Circle Cardiovascular Imaging Inc. | Method and System for Analysis of Myocardial Wall Dynamics |
AU2015284303B2 (en) | 2014-07-02 | 2019-07-25 | Covidien Lp | System and method for detecting trachea |
US9530206B2 (en) * | 2015-03-31 | 2016-12-27 | Sony Corporation | Automatic 3D segmentation and cortical surfaces reconstruction from T1 MRI |
CN104866852B (zh) * | 2015-04-01 | 2017-12-26 | 环境保护部卫星环境应用中心 | 提取遥感影像中土地覆被信息的方法及装置 |
CN104933712B (zh) * | 2015-06-12 | 2017-12-01 | 哈尔滨工程大学 | 基于脑部ct图像的图模型展示方法 |
US10262414B2 (en) * | 2015-07-29 | 2019-04-16 | University Of Louisville Research Foundation, Inc. | Computer aided diagnostic system for mapping of brain images |
US10140708B2 (en) * | 2016-01-21 | 2018-11-27 | Riverside Research Institute | Method for gestational age estimation and embryonic mutant detection |
US10172517B2 (en) * | 2016-02-25 | 2019-01-08 | Samsung Electronics Co., Ltd | Image-analysis for assessing heart failure |
JP6155427B1 (ja) * | 2016-02-25 | 2017-07-05 | 地方独立行政法人秋田県立病院機構 | 医用断面表示装置及び断面画像表示方法 |
WO2017147707A1 (en) | 2016-03-02 | 2017-09-08 | Jp Scientific Limited | Solid phase microextraction coating |
EP3455870B1 (en) | 2016-05-10 | 2024-10-02 | JP Scientific Limited | System and method for desorbing and detecting an analyte sorbed on a solid phase microextraction device |
CN106887039B (zh) * | 2017-02-28 | 2021-03-02 | 成都金盘电子科大多媒体技术有限公司 | 一种基于医学影像的器官和病灶的三维成像方法及系统 |
KR101950815B1 (ko) * | 2017-08-25 | 2019-02-21 | 뉴로핏 주식회사 | 패치 가이드 방법 및 프로그램 |
CN109785296B (zh) * | 2018-12-25 | 2023-07-04 | 西安电子科技大学 | 一种基于cta图像的三维球形指数测定方法 |
CN111839515B (zh) * | 2019-04-26 | 2024-03-08 | 西门子医疗系统有限公司 | 利用磁共振成像的胎儿胼胝体体积的测量方法及磁共振成像装置 |
CN110956636A (zh) * | 2019-11-28 | 2020-04-03 | 北京推想科技有限公司 | 一种图像处理方法及装置 |
CN111325727B (zh) * | 2020-02-19 | 2023-06-16 | 重庆邮电大学 | 一种基于局部熵和水平集算法的颅内出血区域三维分割方法 |
CN112541909B (zh) * | 2020-12-22 | 2022-05-17 | 南开大学 | 基于切片感知的三维神经网络的肺结节探测方法及系统 |
CN112991258A (zh) * | 2021-01-14 | 2021-06-18 | 广东省电信规划设计院有限公司 | 重叠不规则非封闭对象的检测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060239519A1 (en) * | 2003-02-27 | 2006-10-26 | Agency For Science, Technology And Research | Method and apparatus for extracting cerebral ventricular system from images |
JP2006314778A (ja) * | 2005-04-15 | 2006-11-24 | Toshiba Corp | 医用画像処理装置及び医用画像処理方法 |
US20070053589A1 (en) * | 2005-09-06 | 2007-03-08 | General Electric Company | Method and system for segmenting image data |
US20070280521A1 (en) * | 2006-06-05 | 2007-12-06 | Hui-Min Chao | Methods for Volumetric Contouring with Expert Guidance |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69332042T2 (de) * | 1992-12-18 | 2003-01-02 | Koninklijke Philips Electronics N.V., Eindhoven | Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen |
WO2002093188A2 (en) * | 2001-05-17 | 2002-11-21 | Siemens Corporate Research, Inc. | A variational approach for the segmentation of the left ventricle in mr cardiac images |
US7259762B2 (en) * | 2005-06-29 | 2007-08-21 | General Electric Company | Method and system for automatically transforming CT studies to a common reference frame |
-
2009
- 2009-02-27 WO PCT/SG2009/000075 patent/WO2009108135A1/en active Application Filing
- 2009-02-27 CN CN2009801074599A patent/CN101971213A/zh active Pending
- 2009-02-27 EP EP09715204A patent/EP2277148A4/en not_active Withdrawn
- 2009-02-27 US US12/735,962 patent/US20100322496A1/en not_active Abandoned
- 2009-02-27 SG SG2013015409A patent/SG188181A1/en unknown
- 2009-02-27 JP JP2010548646A patent/JP2011514190A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060239519A1 (en) * | 2003-02-27 | 2006-10-26 | Agency For Science, Technology And Research | Method and apparatus for extracting cerebral ventricular system from images |
JP2006314778A (ja) * | 2005-04-15 | 2006-11-24 | Toshiba Corp | 医用画像処理装置及び医用画像処理方法 |
US20070053589A1 (en) * | 2005-09-06 | 2007-03-08 | General Electric Company | Method and system for segmenting image data |
US20070280521A1 (en) * | 2006-06-05 | 2007-12-06 | Hui-Min Chao | Methods for Volumetric Contouring with Expert Guidance |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013066632A (ja) * | 2011-09-26 | 2013-04-18 | Dainippon Printing Co Ltd | 医用画像処理装置、医用画像処理方法、プログラム |
WO2014038428A1 (ja) * | 2012-09-07 | 2014-03-13 | 株式会社 日立メディコ | 画像処理装置及び画像処理方法 |
US9396395B2 (en) | 2012-09-07 | 2016-07-19 | Hitachi Medical Corporation | Image processing apparatus and image processing method, configured to apply threshold conditions to specify target pixel |
JPWO2014038428A1 (ja) * | 2012-09-07 | 2016-08-08 | 株式会社日立製作所 | 画像処理装置及び画像処理方法 |
JP2016524126A (ja) * | 2013-03-28 | 2016-08-12 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | スキャン画像における非対称性を削減する方法及びシステム |
WO2018216504A1 (ja) * | 2017-05-26 | 2018-11-29 | 株式会社アルム | 脳画像データ処理装置、脳画像データ処理方法、および脳画像データ処理プログラム |
US11206983B2 (en) | 2017-05-26 | 2021-12-28 | Allm Inc. | Brain image data processing apparatus, brain image data processing method, and brain image data processing program |
WO2019044228A1 (ja) * | 2017-08-28 | 2019-03-07 | 富士フイルム株式会社 | 医用画像処理装置、方法およびプログラム |
JPWO2019044228A1 (ja) * | 2017-08-28 | 2020-02-27 | 富士フイルム株式会社 | 医用画像処理装置、方法およびプログラム |
US11315263B2 (en) | 2017-08-28 | 2022-04-26 | Fujifilm Corporation | Medical image processing apparatus, medical image processing method, and medical image processing program |
JP2021504830A (ja) * | 2017-12-01 | 2021-02-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像内のオブジェクトをセグメント化するためのセグメンテーションシステム |
JP7208994B2 (ja) | 2017-12-01 | 2023-01-19 | コーニンクレッカ フィリップス エヌ ヴェ | 画像内のオブジェクトをセグメント化するためのセグメンテーションシステム |
Also Published As
Publication number | Publication date |
---|---|
US20100322496A1 (en) | 2010-12-23 |
EP2277148A1 (en) | 2011-01-26 |
CN101971213A (zh) | 2011-02-09 |
WO2009108135A8 (en) | 2010-09-16 |
WO2009108135A1 (en) | 2009-09-03 |
SG188181A1 (en) | 2013-03-28 |
EP2277148A4 (en) | 2012-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011514190A (ja) | 画像内の解剖学的構造のセグメンテーションおよびモデリングのための方法およびシステム | |
Han et al. | CRUISE: cortical reconstruction using implicit surface evolution | |
Manniesing et al. | Level set based cerebral vasculature segmentation and diameter quantification in CT angiography | |
JP4918048B2 (ja) | 画像処理装置及び方法 | |
Sluimer et al. | Toward automated segmentation of the pathological lung in CT | |
WO2018120644A1 (zh) | 血管提取方法及系统 | |
US9129417B2 (en) | Method and system for coronary artery centerline extraction | |
US8150113B2 (en) | Method for lung lesion location identification | |
del Fresno et al. | A combined region growing and deformable model method for extraction of closed surfaces in 3D CT and MRI scans | |
WO2016177337A1 (en) | System and method for image segmentation | |
CN107563998B (zh) | 医学图像中心脏图像处理方法 | |
Liu et al. | Automatic model-guided segmentation of the human brain ventricular system from CT images | |
Arakeri et al. | An effective and efficient approach to 3D reconstruction and quantification of brain tumor on magnetic resonance images | |
Hong et al. | Automatic lung nodule matching on sequential CT images | |
Morais et al. | A competitive strategy for atrial and aortic tract segmentation based on deformable models | |
Jaffar et al. | Anisotropic diffusion based brain MRI segmentation and 3D reconstruction | |
CN118334273B (zh) | 一种主动脉窦管交界平面自动提取方法、装置及存储介质 | |
CN111145226B (zh) | 基于ct影像的三维肺部特征提取方法 | |
Manniesing et al. | Local speed functions in level set based vessel segmentation | |
Liu et al. | Automatic segmentation of the human brain ventricles from MR images by knowledge-based region growing and trimming | |
Suri et al. | Medical image segmentation based on deformable models and its applications | |
Abdolali et al. | Mandibular canal segmentation using 3D Active Appearance Models and shape context registration | |
Smirg et al. | MRI slice segmentation and 3D modelling of temporomandibular joint measured by microscopic coil | |
Morais et al. | Automated segmentation of the atrial region and fossa ovalis towards computer-aided planning of inter-atrial wall interventions | |
Meyer et al. | Fully automatic segmentation of complex organ systems: example of trachea, esophagus and heart segmentation in CT images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140507 |