JP5840125B2 - 知識に基づいた頭部の減衰関連領域のセグメンテーション - Google Patents

知識に基づいた頭部の減衰関連領域のセグメンテーション Download PDF

Info

Publication number
JP5840125B2
JP5840125B2 JP2012516698A JP2012516698A JP5840125B2 JP 5840125 B2 JP5840125 B2 JP 5840125B2 JP 2012516698 A JP2012516698 A JP 2012516698A JP 2012516698 A JP2012516698 A JP 2012516698A JP 5840125 B2 JP5840125 B2 JP 5840125B2
Authority
JP
Japan
Prior art keywords
class
region
voxels
area
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012516698A
Other languages
English (en)
Other versions
JP2012531229A (ja
JP2012531229A5 (ja
Inventor
バーゲンクネヒト グドゥルン
バーゲンクネヒト グドゥルン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Forschungszentrum Juelich GmbH
Original Assignee
Forschungszentrum Juelich GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Forschungszentrum Juelich GmbH filed Critical Forschungszentrum Juelich GmbH
Publication of JP2012531229A publication Critical patent/JP2012531229A/ja
Publication of JP2012531229A5 publication Critical patent/JP2012531229A5/ja
Application granted granted Critical
Publication of JP5840125B2 publication Critical patent/JP5840125B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/481MR combined with positron emission tomography [PET] or single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、身体の減衰エリアを決定するための方法及び装置に関する。特に、本発明は、決定された減衰エリアを利用する磁気共鳴/陽電子放射断層撮影法(MR/PET)測定を行うための方法および装置に関する。
陽電子放射断層撮影法(略称:PET)は、生体内の弱い放射性標識物質の分布を目に見えるようにし、その生化学的および生理学的機能をマッピングすることにより生体の断面画像を作成する核医学におけるイメージング手法である。
検査の開始時に、放射性医薬品、すなわち陽電子(β線)を放出する放射性核種を生体に投与する。体内での電子と陽電子との相互作用の間、二つの高エネルギー光子が、正反対方向、すなわち互いに180度の角度で放出される(消滅放射線)。PETデバイスは、患者の周囲に環状に配置される光子検出器を備えている。2つの正反対方向にある検出器が同時に光子を記録した場合、この現象は、2つの検出器間の直線上で発生した崩壊プロセスに起因するものである。時間と空間において記録された崩壊現象の分布から、体内の放射性医薬品の空間分布についての結果が示され、一連の断面画像が計算される。PETは、腫瘍学、神経、心臓病における代謝関連の問題で頻繁に使用されている。
磁気共鳴断層撮影法(略称MRT)は、ヒト又は動物の体内の組織や臓器の構造と機能を表示するための医療診断で使用されるイメージング手法である。磁気共鳴断層撮影法は、非常に強力な磁場及び体内の特定の原子核(水素原子核/陽子が最も頻繁)が励起される電波周波数帯における交流電磁場に基づいている。受け取られるものは、励起原子核から放出される非常に弱い電磁場である。画像コントラストのために不可欠な基本事項は、組織の種類が異なれば、緩和時間も異なるということである。さらに、異なる組織(例えば筋肉、骨)では水素原子の含有量も異なるということは、画像コントラストに寄与する。
以下の先行技術文献の非特許文献1〜3により、MRの測定によって得られた画像情報を、灰白質、白質、髄液(脳脊髄液)、脂肪組織及びバックグラウンドなどの組織クラスに分類することで検査生物の解剖学的画像が得られることが知られている。
G. Wagenknecht、H.-J. Kaiser、U. Buell、O. Sabri著「MRIに基づくヒトの脳の個別3D関心領域アトラス(MRI-Based Individual 3D Region-of-Interest Atlases of the Human Brain)」 Methods Inf Med 4/2004、p.383〜390 G. Wagenknecht、H.-J. Kaiser、 T. Obladen、O. Sabri、U. Buell著「ヒトの脳の個別3D関心領域アトラス:脳組織タイプの神経回路網に基づく分類のための自動トレーニングポイント抽出(Individual 3D region-of-interest atlas of the human brain: automatic training point extraction for neural network based classification of brain tissue types)」国際光工学会エレクトロニックイメージング(SPIE Electronic Imaging)2000年、サンホセ、Proc SPIE 3962:p.150-161 G. Wagenknecht、H.-J. Kaiser、T. Obladen、O. Sabri、U. Buell著「ヒトの脳の個別3D関心領域アトラス:自動トレーニングポイント抽出による神経回路網に基づく分類(Individual 3D region-of-interest atlas of the human brain: neural network-based tissue classification with automatic training point extraction)」国際光工学会エレクトロニックイメージング(SPIE Electronic Imaging)2000年、サンディエゴ、Proc SPIE 3979:p.306-317 R. Standke著「18F-フルオロデオキシグルコース陽電子放射断層撮影診断の技術的基礎(Technische Grundlagen der 18F-Fluorodeoxyglukose-Positronen-emissionstomographie-Diagnostik)」Acta Medica Austriaca、Blackwell Verlag、2002年、第29巻、第5号、p.149-155 C. Burger、G. Goerres、S. Schoenes著「CT画像からのPET減衰係数:PET511-keV減衰係数へのCTの変換の実験的評価(PET attenuation coefficients from CT images: experimental evaluation of the transformation of CT into PET 511-keV attenuation coefficients)」European Journal of Nuclear Medicine and Molecular Imaging、2002年、29:p.922-927(PET-CT: 計算された減衰補正(calculated attenuation correction)) M. Hofmannら著「PET/MRIのためのMRIベースの減衰補正:パターン認識とアトラス記載とを組み合わせた新規アプローチ(MRI-Based Attenuation Correction for PET/MRI: A Novel Approach Combining Pattern Recognition and Atlas registration)」Journal of Nuclear Medicine、2008年、49:p.1875-1883、(MR/PET: 計算された減衰補正(calculated attenuation correction)) Tyler DJ、Robson MD、Henkelman RM、Young IR、及びBydder GM著「超短TE(UTE)パルスシークェンスによる磁気共鳴イメージング:技術的考察(Magnetic Resonance Imaging with Ultrashort TE (UTE) Pulse Sequences: Technical Considerations)」Journal of Magnetic Resonance Imaging、2007年、25:p.279-289 E. Rota Kops、H. Herzog著「MR-PETスキャナーにおけるPETに対する減衰補正のための代替方法(Alternative methods for attenuation correction for PET images in MR-PET scanners)」IEEE NSS/MIC Conf Record、2007年、p.4327-4330 H. Zaidi、M.L. Montandon、D.O. Slosman著「脳の3次元陽電子放射断層撮影法における磁気共鳴イメージング誘導減衰及び散乱補正(Magnetic resonance imaging guided attenuation and scatter corrections in three-dimensional brain positron emission tomography)」Med. Phys.、2003年、第30巻、p.937-948、 E. Rota Kops、G. Wagenknechtら著「セグメントされたT1強調MR画像によるMR-PETスキャナーにおける減衰補正(Attenuation Correction in MR-PET Scanners with Segmented T1-weighted MR images)」IEEE MIC 2009に提出
陽電子放射断層撮影法は、例えば、血流や代謝に関連した機能の測定のみが可能である。構造情報は、陽電子放射断層撮影によって取得することはできない。構造情報をさらに得るために、MR測定、そして形態測定もまた実施されている。とりわけ、例えば脳の場合、機能と生体構造との間の関連付けが可能となるように、どの組織領域がどこで見出されるかを決定する。したがって、例えば、膝関節又は器官の形態はMR測定により視覚化することができるが、陽電子放射断層撮影では不可能である。
原則として、MRT及びPETの測定は、二つの異なるデバイスで、すなわち一方で磁気共鳴断層撮影を行うための磁気共鳴断層撮影デバイスにより、他方で陽電子放射断層撮影デバイスにより今日実施されている。しかし、磁気共鳴断層撮影デバイスだけでなく、陽電子放射断層撮影デバイスの両方を備え、この目的のために検査する生物を移動することなく上記の測定の両方を行うことが可能なデバイスも存在しており、以下、(例えば、WO2008/006451Aにより公知である)MR/PETデバイスと呼ぶこととする。2つの測定が2つの異なったデバイスで行われている場合は、両方のデバイスで得られた画像データが空間内の同じ方向に連関するように、検査する生物を位置決めすることは実際には不可能である。生化学的プロセスおよび/又は生理学的プロセスを解剖学的に関連付けることを可能とするためには、空間的な方向に関して、MR測定の画像データセットをPET測定の画像データセットにマッチング(記載)させるようにしなければならない。その目的のために生物を移動させないでMRT検査及びPET検査の両方が可能であるデバイスによって、このようなマッチングプロセスは必要ではなくなる。
PET検査又はMRT検査の含有量内で検出される放射線は、生体内で発生し、生体の外部に設けられた検出器によってキャプチャされる。放射線は、その発生源から検出器への途中で、軟部組織、骨、空気充填空洞のような生体エリアを通過する必要があるため、放射線はこれらのエリアで減衰され(以下、減衰領域と呼ぶ)、検出器で不完全にキャプチャされる。異なる減衰領域は、異なる程度に放射線を減衰させる。
このような放射線の減衰の問題は、減衰の影響を補正又は斟酌していない場合、結果に狂いが生じるということである。陽電子放射断層撮影の場合には、例えば、減衰のために、ほんの少数の崩壊が、現実とは大きく異なった測定状態で、対応する検出器で捉えられる。このような場合に、崩壊の真の数を決定し、正しい情報を得るためには、減衰に起因する変化を評価し、補正できるようにする必要がある。 (上記の先行技術文献の非特許文献4〜7を参照のこと。また以下もまた参照のこと。
http://de.wikipedia.org/wiki/Positronen-Emissions-Tomographie#Korrektur_der Messdaten (棒状発生源による測定減衰補正)
(目的は、骨組織からの分化を改善することが可能な新たなシーケンスの開発である。)
検出された放射線の減衰を補正可能とするために、放射線が各検出器に到達するために通過しなければならなかった減衰領域がどれであるかを知る必要がある。そのために必要な画像データは、必要な解剖学的情報を提供するものであって、すでに述べたようにMRT測定を起源とすることができる。しかしながら、全ての関連する減衰領域又は減衰エリアが、これらの画像データにより輝度値(グレー値)に基づいて区別することができるわけではない。例えば、骨領域と空気充填空洞を区別することはできない。なぜなら、それらは、同じ範囲のグレー値で描かれるからである。しかしながら、そのことは、放射線が、骨によって減衰されたかどうか、又は空気充填空洞を通過したかどうかを正しく決定するために必要となる。
MR/PET技術をさらに開発可能とするために、改良された方法で、減衰エリアを決定することが、本発明の目的である。
上記目的を達成するために、磁気共鳴断層撮影法により動物又はヒトの体を完全又は部分的にキャプチャし、MRT画像データセットを得る。MRT画像データセットのグレー値は、各グレー値が組織クラスに割り当てられているような方法で分類されている。上述の理由により、そのような最初の割り当てでは、近似値としてのみが可能である。なぜなら、全ての減衰エリアを一意にグレー値に基づいて識別することができるからである。したがって、グレー値に基づいて分類された画像データセットのボクセルは、その後、検査される身体又は身体の一部の解剖学的生体構造と比較され、分類の結果が妥当であるかどうかがチェックされる。その比較が、ボクセルのグレー値に基づく分類結果が検査される身体又は身体の一部の解剖学的生体構造と一致しないという結果をもたらす場合、そのボクセルは、組織クラスと知られている生体構造の割り当ての間に、それ以上に矛盾が生じないように再分類される。したがって、再分類は、なされた比較に従って行われる。
したがって、体内での減衰エリアは、改良された方法で決定することができる。検査される身体又は身体の部分での減衰領域の位置及び範囲に関する知識は、このように改良され、改良された方法で放射線の減衰を決定し、補正することを可能にする。
マルチスペクトルMRT画像データ、すなわち、いくつかのシーケンスが使用される場合、どの分類が実施されるかにより、ボクセルごとにいくつかのパラメータ(グレー値)を得るであろう(すなわち、ベクトル)。本発明は、このような場合にも応じて使用することができる。
画像aは、T1強調入力画像データセットの断面を示す。画像bは、それから得られた組織分類の結果を示す。画像cは、それから得られる脳と脳外の分離の結果を示す。 図aは、実施例の方法によるクラス画像の断面を示す。図bは、実施例の方法によりクラス画像の断面であって、セグメンテーション結果の質を説明するために、基礎となるT1強調入力画像データのグレースケール原本の断面に色を重ねたものを示す。図cは、3つのセグメントされた頭部の3D図を示し、頭部ごとに2つの図が表示される。
本発明の一実施形態では、生物の体は、陽電子放射断層撮影を用いて完全又は部分的に検査され、それによりPET画像データセットが得られる。さらに、生体は、磁気共鳴断層撮影法によって完全又は部分的に検査され、MRT画像データセットが得られる。生体が部分的にしか検査されない場合、PET検査及びMRT検査は、同じ領域、例えば生物の頭部に関連している。両方の測定は、MR/PETデバイスで実施されるのが好ましい。そうでなければ、2つの画像データセットを同じ空間的定位と関連させるような方法で、2つの画像データセットが、互いに一致(記録)するようにすべきである。
(上記のように)PET画像データは臓器の機能を示すために役立ち、これらのPET画像データは減衰補正されている。これが行われなかった場合、測定された機能(例えば、代謝や血流)が正しく判定されず、診断に影響を与える(例えば、減衰による低すぎる代謝->過小評価->最悪の場合:誤診)。本発明によれば、決定的な減衰領域は、改良された方法でMRT画像データから決定される。このように、PET画像データは、改良された方法で補正することができる。
このように得られたMRT画像データセットは、複数のボクセルからなり、それぞれにグレー値が割り当てられる。グレー値は記載されているように分類され、つまり、各検査のグレー値は、特定の領域(以下、「組織クラス」と呼ばれる。)に属するものとして解釈され、それに応じて割り当てられる。例えば、頭部の検査の場合、MRT画像データセットのグレー値は、灰白質、白質、髄液(脳脊髄液)、脂肪組織およびバックグラウンドとして解釈され、それに応じて割り当てられる。3D配列に基づいて作成されたT1強調測定結果は、好ましくは、分類を実施するために使用される。なぜなら、それらは、特に高い解像度を持っており、高いコントラストで本質的な組織タイプを示し、患者が受容可能な測定時間において良好な信号対雑音比を持っているからである。したがって、これらのデータは、解剖学的構造のセグメンテーションのために理想的に適している。このような高精度が要求されていない場合は、別のMRシーケンス、それらの組み合わせ、又は異なるシーケンスに由来する画像データを使用することもできる。この点で重要なことは、セグメントする領域がハイコントラストで表示されることである。
本発明の一実施形態では、分類を行うために、全ての組織クラスを含んでいる検査生体の領域又はセクションが、最初に検査及び分析される。頭部の場合、組織クラスとして、灰白質、白質、髄液(脳脊髄液)、脂肪組織及びバックグラウンドを構成することが知られている頭部の断面は、このように検査される。例えば、ヒトの脳の中央断面は、それに適している。上記の5つの組織クラスは、その解剖学的生体構造、均一性、大きさ、及び他に対する空間的な位置などの特性が知られており、この断面で見つけることができる。最初は、このエリアに限定すれば、このセクションに属するボクセルのグレー値は、おおよそ分類される。したがって、既知の解剖学的生体構造に基づいて、どのグレー値が、どの組織クラスに割り当てられるかが決定される。分類のプロセスが、この方法で十分に訓練されている場合、この割り当てに基づいて、MRT画像データセットの他のボクセルは、そのグレー値に基づいて分類される。
組織分類の結果として、全てのボクセルが、組織クラスに、頭部の場合は灰白質(GM)、白質(WM)、脳脊髄液(CSF)、脂肪組織(AT)及びバックグラウンド(BG)のうちの1つに割り当てられているクラス画像のデータセット1が得られる。
本発明の一実施形態では、バックグラウンド(BG)として分類されている全てのボクセルが検査され、バックラウンドとして分類されたボクセルが実際に検査身体又は身体エリアの外側にあるかどうかが判断される。この検査は、ボクセルが検査身体内にあることを示しており、それにもかかわらず、そのグレー値のためにバックグラウンドとして分類されていた場合、それは、すなわち検査身体又は検査身体部分の解剖学的生体構造に基づき、適切に再分類される。再分類は、別の組織クラスへの分類が検査身体又は検査身体エリアの既知の解剖学的生体構造と矛盾しないような方法で実施される。
ボクセルがバックグラウンド(BG)として分類された場合、それは、身体の外側にあるエリアであることと考えられる。本発明の一実施形態では、既知の検査身体又は検査身体エリアの外部にある全てのボクセルが決定される。それらの間で、そのグレー値に起因してバックグラウンドとして分類されていないボクセルがある場合、それらは、再分類又は再ラベル付けされて、クラスBGに割り当てられている。
ステップ1:
本発明の一実施形態では、頭部の検査の場合には、頭部の外側にある組織クラスBGのエリアは、データセットの全ての層で、例えば2D領域成長によって最初にキャプチャされる。したがって、例えば領域成長でキャプチャされない残りのBGボクセルは、頭部内に位置し、それらはバックグラウンドになり得ないため、CFSに再ラベル付けされる。次いで、頭部のエリアは、例えば、3D領域成長でキャプチャされる。頭部に属していない全てのボクセルは、組織クラスBGに割り当てられる。患者の測定中に、例えばノイズ又はモーションアーチファクトによって発生し得るバックグラウンドのエリアにおける虚偽の分類は、このように除去される。
領域成長は、画像を分割する方法である。この方法では、均質な画像要素は、領域に統合される。最初に、画像は、初期のセル(1×1×1、2×2×2又は4×4×4ボクセル)に分割される。出発領域として初期のセルの選択から始めて、その後、これは隣接するセルと比較される。ここで、例えば、領域及び隣接するセルのグレー値の平均値を評価することができる。類似している場合、それらは統合される。本発明では、ボクセルのクラス所属を考慮し、望ましいクラス所属が提供されている場合、統合が行われる。当該領域は、その全ての近傍と比較して成長を続ける。さらに近傍を加えることができない場合、領域が発見され、まだ領域に属していない新たなセルが選択され、そしてプロセスは、開始時に再び起動される。全てのピクセル又はボクセルが領域に割り当てられるまで、当該プロセス全体が繰り返される。
ステップ2:
一つの好ましい実施形態では、脳領域から脳外領域を分離するために、視神経による両領域間の顕著な接続があるので、頭部の2つの眼球領域を最初に検出し、セグメントしている。これらの領域は、頭部の中心層エリアにおいて横方向/前方に位置し、眼窩脂肪体に起因する脂肪組織に囲まれている。したがって、適切なサイズ及び形を有する、好ましくは正方形の組織クラスATの横断テンプレートによって、検出が行われる。テンプレートは、(特定の形状及びクラス特性の場合は)画像の領域上を移動する参照オブジェクトである。テンプレートの各位置において、テンプレートによってスキャンされる画像の全てのボクセルは、テンプレートの各ボクセル(この場合はクラス特性)と比較される。(基本的な原理は公知であり、以下のウェブサイトで明らかにされている。
http://en.wikipedia.org/wiki/Template_matching(2009年6月18日現在)。
しかし、私たちのケースでは、テンプレートは複雑な画像コンテントを有する画像セクションではなく、ここでは特定のクラス特性を有する画像セクションである。ここでの「適切な大きさ」とは、予想される大体のサイズ及び解剖学的領域の(非常に)大まかな形状を指す。
画像データは、マトリックスの各ボクセルがクラスラベルを有する三次元マトリックス中に存在する。三次元画像のマトリックスの前面/中央部では、左側及び右側において(解剖学用語で横方向に)前方から始まり、ATテンプレートのボクセルの最大数がAT領域のボクセルと重なるクラスATの領域が互いにそれぞれ独立して両側に見出されるまで、テンプレートが移動する。右側及び左側のテンプレートと重なるクラスATの全てのボクセルは、クラスラベル「EYE」が付される。次いで、脂肪組織のエリアは、成長している3D領域で完全にキャプチャされ、EYEとしてラベルが付される。そして、この領域は、視神経を含む眼球領域をキャプチャするために、エリアWMに、次いでエリアGMにダイレーションされる。
ダイレーション(dilating)は、エリアが端部において拡大されることを意味する(http://de.wikipedia.org/wiki/Dilatation_(Bildverarbeitung) 2009年6月18日現在もまた参照のこと)。この目的のため、構造要素が選択され、これ(例えばサイズ3×3×3の要素)と比較される。ダイレーションのプロセスは、反復して繰り返すことができる。
ステップ3:
それに続いて、脳領域は、本方法の一実施形態においてエロージョンによって脳外領域から分離される。ダイレーションと同じように、エロージョンは、形態学的画像処理の基本的な操作である。エロージョンは、構造要素(例えば、サイズ3×3×3の要素)によって実現される。各構造要素に対して、特定のボクセル位置に要素を配置可能とする基準点が定義されている。実際の操作は、画像全体にわたる構造要素のボクセルごとの変位で構成されている。構造化された要素が完全に当該セットに合致するかどうかのチェックが実施される。
質問に肯定的に答えることができるのであれば、画像のボクセルは、構造要素の基準点の位置で、エロージョンされたセットに属している。
(http://de.wikipedia.org/wiki/Erosion_(Bildverarbeitung) 2009年6月18日現在を参照のこと)。
脳は脳脊髄液で囲まれているため、エリアCSFは、エロージョンによってダイレーションされている。このため、クラスGM、WM及びATのボクセルは、CSFの近傍でエロージョンされており、CSFに割り当てられる。CSFは、このように間接的にダイレーションされる。
本実施形態では、このエリアは、その後の3D領域成長でキャプチャされ、そしてクラスGM、WM及び(脳外エリアに位置する)ATにある他の全てのボクセルは、CSFに再ラベル化される。ここで、脳外エリアは、CSFに完全に割り当てられている。脳領域内では、クラスATの全てのボクセルは、クラスWMに割り当てられる。なぜなら、それらは、誤って分類された脳内で発生し得ない脂肪組織ボクセルだからである。元のMRT画像データセット内での脂肪組織のグレー値は、白質のものに似ているので、ATボクセルは、WMに再ラベル化される。
ステップ4:
脳外領域を分離する目的で、脳領域は、エロージョンによって小さくされるので、これは、本発明の一実施形態においてダイレーション操作により逆にされる。脳の白質(WM)は、灰白質の薄い皮質(GM)に囲まれているが、このGMエリアは、いくつかの場所で完全にエロージョンされ得るため、クラスWMの領域がエリアCSFに最初にダイレーションされる。さらに、エロージョン前にATクラスに属していたボクセルは、このダイレーションにおいてクラスWMに再び割り当てられる。その後、皮質は、クラスGMのエリアがエリアCSFにダイレーションされることによって再構築される。最後に、領域EYEの全てのボクセルもまた、CSFに割り当てられる。脳は再構築され、脳外エリアは完全にクラスCSFに割り当てられる。
ステップ5:
本発明の一実施形態では、脳外領域でのエリアCSFは、減少している。この目的のため、クラスSBは、頭部の外側のバックグラウンド(BG)に隣接するCSFボクセルから始めて、脳の方向に頭部の境界領域から各横断層においてダイレーションされる。これを達成するために、CSFボクセルは、同じレイヤーにおいて、クラスBG、CSF又はSBの隣接ボクセルにより排他的に囲まれて、クラスSBに変換される。次いで、当該隣接部分は3Dで検査される。GM又はWMの近傍にあるSBボクセルは、CSFボクセルに変換される。なぜなら、脳脊髄液は、脳の周りにある必要があるからである。脳外エリアはSBに割り当てられ、脳エリアはクラスGM、WM及びCSFに割り当てられる。
ステップ6:
問題は、耳道のエリアで発生する可能性がある。なぜなら、BGとして分類される耳道のこのエリアは、実際に頭外にあるバックグラウンドのエリアにさらに関連付けられ得るからである。一方、耳道は、乳突蜂巣領域の近傍にあり、またBGとして分類されるこれらの広範囲のエリアに関連付けられ得る。これは、(BGに属しているので)頭部の外にあるとして誤ってみなされる頭部内の広い領域を作り出す結果となる。一実施形態では、実際のバックグラウンド近傍において、耳道はかなり小さいサイズなので、この領域は、クラスSBがエリアBGにダイレーションされることにより、まずクローズされる。したがって、頭部の境界領域もまた、当然にバックグラウンドにダイレーションされる。その後、頭部外側のクラスBGのエリアで成長する3D領域により、バックグラウンドをキャプチャすることができる。領域成長ではキャプチャされないBGボクセル及びダイレーションされたSBボクセルの領域は、TEMPとして再ラベル化される。頭部エリアの拡大は、エリアBGがエリアTEMPにダイレーションされることにより逆転する。次いで、残りのTEMPボクセルはSBに再ラベル化し、脳外エリアは完全に分割される。上記手順の順序が厳守されている場合、特に良好な結果が得られることがわかった。上記の順序が部分的にしかに守られていない場合、得られた結果は最適ではないが、従来技術と比較して改善されたものとなる。
得られる結果は、脳領域が様々な脳組織クラスに分割されたデータセットである。脳領域の各ボクセルは、クラスの灰白質(GM)、白質(WM)及び脳脊髄液(CSF)のいずれか1つに割り当てられ、頭部の脳外領域の各ボクセルは頭皮/骨のクラス(SB)に割り当てられ、頭部に属していない各ボクセルはバックグラウンドのクラス(BG)に割り当てられているクラス画像。図1は、その結果を示している。2つの画像aは、T1強調入力画像データセットの断面を示す。2つの画像bは、それから得られた組織分類の結果を示す。二つの画像cは、それから得られる脳と脳外の分離の結果を示す。
以下は、組織分類に起因するヒトの頭部に関する最初に取得されたデータセット1に基づいている。データセット1は、各ボクセルが灰白質(GM)、白質(WM)、脳脊髄液(CSF)、脂肪組織(AT)及びバックグラウンド(BG)という組織クラスのいずれか1つに割り当てられている組織クラスの画像である。さらに、脳と脳外領域との分離に起因する第2のデータセット2は、基礎とされる。データセット2は、脳の各ボクセルが灰白質(GM)、白質(WM)および脳脊髄液(CSF)というクラスの1つに割り当てられ、頭部の脳外領域の各ボクセルがクラス(SB)に割り当てられ、そして頭部に属していない各ボクセルがバックグラウンドのクラスに割り当てられるクラス画像である。
頭部の脳外領域は引き続きセグメントされ、それにより、この領域の各ボクセルは、空洞領域(クラスMASTOID、SINUS1-SINUS4)、骨(クラスBONE)の内の1つ又は脳外軟部組織(クラスSOFT)に割り当てられている:
側頭骨領域[lat. os temporale]:
乳突蜂巣領域[lat. processus mastoideus](クラス:MASTOID);
顔面頭蓋の空洞:
前頭洞[lat. sinus frontalis](クラス:SINUS1)、鼻腔の領域[lat. cavum nasi]、篩骨蜂巣[lat. cellulae ethmoidales]及び蝶形骨洞[lat. sinus sphenoidalis](クラス:SINUS2)、上顎洞[lat. sinus maxillaris](クラス:SINUS3)及び咽頭[lat. pharynx](クラス:SINUS4);
骨領域:
頭蓋骨[lat. neurocranium]及び顔面頭蓋骨[lat. viscerocranium](クラス:BONE)
軟部組織の領域:
頭部の脳外領域の軟部組織、例えば、筋肉、脂肪組織、皮膚等(クラス:SOFT)
プロセスは、次のとおりであることが好ましい。
最初に、脳(大脳、小脳、脳幹)の領域は次のように処理される:データセット2に基づき、クラスWM及びクラスGMの全てのボクセルは、クラスWMGMに割り当てられる。なぜなら、これらのエリアの減衰特性は、同様とみなされるためである。クラスCSFの全てのボクセルが最初に保持される。なぜなら、それらは、頭蓋骨領域の再構築にとって重要だからである。ただし、最後に、クラスWMGMおよびCSFのボクセルは、次に減衰値を受け取る統一クラスBRAINに割り当てることができる。
頭部の脳外領域は、データセット2中のクラスSBの全ボクセルによって与えられる。このエリアでは、データセット1の全ボクセルのクラスの所属が検査される。空洞領域及び骨領域は、データセット1にクラス所属BG又はCSFを実質的に有している。脳外軟部組織の領域は、単一のクラスSOFTに統合されているクラス所属GM、WM又はATを実質的に有している。これらのクラス所属を使用し、減衰関連領域に脳外領域を分割するためのプロセスは、次のとおりである。
最初に、2つの乳突蜂巣領域(MASTOID)を検出し、分割する。次いで、顔面頭蓋中の空洞を検出し、オーダー(order)前頭洞(SINUS1)、鼻腔、篩骨蜂巣および蝶形骨洞(SINUS2)、上顎洞(SINUS3)及び咽頭(SINUS4)で分割する。このプロセスでは、これらの領域の位置関係に関する解剖学的知識が、検出に考慮される。この場合、セグメンテーションは、この領域の各ボクセルを対応するクラスに割り当てることを意味する。クラスCSF又はBGのいずれかに属しているデータセット1内のボクセルのクラス特性は、セグメンテーション時に考慮される。
次いで、骨のエリア(BONE)が再構築される。このプロセスで、脳領域(上記参照のこと。CSFは、データセット2内の脳(大脳、小脳、脳幹)を囲む。)に対する、及び既に検出されている空洞(乳突蜂巣領域、顔面頭蓋における空洞)に対する骨領域の位置関係に関する知識は、検出のために考慮される。この場合、セグメンテーションは、この領域の各ボクセルを対応するクラスに割り当てることを意味する。クラスCSF又はBGのいずれかに属しているデータセット1内のボクセルのクラス特性及び全ての頭蓋骨及び顔面頭蓋骨の関連付けは、セグメンテーション時に考慮される。
MASTOID、SINUS1-4又はBONEのクラスのいずれにも割り当てられず、かつデータセット2において脳外領域に属している残りの全てのボクセルは、軟部組織SOFTに割り当てられている。あるいは、クラスSINUS1-4は、最終的にクラスSINUSにまとめることができる。また、クラスのCSFは、GMWMと共にクラスBRAINに統合することができる。
検出及びセグメンテーションの個々のステップを、抽出される領域に対して、それらの抽出の順に詳細に説明する。
ステップ1:
ただし、CSFボクセルが脳外領域(データセット2)に位置するのであれば、脳外領域(データセット2)に位置するクラスBG(データセット1)の領域は、クラスCSF(データセット1)の領域にダイレーションされる。なぜなら、BG領域は、どのような場合でも空洞又は骨に属し、BG領域の周りのCFS領域もまた、部分体積効果のために空洞又は骨に属しているからである。これに対して、BG領域の近傍にないCSFボクセルは、むしろ空洞又は骨に属していないので、クラスSOFTに(最初は)割り当てられる。次いで、領域BGは、相互に関連付けられた領域を分離するために、再びエロージョンされる。このために、エロージョンによって生成された境界領域は、最初、一時的なクラスTEMPに割り当てられている。
ステップ2:
2つの乳突蜂巣領域を検出し、第1領域としてセグメントする。これらの領域は、耳道の横方向/後方に頭部内で位置している。したがって、解剖学的領域に適切なサイズ及び形状(この場合は正方形の形状)を有するクラスBGの横断テンプレートを用いて、検出は行われる。このテンプレートは、左側及び右側において(解剖学用語ではlateral)背面からスタートして、BGテンプレートのボクセルの最大数がBG領域のボクセルと重なるクラスBGの領域が、それぞれ両側において互いに独立して見出されるまで、マトリックスの下方/後側(解剖学用語では尾方/後方(caudal/posterior))の領域において変位する。右側及び左側でテンプレートと重なるクラスBG(データセット1)の全てのボクセルには、クラスラベルMASTOIDが与えられる。次いで、エリアMASTOIDは、エリアBGにダイレーションされ、乳突蜂巣領域の全体をキャプチャする。
ステップ3:
次の領域として、前頭洞領域を検出し、セグメントする。この領域は、頭部の中央/頭方/前方にある。したがって、解剖学的領域に適切なサイズ及び形状(この場合、横方向において狭く長い長方形)を有するクラスBGの横断テンプレートを用いて、検出は行われる。このテンプレートは、MASTOIDテンプレートのテンプレート位置の間(すなわち、中央エリアにおいて)前方からスタートし、BGテンプレートのボクセルの最大数がBG領域のボクセルと重なるクラスBGの領域が見出されるまで、マトリックスの上方/前方エリア(解剖学用語では頭方/前方(cranial/anterior))において変位する。テンプレートと重なるクラスBG(データセット1)の全てのボクセルには、クラスラベルSINUS1が与えられる。エリアSINUS1は、前頭洞領域の全体をキャプチャするために、エリアBGにダイレーションされる。
ステップ4:
次の領域として、鼻腔、篩骨蜂巣および蝶形骨洞の領域を検出し、セグメントする。この領域には、単一のクラスラベルSINUS2を与えている。なぜなら、遷移が非常に大きいために、分離がほとんど不可能だからである。この領域は、前頭洞領域の中央/前方で尾方(下方)に位置する。したがって、解剖学的領域に適切なサイズ及び形状(この場合、前後方向において狭く長い長方形)を有するクラスBGの横断テンプレートを用いて、検出は行われる。マトリックスの中央/前方領域のSINUS1テンプレートのテンプレート位置から開始し、このテンプレートは、前方/上方(前方/頭方)から開始し、BGテンプレートのボクセルの最大数がBG領域のボクセルと重なるクラスBGの領域が見出されるまで変位する。テンプレートと重なるクラスBG(データセット1)及びSINUS1の全てのボクセルには、クラスラベルSINUS2が与えられる。エリアSINUS2は、鼻腔、篩骨蜂巣および蝶形骨洞の領域全体をキャプチャするために、エリアBG及びSINUS1にダイレーション(最初に横断2D、次に3D)される。
ステップ5:
2つの上顎洞を検出し、次の領域としてセグメントする。その領域は、頭部内の中央/前方で、鼻腔、篩骨蜂巣及び蝶形骨洞の領域の尾方(下方)に位置している。したがって、解剖学的領域に適切なサイズ及び形状(この場合、前後方向にやや長く、ほぼ正方形)を有するクラスBGの横断テンプレートを用いて、検出は行われる。マトリックスの中央/前方エリアのSINUS2テンプレートのテンプレート位置から開始し、このテンプレートは、左側及び右側において前方/上方(前方/頭方)から開始し、BGテンプレートのボクセルの最大数がBG領域のボクセルと重なるクラスBGの領域が、それぞれ両側において互いに独立して見出されるまで変位する。テンプレートと重なるクラスBG(データセット1)及びSINUS2の全てのボクセルには、左側及び右側においてクラスラベルSINUS3が与えられる。エリアSINUS3は、上顎洞領域の全体をキャプチャするために、エリアBG及びSINUS2にダイレーション(最初に横断2D、次に3D)される。
ステップ6:
次の領域として、咽頭領域を検出し、セグメントする。この領域は、頭部内の中央/前方で、鼻腔、篩骨蜂巣および蝶形骨洞の尾方(下方)であって、上顎洞領域の背後に位置している。したがって、解剖学的領域に適切なサイズ及び形状(この場合、正方形)を有するクラスBGの横断テンプレートを用いて、検出は行われる。マトリックスの下方/前方にあるSINUS3テンプレートの中心位置の背後(後方)にあるSINUS2テンプレートのテンプレートの位置から開始し、このテンプレートは、前方/上方(前方/頭方)から開始し、BGテンプレートのボクセルの最大数がBG領域のボクセルと重なるクラスBGの領域が見出されるまで変位する。テンプレートと重なるクラスBG(データセット1)の全てのボクセルには、クラスラベルSINUS4が与えられる。エリアSINUS4は、咽頭領域の全体をキャプチャするために、エリアBG及びSINUS3にダイレーションされる。
ステップ7:
ダイレーションを用いたので、顔面頭蓋内にある空洞の領域全体が完全にキャプチャされているかは、まだ保証されていない。したがって、領域間の可能性のあるギャップは、閉鎖されている。これらは、まだラベルが与えられていない領域SINUS1-SINUS4の間のクラスBG(データセット1)の領域である。これは、中央領域、最初にSINUS2、次いでSINUS3のエリアBGへのダイレーションにより生じる。エリアSINUS4は、ダイレーションによって、エリアBG(データセット1)へと下方(尾方)に拡張される。次いで、領域SINUS4は、横断方向の中でTEMPにダイレーションされる。咽頭は、顔面頭蓋骨で囲まれていないからである(下記参照)。
ステップ8:
全ての空洞領域が完全にラベル化されているので、依然として残っている脳外BGボクセルは、骨再構築の準備のためにTEMPラベルを最初に付けている。頭部を囲むバックグラウンドBG(データセット2)の境界領域に位置する脳外領域のTEMPのボクセルは、SOFTに再ラベル化される。なぜなら、骨は、頭部内に位置し、軟部組織(SOFT)で囲まれているからである。
ステップ9:
乳突蜂巣領域及び前頭洞領域から始めて、骨の再構築が行われる。MASTOID及びSINUS1のボクセルの近傍にあるTEMPのボクセルは、BONEに再ラベル化される。それらは、領域TEMPに成長するその後の領域のためのシードボクセルとして機能する。頭蓋骨と顔面頭蓋骨とが接続されているという事実は、この場合に活用される。成長する領域によってキャプチャされない全てのTEMPボクセルには、明らかに骨領域に属していないので、SOFTのラベルが付される。領域SINUS2-SINUS4を囲むクラスBONE領域は、さらなる骨の再構築から除外されると考えられる。なぜなら、ここでは骨があまり太くないので、拡張されるとは考えられないからである。この目的のために、領域SINUS2は尾方にダイレーショされ、SINUS3-SINUS4はエリアBONEにダイレーションされ、そのダイレーションされたエリアは、TEMPに再ラベル化される。
ステップ10:
脳組織(大脳、小脳、脳幹)を囲むエリアCSF(データセット1)から始めて、骨の再構築が、さらに生じる。なぜなら、脳が脳脊髄液中を「泳ぐ」からであり、それは、骨に囲まれているからである。この目的のために、データセット1での検査される脳外ボクセルがクラスBG又はCSFに属する場合は、CSF領域(データセット2)は、エリアSOFTにダイレーションされる。この脳外CSFエリアはTEMP1に再ラベル化され、頭蓋骨エリアの拡大のための出発点として機能する。この目的のために、エリアTEMP1は、エリアBONEにダイレーションされる。
さらに、例えば、部分体積効果に起因して発生し得るエラーは、修正される。これらのエラーは、WM、GM又はAT(データセット1)として分類される脳脊髄液の周りに存在している領域につながる。骨の再構築のためにこれらの領域もまた考慮するために、脳のCSF領域(データセット2)は、そのような場所でSOFT領域に最初にダイレーションされ、ダイレーションされたボクセルは、TEMP1に再ラベル化される。次いで、TEMP1エリアは、データセット1での検査される脳外ボクセルがクラスBG又はCSFに属する場合、エリアSOFTにさらにダイレーションされる。
このようにして、骨の再構築は完了する。最後に、全てのTEMP及びTEMP1のボクセルが、BONEに再ラベル化される。
結果として、頭部の異なる減衰領域がセグメントされているデータセットが得られる。そのデータセットは、脳領域の各ボクセルが脳組織(GMWM)及び脳脊髄液(CSF)のクラスの内の1つに割り当てられ、かつ頭部の脳外領域の内の各ボクセルが乳突蜂巣領域(MASTOID)、顔面頭蓋の空洞(SINUS1-SINUS4)、骨(BONE)及び軟組織(SOFT)のクラスの内の1つに割り当てられるクラス画像又は組織クラス画像である。このようにして得られた結果を図2に示す。
3つの図aは、実施例の方法によるクラス画像の断面を示す。この場合、クラスGMWMの全ての脳ボクセルは緑で、クラスCSFのボクセルは暗緑色で示される。脳外領域では、クラスSOFTの全てのボクセルは白で、クラスBONEのボクセルは肌色で示される。クラスMASTOIDのボクセルは紫で、前頭洞ボクセル(クラスSINUS1)はピンクで、クラスSINUS2のボクセルは赤で、上顎洞(クラスSINUS3)のボクセルはオレンジで、クラスSINUS4のボクセルは黄色で表示される。2つの図bは、実施例の方法によりクラス画像の断面であって、セグメンテーション結果の質を説明するために、基礎となるT1強調入力画像データのグレースケール原本の断面に色を重ねたものを示す。バックグラウンド(クラスBG)は、図a及び図bでは、それぞれ黒で示されている。6つの図cは、3つのセグメントされた頭部の3D図を示している。頭部ごとに2つの図が表示される。左の図は、それぞれ、セグメントされた全ての空洞の表面を青で示している。頭部内の空洞領域の空間的配分のために、他のエリアは、透明に加えて、赤色から黄色に表示される。右の図は、セグメントされた頭蓋骨の表面をそれぞれ青で示している。3D図だけでなく2D図の両方は、さまざまな入力画像データに対する結果の非常に良好な品質を実施例の方法によって示している。
あるいは、エリアCSF及びGMWMは、減衰特性がほとんど異ならないので、単一のクラス(BRAIN)に結合することができる。同じことは、顔面頭蓋の空洞(SINUS1-SINUS4)に適用される。それらは、領域SINUSにまとめることができる。乳突蜂巣領域は空気及び骨の部分で構成されているため、この領域は別に検査する必要がある。
ステップの上記の順序が厳守されている場合、特に良好な結果が得られることがわかった。上記の順序が部分的にしかに守られない場合、得られた結果は最適ではないが、従来技術と比較して改善されている。
本発明に係る好適に用いられるMR/PETは、診断テストを実施するためのデバイスである。MR/PET断層撮影システムの技術的実現は、例えば、いわゆるPETインサートが挿入されている3テスラMRTデバイス(例えば、市販のシーメンス3T MR/PET TimTrioシステム)で構成されている。コンピュータシステムは、画像データの再構成のため、及び画像データの診断評価のためにデバイスを制御する目的で使用される。標準的なPCは、本発明による方法を実施するために使用されていた。
PC Pentium(登録商標)IV、3.4 GHz、メインメモリ2GBでの計算時間は、分類法をトレーニングするためのサンプル抽出に0.5秒、256 3Dマトリックスの分類のために12.6秒、脳領域と脳外領域の分離のために2分47.5秒、脳外領域の空洞、骨及び軟部組織へのセグメンテーションのために36.1秒かかる。
この方法では、追加のCT又はPET伝送測定が必要とされないため、さらなる放射線被曝はない。アトラス、例えばCTベースアトラスを使用する場合に必要である非線形レジストレーションは必要とされない。
上記の方法において、MRTベースの形態イメージングは、さまざまな程度で形態画像データから減衰領域を決定することにより、PET減衰補正のために使用される。異なる減衰領域の各ボクセルへの511keV放射に適した減衰係数を割り当てることによって([非特許文献8]及び[非特許文献9]、セグメントされた画像データは、減衰マップに変換される。現在のところ、以下の値が、頭部のセグメントされた減衰領域に対して使用されている:BRAINに対して0.098 1/cm、BONEに対して0.146 1/cm、SOFTに対して0.096 1/cm、MASTOIDに対して0.054 1/cm、及びSINUS1-4に対して0.0 1/cm([非特許文献10])。PET画像データの減衰補正に関しては、手順は以下が可能である。減衰マップ画像データをPET画像データに記載し、平滑化し、PET画像データのマトリックス及びボクセルサイズに適応させる。それらは、減衰補正のためのPETエミッション画像データの再構築に使用されている減衰補正因子(ACF)への前方プロジェクションによって変換される。

Claims (31)

  1. 生物における減衰領域を決定するための方法であって、
    動物やヒトの体を磁気共鳴断層撮影法によって完全又は部分的にキャプチャして、それによりMR画像データセットを取得し、
    前記MR画像データセットのグレー値を、そのグレー値が組織クラスに割り当てられるように分類し、
    前記グレー値に基づいて分類されたボクセルを身体の解剖学的生体構造と比較し、その結果に従って再分類し、
    最終的に割り当てられたクラスに、そのクラスに対応する減衰値を与える、という工程を含み、
    前記MR画像データセットは、T1強調入力画像のデータセットである、方法。
  2. 頭部を磁気共鳴断層撮影法によってキャプチャし、それによりMR画像データセットを得て、前記MR画像データセットのグレー値が灰白質、白質、髄液(脳脊髄液)、脂肪組織及びバックグラウンドとして読み取られ、それに応じて割り当てられる、請求項1に記載の方法。
  3. 陽電子放出断層撮影法、好ましくはMR/PETデバイスにより、動物又はヒトの身体を完全又は部分的にキャプチャする、請求項1又は2に記載の方法。
  4. 体内にあり、バックグラウンド(BG)として分類されたそれらのボクセルを決定し、そして、これらのボクセルを身体の既知の解剖学的生体構造に従って再分類する、請求項1〜3のいずれか1つに記載の方法。
  5. 体外にあるボクセルを決定し、これらのボクセルの各々がクラスバックグラウンド(BG)に割り当てられるとともに、それらのグレー値に起因して異なって以前に分類されていたボクセルをクラスバックグラウンド(BG)に割り当てる、請求項1〜4のいずれか1つに記載の方法。
  6. 頭部の脳領域から脳外領域を分離するため、頭部の他の領域をセグメントする前に、2つの眼球領域をセグメントする、請求項1〜5のいずれか1つに記載の方法。
  7. 眼球領域のセグメントに続いて、脳領域をエロージョンにより分離し、領域成長によってキャプチャする、請求項6に記載の方法。
  8. 前記エロージョンに続いて、脳をダイレーションにより再構築する、請求項7に記載の方法。
  9. 脳の再構築に続いて、脳を囲む脳脊髄液のエリアを再構築し、そして前記脳外領域をクラスに割り当てる、請求項8に記載の方法。
  10. 脳外領域のクラス割り当てに続いて、耳道を通って頭部の外側のバックグラウンドに接続されるそれらの領域を別々にセグメントする、請求項9に記載の方法。
  11. クラス白質及び灰白質のボクセルを、前記第2のデータセットに基づいてクラス(WMGM)に割り当てる、請求項1〜10のいずれか1つに記載の方法。
  12. クラス白質、灰白質及び脂肪組織のボクセルを、これらのボクセルが前記第2のデータセットにおいて頭部の脳外領域に属している場合、前記第1のデータセットに基づいて統一クラス(SOFT)に割り当てる、請求項1に記載の方法。
  13. 脳脊髄液ボクセルが脳外領域に位置する場合、前記脳外領域に位置するエリア(BG)を脳脊髄液(CSF)のエリアにダイレーションする、請求項1又は1に記載の方法。
  14. 相互接続された領域を分離するために、前記脳外領域に位置するエリア(BG)をエロージョンする、請求項1に記載の方法。
  15. 2つの乳突蜂巣領域及び顔面頭蓋内に位置する空洞のエリアを、互いの解剖学的領域の位置関係を考慮して検出及びセグメントする、請求項1又は1に記載の方法。
  16. 前記検出及びセグメントが、テンプレートマッチング及びその後のダイレーションによって実行される、請求項1に記載の方法。
  17. 2つの乳突蜂巣領域を検出及びセグメントする、請求項1〜1のいずれか1つに記載の方法。
  18. 2つの乳突蜂巣領域の検出及びセグメントに続いて、前頭洞の領域を検出及びセグメントする、請求項1に記載の方法。
  19. 前頭洞の領域の検出及びセグメントに続いて、鼻腔、篩骨蜂巣および蝶形骨洞の領域を検出及びセグメントする、請求項1に記載の方法。
  20. 鼻腔、篩骨蜂巣および蝶形骨洞の領域の検出及びセグメントに続いて、2つの上顎洞を検出及びセグメントする、請求項19に記載の方法。
  21. 2つの上顎洞の検出及びセグメントに続いて、咽頭の領域を検出及びセグメントする、請求項20に記載の方法。
  22. 前記空洞領域の間の空隙をダイレーションにより閉じ、前記領域をダイレーションにより拡張する、請求項1〜2のいずれか1つに記載の方法。
  23. 第2のデータセットにおいて脳外領域に属し、第1のデータセットにおいてクラスバックグラウンド(BG)に属し、そして前記クラスMASTOID、SINUS1-4のいずれにもまだ割り当てられていない全てのボクセルが、骨の再構築に備えるために再分類される、請求項1〜2のいずれか1つに記載の方法。
  24. 骨の接続を考慮し、さらに骨と脳領域及び空洞との位置関係を考慮して、骨を続いて検出し、再構築する、請求項2に記載の方法。
  25. 骨の再構築が、最初に乳突蜂巣領域及び前頭洞領域から始まり、次に脳を囲む脳脊髄液の領域から起こる、請求項2に記載の方法。
  26. 骨の検出とセグメントが、再分類、領域成長及びダイレーションにより実行される、請求項2〜2のいずれか1つに記載の方法。
  27. 第2のデータセットにおいて脳外領域に属し、そしてクラスMASTOID、SINUS1-4又はBONEのいずれにも割り当てられていない全てのボクセルが、軟部組織SOFTに割り当てられる、請求項1〜2のいずれか1つに記載の方法。
  28. クラス(WMGM)のボクセル及びクラス脳脊髄液のボクセルが、統一クラス(BRAIN)に割り当てられる、請求項1〜2のいずれか1つに記載の方法。
  29. クラス(SINUS1-SINUS4)のボクセルが、統一クラス(SINUS)に割り当てられる、請求項28のいずれか1つに記載の方法。
  30. MR画像データセットのグレー値を組織クラスに割り当て、分類された前記グレー値を身体の解剖学的生体構造と比較し、その結果に応じて前記グレー値を再分類し、最終的に割り当てられたクラスに、そのクラスに対応する減衰値を与える手段を有し、前記MR画像データセットは、T1強調入力画像のデータセットであり、
    頭部について、第1のデータセットを組織分類から取得し、第2のデータセットを脳領域と脳外領域とを分離することによって取得し、続いて頭部の前記脳外領域を2つの前記データセットに基づいてセグメントし、それによりこの領域の各ボクセルを空洞領域(クラスMASTOID、SINUS1-SINUS4)、骨(クラスBONE)、又は脳外軟部組織(クラスSOFT)のいずれか1つに割り当てる、断層撮影システム、特にMR/PET断層撮影システム。
  31. 請求項1〜29のいずれか1つに記載の方法を実行するための手段を有する、請求項30に記載の断層撮影システム。
JP2012516698A 2009-07-03 2010-06-22 知識に基づいた頭部の減衰関連領域のセグメンテーション Expired - Fee Related JP5840125B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009027448.0 2009-07-03
DE102009027448A DE102009027448A1 (de) 2009-07-03 2009-07-03 Wissensbasierte Segmentierung schwächungsrelevanter Regionen des Kopfes
PCT/EP2010/058811 WO2011000739A1 (de) 2009-07-03 2010-06-22 Wissensbasierte segmentierung schwächungsrelevanter regionen des kopfes

Publications (3)

Publication Number Publication Date
JP2012531229A JP2012531229A (ja) 2012-12-10
JP2012531229A5 JP2012531229A5 (ja) 2015-06-25
JP5840125B2 true JP5840125B2 (ja) 2016-01-06

Family

ID=42313930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012516698A Expired - Fee Related JP5840125B2 (ja) 2009-07-03 2010-06-22 知識に基づいた頭部の減衰関連領域のセグメンテーション

Country Status (6)

Country Link
US (1) US8761482B2 (ja)
EP (1) EP2449528B1 (ja)
JP (1) JP5840125B2 (ja)
DE (1) DE102009027448A1 (ja)
HU (1) HUE035842T2 (ja)
WO (1) WO2011000739A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009027448A1 (de) * 2009-07-03 2011-01-05 Forschungszentrum Jülich GmbH Wissensbasierte Segmentierung schwächungsrelevanter Regionen des Kopfes
US10267882B2 (en) * 2010-10-13 2019-04-23 Toshiba Medical Systems Corporation MRI T1 image-guided tissue diagnostics
ES2692163T3 (es) * 2012-03-28 2018-11-30 Shimadzu Corporation Método para generar imagen corregida en absorción pet a partir de imagen de rm y programa informático
JP6334566B2 (ja) 2013-01-24 2018-05-30 タイラートン インターナショナル ホールディングス インコーポレイテッドTylerton International Holdings Inc. 身体構造イメージング
US9836879B2 (en) * 2013-04-16 2017-12-05 Autodesk, Inc. Mesh skinning technique
EP3041569A4 (en) 2013-09-08 2017-07-19 Tylerton International Inc. Detection of reduced-control cardiac zones
WO2015085320A1 (en) * 2013-12-06 2015-06-11 The Johns Hopkins University Methods and systems for analyzing anatomy from multiple granularity levels
CN106102583A (zh) 2014-01-10 2016-11-09 泰勒顿国际公司 瘢痕和纤维心脏区的检测
US10064589B2 (en) * 2014-06-27 2018-09-04 General Electric Company Method, apparatus, and article for pet attenuation correction utilizing MRI
US10776961B2 (en) 2014-07-30 2020-09-15 Navix International Limited Registering nuclear medicine data
KR102298253B1 (ko) * 2019-03-05 2021-09-06 뉴로핏 주식회사 뇌 구조를 이용한 뇌 영상 보정 방법 및 장치
KR102207824B1 (ko) * 2019-03-05 2021-01-26 뉴로핏 주식회사 뇌 구조를 이용한 뇌 영상 보정 방법 및 장치
KR102298249B1 (ko) * 2019-03-05 2021-09-06 뉴로핏 주식회사 뇌 구조를 이용한 뇌 영상 보정 방법 및 장치
US11701067B2 (en) * 2021-09-08 2023-07-18 Siemens Medical Solutions Usa, Inc. Attenuation correction-based weighting for tomographic inconsistency detection
CN116485819B (zh) * 2023-06-21 2023-09-01 青岛大学附属医院 一种耳鼻喉检查图像分割方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430430B1 (en) * 1999-04-29 2002-08-06 University Of South Florida Method and system for knowledge guided hyperintensity detection and volumetric measurement
US6567684B1 (en) * 2000-11-08 2003-05-20 Regents Of The University Of Michigan Imaging system, computer, program product and method for detecting changes in rates of water diffusion in a tissue using magnetic resonance imaging (MRI)
US20070043268A1 (en) * 2005-06-16 2007-02-22 Russell Michael J Guided Electrical Transcranial Stimulation (GETS) Technique
DE102006033383A1 (de) 2006-07-12 2008-01-17 Eberhard-Karls-Universität Tübingen Universitätsklinikum Verfahren zum Bestimmen einer Eigenschaftskarte für einen Gegenstand, insbesondere für ein Lebewesen, basierend auf zumindest einem ersten Bild, insbesondere Kernspinresonanzbild
US20080135769A1 (en) * 2006-11-22 2008-06-12 Rosen Bruce R Attenuation correction of pet image using image data acquired with an mri system
WO2009005013A1 (ja) * 2007-06-29 2009-01-08 Toshinori Kato 白質強調処理装置、白質強調処理方法及びプログラム
WO2009058915A1 (en) * 2007-10-29 2009-05-07 The Trustees Of The University Of Pennsylvania Computer assisted diagnosis (cad) of cancer using multi-functional, multi-modal in-vivo magnetic resonance spectroscopy (mrs) and imaging (mri)
DE102009027448A1 (de) * 2009-07-03 2011-01-05 Forschungszentrum Jülich GmbH Wissensbasierte Segmentierung schwächungsrelevanter Regionen des Kopfes

Also Published As

Publication number Publication date
US20120155733A1 (en) 2012-06-21
DE102009027448A1 (de) 2011-01-05
WO2011000739A9 (de) 2011-03-03
WO2011000739A1 (de) 2011-01-06
JP2012531229A (ja) 2012-12-10
HUE035842T2 (en) 2018-05-28
US8761482B2 (en) 2014-06-24
EP2449528B1 (de) 2017-11-22
EP2449528A1 (de) 2012-05-09

Similar Documents

Publication Publication Date Title
JP5840125B2 (ja) 知識に基づいた頭部の減衰関連領域のセグメンテーション
Aubert-Broche et al. A new improved version of the realistic digital brain phantom
Wang et al. MRI-based treatment planning for brain stereotactic radiosurgery: Dosimetric validation of a learning-based pseudo-CT generation method
Wagenknecht et al. MRI for attenuation correction in PET: methods and challenges
Aznar et al. Whole-body PET/MRI: the effect of bone attenuation during MR-based attenuation correction in oncology imaging
Bezrukov et al. MR-based PET attenuation correction for PET/MR imaging
Zheng et al. Magnetic resonance–based automatic air segmentation for generation of synthetic computed tomography scans in the head region
Bürgel et al. Mapping of histologically identified long fiber tracts in human cerebral hemispheres to the MRI volume of a reference brain: position and spatial variability of the optic radiation
CN106133790B (zh) 用于在组织种类分离的帮助下基于磁共振图像生成一幅或多幅计算机断层摄影图像的方法和设备
JP6506495B2 (ja) 磁気共鳴撮像法を使用した陽電子放出断層撮像法における減衰補正
Catana Attenuation correction for human PET/MRI studies
US9342903B2 (en) Method for generating image for PET attenuation correction from MR image and computer program
US20140010428A1 (en) Method for extraction of a dataset from a medical image dataset and also medical imaging device
US20100260394A1 (en) Image analysis of brain image data
Boydev et al. Zero echo time MRI-only treatment planning for radiation therapy of brain tumors after resection
CN105339804B (zh) 根据MR Dixon数据的皮质骨分割
CN107007281B (zh) 磁共振成像装置以及图像处理装置
Wagenknecht et al. Knowledge-based segmentation of attenuation-relevant regions of the head in T1-weighted MR images for attenuation correction in MR/PET systems
JP4721693B2 (ja) 頭蓋内容積および局所脳構造物解析プログラム、記録媒体および頭蓋内容積および局所脳構造物解析方法
Krokos et al. A review of PET attenuation correction methods for PET-MR
Xie et al. Cntseg: A multimodal deep-learning-based network for cranial nerves tract segmentation
Dong et al. Air, bone and soft-tissue segmentation on 3D brain MRI using semantic classification random forest with auto-context model
Speier et al. Advanced multimodal methods for cranial pseudo-CT generation validated by IMRT and VMAT radiation therapy plans
Zhang et al. A Bayesian approach to the creation of a study-customized neonatal brain atlas
EP2711738A1 (en) A method and a device to generate virtual X-ray computed tomographic image data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140604

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150309

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150424

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20150424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R150 Certificate of patent or registration of utility model

Ref document number: 5840125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees