JP2007537812A - 結節境界の検出方法 - Google Patents

結節境界の検出方法 Download PDF

Info

Publication number
JP2007537812A
JP2007537812A JP2007517399A JP2007517399A JP2007537812A JP 2007537812 A JP2007537812 A JP 2007537812A JP 2007517399 A JP2007517399 A JP 2007517399A JP 2007517399 A JP2007517399 A JP 2007517399A JP 2007537812 A JP2007537812 A JP 2007537812A
Authority
JP
Japan
Prior art keywords
image
nodule
center point
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007517399A
Other languages
English (en)
Other versions
JP5058791B2 (ja
JP2007537812A5 (ja
Inventor
デメシュキ,ジャムシッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medicsight PLC
Original Assignee
Medicsight PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medicsight PLC filed Critical Medicsight PLC
Publication of JP2007537812A publication Critical patent/JP2007537812A/ja
Publication of JP2007537812A5 publication Critical patent/JP2007537812A5/ja
Application granted granted Critical
Publication of JP5058791B2 publication Critical patent/JP5058791B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

スキャン画像中に存在する肺の結節に関して結節の範囲を検出する方法であり、結節を含む一定範囲の画像を前景画像と背景画像とに精密分離し(14)、その前景画像中の空隙を充填し(16)、その前景画像を更に領域拡張し(18)当初の注目領域を特定する。次にその当初の注目領域を拡げ、周囲にある背景画像を含むが他の前景画像は含まない範囲までこの注目領域を拡張することによってマスクを設定し(20)、この注目領域内の一点に途中で途切れることなく接続し、かつ、設定したマスク内に存在する部分に関わる空間マップを決定する(26)。そのマスク内において領域拡張を行い(28)、この領域拡張処理と並行して最大周縁部特性コントラストを求める(30)。最大周縁部特性コントラストに基づき結節の範囲を特定する(32)。結節の位置はユーザが特定した結節の芯点であっても良い(12)。ただし結節の構成部分として特定される範囲が、ユーザにより特定された芯点の位置の微妙な違いによって左右されることを避けるため、芯点の探索処理を繰り返して、その都度最適な芯点を決定することが最も好ましい(22,24)。

Description

本発明は、事前にスキャン操作により獲得したヒトまたは動物の身体の画像に含まれる結節領域の境界を検出する方法に関するもので、本発明の範囲を限定する趣旨ではないものの、特に肺部分のCT(computed tomography)画像に関するものであり、更に具体的には、例えば肺結節が血管と接しているとか肺内の孤立した部位に存在する等の事情で、その画像の低コントラスト部分に存在する肺の結節領域境界を特定する方法に関するものである。本発明は、上記の方法を実施するためのソフトウェア及び装置をも含むものである。
世界中のいずれの国においても、肺ガンによる死亡率はそれ以外のガンによる死亡率よりも高いものとなっている。肺ガンの生存率を上げるには、病変が疑われる部位をガンの早期段階で検出するのが最も効果的であると考えられる。結節部位の検出は、医療用画像の分野において、その実施が難しい方の作業である。CTスキャンによって結節を検出することは難しい場合がある。それは、解剖学的に複雑に入り組んだ位置にある結節部位が画像中にあって低い特性コントラストで捉えられること、その結節部位のサイズが小さいこと、そしてそれら結節部位がそのような入り組んだ位置に存在していることに起因するものである。特に、当該結節が血管に接触して存在したり、結節の濃度と同様の濃度で示されることになる組織に当該結節が取り囲まれていたりすると、当該スキャン画像の目視観察のみによってその肺結節の範囲を把握することは困難である。肺に生じた結節の大きさないし範囲を把握することは、正確な診断を下すための重要な要件である。
既知の技術の欠点として、検出した結節と血管の一部との区別がつけられず、血管の一部をも結節領域に含めてしまう傾向が強いことがあげられる。
既知の技術のもう一つの欠点は、観察者が検出条件選定パラメータを一旦選定して設定すると、それらに過度に依存しがちになることにある。また、すべてのスキャン画像に適応できるような理想的な条件パラメータ値が存在する訳でもない。
既知の技術の更なる欠点は、すべての種類の肺結節に適用できるものでないにもかかわらず、1つのモデルを強制することにある。
米国特許第4907156号明細書には、閾値を用いたピクセルの区分け操作を実施し、続いて、その閾値を上回るピクセルのうち互いに接触しあっているものの円形度合い及び/またはサイズを調べることによって肺結節を検出する方法が開示されている。
国際公開第99/042950号パンフレットには、対象画像を予備処理に供して結節候補を特定し、これら結節候補に対して画像拡張処理を加え、つぎに様々な半径長を仮定し仮定した半径長の結節領域の周縁における濃度傾斜値を求め、同半径値ごとに濃度傾斜値のヒストグラムを作成することによって、結節候補の各々が結節であるか結節でないか識別する方法が開示されている。
国際公開第02/085211号パンフレットには、適応化閾値による分別に基づく肺結節の自動検出方法が開示されている。
米国特許第6654728号明細書には、胸部スキャン画像中の結節像をファジー論理を用いて分別する方法が開示されている。
国際公開第03/046831号パンフレットには肺結節のコンピュータ化した検出方法が開示されており、同方法にあってはCTスキャンによる断面画像の中からその最初と最後との断面画像を取り出し、その間を線形補間してマスク画像を作成し、中間部に位置するCT画像と一致するように歪められる。
JM グーらによるKorean J Radiol 4(4), 2003年12月発行の記事「低レベル線量CTによる肺結節の自動検出 (Automated Lung Nodule Detection at Low−Dose CT):予備的経験」には、階層画像のレベルを閾値で区分し、三次元空間での領域拡張ならびに三次元形状分析を実施することで結節と血管とを識別する肺結節の検出技術が記載されている。
米国特許第4907156号明細書 国際公開第99/042950号パンフレット
本発明はスキャン画像中の肺結節の境界または範囲を特定する方法を提供するものであり、同方法は、結節内の結節芯を求めることにより結節の位置を決定し、判定対象域の画像をその前景と背景とに精密分離し、前景エリアにおける結節の領域に関して結節の芯点を始点として領域拡張処理を実施し、取り巻く背景を含み、つながっていない別の前景を除くように前景画像における結節領域を拡げることによってマスクを特定し、マスク内の各点の芯点との連結度に関する連結度マップを作成し、肺結節の境界または範囲を特定するための連結度基準を適用する。
ここで、精密分離は、局所的な特性コントラストに基づいて実施されるものであることが好適である。局所的特性コントラストに基づくことの有利さは、互いに近似した濃度で示される物体、例えば結節と血管とが互いに接触して画像中に存在しても、それらの間の境界を識別できるようになることである。この場合、精密分離によって、前景にある物体間を分離する境界を背景で生成することができる。もう一つの利点として、1つのスキャン画像の中に低濃度の物体に加えて高濃度の物体が含まれていても、高濃度物体の濃度が低濃度物体の濃度にあまりにも近接しており、そのためにこれら2つの物体を前景と背景との画像に仕分けするべく局所的閾値を低濃度物体の濃度以上のレベルにまで上げ、それによってこの低濃度物体を背景に分類する必要がない限り、前景中において低濃度物体を特定できることである。
局所的特性コントラストに基づいて精密分離を行っても、背景エリアに存在する濃度差があり、この背景エリアに前景の物体の存在を誤認することも起こりえる。このような背景における濃度レベルのばらつきの発生は、影または結節以外の物体がスキャンされることに起因する場合が多い。このように前景中の非結節物体を検出することは、有利である。なぜなら、これらの非結節物体は一旦検出した後はマスクから除外され、それ以降の工程において問題を引き起こすことがないからである。
精密分離工程の後にできた背景の空隙は、前景内部に存在するので、前景に変換することが望ましい。これら背景の空隙は、当該物体の本来は高濃度で捉えられるはずの部分が濃度のばらつきがある高濃度域で精密分離された結果であって、低濃度の空隙が実際に存在することを示唆するものでないことが一般的である。
連結度基準は、連結度マップに基づいてこのマップ内の結節の芯点から領域拡張処理を実行する毎に適応的に決定することが好適である。ここでの拡張処理にあっては、マスクの範囲を超えて拡張することがないようにすると共に、最大周縁部特性コントラストを検出する。結節の範囲縁は、この領域拡張処理時に検出される周縁部特性コントラストが最大となる位置に置かれる。このようにして特定される境界は、結節領域をその背景から、最も明確に区分することになる位置に定められるものであり、この結果、結節の境界を最も確実に特定するものである。ここで示した技術は当該結節とその背景との間に存在する特性コントラストに関して適応的なものであって、連結度マップを恣意的に定めた閾値で区分けすることを必要としない。
ここでいう領域拡張にあっては、連結度マップに示された画像点のうち、拡張しようとする元の領域に接している画像点について、その連結度の強さに応じて当該領域への含め込みに関する優先度指標を割り付けることとし、強い連結度を有する画像点をそれより弱い連結度の画像点より先に含め込むようにしても良い。このようにすることで、領域拡張処理の何らかの段階において形成される境界部分が、実際の結節の境界に正確に対応したものとなる確率を高くすることができる。
領域拡張において領域に含める画像点間の優先度指標を、作業中領域と接している画像点と当該領域の中心点との距離の大きさと反対の順として良い、すなわち中心点から近い距離にある接触画像点を、遠くにあるものに先んじて領域に取り込むこととするものである。このようにすると、完成する領域はより球形度が高いものになる傾向があり、むやみに画像中に厳密な球形の領域を結節の形として仮定することなく、実際の結節の形状により近いものになる。
最適な結節の芯点の最適な位置は、拡張処理を繰り返して、芯点の初期位置が、結果的に定まるマスク、ひいては結節が特定される境界の位置に実質的な差を与えない点を探し、そこを芯点とすることが望ましい。こうすることで対象となる結節のみを特定することができる。
このようにして検出した領域の周囲縁または境界は画像として出力しても良く、あるいはその画像から算出した数値、例えば結節の大きさ、形状、容積、重量、密度で表示するようにしても良く、その両方を実施しても良い。
ここで説明した方法はスキャン画像を構成する1枚の断面画像に対して実施しても良いが、好ましくは複数枚の断面画像で示される三次元画像に対して実施される。
CT画像
ヒトまたは動物を患者とし、その胸部をCTスキャンすることで獲得した複数枚の断面画像からなる一連のCT画像に対して各実施形態を実施した。ここで用いた断面画像はその各々が二次元の画像であって、グレースケールで表現されるスキャンした部位が示すX線吸収特性のデジタル画像である。断面画像の性質は、使用するCTスキャナに依存する。例えば高解像度複数断面CTスキャナを使用した場合、xとyの各々の方向において(すなわち各断面画像面上で)1ピクセル当たり0.5〜0.6mmの解像度の画像が生成される。各ピクセルには32ビットの階層でグレースケール濃度を定義できる。これらピクセル各々の濃度は、通常ハウンズフィールド単位(HU;Hounsfield unit)を用いて表す。また一連の断面画像はz軸方向(すなわちスキャン分離軸方向)に一定の間隔をおいて隔てられていても良く、例えば0.72〜2.5mm間隔とすることが考えられる。よって、スキャン画像は三次元のグレースケール表記の画像となり、その画像の全体の大きさは、断面画像の面積及び数に依存することになる。
本発明による方法に関しては、スキャニングの手法に制限を加える必要がない。また、電子ビーム走査CT(EBCT)、マルチ検出器、及びスパイラルスキャン、更には、これらの他にX線吸収によって二次元または三次元画像を形成できる手法のいずれをも用いることができる。
図1に示す通り、スキャン画像はコンピュータ4によって形成されるものであり、コンピュータ4はスキャナ2からスキャニング・データを受け取ってスキャン画像に組み立てる。このスキャン画像は1つないし複数個の電子ファイルとして保存され、電子ファイルは固定型または可搬型のディスクといった記憶媒体6上に保存される。スキャン画像には肺結節の周囲縁を識別するためにコンピュータ4によって処理を加えることが可能であり、スキャン画像を別のコンピュータ8に転送し、転送先コンピュータにおいて運用されているソフトウェアによってその画像に以下に説明するような処理を加えても良い。画像処理用ソフトウェアは可搬型ディスクなどの担体に保存できるものであり、またはネットワークを利用してダウンロードできるものでもある。
肺結節または孤立した結節の検出
一つの実施形態にあっては、肺結節及び孤立した結節の周囲縁を特定するための画像処理ソフトウェアを利用する。ここで肺結節とはCT画像中において1本以上の血管に接して所在するものであり、孤立した結節とはCT画像中の他の物体には近接することなく位置しているものをいう。本実施形態にあっては、以下に説明するファジー理論を用いた特性コントラスト依存型の領域拡張手法が用いられる。この手法に係るアルゴリズムは図2に示したフローチャートの通りであり、以下の説明におけるステップ番号は、同フローチャートにおけるステップを参照するための番号として用いることにする。
スキャン画像の見本を図3に示す。この画像に次々とこれらステップの処理を加えたときの経過は図4〜図8に示した通りである。このアルゴリズムによってこのスキャン画像の見本からもたらされる画像を図9に示す。
1.ファジー理論を用いた特性コントラスト依存型領域拡張
本ソフトウェアを使用する作業者は画像を目視調査し、結節を捉えている部分を特定し、特定の断面画像の中から、その結節中に存在すると思われる芯点(結節芯の位置)を探し出す(ステップ12)。これ以降の画像処理の工程は、作業者が入力作業をすることなく進行することが望ましい。こうして、当該処理は半自動的に行われる。
別の実施形態にあっては、結節を含む画像エリアを見つけ出す作業が作業者に課される。例えば作業者は、矩形またその他の形状の枠をこの画像エリアの周りに描くことが求められる。芯点の所在位置をこの画像エリア中に指定することができるが、例えば画像エリアの中心であると定義したり、またはその画像エリア中で最も濃度が高い画像点と定義したりしても良い。
ソフトウェアの作業者は画像診断の専門家であっても良く、その場合には結節中の画像点を的確に特定できるであろう。もしくは、結節領域の中の画像点でなく、その結節領域に近接した画像点を選定してもよい。本発明の方法にあっては、以下にその詳細を説明するように、作業者が選定する芯点の推定位置の正確度にあまり関係なく最適な芯点を選定できるものである。すなわち、作業者が芯点として結節領域を外れた画像点を選定したとしても、それが当該結節領域に近接しているものである限り、最適な芯点を選定できる。一方、芯点として指定された画像点が背景エリアであることが明らかな場合にあっては、芯点における濃度が低いことから、その近くの高濃度画像点に自動的に指定された芯点を移動するものとし、その後で残りのアルゴリズムを用いる工程に入るような構成にしても良い。
別の実施形態にあっては、芯点のスキャン画像中における当初推定位置が自動的に算出され、以下に説明する処理工程に付される。このような場合、作業者による入力作業の必要がなく、当該処理は完全に自動化されたものとなる。
1−1.前景画像領域の特定
まず、局所閾値を基準とした分割工程によって領域の周囲縁を大まかに推定する(ステップ14)。三次元画像全体から、各方向について約3cm(x、y、zの各方向に61×61×21ピクセル程度に相当する。ただしx、yの2方向には0.5mm/ピクセルの解像度、z方向については1.5mmの間隔)の大きさで、芯点を中心とする三次元空間領域を特定し、11×11×3ピクセルの大きさの局所三次元マスクを使用し、局所適応化分離アルゴリズムを実行することで、以下に説明するごとく画像をそれぞれが連続画像点で構成される複数の物体に分離する。局所三次元マスクに替えて11×11ピクセルの大きさの局所二次元マスクを用いることも可能である。
精密分離
画像点ごとに濃度閾値を算出するために使用するのが局所マスクである。すなわち、局所特性コントラストに合わせて閾値の大きさが調整され、そうすることで低い特性コントラストでしか捉えられていない結節をも的確に背景画像から見つけ出すことができる。
閾値の高濃度側と低濃度側との加重平均濃度値の平均を濃度閾値として設定する。
ここで用いるアルゴリズムは次の通りである。
1)局所空間に含まれるピクセルの各々に対して、
a.局所マスクを定義する
b.定義した局所マスク内の平均濃度をもって濃度に関する当初閾値とする
c.局所マスクのエリア内で濃度に関するヒストグラムを算出する
d.次のi、ii、iiiを繰り返す
i)ヒストグラムにおいて閾値よりも低い範囲内での加重平均濃度C1を求める
ii)ヒストグラムにおいて閾値よりも高い範囲内での加重平均濃度C2を求める
iii)前回の濃度閾値をC1とC2との平均値に改める
e.dで示した処理を当該閾値がC1とC2との平均値に収束するまで繰り返す
f.閾値を個々のアプリケーションごとに予め定められた一定値分だけシフトする
g.シフト後の閾値に対して、それよりも高濃度のピクセルを前景画像とし、そうでないピクセルを背景画像とする
2)同じ局所空間にある次のピクセルに対して1)を繰り返す
あるサンプル画像に対して精密分離の処理を実施した結果を図4に示す。ここで図4〜図7は二値画像であり、これらの図が階層画像(グレースケール画像)に見えるとすればそれは印刷時の事情によるものである。
空隙部分の充填処理
精密分離工程で獲得した前景画像中の物体には空隙ができていることがある。空隙とは前景画像に属するピクセル群でかこまれた背景画像に属するピクセル群のことである。このような空隙は、この精密分離工程が狭い範囲内の画像点間に存在する濃度差にはそれが小さい濃度差であっても前景画像と背景画像との分離の処理のために発生する。前景画像中の物体は結節の画像である可能性をもつものであって、それ故に空隙を残さず埋め尽くされているべきものである。このような事情から空隙充填アルゴリズムによって、このような空隙を充填する処理(ステップ16)、すなわち、背景画像に属するピクセルの前景画像に属するピクセルへの変更が実施される。空隙充填処理は如何なるアルゴリズムによって行っても良いもので、例えば、断面画像各々に存在する物体で空隙を有するものについては、多角形で覆いつくし同多角形の内部のピクセルすべてを前景画像とする。
空隙部分の充填処理が完了したサンプル画像を図5に示す。
芯を有する物体の獲得
結節の芯点を選定した断面画像にあっては、一般に、互いに連続することがない領域を幾つも含んでいる。これら領域のうち、芯点を含むものは、三次元二値画像領域拡張手法によって選定・指定される(ステップ18)。
最初の断面画像に対する二値画像領域拡張作業
まず最初に、二値画像領域拡張作業を、芯点を含む断面画像について以下のように実行する。
1)任意の領域に属する、芯点と選定した三次元ピクセル(「ボクセル」と称する)にラベルを付ける
2)前景画像中の当該ボクセルに接続するすべてのボクセルに同様のラベルを付ける
3)次の動作を繰り返す
a)ラベルを付けられた前景画像中のボクセルの各々について、そのボクセルに隣り合うすべてのボクセルに同じラベルを付ける
4)新たにラベルを付けるべき前景画像中の接続したボクセルがなくなった時点で、ラベル付け作業を終了する
言い換えれば、ラベルは最初の芯点となるボクセルから次々と隣のボクセルに広がって行くことになる。ここで隣のボクセルとは、同一の断面画像にあるものであって、ピクセル1つ分だけ水平x方向及び/または縦y方向に移動した位置にあるボクセルを言う。
二値画像領域拡張のアルゴリズムの一実施例にあっては、ラベルを付与されていない隣のボクセルを保存するためにスタックを利用する。良く知られている通り、スタックとはラストイン・ファーストアウトの論理に基づくデータ構造であって、スタックに最後に積み上げられた(「プッシュ」されたと言う)アイテムが、最初に送り出される(「ポップ」されると言う)ことになるものである。この処理は次の通りに進行する。
1)芯点をスタックにプッシュする
2)次の動作を繰り返す
a)ボクセル1つをスタックからポップする
b)ポップされてきたボクセルにラベルをつける
c)前景画像中のボクセルでポップされてきたボクセルに隣り合うラベル付けされていないすべてのボクセルをスタックにプッシュする
3)上記動作をスタックが空になるまで繰り返し実行する
連結した領域
隣り合った一連の断面または一般にz方向における連結した領域は、同一のx−y座標位置をもつピクセルを最初の断面の芯点とすることで、上記の二値画像領域拡張アルゴリズムに基づいてそれぞれの画像内における領域が特定される。言い換えると、芯点を断面が並列する方向(z方向)に移動していくことで、次々と隣に並ぶ断面に係る画像中に分布する同一の三次元領域の画像点に、上述した方法と同じ方法でラベルを付けることが可能である。
作業者が結節の芯点として断面画像の中に含まれる結節像の周囲縁近くの画像点を選定した場合にあっては、その位置をそのまま隣の断面画像に移動するだけでは当該結節の領域から外れてしまう。この問題を克服するために、別の実施例にあっては、新しい断面画像における芯点の座標として直前の断面画像内のラベル付けした領域の中心点のx−y座標を採用する構成とされている。二つ目の別の実施例にあっては、1つの断面画像において1つの領域へのラベル付けを完了したときに、その領域の中心点を通る軸の周りに複数個のピクセルでできる円形範囲を選定する構成とされている。新しい方の断面画像中の芯点として、円形範囲内にあるピクセルから1つを選びそのx−y座標と同一の座標を有する新しい断面画像中の前景画像ピクセルを採用する構成としても良い。
新しい断面画像中に芯点として選定した位置が前景画像ピクセルではなかった場合には、または上記二つ目の実施例にあって選定した円形範囲を新しい断面画像に移した位置に前景画像ピクセルが全く含まれていなかった場合には、その方向の先には当該三次元領域に関わる断面画像が存在しないものとして扱う。最初に取り上げた断面画像から二方向に当該領域を関連付ける動作を完了したら、連続した領域を特定する処理は完結する。この段階で、当該芯点を包み込むひと続きのラベル付けされた三次元領域が特定されている。サンプル画像中のラベル付けされた領域を、図6に示す。
前景画像領域
芯点を包み込むラベル付けされた三次元領域を、前景領域Fと呼ぶ。この領域は以下に説明する動作によって拡げられてマスクとされ、このマスクは更なる処理工程において利用される。
1−2.初期領域を増大させてマスクを計算する
距離変換法によって前景画像と背景画像の双方を含むマスクを作成し、前景領域Fを拡大する(ステップ20)。背景画像がなくなると、この工程に続く領域拡張アルゴリズムにおいて使用するパラメータの適切な推定が不可能になるため、この工程は重要なものである。前景画像の比率と背景画像の比率とが概ね同じになるように構成すると良い。
各断面画像における前景領域Fの内部部分に対して、既知の二次元距離変換法による処理を加え、当該前景領域の大きさを示す境界までの最大距離Sを求める。次に、この二次元距離変換法を、それによって拡大された領域の周囲縁と前景領域Fの周囲縁との距離がSになるまで、当該領域の外側部分に適用する。
次に、上記精密分離工程により分離された前景画像中の物体のうち、前景領域Fの一部分としてのラベルが貼られていないものを、拡大された領域から除去する。ここで拡大された領域は、前景領域Fを含み、ラベル付けされていない前景画像物体を除去した領域であり、マスクMと呼ばれる。背景領域Bは、マスクMから前景領域Fを引いたものである。このマスクM、前景領域F、及び背景領域Bは、この後の計算プロセスに使用される。サンプル画像に対応したマスクMを図7に示す。
2.作業者に依存しないで芯点を定める
ここまでに説明したように、作業者がどこを結節の芯点として選定するかによって、マスクMの決定に違いが生じる。特定アルゴリズムの結果の再現性を保証するためには、作業者に依存しない方法で芯点を選定することが必要となる。これは設定当初にあっては面積を持たない領域である「最適結合マスク」Mを定義することで達成される。
繰り返し工程を開始する都度、MをMとMの結合(Union)で置き換えていくこととする。このマスクMの「ヨーク」と呼ぶ中心部範囲は距離変換法を用いてマスクMのkレイヤーを浸食させることで決定される。マスクMのこのようにして決定したヨーク内で最高の濃度を有するピクセルの位置(または、同ヨーク中にあるz軸の方向の線分のうちで最長の線分の上で最も濃度が高い位置としても良い)を芯点の位置Sと定義し(ステップ22)、作業者が選定する芯点の初期位置に代えてこのSを採用して、上記「1−1.前景画像領域の特定」の節以降に記載したすべてのステップ(ステップ14〜22)を繰り返す。この工程は、MがMに十分に収束するまで、すなわち所定の程度の違いになるまで繰り返すものとする(ステップ24)。
以上の工程を擬似コードの形式で要約すると以下の通りである。

=0
Do

FindUnion(M,M)
FindYolk(M,Yolk)
=GetMaxIntensityPoint(Yolk)
M=FindMask(M,S
}while(M!=M)
最適な芯点Sはマスク内のz軸の方向にある線分のうちで最長の線分上の点で、その濃度が最も高い点に位置するものとする。このようにして求められた位置が作業者が選定する芯点の位置と異なる場合には、この最適な芯点を新しい芯点として採用するものとする。
この後に続くステップは、この最適マスクMと最適な芯点Sとを採用して実行される。前景画像に含まれていた物体であって、分割され精密分離工程及び二値画像の拡張工程において除去された部分、したがってマスクMには含まれていない部分は、結節領域の周囲縁の特定結果に影響を及ぼすことがなくなる。
3.統計的パラメータの計算
前景領域Fと背景領域Bとにおける濃度及び勾配の分布に関し、それらの平均及び標準偏差を算出する。背景画像の濃度の平均μB 、前景画像の濃度の平均μF 、背景画像の濃度の標準偏差σB 、前景画像の濃度の標準偏差σF をそれぞれ算出する。背景画像の平均濃度μB から芯点が離れている程度を示す前景画像の標準偏差σF の数値を計数してパラメータεを算出する。このパラメータεをコントラストの大きさを表すものとして利用する。このパラメータは後に説明するファジー理論マップの作成に利用される。
4.ファジー理論に基づく連結マップの作成
マスクM内の各ピクセルについて、各々が最適な芯点Sとファジー理論連結性を有するか否かを示す三次元マップをファジー理論に基づく物体抽出手法を用いて作成する(ステップ26)。またファジー理論類似度関数を互いに隣り合うピクセル間に定義し、最適な芯点Sと各ピクセルとを結ぶ経路に沿って算定されるこの類似度関数の値に基づき各ピクセルと最適な芯点Sとのファジー理論連結性を算出する。
ここで2つの位置(互いに隣り合っているとは限らない)間のファジー理論連結性は、当該2つの位置の連結性が最も高くなる経路を採用して算出する。連結性が最も高くなる経路が最良経路であり、各経路に沿って定まる連結性の大きさは、その経路に含まれる互いに隣り合う2つの画像点間において定まる類似度の最低値に等しくなる。この概念については図10に示す。図10には画像点P1とP10の間に2本の経路が示されている。この経路をそれぞれが互いに異なる太さ、すなわち異なる強度の何本かのロープをつないだものと考える。上側に示した経路にあってはP1とP10の間に引っ張り力が加わった場合にP2−P3間のロープが破断するのに対し、下側の経路にあってはP8−P9間のロープが破断する。よって、下側経路のロープの強度はP8−P9部分のロープの強度であり、それは上側経路のロープよりも強度が高いことになる。2つの互いに隣り合う画像点間の連結性の大きさ(強さ)は、それら2つの画像点間の類似度と同等である。
2つの空間物体(空間物体をスペルと呼ぶ)の間の類似度は、それが二次元空間におけるピクセル群であろうと三次元空間におけるボクセル群であろうと、それら2つのスペルが同一の物体を構成する可能性の高さを示すパラメータである。ここでいう可能性は、近接度関数(近接度はユークリッド空間における距離である)で表現され、これらのスペル間の画像特性(すなわち濃度)に関する類似度でもある。ファジー理論類似度は次の特性条件を満たさなくてはならない。
Figure 2007537812
ここで、μ(μ:X×X→[0,1])は2つの評価項目を対象とした(バイナリー(2−ary)な関係における)ファジー理論類似度を意味する。上側の行に示した条件はスペルのそれ自身とのファジー理論類似度は常に1となることを意味し、下側の行に示した条件はある画像点の他のいずれかの画像点に対する類似度は相手側画像点のその画像点に対する類似度と同じ値となることを意味する。
ファジー理論類似度の一般的モデルは次式で与えられる。
Figure 2007537812
ここでhは[0,1]の範囲の値をとるスカラー量で、cとdは2つのスペルの画像所在位置であり、f(i)はスペルの所在位置iの濃度である。μは2つのスペル間の距離に基づく近接度関数であって、スペルが所在するn次元空間においては次式で与えられる。
Figure 2007537812
この近接度関数をシフト非依存型のものに単純化したものが次式である。
Figure 2007537812
ここで下付き文字iは当該パラメータが濃度を示す算出値であることを示し、下付き文字gkは当該パラメータがしかるべき方向(x、y、z方向)に関する濃度勾配を示す算出値であることを示す。ωi とωg は何らかのパラメータに関するそれぞれ任意に選ばれた加重値で、これら両者の合計は1となる。ここでは、濃度における近似がより大きく関与するべくωi を0.9とし、ωg を0.1としている。また、上記数式において採用されているファジー理論類似度は次の通りである。
Figure 2007537812
ここで、m、S、m、Sはそれぞれ濃度、濃度勾配に関するガウス分布パラメータである。これらの値は事前に定義しておいても良く、また以下に記載するように芯点の近傍の小領域に応じて算出しても良い。
パラメータの算出
濃度及び濃度勾配それぞれの平均値並びに標準偏差σを、最適マスクM中のすべての画像点を対象として算出する。ここで濃度勾配に関するパラメータについては三方向(x、y、z方向)各々について別々に算出される。これらの量に対応する標準偏差σは、濃度勾配の最大値と最小値との間の差の大きさに基づいて算出される。
これら統計的な値の計算方法を以下に詳述する。パラメータmは結節芯の濃度であり、mgx、mgy、mgz、はそれぞれx、y、z方向の濃度勾配の平均値である。パラメータSgx、Sgy、Sgzは、それぞれの方向における濃度勾配の標準偏差である。
類似度を定義する式に現れる標準偏差Sはファジー理論に基づくマップを作成する上で中心的役目を果たすもので、結果的に結節周囲縁の位置の決定に大きく影響する。その値が大きすぎると得られる類似度曲線は相対的に扁平となり、背景画像の濃度が高くなり、その結果領域拡張によって当該領域が過剰に拡がることになる。反対にその値が小さすぎると類似度曲線はその分散域が狭くなり、前景画像の結節芯との類似度は低くなり、その結果拡がりが過剰に狭くなる。このようなことから当該類似度曲線は、背景画像が結節芯との類似度が最低のレベルの値でしかも一定値を取るように延びることが理想的である。
類似度曲線の標準偏差に修正を加えない場合には、孤立した結節はその領域を過小に特定され、逆に肺結節はその領域を過大に特定されることになる。加えて、孤立している結節は、肺結節と比較して高特性コントラストで出力されることも分かっている。我々は以上に述べた観点からSの値に修正を加えることとしており、係数fを調べ、それにS(前景画像の濃度の標準偏差)を掛け合わせた値をSとし、こうして算出したSを実際に上記ファジー理論定義式に採用している。
特性コントラストの表現としてのt値
2つのサンプルに関して算出した平均値の間に存在する差の有意度は、スチューデントのt(Students t)と称する統計的パラメータで評価できる。我々はここでこのパラメータを前景領域Fと背景領域Bとの特性コントラストの指標として用いる。前景領域Fの中の全ボクセル数をNとし、背景領域Bの中の全ボクセル数をNとする。ボクセルiの濃度をxとする。またμとμを、前景領域、背景領域の平均値とする。
分散が同じ値を示す2つの分布系について、t値は以下の通り計算される。
まず、プールされた分散に基づき、平均値の差の標準誤差は次式で計算される。
Figure 2007537812
t値が大きいことは特性コントラストが大きいことである。孤立した結節にあっては、そのt値は、血管に接して位置する結節のt値より小さくなること、またこのことは孤立した結節が高い部分容積効果を有することを意味することが分かっている。
この知識を考慮して、我々は標準偏差に変更を加えて、類似度に関するガウスの分布曲線の広がりを大きくしたり狭くしたりする。t値が小さいとこの分布曲線の広がりは狭くなり、背景領域に係る平均値に近づくことはない。このため、背景画像の類似度がある程度高くなるまで、同分布曲線を広げる。t値が大きいと背景画像の類似度が高まって前景画像が示す類似度により近くなるため、この標準偏差を小さく変更して当該ファジー理論に基づく類似度曲線の広がりを狭くする。本発明者は実験を行って、経験的に以下の関係を発見した。
1つの係数を f=(t−30)/30と定義する。
但し、fの値が1を超えるときはf=1とし、−1を超えて小さくなるときはf=−1とする。
また、f>0のときは、fに2.5をかけ、f<0のときは、fに3をかけた値をfとする。
次に、前景領域と背景領域それぞれの標準偏差をS、Sとする。
孤立した結節の領域の特定にあっては、その領域を広く特定するため、Sを1.25で割ることにする。
t = (xseed − (μB + SB * f ))/SF であり、ここでfは1.5から9の間に制限される。
最後に、当該標準偏差を Sd = ft ×SF のごとく更新する。
ファジー理論マップのアルゴリズム
ファジー理論マップのアルゴリズムに関与するパラメータは以下の通りである。
a)各ボクセルのファジー理論連結性の度合いを示す値のn次元行列(nD)
b)候補スペルを待機させるキュー(Q)
c)閾値(x)
d)スペルcのファジー理論連結度を示す値f(c)
e)隣り合う2つのスペルcとdとの間のファジー理論類似度μ(c,d)
このアルゴリズムは次の通り機能する。
開始:
1.nDを構成するセルについて、結節芯に該当するセル以外のすべてのセル値を0とする。
2.結節芯とのファジー理論類似性が0より大きいすべてのスペル、すなわちμ(0,c)>0をQにプッシュする。
Qが空でない限り
3.Qからスペルcを取り除く。
4.もし、(f(c)<x) ならば
5.fmax=max[min(f(d),μ(c,d))]を見つける。
6.もし、fmax>f(c) かつ fmax>xならば、
7.f(c)=fmax とする。
8.μ(0,e)>0 であるすべてのスペルeをQにプッシュする。
endif
endif
endwhile
説明:
ステップ1:当該物体中にあるスペルは結節芯のみである。
ステップ2:ファジー理論類似性が0より大きくかつ結節芯に直接隣り合っているスペルを評価する。
ステップ3:連結度を示す値が閾値より大きい場合は、その後に繰り返し評価する必要はない。
ステップ4:ステップ2で追加された隣り合うスペルを1つずつ評価する。
ステップ5:すべての隣り合うスペルの中で最も強い連結性を持っているものを見つける。ここで各連結性の強さはそれぞれの隣り合うスペルのファジー理論連結度を示す値の最小値と同じである。またファジー理論類似度、すなわち各スペルのファジー理論連結度を示す値が、結節芯からのファジー理論経路の強度を決定することになる。
ステップ6と7:ステップ4で算出した値が閾値よりも大きい場合は、その値を評価対象としているスペルの連結度を示す値とする。
ステップ8:ファジー理論類似度が0よりも大きい値を有する隣り合ったスペルは、そのすべてを評価の対象とする。
このアルゴリズムはキューが空となったときに停止する。
ファジー理論マップ
ファジー理論閾値が0と設定された場合に、アルゴリズムは、結節の芯点Sに関係する画像の中に存在する各ボクセルに係るファジー理論連結値を算定する。この画像はそこに含まれるボクセルが、ボクセルそれぞれの芯点へのつながりの強度を示す強調画像と考えられる。スキャン画像サンプルに対して作成したファジー理論マップを図8に示す。
ファジー理論マップは、ファジー理論閾値として0よりも大きい所定の値を設定することで結節の範囲の概要を捉えるために利用できるものであり、この手法を実験的に実行した結果を以下に述べる。
実験結果−事前に閾値、平均値及び標準偏差を設定した場合
図11と図12はそれぞれ、スキャン画像を構成する断面画像のセットであり、オリジナル画像上に結節の概ねの境界線を重ねたものを示す。図11にあっては、前景画像の平均を−100、標準偏差を700と設定し、閾値を0.92と設定した。一方、図12にあっては、前景画像の平均を10、標準偏差を1500と設定し、閾値を0.64と設定した。
領域に関わる統計的パラメータを算出した場合
このアルゴリズムにあっては芯点の周りが補助窓域とされ、その領域中の濃度と濃度勾配の各々の平均値と標準偏差が計算され、それに基づいて初期推定値を算出することができる。図13と図14は、それぞれ図11と図12のオリジナル画像を用いて、スキャン画像からこのアルゴリズムに基づき当該領域に関わる統計的パラメータの値を推定した結果を示すものである。これらの結果は、ファジー理論閾値として種々の互いに異なる値で計算を試行的に実行することで得られたものである。図13にあっては、事前に平均値が−255で標準偏差が780であると推定され、それに基づきファジー理論閾値が0.92に設定され、図14にあっては、事前に平均値が22で標準偏差が3270であると推定され、それに基づきファジー理論閾値が0.9に設定された。
再現性
結節領域に含まれるボクセルの数の推定量に基づき、再現性の評価試験を実行できる。領域拡張処理は芯点の位置を互いに異なる位置に想定して実行され、すべての処理で同じ大きさの領域が特定された。このことを図15(a)〜15(c)に示す。
9a)芯点の位置:114,170,9
9b)芯点の位置:114,172,8
9c)芯点の位置:112,170,10
図15(d)に示すように、上記のすべてが同じ180ボクセルの大きさの領域を特定した。
ファジー理論連結性に基づき形成される画像
ファジー理論によるマップの効果を説明するために、ファジー理論閾値を0と定め領域拡張処理を実施した。この処理にあっては、マスクMの内部に限ることなく、事前に指定した長さの半径で示したエリア内のボクセル各々のファジー理論連結度を算出した。この結果を図16(a)〜16(d)に示す。図16(b)は図16(a)に示した結節に関わるファジー理論マップである。一方図16(d)は図16(c)に示した結節に関わるファジー理論マップである。
考察
ファジー理論閾値を利用して特定した結節の境界の信頼性は、当該閾値の選定方法に依存している。実験に基づく結論によると、1つの閾値がすべての孤立型結節及び肺結節の画像に対して適することはない。閾値によるファジー理論マップ上での領域特定は一定の状況下においては有効であるが、それよりも一層好ましい手法を以下に開示する。
5.特性コントラストに着目したファジー理論マップ上での領域拡張
これ以降のステップにおいては、任意の閾値を用いる替わりに、閾値に頼らずとも機能するファジー理論マップをデータとして採用することで、特定作業を改善することができる。好適な一実施形態にあっては、特性コントラストに着目した領域拡張工程を採用し、パラメータには頼らないアルゴリズムをファジー理論マップに適用する。この場合、ユーザは単に結節芯の位置を指定するだけで、閾値を調整する必要は生じない。
このアルゴリズムを利用するのは、境界部及び胸郭部分を除いたマスク内の範囲に対してのみである。胸郭部分は大まかな分離手法を採用して推定することができる。ここでアルゴリズムは、オリジナルのスキャン画像ではなく、そのスキャン画像に基づき作成したファジー理論マップに適用される。
特性コントラストに着目した方式での領域拡張について説明するために、次の用語を定義する。図17はある物体に係わる濃度分布の状態を示す(物体は明るい斑点である)。
作業中境界域とは領域拡張工程の間に作業中領域に隣り合った位置にあるピクセルで構成されるエリアを言う。一方、内側境界域とは作業中領域の中の最も外側に互いに繋がって位置する一連のピクセルで構成されるものである。領域拡張工程の進行中に、作業中領域と二種類の境界域とは、ダイナミックに変化する。
領域の周囲縁における特性コントラストとは、内側境界域のグレー・レベル値の平均と作業中境界域のグレー・レベル値の平均との差である。
Figure 2007537812
この周囲縁特性コントラストを次式に基づいて算出しても良い。
Figure 2007537812
ここで Fx は内側境界域に属する複数の画像点のファジー理論連結度に関するx軸方向の勾配であり、
y は内側境界域に属する複数の画像点のファジー理論連結度に関するy軸方向の勾配である。
Figure 2007537812
特性コントラストに着目して実行する領域拡張工程(ステップ28)が繰り返し実行される度に、ピクセル1つが作業中境界域中に選定され、作業中領域に加えられる。同作業中境界域内にあるピクセルを選定する際の優先度指標は、これらのピクセルの濃度及び作業中領域の中心位置からの距離に基づいて算出される。濃度と距離とを組み合わせて1つの値として、優先度指標Wは定められる。
W=W*W (1)
Figure 2007537812
ここでKとKはそれぞれ加重係数である。一般にはK+K≠1であり、一例にあってはK=0.01でK=0.1である。
Dは評価対象のピクセルと芯点Sとの距離である。
1つのピクセルが作業中領域に加えられると、内側境界域と作業中境界域とが更新される。周囲縁特性コントラストも計算され、その値は当該作業中領域のサイズに関わるパラメータであるベクトルに加算される。図18は領域のサイズに対する周辺縁特性コントラストの関係を表す平滑化後のグラフを模式的に示すものである。
この工程は、当該領域が事前に定めた最大の大きさになるまで、または事前に定めた形状、例えば、拡大済みのマスクMの範囲一杯になるまで続けられる。その後、この領域拡張工程で判明した周囲縁特性コントラスト中の最大値を、最適領域を示すものとして特定し(ステップ30)、併せて当該結節の境界に最も高い信頼度で対応する境界を獲得する。この最適な境界は、特定した結節の境界として出力される(ステップ32)。
別の実施形態にあっては、領域拡張処理は最適な結節の芯点Sとは異なる位置から開始される。例えば、始点としてオリジナルスキャン画像中の前景領域Fに相当する領域中で最も濃度が高い位置が採用される。この場合、特定した結節の領域内に最適な芯点Sが含まれていることを確認する必要がある。したがって、最適な芯点から領域拡張処理を開始する方がより好適である。
更に異なる実施形態にあっては、周囲縁特性コントラストのグローバルな最大値ではなく、領域拡張処理の間に最初に見つけ出した最大周囲縁特性コントラスト値を、結節の最適領域を示すものとして選定する。
特性コントラストに着目した領域拡張アルゴリズム
特性コントラストに着目して領域拡張を進めるためのアルゴリズムは以下の通りである。
(1)領域の最大サイズを定める
(2)結節の芯点Sを選定しそれを作業中領域に追加する
(3)二次の接続性(二次元空間における8近傍、三次元空間における26近傍)に基づき隣接画像点を特定し、一次の接続性(二次元空間における4近傍、三次元空間における6近傍)に基づき作業中境界域を見出しまたは更新する。次いで作業中境界域の画像点を上記の数式(1)に基づく優先度指標の昇順にソートする
(4)内側境界域を見出しまたは更新する
(5)平均/周囲縁特性コントラストを算出し、算出した値を平均/周囲縁特性コントラスト・ベクトルに導入する。
(6)作業中境界域の中から最大の優先度指標W(数式(1)による)を持つ画像点を見出し、それを作業中領域に加える。この領域が、所定の最大許容サイズに到達すればステップ(7)に移る。そうでなければステップ(3)にもどる。
(7)上記した平均/周囲縁特性コントラスト・ベクトル内で最も大きいピーク値(極大値)とそれに対応した領域サイズとを求め、このサイズに基づいて作業中領域を出力する。この作業中領域の境界を、当該結節の範囲を特定するものとして扱う。
出力
特定した結節の境界は、オリジナルのスキャン画像の上に重ねて外郭として表示して出力されても良い。加えて、あるいは代案として、結節に係わる様々な特性値データを、当該最適領域及び/またはその境界から算出しても良い。例えば、結節の表面にスパイク(尖った先端形状部分)が存在する場合、それは悪性の結節である可能性を示す。したがって、最適境界から結節の形状特性値データを算出し出力しても良い。これ以外の重要な特性値データとして、最適領域の容積、表面積がある。また最適領域をスキャン画像からのデータと組み合わせることで、結節の重量及び/または密度を算出できる。この値も出力されても良い。
実験結果
上記アルゴリズムに基づく実験の結果を以下に開示する。
人工的に準備した画像による試験
図19に示したものは二値画像の円(1,291ピクセルの大きさを有する)の人工的に準備した画像と、その円から導出した3つの不鮮明円(それぞれが、シグマ1、2、3としたガウス分布の円形画像である)である。この3種類の不鮮明円に領域拡張処理(最大サイズを2,000、K=0.1、K=0.01と設定した)を加えると、いずれの不鮮明円からも円が獲得された。
平均コントラストに着目する方式の領域拡張処理を実施した場合、円の大きさはそれぞれ、1,455ピクセル、1,611ピクセル、1,752ピクセルであり、すなわち、いずれの場合も実際の円(1,291ピクセル)よりもかなり大きい円となっている。
周囲縁特性コントラストに着目する方式の領域拡張処理を上述のアルゴリズムを適用して実施した場合、円のサイズはそれぞれ1,290ピクセル、1,272ピクセル、1,224ピクセルであった。これらのサイズは実際の円(1,291ピクセル)に非常に近いものである。
このことから、周囲縁特性コントラストに着目する方式の領域拡張は、円形の結節の検出により優れているようである。以下に記述する試験は、すべてが周囲縁特性コントラストに着目する方式の領域拡張処理によるものである。
図20に示す矢印形の物体を含む画像を人工的に用意し、別の試験を行った。その結果を図21に示す。矢印形の物体の周囲縁は正確に特定できている。このことから周囲縁特性コントラストに着目する方式の領域拡張のアルゴリズムが、円形のみならず非円形の物体の特定にも適していることが分かる。
実際の画像を対象にした試験
この試験は、孤立した結節を含む肺のCT画像を用いて、ファジー理論マップを作成することなくスキャン画像をそのまま周囲縁特性コントラストに着目する方式の領域拡張のアルゴリズムに付した。最大許容サイズは100ピクセルとし、K=0.1、K=0.01と設定した。また図22(a)に示す明るい球状班の中央に結節芯の位置を設定した。この結果得られた画像を示すのが図22(b)であるが、二次元画像において最適な領域拡張が行われたことが分かる。領域のサイズは40ピクセルであった。三次元画像の領域拡張処理の結果を図22(c)に示す。
ファジー理論マップを対象にした試験
図23(a)〜23(c)は、図23aに示した実際の画像に対して実施した試験の結果を示す。ここでは図23(b)に示したファジー理論マップが作成され、領域拡張処理の結果を図23(c)に示す。
比較試験
図24(a)〜24(c)は、血管に接する位置にある結節に対して異なる手法を適用した結果を比較するものである。図24(a)に示した結果は、周囲縁特性コントラストに着目して領域拡張するもので、人工でない画像を対象としている。図24(b)に示した結果は、ファジー理論連結度連の閾値処理(閾値を0.6とした)を行ったもので、図24(c)に示した結果は、周囲縁特性コントラストに着目し領域拡張する方法のもので、その対象画像にはファジー理論マップを採用し閾値を用いず、また事前のパラメータ設定は行っていない。
図25(a)〜25(c)は、コントラストが低い結節に対して上記と同様の3手法を実施した比較結果を示しており、図25(b)にあっては閾値を0.805としている。
図26(a)〜26(c)は、孤立した結節に対して上記と同様の3手法を実施した比較結果を示しており、図26(b)にあっては閾値を0.91としている。
図27(a)〜27(c)は、壁面に近接した結節に対して上記と同様の3手法を実施した比較結果を示しており、図27(b)にあっては閾値を0.935としている。
結論
好ましい実施形態では、新しい領域拡張手法が用いられる。この手法は、拡張の手法の構築に距離と濃度との双方の特徴を統合した指標を採用し、周囲縁における特性コントラストを領域拡張の終了判定基準に利用するものである。人工的に作成した画像と非人工的画像との双方に対して本発明による方法を詳細に試験した結果として、本発明による領域拡張方法がCTによる肺の画像中に含まれる孤立したタイプの結節と肺結節とのいずれの検出・特定に関しても非常に優れた結果をもたらすことが分かった。特に、ファジー理論マップを使用することで、その効果は一層顕著になる。本発明の方法は、孤立した結節であっても肺結節であっても、それらを半自動的なプロセスで検出・特定するために用いることができる。
その他の実施形態
以上に開示した実施形態はあくまでも本発明の実施形態の一例として示したものであって、本発明の範囲を限定するものではないことを理解されたい。ここに示した実施形態と異なる実施形態が考案できるであろうが、それらも本願の特許請求の範囲に規定した発明に含まれる。上記の説明から明らかなように、本発明による方法はCT画像の一断面画像で構成される二次元画像に対して実施できるのに加えて、複数枚のCT断面画像で構成される三次元画像に対しても実施できるものである。
CTスキャナ装置とスキャナで得られた画像データを処理するリモート・コンピュータとを示す模式図である。 本発明の一実施形態において採用されたアルゴリズムを示すフローチャートである。 CTスキャン画像を構成する一組の断面画像である。 図1に示した断面画像に精密分離処理を施した結果の断面画像である。 図4に示した断面画像に空隙充填処理を施した結果の断面画像である。 図3に示した断面画像に示される初期領域である。 マスク・エリアとして使用される初期領域に拡大処理を加えたものである。 マスク・エリア中に作成したファジー理論マップである。 初期画像の上に重ねて表示した結節について特定した範囲縁である。 ファジー理論連結度の決定工程を示す図である。 予め収集した固定領域に関する統計的パラメータを用いた、ファジー理論連結度に依存する検出結果を示すものである。 予め収集した固定領域に関する統計的パラメータを用いた、ファジー理論連結度に依存する検出結果を示すものである。 スキャン画像について、一定のアルゴリズムにより領域に関する統計的パラメータを推定したときの結果を示すものである。 スキャン画像について、一定のアルゴリズムにより領域に関する統計的パラメータを推定したときの結果を示すものである。 同一の結節像に対して選択する芯の位置を変えることによるアルゴリズムによって得られる結果の再現性を例示するものである。 2つの異なるスキャン画像とそれぞれに対応したファジー理論マップとを示すものである。 1つの画像内にある物体の濃度値を示すものである。 ファジー理論マップ中で領域拡張処理を進めるときに出現する周縁部特性コントラストを模式的に示すグラフである。 領域拡張処理を試験するために使用する一つの二値化円と縁をぼかした複数個の円とを示すものである。 人為的に作成した画像とそれに対して周縁部コントラストに依存する手法で領域拡張処理を加えた結果とを示すものである。 人為的に作成した画像とそれに対して周縁部コントラストに依存する手法で領域拡張処理を加えた結果とを示すものである。 実際の画像(二次元と三次元との両方)について領域拡張処理を加えた結果を示すものである。 実際の画像、その画像に基づくファジー理論マップ、及びファジー理論マップに関して領域拡張処理を行った結果を示すものである。 血管に接触している結節について、異なる処理を加えて得た結果を比較するものである。 画像中に低い特性コントラストで捉えられている結節について、異なる処理を加えて得た結果を比較するものである。 孤立している結節について、異なる処理を加えて得た結果を比較するものである。 壁面に近接して位置する結節について、異なる処理を加えて得た結果を比較するものである。

Claims (48)

  1. 肺のコンピュータ断層スキャン画像中の結節の範囲を特定する方法であって、
    a.前記結節内の芯点の指定を受け取り、
    b.前記芯点に対する画像点の連結度を算出し、
    c.画像点の連結度に選定基準を適用して前記結節の範囲を特定する
    ことを特徴とする方法。
  2. 前記芯点を含むオブジェクトと該オブジェクトを囲む背景とを包含すると共に前記オブジェクト以外のオブジェクトを除外するマスクを定義することを特徴とする請求項1に記載の方法。
  3. 前記マスクは前記結節の範囲に制限を加えることを特徴とする請求項2に記載の方法。
  4. 前記連結度を前記マスク内の画像点にのみ基づいて決定することを特徴とする請求項2または3に記載の方法。
  5. 前景エリアと背景エリアとに区分する精密分離を行うことによりオブジェクトを特定することを特徴とする請求項2乃至4のいずれか一項に記載の方法。
  6. 前記精密分離は画像の局所コントラストに基づいていることを特徴とする請求項5に記載の方法。
  7. 前記精密分離では、局所コントラストに基づく閾値を適用して、前景エリアに属する画像点を特定することを特徴とする請求項6に記載の方法。
  8. 画像点を囲む局所マスクの内側のみで前記局所コントラストを決定することを特徴とする請求項7に記載の方法。
  9. 前記閾値は、前記閾値よりも大きい局所濃度値の加重平均と前記閾値よりも小さい局所濃度値の加重平均との平均値として設定し、所定の値だけオフセットすることを特徴とする請求項8に記載の方法。
  10. 前記スキャン画像は三次元画像であり、前記局所マスクは三次元マスクであることを特徴とする請求項8または9に記載の方法。
  11. 前景エリアが背景エリアの一部を取り囲んでいる場合には、前記精密分離において、その取り囲まれている部分を前景エリアとして再定義することを特徴とする請求項5乃至10のいずれか一項に記載の方法。
  12. 特定の形状パターンを前景エリアに重ねあわせ、前記形状パターンの内部を前景と設定することを特徴とする請求項11に記載の方法。
  13. 前記芯点を含む前景エリアの領域拡張を行うことにより、つながった前景エリアを決定することを特徴とする請求項5乃至12のいずれか一項に記載の方法。
  14. 前記スキャン画像は三次元画像であり、つながった前景エリアを得るために三次元の領域拡張を行うことを特徴とする請求項13に記載の方法。
  15. スキャン画像の隣接するスライスにあって、芯点を含む前景エリアにつながっている前景エリアを特定することにより、前記三次元の領域拡張を行うことを特徴とする請求項14に記載の方法。
  16. 芯点をスキャン画像の隣接するスライスに移動し、移動された芯点が前景エリア内にある場合にその移動された芯点から領域拡張を行うことにより、隣接するスライスにある前景エリアを検出することを特徴とする請求項15に記載の方法。
  17. 移転された芯点は、芯点が移動されたスライスにあるつながった前景エリアの中心に対応するスライス内の位置を有することを特徴とする請求項16に記載の方法。
  18. つながった前景エリアを囲む背景エリアを含み、そのつながった前景エリアとはつながっていない他の前景エリアを除外するそのつながった前景エリアを拡げることにより、前記マスクを定義することを特徴とする請求項13乃至17のいずれか一項に記載の方法。
  19. つながった前景エリアに対して所定の比率の背景エリアが含まれるように、前記マスクを拡げることを特徴とする請求項18に記載の方法。
  20. 前記マスクは、前景エリアと背景エリアとを略同じだけ含有することを特徴とする請求項19に記載の方法。
  21. 最初の芯点の指定を受け取り、現在の芯点に基づいてマスクを決定してつながった前景エリア内にある画像点を新しい芯点として選定することを、この反復処理によって決定されるマスクが収束するまで繰り返すことにより、芯点を決定することを特徴とする請求項2乃至20のいずれか一項に記載の方法。
  22. つながった前景エリア内の高濃度である画像点を新しい芯点として選定することを特徴とする請求項21に記載の方法。
  23. つながった前景エリアの中心点を新しい芯点として選定することを特徴とする請求項21または22に記載の方法。
  24. 最初の芯点はユーザによって選定されることを特徴とする請求項21乃至23のいずれか一項に記載の方法。
  25. 前記連結度は隣り合う画像点間の類似度に基づいていることを特徴とする請求項1乃至24のいずれか一項に記載の方法。
  26. 前記連結度は、ある画像点から芯点に至る経路に沿った画像点間の類似度に基づいていることを特徴とする請求項25に記載の方法。
  27. 前記連結度は、前記経路に沿って隣り合う画像点間の最低類似度に基づいていることを特徴とする請求項26に記載の方法。
  28. 前記連結度は、ある画像点と芯点との間の類似度が最も高い経路に基づいていることを特徴とする請求項27に記載の方法。
  29. 前記類似度は、芯点周辺の濃度に関する統計量の関数であることを特徴とする請求項25乃至28のいずれか一項に記載の方法。
  30. 前記統計量は、濃度及び濃度勾配の平均値と標準偏差とを含むことを特徴とする請求項29に記載の方法。
  31. 前記類似度は、マスク内の濃度に関する統計量の関数であることを特徴とする請求項4に従属する請求項29または30に記載の方法。
  32. 芯点に対して最小だが有限である連結度を背景エリアが有するように、前記マスク内の背景エリアにおける統計量の関数として標準偏差を調整することを特徴とする請求項31に記載の方法。
  33. 前記選定基準は連結度の閾値を有することを特徴とする請求項1乃至32のいずれか一項に記載の方法。
  34. 前記選定基準は、連結度マップ上で領域拡張を行うことを含むことを特徴とする請求項1乃至32のいずれか一項に記載の方法。
  35. 前記領域拡張は、連結度マップ内の領域を拡張し、領域拡張中に最大の境界コントラストを検出し、結節の範囲を定義することとしてその最大の境界コントラストに対応する領域を特定することを特徴とする請求項34に記載の方法。
  36. 優先度指標に基づいて領域の境界の画像点を選定することにより、前記領域拡張を行うことを特徴とする請求項34または35に記載の方法。
  37. 連結度がより高い画像点がより高い優先度指標を有するように、前記優先度指標は画像点の連結度に基づいていることを特徴とする請求項36に記載の方法。
  38. 領域の中心点により近い画像点がより高い優先度指標を有するように、前記優先度指標は領域の中心点から画像点までの距離に基づいていることを特徴とする請求項36または37に記載の方法。
  39. 肺のコンピュータ断層スキャン画像中の結節の範囲を特定する方法であって、
    a.前記結節内の芯点の指定を受け取り、
    b.局所コントラストに基づく閾値を用いて、芯点周辺の画像を前景と背景とに分離する精密分離を実行し、
    c.前景の画像点に囲み込まれている背景の画像点を前景の画像点と設定し、
    d.芯点を含む前景領域を拡張し、
    e.背景の画像点を含むが自身の前景領域内に含まれない前景の画像点を除外した前景領域を拡張して、マスクを生成し、
    f.前景領域の中心に位置してかつ高濃度である画像点を、新しい芯点として設定し、
    g.新しい芯点に対して上記のb.からf.までのステップを、連続した反復処理によるマスクが収束するまで繰り返し、
    h.マスク内の画像点の芯点に対する連結度を定義するファジィ連結度マップを導出し、
    i.前記ファジィ連結度マップから前記結節の範囲を決定する
    ことを特徴とする方法。
  40. 前記i.のステップは、ファジィ連結度マップ内で芯点からつながった領域を拡張し、最も高い境界コントラストを持つ領域を前記結節の範囲として出力することを特徴とする請求項39に記載の方法。
  41. 肺のコンピュータ断層スキャン画像中の結節の範囲を特定する方法であって
    a.前記結節内の芯点の指定を受け取り、
    b.前記芯点から領域を拡張し、
    c.領域の拡張によって最も高い境界コントラストを持つ領域を前記結節の範囲として決定する
    ことを特徴とする方法。
  42. 前記b.のステップを画像濃度に基づいて実行することを特徴とする請求項41に記載の方法。
  43. 前記b.のステップを前記芯点に対する各画像点の連結度に基づいて実行することを特徴とする請求項41に記載の方法。
  44. 前記結節の範囲の指定を出力することを特徴とする請求項1乃至43のいずれか一項に記載の方法。
  45. コンピュータによって実施することを特徴とする請求項1乃至44のいずれか一項に記載の方法。
  46. 請求項45に記載の方法を実施することを特徴とするコンピュータプログラム。
  47. 請求項46に記載のコンピュータプログラムを含むことを特徴とするコンピュータプログラム製品。
  48. 担体上に記録されていることを特徴とする請求項46に記載のコンピュータプログラム。
JP2007517399A 2004-05-18 2005-05-13 結節境界の検出方法 Expired - Fee Related JP5058791B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0411064.9 2004-05-18
GB0411064A GB2414357A (en) 2004-05-18 2004-05-18 Nodule boundary detection
PCT/GB2005/001839 WO2005114566A2 (en) 2004-05-18 2005-05-13 Nodule boundary detection

Publications (3)

Publication Number Publication Date
JP2007537812A true JP2007537812A (ja) 2007-12-27
JP2007537812A5 JP2007537812A5 (ja) 2008-06-26
JP5058791B2 JP5058791B2 (ja) 2012-10-24

Family

ID=32607518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007517399A Expired - Fee Related JP5058791B2 (ja) 2004-05-18 2005-05-13 結節境界の検出方法

Country Status (9)

Country Link
US (1) US7574031B2 (ja)
EP (2) EP1883047A3 (ja)
JP (1) JP5058791B2 (ja)
KR (1) KR20070085120A (ja)
CN (1) CN101002228A (ja)
AU (1) AU2005246522A1 (ja)
CA (1) CA2567187A1 (ja)
GB (1) GB2414357A (ja)
WO (1) WO2005114566A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126071A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> プレップレスctコロノグラフィにおいてタギング素材を抑制するための方法および装置
WO2014038428A1 (ja) * 2012-09-07 2014-03-13 株式会社 日立メディコ 画像処理装置及び画像処理方法
JP2018000312A (ja) * 2016-06-28 2018-01-11 国立大学法人 大分大学 肺結節明瞭化画像における背景ノイズの抑制方法
JP2021020015A (ja) * 2019-07-30 2021-02-18 国立大学法人 大分大学 二次元セルオートマトンによる肺結節明瞭化法

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8036458B2 (en) * 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
AU2004292260A1 (en) * 2003-11-12 2005-06-02 Siemens Corporate Research, Inc. A system and method for filtering and automatic detection of candidate anatomical structures in medical images
CN1976629A (zh) * 2004-04-26 2007-06-06 D·F·杨克洛维茨 用于准确测定定向瘤变化的医学影像系统
US7471815B2 (en) * 2004-08-31 2008-12-30 Siemens Medical Solutions Usa, Inc. Candidate generation for lung nodule detection
US7583831B2 (en) * 2005-02-10 2009-09-01 Siemens Medical Solutions Usa, Inc. System and method for using learned discriminative models to segment three dimensional colon image data
GB0510792D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Assisted selections with automatic indication of blending areas
US7702153B2 (en) * 2005-10-07 2010-04-20 Siemens Medical Solutions Usa, Inc. Systems and methods for segmenting object of interest from medical image
US7978889B2 (en) * 2006-01-27 2011-07-12 Michael Valdiserri Automatic engine for 3D object generation from volumetric scan data and method
GB2434933B (en) * 2006-02-01 2009-06-03 Motorola Inc Apparatus and method for image labelling
US7953277B2 (en) 2006-09-05 2011-05-31 Williams Robert C Background separated images for print and on-line use
US8192474B2 (en) * 2006-09-26 2012-06-05 Zeltiq Aesthetics, Inc. Tissue treatment methods
US8090208B2 (en) * 2006-10-04 2012-01-03 Siemens Computer Aided Diagnosis Ltd. Robust segmentation of a mass candidate in digital mammography images
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
US7983459B2 (en) 2006-10-25 2011-07-19 Rcadia Medical Imaging Ltd. Creating a blood vessel tree from imaging data
US7860283B2 (en) 2006-10-25 2010-12-28 Rcadia Medical Imaging Ltd. Method and system for the presentation of blood vessel structures and identified pathologies
US7940970B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging, Ltd Method and system for automatic quality control used in computerized analysis of CT angiography
US7873194B2 (en) 2006-10-25 2011-01-18 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures and pathologies in support of a triple rule-out procedure
US7953266B2 (en) * 2007-02-06 2011-05-31 Siemens Medical Solutions Usa, Inc. Robust vessel tree modeling
US8194920B2 (en) * 2007-02-16 2012-06-05 Ford Global Technologies, Llc Method and system for detecting objects using far infrared images
US8417033B2 (en) * 2007-04-27 2013-04-09 Hewlett-Packard Development Company, L.P. Gradient based background segmentation and enhancement of images
US20090041322A1 (en) * 2007-07-10 2009-02-12 Seimens Medical Solutions Usa, Inc. Computer Assisted Detection of Polyps Within Lumen Using Enhancement of Concave Area
US8165369B2 (en) * 2007-10-03 2012-04-24 Siemens Medical Solutions Usa, Inc. System and method for robust segmentation of pulmonary nodules of various densities
US8023734B2 (en) * 2007-10-10 2011-09-20 Siemens Aktiengesellschaft 3D general lesion segmentation in CT
US8478007B2 (en) 2008-12-12 2013-07-02 Electronics And Telecommunications Research Institute Method for detecting ground glass opacity using chest computed tomography
CN101901342B (zh) * 2009-05-27 2014-05-07 深圳迈瑞生物医疗电子股份有限公司 影像目标区域的提取方法和装置
CN101897592B (zh) * 2009-05-27 2013-03-06 深圳迈瑞生物医疗电子股份有限公司 X射线影像中金属异物的提取方法和装置
EP2510494B1 (en) * 2009-12-11 2021-12-22 Leica Biosystems Imaging, Inc. Improved signal to noise ratio in digital pathology image analysis
FR2953964B1 (fr) * 2009-12-15 2012-05-04 Gen Electric Procede de traitement d'images obtenues par tomographie ou tomosynthese a faible nombre de projections
US20110262013A1 (en) * 2010-04-21 2011-10-27 Harris Corporation Fingerprint matcher using iterative process and related methods
KR101135205B1 (ko) * 2010-05-25 2012-04-16 인하대학교 산학협력단 흉부 씨티 영상 내 병변 자동 검출을 위한 폐 혈관 추출 방법
US8554016B2 (en) * 2010-11-10 2013-10-08 Raytheon Company Image registration system and method for registering images for deformable surfaces
JP5872323B2 (ja) * 2011-03-29 2016-03-01 株式会社東芝 X線ct装置及び画像処理方法
US8605973B2 (en) * 2012-03-17 2013-12-10 Sony Corporation Graph cuts-based interactive segmentation of teeth in 3-D CT volumetric data
US9269155B2 (en) * 2012-04-05 2016-02-23 Mediatek Singapore Pte. Ltd. Region growing method for depth map/color image
JP5662962B2 (ja) * 2012-04-19 2015-02-04 富士フイルム株式会社 画像処理装置、方法及びプログラム
US9092697B2 (en) 2013-02-07 2015-07-28 Raytheon Company Image recognition system and method for identifying similarities in different images
CN103164859B (zh) * 2013-04-11 2016-06-08 上海理工大学 一种血管内超声图像分割方法
CN103345740B (zh) * 2013-06-13 2016-04-13 沈阳航空航天大学 基于多投影图像配准的肺结节检测方法
CN103824295B (zh) * 2014-03-03 2016-08-17 天津医科大学 一种肺部ct图像中粘连血管型肺结节的分割方法
CA2953146A1 (en) * 2014-07-02 2016-01-07 Covidien Lp System and method for segmentation of lung
US9607395B2 (en) * 2014-07-02 2017-03-28 Covidien Lp System and method for detecting trachea
KR101620428B1 (ko) 2014-10-10 2016-05-12 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
US10275946B2 (en) * 2014-10-22 2019-04-30 Koninklijke Philips N.V. Visualization of imaging uncertainty
CN104408457B (zh) * 2014-11-26 2017-10-24 西安电子科技大学 基于低秩分解和质心跟踪的胃部ct图像淋巴结检测系统
CN104408737B (zh) * 2014-12-15 2017-05-17 西安电子科技大学 基于多角度图片序列的胃部ct图像淋巴结检测系统
CN105405140B (zh) * 2015-11-12 2018-07-06 西安电子科技大学 基于初始素描图的胃部ct图像淋巴结检测系统和方法
CN105976367B (zh) * 2016-04-29 2019-06-28 上海联影医疗科技有限公司 图像分割方法、肺结节检测方法及其计算机辅助检测系统
WO2017092615A1 (zh) 2015-11-30 2017-06-08 上海联影医疗科技有限公司 一种计算机辅助诊断系统及方法
CN106709930B (zh) * 2016-12-29 2020-03-31 上海联影医疗科技有限公司 三维医学图像的感兴趣体积分割方法及装置
CN107767362A (zh) * 2017-09-01 2018-03-06 苏州侠洛信息科技有限公司 一种基于深度学习的肺癌早筛装置
CN109583444B (zh) * 2018-11-22 2021-08-10 博志生物科技有限公司 空洞区域定位方法、装置及计算机可读存储介质
US11164319B2 (en) 2018-12-20 2021-11-02 Smith & Nephew, Inc. Machine learning feature vector generator using depth image foreground attributes
CN109741312A (zh) * 2018-12-28 2019-05-10 上海联影智能医疗科技有限公司 一种肺结节鉴别方法、装置、设备及介质
CN110246144A (zh) * 2019-06-17 2019-09-17 吉林大学第一医院 一种肺部ct图像的血管增强方法及系统
WO2021029226A1 (ja) * 2019-08-13 2021-02-18 ソニー株式会社 情報処理装置および方法
US11854281B2 (en) 2019-08-16 2023-12-26 The Research Foundation For The State University Of New York System, method, and computer-accessible medium for processing brain images and extracting neuronal structures
CN110969583A (zh) * 2019-09-11 2020-04-07 宁波江丰生物信息技术有限公司 一种图像背景处理方法及系统
CN111598899A (zh) * 2020-05-18 2020-08-28 腾讯科技(深圳)有限公司 图像处理方法、装置及计算机可读存储介质
CN113221691B (zh) * 2021-04-28 2022-09-27 展讯通信(上海)有限公司 指纹分割方法及装置、可读存储介质、终端
CN113139302B (zh) * 2021-05-20 2023-03-10 电子科技大学 基于区域生长的断溶体识别方法
CN114299081B (zh) * 2021-12-16 2023-02-17 北京朗视仪器股份有限公司 一种上颌窦cbct图像分割方法、装置、存储介质及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508817A (ja) * 1993-11-30 1997-09-09 アーチ ディヴェロプメント コーポレイション 胸部の画像における総体的な異常及び非対称性の自動化検出方法及び装置
JP2000163555A (ja) * 1998-11-25 2000-06-16 Hitachi Ltd 領域抽出方法
JP2000172829A (ja) * 1998-12-07 2000-06-23 Hitachi Ltd 領域抽出手法
JP2001511374A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 側面胸部放射線像の肺領域を分割する方法とシステム
JP2002504727A (ja) * 1998-02-23 2002-02-12 アーチ・デベロップメント・コーポレーション エッジグラジエントヒストグラムを使用する肺小結節検出
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2002360552A (ja) * 2001-06-13 2002-12-17 Fuji Photo Film Co Ltd 異常陰影検出装置
JP2003524489A (ja) * 2000-01-18 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ コンピュータトモグラフィスキャンにおける肺小結節の二次元および三次元の検出のための方法、システム、およびコンピュータ可読媒体
US7336809B2 (en) * 2001-11-23 2008-02-26 R2 Technology, Inc. Segmentation in medical images

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907156A (en) 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
JP3490131B2 (ja) 1994-01-21 2004-01-26 株式会社ルネサステクノロジ データ転送制御方法、データプロセッサ及びデータ処理システム
US6909797B2 (en) * 1996-07-10 2005-06-21 R2 Technology, Inc. Density nodule detection in 3-D digital images
US5999639A (en) 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6112112A (en) * 1998-09-18 2000-08-29 Arch Development Corporation Method and system for the assessment of tumor extent in magnetic resonance images
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
US6654728B1 (en) 2000-07-25 2003-11-25 Deus Technologies, Llc Fuzzy logic based classification (FLBC) method for automated identification of nodules in radiological images
US6944330B2 (en) 2000-09-07 2005-09-13 Siemens Corporate Research, Inc. Interactive computer-aided diagnosis method and system for assisting diagnosis of lung nodules in digital volumetric medical images
US6577752B2 (en) * 2001-06-15 2003-06-10 Arch Development Corporation Automated method and system for the delineation of the chest wall in computed tomography scans for the assessment of pleural disease
US6678399B2 (en) 2001-11-23 2004-01-13 University Of Chicago Subtraction technique for computerized detection of small lung nodules in computer tomography images
US6882743B2 (en) * 2001-11-29 2005-04-19 Siemens Corporate Research, Inc. Automated lung nodule segmentation using dynamic programming and EM based classification
US7006677B2 (en) * 2002-04-15 2006-02-28 General Electric Company Semi-automatic segmentation algorithm for pet oncology images
US6609021B1 (en) 2002-05-20 2003-08-19 Siemens Corporate Research, Inc. Pulmonary nodule detection using cartwheel projection analysis
WO2004077359A1 (en) * 2003-02-27 2004-09-10 Agency For Science, Technology And Research Method and apparatus for extracting cerebral ventricular system from images
US7333644B2 (en) * 2003-03-11 2008-02-19 Siemens Medical Solutions Usa, Inc. Systems and methods for providing automatic 3D lesion segmentation and measurements
US7333646B2 (en) * 2004-06-01 2008-02-19 Siemens Medical Solutions Usa, Inc. Watershed segmentation to improve detection of spherical and ellipsoidal objects using cutting planes

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508817A (ja) * 1993-11-30 1997-09-09 アーチ ディヴェロプメント コーポレイション 胸部の画像における総体的な異常及び非対称性の自動化検出方法及び装置
JP2001511374A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 側面胸部放射線像の肺領域を分割する方法とシステム
JP2002504727A (ja) * 1998-02-23 2002-02-12 アーチ・デベロップメント・コーポレーション エッジグラジエントヒストグラムを使用する肺小結節検出
JP2000163555A (ja) * 1998-11-25 2000-06-16 Hitachi Ltd 領域抽出方法
JP2000172829A (ja) * 1998-12-07 2000-06-23 Hitachi Ltd 領域抽出手法
JP2003524489A (ja) * 2000-01-18 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ コンピュータトモグラフィスキャンにおける肺小結節の二次元および三次元の検出のための方法、システム、およびコンピュータ可読媒体
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2002360552A (ja) * 2001-06-13 2002-12-17 Fuji Photo Film Co Ltd 異常陰影検出装置
US7336809B2 (en) * 2001-11-23 2008-02-26 R2 Technology, Inc. Segmentation in medical images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NYUL L G, PROCEEDINGS OF SPIE, vol. V3979, JPN5007009837, 2000, pages 213 - 223, ISSN: 0002263389 *
S. A. HOJJATOLESLAMI, J. KITTLER: "Region Growing: A New Approach", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 7, no. 7, JPN6010057816, July 1998 (1998-07-01), US, pages 1079 - 1084, XP000766022, ISSN: 0001743964, DOI: 10.1109/83.701170 *
SAMUEL G. ARMATO III, MARYELLEN L. GIGER, CATHERINE J. MORAN, JAMES T. BLACKBURN, KUNIO DOI, HEBER M: "Computerized Detection of Pulmonary Nodules on CT Scans", RADIOGRAPHICS, vol. Vol.19 (5), JPN6010057817, September 1999 (1999-09-01), US, pages 1303 - 1311, ISSN: 0002263388 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126071A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> プレップレスctコロノグラフィにおいてタギング素材を抑制するための方法および装置
WO2014038428A1 (ja) * 2012-09-07 2014-03-13 株式会社 日立メディコ 画像処理装置及び画像処理方法
US9396395B2 (en) 2012-09-07 2016-07-19 Hitachi Medical Corporation Image processing apparatus and image processing method, configured to apply threshold conditions to specify target pixel
JPWO2014038428A1 (ja) * 2012-09-07 2016-08-08 株式会社日立製作所 画像処理装置及び画像処理方法
JP2018000312A (ja) * 2016-06-28 2018-01-11 国立大学法人 大分大学 肺結節明瞭化画像における背景ノイズの抑制方法
JP2021020015A (ja) * 2019-07-30 2021-02-18 国立大学法人 大分大学 二次元セルオートマトンによる肺結節明瞭化法

Also Published As

Publication number Publication date
WO2005114566A3 (en) 2006-04-27
GB0411064D0 (en) 2004-06-23
GB2414357A (en) 2005-11-23
CN101002228A (zh) 2007-07-18
KR20070085120A (ko) 2007-08-27
WO2005114566A2 (en) 2005-12-01
US20050259855A1 (en) 2005-11-24
US7574031B2 (en) 2009-08-11
CA2567187A1 (en) 2005-12-01
JP5058791B2 (ja) 2012-10-24
EP1747532A2 (en) 2007-01-31
EP1883047A2 (en) 2008-01-30
AU2005246522A1 (en) 2005-12-01
EP1883047A3 (en) 2008-02-06

Similar Documents

Publication Publication Date Title
JP5058791B2 (ja) 結節境界の検出方法
JP4999163B2 (ja) 画像処理方法および装置ならびにプログラム
US9418420B2 (en) System and method for automated detection of lung nodules in medical images
Dehmeshki et al. Segmentation of pulmonary nodules in thoracic CT scans: a region growing approach
US8019139B2 (en) Method and system for processing an image of body tissues
WO2005112769A1 (en) Nodule detection
CN107633514B (zh) 一种肺结节周边血管量化评估系统及方法
JPH09185714A (ja) コンピュータ支援診断方法
GB2415563A (en) Lesion boundary detection
JP4964171B2 (ja) 対象領域抽出方法および装置ならびにプログラム
Maitra et al. Automated digital mammogram segmentation for detection of abnormal masses using binary homogeneity enhancement algorithm
JP5055115B2 (ja) 識別方法、コンピュータプログラム及びコンピュータプログラム装置
KR20220154100A (ko) 이미지 처리에 기초한 종양의 자동화된 검출
JP2008503294A6 (ja) 識別方法、コンピュータプログラム及びコンピュータプログラム装置
Lo et al. Classification of lung nodules in diagnostic CT: an approach based on 3D vascular features, nodule density distribution, and shape features
JP2006506163A (ja) 肺結節のコンピュータ支援検出
WO2006093564A2 (en) System and method for detecting ground glass nodules in medical images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110209

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110307

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5058791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees