JP2008503294A - Identification method, computer program, and computer program device - Google Patents

Identification method, computer program, and computer program device Download PDF

Info

Publication number
JP2008503294A
JP2008503294A JP2007517400A JP2007517400A JP2008503294A JP 2008503294 A JP2008503294 A JP 2008503294A JP 2007517400 A JP2007517400 A JP 2007517400A JP 2007517400 A JP2007517400 A JP 2007517400A JP 2008503294 A JP2008503294 A JP 2008503294A
Authority
JP
Japan
Prior art keywords
boundary
lesion
points
point
seed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007517400A
Other languages
Japanese (ja)
Other versions
JP2008503294A6 (en
JP5055115B2 (en
Inventor
デメシュキ,ジャムシッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medicsight PLC
Original Assignee
Medicsight PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0414081A external-priority patent/GB2415563B/en
Application filed by Medicsight PLC filed Critical Medicsight PLC
Publication of JP2008503294A publication Critical patent/JP2008503294A/en
Publication of JP2008503294A6 publication Critical patent/JP2008503294A6/en
Application granted granted Critical
Publication of JP5055115B2 publication Critical patent/JP5055115B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

CTスキャン画像中の病巣と壁との間の接合の検出方法において、内部空間(L)に対して前記壁の境界(B)を決定し、前記境界に沿った特異点(c1 ,c2 )を識別し、及び前記壁と前記病巣との間の接合点として、病巣のどちらかの側の1つの特異点を選択することを特徴とする方法が提供される。特異点は、境界の極大曲率の点及び直線と湾曲部との遷移点であってよい。特異点は、病巣の両側の第1および第2シード点(p1 ,p2 )を受付け、それらが既に境界上にあるわけではない場合にシード点を境界に対して移動し、シード点に最も近い特異点を探索することによって選択されてよい。シード点は、決定された接合点(j1 ,j2 )を隣り合うスライス画像から現在のスライス画像に移すことで決定してよい。In a method for detecting a junction between a lesion and a wall in a CT scan image, a boundary (B) of the wall is determined with respect to an internal space (L), and singular points (c 1 , c 2 ) along the boundary are determined. ) And selecting one singularity on either side of the lesion as the junction between the wall and the lesion is provided. The singular point may be a point of maximum curvature at the boundary and a transition point between a straight line and a curved portion. The singularity accepts the first and second seed points (p 1 , p 2 ) on both sides of the lesion and moves the seed point relative to the boundary if they are not already on the boundary, It may be selected by searching for the nearest singularity. The seed point may be determined by moving the determined junction point (j 1 , j 2 ) from the adjacent slice image to the current slice image.

Description

本発明は、詳細にはコンピュータ支援断層撮影(CT)スキャン画像であるがそれに制限されない、予め人体や動物からスキャンされた画像において、胸膜に接する肺結節又は大腸に接するポリプ等の、壁と病巣との接合部を検出する方法に関する。本発明は、前記方法を実行するためのソフトウェア及び装置を含む。   In particular, the present invention is a computer-aided tomography (CT) scan image, but is not limited thereto, such as a wall and lesion, such as a polyp in contact with a pulmonary nodule or colon in contact with a pleura in an image scanned in advance from a human body or animal It is related with the method of detecting a junction part. The present invention includes software and apparatus for performing the method.

ガンの早期段階で病巣と疑わしき部位を検出することは、生存率を向上するために最も効果的な手段と考えられる。肺結節の検出及びポリプの検出は、医療用画像処理分野において、かなり困難であるが達成すべき課題の一部である。
コンピュータ補助技術が、CTスキャン画像内の結節を含む対象領域を識別するために提案されてきており、それらは結節を血管又は肺壁等の囲繞物体から分離したり、結節の物性を算出したり、及び/又は結節の自動診断を提供したりするものである。完全に自動化された方式では、放射線技師の介入なしで、全ての工程が実行されるが、1つ以上の工程が放射線技師からの入力を必要とする場合もあり、これは準自動化方式と記述されることがある。
米国特許出願公開第2003/0099384号明細書
Detecting lesions and suspicious sites at an early stage of cancer is considered the most effective way to improve survival. Detection of pulmonary nodules and detection of polyps is part of the challenge to be achieved in the medical image processing field, although it is quite difficult.
Computer-aided techniques have been proposed to identify regions of interest containing nodules in CT scan images, which separate nodules from surrounding objects such as blood vessels or lung walls, and calculate physical properties of nodules. And / or provide automatic diagnosis of nodules. In a fully automated method, all steps are performed without radiologist intervention, but one or more steps may require input from the radiologist, which is described as a semi-automated method. May be.
US Patent Application Publication No. 2003/099384

病巣のサイズ又は範囲を検出することは正確な診断に重要であるが、胸膜に接した肺結節の範囲を検出する、又は胸膜から結節を分離することは、それらがCTスキャン画像中で類似した強度を有するために困難である。同様に、ポリプと大腸壁との間の境界を検出することも困難である。   Detecting the size or extent of the lesion is important for accurate diagnosis, but detecting the extent of a pulmonary nodule that touches the pleura or separating the nodule from the pleura is similar in CT scan images It is difficult to have strength. Similarly, it is difficult to detect the boundary between the polyp and the colon wall.

米国特許出願公開第2003/0099384号明細書及び米国特許出願公開第2003/0099389号明細書には、小さい結節の輪郭を形態的(morphological)に閉じることで胸膜の結節を検出する方法、及び形態的な輪郭の閉鎖に用いられる構造要素よりも大きい結節に対する変形可能な表面モデルが開示されている。
国際公開第03/010102号パンフレット及びMed.Phys.第29巻第11号(2002年11月出版)の2552乃至2558ページに記載されたガーカン・Mら(Gurcan M et. al.)による論文「胸部のコンピュータ支援断層撮影画像における肺結節検出:コンピュータ支援診断システムの予備的評価(Lung Nodule Detection on Thoracic Computed Tomography Images:Preliminary Evaluation of a Computer−aided Diagnostic System)」は、肺の境界に沿って閉じた輪郭上の一対の点を探索することによる肺胸膜の近傍の局所欠刻(local indentation)サーチを用いて胸膜結節を検出する方法を開示しており、そこでは、境界に沿ったそれらの点の間の距離の比が、所定の閾値を越えた分だけ2点間の直線距離より大きくなるように探索される。
US 2003/099384 and US 2003/099389 disclose methods and forms for detecting pleural nodules by morphologically closing the contours of small nodules. A deformable surface model is disclosed for a nodule that is larger than the structural element used to close the contour.
International Publication No. 03/010102 pamphlet and Med. Phys. Volume 29, Issue 11 (published November 2002), pages 2552-2558, Gurcan M et al., “Detection of lung nodules in computed tomography images of the chest: computer "Preliminary evaluation of Assisted Diagnostic System (Lung Nodule Detection on Thoracic Computed Tomography Images: Preliminary Evaluation of a Computer-aided Diagnostics System)" Disclosed is a method for detecting pleural nodules using a local indentation search in the vicinity of the pleura, in which those along the boundary are disclosed. The ratio of the distance between the is searched to be larger than the linear distance between only two points amount that exceeds a predetermined threshold.

本発明によれば、病巣とスキャン画像中の壁との間の接合の検出方法において、内部空間に対する境界を決定し、前記境界に沿った特異点を識別し、及び前記壁と前記病巣との間の接合点として、前記病巣のどちらかの側の1つの特異点を選択する方法が提供される。特異点は、境界の極大曲率の点及び/又は直線と湾曲部との遷移点であってよい。特異点は、病巣の両側の第1および第2シード点(seed points)を受付け、それらが既に境界上にあるわけではない場合にシード点を境界に対して移動し、シード点に最も近い特異点を探索することによって選択されてよい。シード点は、選択された接合点を隣り合うスライス画像から現在のスライス画像に移すことで決定してよい。
本方法の利点は、病巣と胸膜との当接点を3次元で正確に決定することができ、よって病巣の範囲をより精密に決定することができることである。
接合点の位置は、種々の方式で精密化されてよく、ある場合には決定した特異点と精密に一致しなくてもよい。
本発明は、好ましくはコンピュータをもちいて実施され、本方法を実行するソフトウェアに拡張される。
According to the present invention, in a method for detecting a junction between a lesion and a wall in a scan image, a boundary with respect to an internal space is determined, a singular point along the boundary is identified, and the wall and the lesion are A method is provided for selecting one singular point on either side of the lesion as the junction between. The singular point may be a point of maximum curvature at the boundary and / or a transition point between a straight line and a curved portion. The singularity accepts first and second seed points on either side of the lesion and moves the seed point relative to the boundary if they are not already on the boundary, and the singularity closest to the seed point It may be selected by searching for points. The seed point may be determined by moving the selected junction point from the adjacent slice image to the current slice image.
The advantage of this method is that the contact point between the lesion and the pleura can be accurately determined in three dimensions, and thus the range of the lesion can be determined more precisely.
The location of the junction point may be refined in various ways, and in some cases may not exactly match the determined singularity.
The present invention is preferably implemented using a computer and extends to software that performs the method.

CT画像
各実施形態は、ヒト又は動物を検体としたCTスキャンから得られた一連のCTスキャンスライス画像に対して実施される。各スライス画像は、スキャン領域のX線吸収の2次元デジタルグレースケール画像である。スライス画像の特性は使用するCTスキャナに依存する。例えば、高解像度マルチスライスCTスキャナは、x及びy方向に(即ち各スライス画像面に)0.5乃至0.6mm/ピクセルの解像度の画像を生成する。各ピクセルは32ビットのグレースケール解像度を有してよい。各ピクセルの強度値は、通常ハウンズフィールド単位(HU、Hounsfield unit)で表される。一連のスライス画像は、例えば0.75乃至2.5mmの間隔で、z方向(即ちスキャン分離軸)に一定の間隔をおいて隔てられてよい。よって、スキャン画像は、3次元(3D)グレースケール画像であり、スキャンされたスライス画像の面積および数に依存するトータルのサイズを有する。
本発明は、特定のスキャニング方式に制限されない。電子ビームCT(EBCT)、マルチ検出器又はラセン型スキャン、もしくは、X線吸収を表す2D又は3D画像を生成する任意の方式に適用可能である。
図1に示すように、スキャン画像はコンピュータ4によって生成されるものであり、該コンピュータはスキャナ2からスキャンデータを受け取り、該スキャン画像を構築する。スキャン画像は1つ又は複数の電子ファイルとして保存され、固定型又はリムーバブルディスク等の記憶媒体6上に保存される。スキャン画像は肺結節の範囲を識別するためにコンピュータ4によって処理されてよく、又はスキャン画像は、下述のように画像を処理するためのソフトウェアを実行する他のコンピュータ8に転送されてよい。画像処理ソフトウェアはリムーバブルディスク等の担体に保存されてよく、又はネットワーク上でダウンロードされてよい。
CT Images Each embodiment is performed on a series of CT scan slice images obtained from a CT scan using a human or animal specimen. Each slice image is a two-dimensional digital grayscale image of X-ray absorption in the scan area. The characteristics of the slice image depend on the CT scanner used. For example, a high resolution multi-slice CT scanner generates an image with a resolution of 0.5 to 0.6 mm / pixel in the x and y directions (ie, on each slice image plane). Each pixel may have a 32-bit grayscale resolution. The intensity value of each pixel is usually expressed in Hounds field units (HU). A series of slice images may be spaced apart in the z direction (i.e., scan separation axis), for example, at intervals of 0.75 to 2.5 mm. Thus, the scanned image is a three-dimensional (3D) grayscale image and has a total size that depends on the area and number of scanned slice images.
The present invention is not limited to a particular scanning scheme. It can be applied to electron beam CT (EBCT), multi-detector or helical scan, or any scheme that generates 2D or 3D images representing X-ray absorption.
As shown in FIG. 1, the scan image is generated by the computer 4, and the computer receives the scan data from the scanner 2 and constructs the scan image. The scanned image is stored as one or a plurality of electronic files, and is stored on a storage medium 6 such as a fixed type or a removable disk. The scanned image may be processed by the computer 4 to identify the extent of the pulmonary nodule, or the scanned image may be transferred to another computer 8 that executes software for processing the image as described below. The image processing software may be stored on a carrier such as a removable disk or may be downloaded over a network.

肺壁に付着した結節
ある特定の実施形態においては、結節と肺壁との間の境界が検出されるように設計されている。周辺の肺結節は、しばしば胸膜の表面にある程度接合している(肺の周囲で、胸腔の境界に対して圧接されている)。結節はその表面を胸膜とかなりの程度共有している。このため、胸膜と結節との間の境界を示すことは困難な問題である。この複雑さは、結節の対向する両端の胸壁の周辺を識別する入力として2つのシード点(seed points)を用いることで軽減される。該シード点は、放射線技師等のユーザによって選択されてよく、又は自動的に決定されてよい。境界描画法の理論及び実施例は以下に示される。
Nodules Attached to the Lung Wall In certain embodiments, the boundary between the nodule and the lung wall is designed to be detected. The surrounding pulmonary nodules are often somewhat joined to the surface of the pleura (pressed against the thoracic boundary around the lungs). Nodules share their surface with the pleura to a considerable extent. For this reason, showing the boundary between the pleura and the nodule is a difficult problem. This complexity is reduced by using two seed points as inputs to identify the perimeter of the chest wall at opposite ends of the nodule. The seed point may be selected by a user such as a radiologist or may be determined automatically. The theory and examples of the boundary drawing method are shown below.

第1の実施形態では、前記方法は図2を参照して概略を述べた以下のステップを備える。
1)シード点(seed points)を入力する(ステップ12)。
2)周囲の組織から肺を分けるため粗分離を行い、境界を決定する(ステップ14)。
3)輪郭上の特異点を決定する(ステップ16)。
4)各スライス画像に対して以下の処理を実行する(開始スライス画像から開始する)。
a.開始スライス画像でなく、現在点のそれぞれが組織内である場合、現在点を境界に移動する(ステップ18)。このプロセスが失敗した場合、プロセスを終える。
b.それぞれの点が肺空間内にある場合、それを他方の点に向けて境界に当たるまで移動する(ステップ20)。失敗した場合終える。
c.2つの現在点に対して輪郭に沿った最も近傍の特異点を探索する(ステップ22)。
d.点を精密化する(ステップ24)。
e.現在スライス画像において結節の輪郭を得る(ステップ26)。
f.前のスライス画像における結節のオーバラップを確認する。オーバラップがなければ終える。
g.2つの点を次のスライス画像にマップする(ステップ30)。
5)開始スライス画像から両方向に、連続するスライス画像に対して処理を繰返す。
In a first embodiment, the method comprises the following steps outlined with reference to FIG.
1) Input seed points (step 12).
2) Perform rough separation to separate the lungs from surrounding tissues and determine the boundaries (step 14).
3) A singular point on the contour is determined (step 16).
4) The following processing is executed for each slice image (starting from the start slice image).
a. If each of the current points is not within the starting slice image and is within the tissue, the current point is moved to the boundary (step 18). If this process fails, the process ends.
b. If each point is in the lung space, move it towards the other point until it hits the boundary (step 20). Finish if it fails.
c. The nearest singularity along the contour is searched for the two current points (step 22).
d. The point is refined (step 24).
e. A nodule contour is obtained in the current slice image (step 26).
f. Check for nodule overlap in the previous slice image. Finish if there is no overlap.
g. Two points are mapped to the next slice image (step 30).
5) Repeat the process for consecutive slice images in both directions from the start slice image.

シード点の入力(ステップ12)
ユーザはCTスキャン画像の1つ以上のスライス画像を検査し、可能性のある胸膜結節を視覚的に識別する。ユーザ入力デバイスによって、ユーザはスライス画像の1つでの可能性のある胸膜結節の両側を2つのシード点として選ぶ。そのシード点は、胸膜結節の両側にあるだけでよく、正確に境界上にある必要はない。
他に、ユーザは入力デバイスを用いて、可能性のある胸膜結節の周囲にボックス又は他の図形を描いてもよい。その図形と胸膜との交叉点を2つのシード点として選んでもよい。
他の選択肢として、スキャン画像は可能性のある胸膜結節を識別する前処理を施されてよく、シード点はこの前処理段階で入力されてもよい。
Input seed point (step 12)
The user examines one or more slice images of the CT scan image and visually identifies potential pleural nodules. Depending on the user input device, the user selects as two seed points both sides of a possible pleural nodule in one of the slice images. The seed points need only be on either side of the pleural nodule and need not be exactly on the boundary.
Alternatively, the user may use an input device to draw a box or other graphic around a possible pleural nodule. The crossing point between the figure and the pleura may be selected as two seed points.
As another option, the scanned image may be pre-processed to identify possible pleural nodules, and the seed point may be entered at this pre-processing stage.

分割(ステップ14)
シード点を含むスライス画像形成像の上下の複数(例えば30)のスライス画像からなる部分的な画像が選択され、その画像を肺空間と(胸膜に付着した任意の結節を含む)胸膜とに分離するように粗分割が実行される。肺空間の強度は胸膜及び結節のそれよりかなり低いので、その分割は所定の閾値を画像に適用することで実行してよい。その閾値より上ではあるが胸膜に連続していない物体は、このアルゴリズムでは考慮されない。
他に、より再現性よく実施するために、最適の中心スライス画像を探索し、当該最適の中心スライス画像を部分的な画像の中心としてよい。例えば60ピクセル×60ピクセル×10スライス画像の窓(window)を決め、その中心を2つのシード点の中点とする。窓内で最大の強度を有する点を探索し、その最大強度の点を含む対応するスライス画像を、当該部分画像の中心スライス画像として決める。
分割は、初期の粗分割の後に適応分割を実行することでさらに改善される。適応分割においては、粗分割で得られた肺空間は、肺空間を含むマスク及び肺空間の周囲の縁(へり)を得るために、距離変換を用いて拡大される。拡大因子は50%であってよい。このような適応型分割は、マスク内での強度値のみから得られた閾値で実行される。
分割の結果は、スライス画像の2値マップであり、2値の一方の値を有し肺空間を示すピクセルと2値の他方の値を有し囲繞組織を示すピクセルとを含む。肺空間と囲繞組織とのあいだの境界上のピクセルは境界ピクセルとしてラベルされる。
例として、図3aは肺のスライスのスキャン画像を示し、図3bは分割の結果を示している。図3bは、肺空間が白色(2進数の1)であり囲繞組織が黒色(2進数の0)である2値画像である。図3cは、白色で、分割で得られた境界ピクセルを示している。
Division (step 14)
A partial image consisting of multiple slice images (for example, 30) above and below the slice image formation image including the seed point is selected, and the image is separated into lung space and pleura (including any nodules attached to the pleura) In this way, the rough division is performed. Since the intensity of the lung space is much lower than that of the pleura and nodules, the segmentation may be performed by applying a predetermined threshold to the image. Objects above that threshold but not contiguous to the pleura are not considered by this algorithm.
In addition, in order to carry out with higher reproducibility, an optimum center slice image may be searched and the optimum center slice image may be set as the center of a partial image. For example, a window of a 60 pixel × 60 pixel × 10 slice image is determined, and its center is set as a midpoint between two seed points. A point having the maximum intensity in the window is searched, and a corresponding slice image including the point having the maximum intensity is determined as a central slice image of the partial image.
The division is further improved by performing an adaptive division after the initial coarse division. In adaptive segmentation, the lung space obtained by the coarse segmentation is expanded using distance transformation to obtain a mask including the lung space and a peripheral edge (edge) of the lung space. The magnification factor may be 50%. Such adaptive segmentation is performed with a threshold obtained from only the intensity values in the mask.
The result of the segmentation is a binary map of slice images, including pixels that have one of the two values and indicate the lung space, and pixels that have the other binary value and indicate the surrounding tissue. Pixels on the boundary between the lung space and the surrounding tissue are labeled as boundary pixels.
As an example, FIG. 3a shows a scanned image of a lung slice and FIG. 3b shows the result of the segmentation. FIG. 3b is a binary image in which the lung space is white (binary number 1) and the surrounding tissue is black (binary number 0). FIG. 3c is white and shows the boundary pixels obtained by segmentation.

特異点の決定(ステップ16)
結節と胸膜との接合を検出する予備的ステップとして、境界の特異点が決定される。境界の各区画は凹部、凸部、又は直線部として識別される。特異点は、最大の凹曲率又は凸曲率の点、もしくは凹、凸、又は直線の状態間の遷移点のいずれかである。換言すれば、直線部と凸部又は凹部との間、もしくは直接に凸部と凹部との間である。胸膜と結節との間の境界を示すことが可能なので、特異点は重要である。
特異点を決定する、ある特定の方法について述べる。境界輪郭のマップが入力される。これは、例えば、アレイ内での位置が各ピクセルのx及びy座標で示される2値アレイであってよい。そして、境界ピクセルは2進数“1”でフラグされる。これは、換言すれば、境界のビットマップである。
次に、境界ピクセルが開始点として選択される。これは、任意の境界ピクセルが可能であり、例えば、第1の境界ピクセルはビットマップのラスタスキャン(左から右、上から下)で探索される。
Determination of singularity (step 16)
As a preliminary step to detect the junction between the nodule and the pleura, the singularity of the boundary is determined. Each section of the boundary is identified as a recess, protrusion, or straight line. A singular point is either the maximum concave or convex curvature point, or a transition point between concave, convex, or straight states. In other words, it is between the straight part and the convex part or the concave part, or directly between the convex part and the concave part. The singularity is important because it can indicate the boundary between the pleura and the nodule.
A particular method for determining singularities is described. A boundary contour map is input. This may be, for example, a binary array in which the position in the array is indicated by the x and y coordinates of each pixel. The boundary pixel is then flagged with a binary “1”. In other words, it is a boundary bitmap.
Next, the boundary pixel is selected as the starting point. This can be any boundary pixel, for example, the first boundary pixel is searched with a raster scan of the bitmap (left to right, top to bottom).

Figure 2008503294
Figure 2008503294

Figure 2008503294
Figure 2008503294

Figure 2008503294
Figure 2008503294

アルゴリズムは、それから、連続し隣り合う境界ピクセルの間で角度を記録して境界に沿って動かす。各スライス画像のピクセルは2Dカーテシアン(Cartesian)座標に配列しているので、8つの角度のみが可能である。各ピクセルに対して、隣接ピクセルは表1に示すような格子で表される。
各ピクセルと隣接ピクセルとの間の角度は、表2に示すようにコード化可能である。
コードは、表3に示す角度に対応する。
そして、ビットマップは、例えば(1,1,1,2,1,3,3…)のような、境界の周囲のループ内の連続する隣接境界ピクセルの間の角度を示すコードからなる1次元ベクトルを有する連鎖コードに変換される。なお、これらは下方向に対する絶対角度である。
次に、連鎖コードは、各境界ピクセルでの境界の曲率角度に変換される。これは、各境界ピクセルの周りの連鎖コードを取り出し、現在の境界ピクセルの近傍の境界ピクセルに関する連鎖コードがより強く重み付けされるように重み付けを施すことで実行される。なお、曲率角度は、絶対角度よりむしろ境界に対する相対的なものであり、ループの上の現在のピクセルの前の連鎖コードが、該ループの上の現在のピクセルの次のそれから減算されるようになっている。
The algorithm then records an angle between successive adjacent boundary pixels and moves along the boundary. Since the pixels of each slice image are arranged in 2D Cartesian coordinates, only 8 angles are possible. For each pixel, adjacent pixels are represented by a grid as shown in Table 1.
The angle between each pixel and adjacent pixels can be coded as shown in Table 2.
The codes correspond to the angles shown in Table 3.
A bitmap is a one-dimensional code consisting of a code indicating the angle between successive adjacent boundary pixels in a loop around the boundary, for example (1, 1, 1, 2, 1, 3, 3...) Converted to chain code with vector. These are absolute angles with respect to the downward direction.
The chain code is then converted to the boundary curvature angle at each boundary pixel. This is done by taking the chain code around each boundary pixel and weighting so that the chain code for the boundary pixels near the current boundary pixel is more heavily weighted. Note that the curvature angle is relative to the boundary rather than the absolute angle so that the previous chain code of the current pixel on the loop is subtracted from that next of the current pixel on the loop. It has become.

Figure 2008503294
Figure 2008503294

一例として、境界ピクセルiに対する曲率角度は、式に示されるように計算される。ここで、mj はガウス分布に従う重み付け因子であり、cci+j はピクセル(i+j)に対する連鎖コードで、負のjに対しては負数であり、nは、例えばn=5のような、境界の周囲の各方向を考慮した数を示している。
結果として、境界の周りの両方向で近傍のピクセルに関して、各境界ピクセルでの境界の曲率角度を示す1次元ベクトルが得られる。重み付けフィルタの効果は、連鎖コードの厳密な分散値に対して、角度を滑らかにすることである。
次に、曲率角度の極大及び極小が識別される。例えば、近隣比較法が用いられてよく、各角度はベクトル中の前後所定数(例えば3つ)の角度と比較される。
直線と凹部又は凸部との間の遷移点を識別するために、「直線」に対応する角度範囲を画定する。例えば、180°±fの全ての角度を直線として分類してよい。
図4aから4cは、それぞれf=5、15、30°に対する特異点を示している。凹極大及び直線と凹部との間の遷移は正方形で示しており、凸極大及び直線と凸部との間の遷移は円で示してある。図4aは、fを低く設定しすぎると、境界の曲率で緩やかな遷移しか示さない多数の特異点が生じることを示している。fの値は、ソフトウェアで予め設定される、及び/又はユーザにより調整されてよい。
As an example, the curvature angle for boundary pixel i is calculated as shown in the equation. Where m j is a weighting factor according to a Gaussian distribution, cc i + j is a chain code for pixel (i + j), is negative for negative j, and n is, for example, n = 5, The numbers taking into account each direction around the boundary are shown.
The result is a one-dimensional vector that indicates the curvature angle of the boundary at each boundary pixel with respect to neighboring pixels in both directions around the boundary. The effect of the weighting filter is to smooth the angle for the exact variance value of the chain code.
Next, the maximum and minimum curvature angles are identified. For example, neighborhood comparison methods may be used, where each angle is compared to a predetermined number (eg, three) of angles in the vector.
In order to identify a transition point between a straight line and a concave or convex part, an angular range corresponding to a “straight line” is defined. For example, all angles of 180 ° ± f may be classified as straight lines.
Figures 4a to 4c show the singularities for f = 5, 15, and 30 °, respectively. The transition between the concave maximum and the straight line and the concave portion is indicated by a square, and the transition between the convex maximum and the straight line and the convex portion is indicated by a circle. FIG. 4a shows that if f is set too low, a large number of singularities are produced that show only a gradual transition at the boundary curvature. The value of f may be preset by software and / or adjusted by the user.

結節の向きの探索
結節を検出する前に、2つのシード点p1 及びp2 に対して、結節が肺中でどの方向に延びているかを、まず決定する。一実施形態において、図5に図説のように、ベクトルvを2つの点p1 及びp2 の間に設定し、直交するベクトルoをベクトルvの中点から両側に延ばす。肺の空間Lに向かうoの向きは、肺の方向、つまり、胸膜結節Nが胸膜Pから肺の中に延びる方向を示している。
初期スライス画像の後は、結節の方向は、シード点p1 及びp2 に対して、前のスライス画像における検出された結節の方向から決定される。
Searching for nodule orientation Before detecting the nodule, it is first determined in which direction the nodule extends in the lung for the two seed points p 1 and p 2 . In one embodiment, as illustrated in FIG. 5, a vector v is set between two points p 1 and p 2 and an orthogonal vector o extends from the midpoint of the vector v to both sides. The direction of o toward the lung space L indicates the direction of the lung, that is, the direction in which the pleural nodule N extends from the pleura P into the lung.
After the initial slice image, the nodule direction is determined relative to the seed points p 1 and p 2 from the detected nodule direction in the previous slice image.

空間への移動(ステップ18)
各スライス画像に対して、シード点p1 及びp2 は先ず、それらが境界B上にあるかどうか確認決定し、そうでない場合、それらは境界上の適切な点に移動される。初期スライス画像において、ユーザはシード点p1 及びp2 を正確に境界上に置く必要はない。シード点を境界上に移動し、それらのz座標を変更することで次のスライス画像にシード点を移動した後に、シード点は新しいスライス画像の境界上には最早なくてよい。
シード点p1 及びp2 のいずれかが胸膜P内にある場合、その点は、境界上に移動される。移動の方向と距離は、一の特異点から離れて移動しないように制限されてよく、結節と胸膜との界面を示すようになされる。詳細には、界面の角度は、1つのスライス画像から次へ大きく変更しないようにする。シード点を組織から境界へ移動する1つの方式を示す。
先ず、移動するシード点を中心とする窓(例えば、20mm×20mm)中に任意の肺空間Lが存在するかどうか決定する。存在しない場合、エラー条件が示されてよい。存在する場合、図6に示すように、以降のステップが実行される。
・組織中にある点p1 、p2 のそれぞれから2つの線l1 、l2 を、結節Nの方向oに、ベクトルvからそれぞれ45及び135度、それぞれ10単位の長さだけ引く。
・移動するシード点から2つの線l1 、l2 の両端までの最小のサイズの矩形Rを生成する(点p1 、p2 のうち1つが組織中にない場合、そのような一対の線のみがあればよいことに注意する)。
・矩形R内で、境界B上の、シード点に最も近い点を探索する。
・移動距離が10mm未満ならば、その境界上の点に移動する。
本方式は、ベクトルvが回転できる角度及びシード点が移動できる距離に適切な制限をかけるものである。
Move to space (step 18)
For each slice image, seed points p 1 and p 2 first determine if they are on boundary B, otherwise they are moved to the appropriate point on the boundary. In the initial slice image, the user need not place the seed points p 1 and p 2 exactly on the boundary. After moving the seed points onto the boundary and changing their z-coordinate to move to the next slice image, the seed points may no longer be on the boundary of the new slice image.
If either seed point p 1 or p 2 is in pleura P, that point is moved onto the boundary. The direction and distance of movement may be limited so that it does not move away from one singular point, so as to indicate the interface between the nodule and the pleura. Specifically, the angle of the interface is not changed greatly from one slice image to the next. Figure 3 illustrates one way to move a seed point from tissue to the boundary.
First, it is determined whether an arbitrary lung space L exists in a window (for example, 20 mm × 20 mm) centered on the moving seed point. If not present, an error condition may be indicated. If it exists, the following steps are executed as shown in FIG.
Draw two lines l 1 and l 2 from the points p 1 and p 2 in the tissue in the direction o of the nodule N by 45 and 135 degrees from the vector v by 10 units each.
Generate a minimum-sized rectangle R from the moving seed point to the ends of the two lines l 1 , l 2 (if one of the points p 1 , p 2 is not in the tissue, such a pair of lines Note that you only need to have
In the rectangle R, a point closest to the seed point on the boundary B is searched.
・ If the moving distance is less than 10 mm, it moves to a point on the boundary.
This method places an appropriate limit on the angle at which the vector v can rotate and the distance that the seed point can move.

2つの点の統合(ステップ20)
2つのシード点p1 及びp2 のそれぞれが肺空間Lにある場合、その点は、図7に示すように、境界Bに当たるまで、他方の点に向けて移動される。移動した点が互いに所定の距離(例えば2mm)以内の場合、これは点の間に空間しかないことを示しているので、処理は終了する。
Integration of two points (step 20)
If each of the two seed points p 1 and p 2 is in the lung space L, that point is moved towards the other point until it hits a boundary B as shown in FIG. When the moved points are within a predetermined distance (for example, 2 mm) from each other, this indicates that there is only a space between the points, and the processing ends.

最も近い(最近傍の)特異点の探索(ステップ22)
シード点p1 及びp2 は、両者とも今や境界B上にあるはずである。次にそれらは、以下により詳細に述べるように、不適切な特異点の選択を避けるように企図したある条件に従って、境界Bに沿った最も近い特異点に対して移動される。
各シード点に対して、境界Bに沿った両方向で最も近い特異点が決定される。境界に沿った一方向の特異点が、他方向の特異点より顕著に近い場合、シード点はその近い特異点に移動される。例えば、シード点と一方向の最も近い特異点との間の距離(寸法)がある閾値より大きい場合、シード点は他方向の最も近い特異点に移動される。閾値は、例えば距離の2倍のように、各方向の2つの最も近い特異点のうちより近い方とシード点との間の距離の関数であってよい。
各方向の最も近い特異点が略等距離である場合、一の特異点がシード点と各特異点との間の直線上の肺空間の量に基いて選択される。例えば、図9に示すように、境界Bに沿った2つの最も近い特異点c1 、c2 とシード点p1 との間の距離の差が閾値未満の場合、シード点p1 から2つの最も近い特異点c1 、c2 それぞれへの直線l3 を生成し、肺空間Lを通過する線長の割合を決定する。割合が所定の閾値(例えば20%)を超える場合、その特異点は不適切な選択であるとみなし、他方向の最も近い特異点c2 に対する割合が閾値以下であれば、シード点はその点へ移動される。両方の特異点が閾値より大きい割合を有する場合、シード点はどちらの特異点へも移動されない。
Search for nearest (nearest) singularity (step 22)
Both seed points p 1 and p 2 should now be on boundary B. They are then moved relative to the nearest singularity along boundary B according to certain conditions intended to avoid selecting inappropriate singularities, as described in more detail below.
For each seed point, the closest singular point in both directions along the boundary B is determined. If a singular point in one direction along the boundary is significantly closer than a singular point in the other direction, the seed point is moved to that close singular point. For example, if the distance (size) between the seed point and the closest singular point in one direction is greater than a certain threshold, the seed point is moved to the nearest singular point in the other direction. The threshold may be a function of the distance between the closest of the two closest singularities in each direction and the seed point, such as twice the distance.
If the closest singularities in each direction are approximately equidistant, one singularity is selected based on the amount of lung space on the straight line between the seed point and each singularity. For example, as shown in FIG. 9, if the difference in distance between the two closest singular points c 1 and c 2 along the boundary B and the seed point p 1 is less than the threshold, the two points from the seed point p 1 A straight line l 3 to each of the nearest singular points c 1 and c 2 is generated, and the ratio of the line length passing through the lung space L is determined. If the ratio exceeds a predetermined threshold (for example, 20%), the singular point is regarded as an inappropriate selection, and if the ratio to the nearest singular point c 2 in the other direction is less than the threshold, the seed point is the point. Moved to. If both singularities have a percentage greater than the threshold, the seed point is not moved to either singularity.

点同士が近すぎる場合の移動
ある場合、シード点のうちの1つは最良の特異点から比較的離れていることがあり、すると、最も近い特異点を探索する場合、両方のシード点が同じ特異点に、又はかなり近づきあった特異点に移動されることがある。これは、シード点が前のスライス画像からマップされた場合、特に以下に述べるように精密分割移動が適用された場合に起こり得る。境界に沿った2つのシード点の間の距離が5mmのような閾値距離未満の場合、特異点により近いシード点はその特異点に移動される一方、シード点の間の初期の距離のような所定の閾値を越えて2つのシード点の間の距離が増加しないという条件で、他のシード点は境界に沿ってもう1つのシード点から離れて最も近い特異点に移動される。換言すれば、一方を離れるように移動した後のシード点の間の距離は、移動前の距離の2倍を越えることはないはずである。
Movement when points are too close In some cases, one of the seed points may be relatively far from the best singularity, so both seed points are the same when searching for the nearest singularity It may be moved to a singular point or to a singular point that is quite close. This can occur when the seed point is mapped from the previous slice image, especially when fine segmentation movement is applied as described below. If the distance between two seed points along the boundary is less than a threshold distance such as 5 mm, the seed point closer to the singular point is moved to that singular point, while the initial distance between the seed points is The other seed point is moved along the boundary to the nearest singular point away from the other seed point, provided that the distance between the two seed points does not increase beyond a predetermined threshold. In other words, the distance between the seed points after moving away from one side should not exceed twice the distance before the movement.

近傍に特異点が存在しない場合
シード点のうちの1つの近傍に特異点が存在しないような場合、そのシード点を、他方のシード点に対する最も近い特異点に移動してよい。これは、1つのシード点が移動前のシード点の間の距離の50%といった所定の割合を越えて境界に沿って移動されるのを避けることで防げ、その場合、任意の特異点から離れたシード点は移動されない。
When there is no singular point in the vicinity When there is no singular point in the vicinity of one of the seed points, the seed point may be moved to the closest singular point with respect to the other seed point. This can be prevented by avoiding that one seed point is moved along the boundary beyond a certain percentage, such as 50% of the distance between the seed points before movement, in which case it is separated from any singular point. Seed points are not moved.

精密分割(ステップ24)
粗く分割された境界を用いて最も近い特異点を探索した後、シード点の移動は、局所コントラストに応じて、精密分割を用いてシード点の近傍の境界Bを再評価することにより精密化してよい。例えば、各点が前景にあるか背景にあるかを決定するための閾値は、その点を囲む所定範囲の局所点からなるマスク内での各点の強度に基づいて決定してよい。閾値は、該閾値の上下の強度の中心の平均が、前記閾値と等しいか又は所定の程度前記閾値からずれるように選択されてよい。
次に、特異点を精密分割された境界上で決定する。シード点は、以下に例示するように、ある条件に従い、精密分割された境界上で最も近い特異点に移動されてよい。
・シード点の精密分割された境界への移動は、常に結節の方向から離れるように行われる。
・移動する距離は所定の閾値未満とする。閾値は、シード点が、スライス内で初期の点から粗分割を用いた最終の点へどれだけ動いたかに従って設定される。
・精密分割された境界の特異点へ移動する場合にシード点の間の線が回転する角度は、40度のような所定の角度未満とする。
粗分割された境界は、強力な部分体積効果がある結節の精密分割された境界の近傍にないことがあり得る。最も近い特異点が結節から離れる可能性があるこの場合、結節から離れる移動のみが許容されるので、正しい特異点が探索されない。これは、シード点が精密分割された境界と比較して肺内部にある場合、シード点を境界に到達するまで互いに向けて移動し、精密分割された境界上の最も近い特異点を探索することで解決することが可能である。
精密分割の効果は、結節の肺膜との接合を曖昧にする感染した組織等の、結節の周囲の物質の影響を除去することにある。粗分割では、通常境界の部分としてそのような物質が含まれ、一方、精密分割では、そのような物質は背景として再分類されるのである。
Precision division (step 24)
After searching for the nearest singular point using the coarsely divided boundary, the movement of the seed point is refined by re-evaluating the boundary B in the vicinity of the seed point using fine division according to the local contrast. Good. For example, the threshold value for determining whether each point is in the foreground or the background may be determined based on the intensity of each point in a mask composed of a predetermined range of local points surrounding the point. The threshold may be selected such that the average of the intensity centers above and below the threshold is equal to the threshold or deviates from the threshold by a predetermined amount.
Next, singular points are determined on the finely divided boundaries. The seed point may be moved to the nearest singular point on the finely divided boundary according to certain conditions, as illustrated below.
• The movement of the seed point to the finely divided boundary is always away from the nodule direction.
・ The distance traveled is less than a predetermined threshold. The threshold is set according to how far the seed point has moved from the initial point in the slice to the final point using coarse partitioning.
The angle at which the line between the seed points rotates when moving to a singular point on a finely divided boundary is less than a predetermined angle such as 40 degrees.
The coarsely divided boundary may not be near the finely divided boundary of a nodule with a strong partial volume effect. In this case, where the closest singularity may leave the nodule, only movement away from the nodule is allowed, so the correct singularity is not searched. This means that if the seed point is inside the lung compared to a finely divided boundary, the seed points will move towards each other until they reach the boundary and search for the nearest singular point on the finely divided boundary. Can be solved.
The effect of precision segmentation is to eliminate the influence of substances surrounding the nodule, such as infected tissue that obscure the junction of the nodule to the lung membrane. Coarse subdivision usually includes such materials as part of the boundary, while fine subdivision reclassifies such materials as background.

複数の境界
ある場合、肺Lは、粗分割によって2つ以上の部分に分割され、シード点は、例えば図10に図説されるように、それぞれ異なる部分に位置する。これは、現在のスライス画像で、肺を横切って血管が延びている場合に起こり得る。そして、結節Nの部分として血管を含むことで、結節Nの範囲を決定するのに障害となることがある。
この問題を克服するために、シード点が、境界Bに移動される場合、異なる連通していない境界の部分を形成するかどうかを決定する。そのように決定された場合、図11に示すように、結節の方向oで2つのシード点の間にある、2つの境界の間の距離の変化を算出する。距離の変化の例となるグラフを図12に示す。グラフの勾配が最も大きな変化を示す点gが得られ、その点が境界Bに組み込まれる。このようにして、結節Nは血管から分離される。
When there are a plurality of boundaries, the lung L is divided into two or more parts by coarse division, and the seed points are located in different parts as illustrated in FIG. 10, for example. This can happen when the blood vessel extends across the lung in the current slice image. In addition, including a blood vessel as the nodule N portion may be an obstacle to determining the nodule N range.
In order to overcome this problem, if the seed point is moved to boundary B, it is determined whether to form a part of the boundary that is not in communication. If so determined, as shown in FIG. 11, the change in the distance between the two boundaries between the two seed points in the nodal direction o is calculated. FIG. 12 shows a graph as an example of the change in distance. A point g showing the largest change in the gradient of the graph is obtained, and that point is incorporated into the boundary B. In this way, the nodule N is separated from the blood vessel.

輪郭の補正
例えば図13aに示すように、検出された接合点の間の境界の縁が行き過ぎている場合には、特異点が肺壁への結節の当接の正しい位置にない可能性があり、これは、例えば接合での緩やかな角度変化のために起こる。
この問題を避けるために、輪郭補正機能が用いられてよく、図13b乃至13dに示すように、正しい領域の抽出ができるよう接合点を再調整する。先ず、接合点の間に線を引く。線が境界と交叉する場合は、一方の接合点を、その側で境界と交叉しなくなるまで、境界に沿って他方に向けて移動する。そして、他方の接合点を、境界と交叉しなくなるまで、第1の接合点に向けて移動する。
ある場合、特に結節が小さい場合、図14aに示すように、縁が行き過ぎていても接合点の間の線が境界と交叉しないことがある。この場合、図14cに示すように、線が境界に交叉するまで小刻みに変化させることで、図14bに示すように、接合点は境界に沿って同時に移動される。それから、図14dに示すように、線が境界と交叉しなくなるまで、上述の輪郭の補正を進める。
Contour correction For example, as shown in FIG. 13a, if the edge of the boundary between the detected junctions has gone too far, the singularity may not be in the correct position for the contact of the nodule to the lung wall. This occurs, for example, due to gradual angular changes at the junction.
To avoid this problem, a contour correction function may be used, and the junction points are readjusted so that correct regions can be extracted, as shown in FIGS. 13b to 13d. First, a line is drawn between the joining points. If the line intersects the boundary, move one junction along the boundary toward the other until it no longer intersects the boundary on that side. Then, the other junction is moved toward the first junction until it does not cross the boundary.
In some cases, especially when the nodule is small, the line between the junctions may not intersect the boundary even if the edges are overrun, as shown in FIG. 14a. In this case, as shown in FIG. 14c, by changing the line in small increments until the line crosses the boundary, the joint point is simultaneously moved along the boundary as shown in FIG. 14b. Then, as shown in FIG. 14d, the above-described contour correction is advanced until the line does not cross the boundary.

結節境界の取得
この段階では、2つの接合点が決定されており、結節Nが胸膜Pと接合している境界Bに沿った点を示している。これらの接合点は、スライス画像内での結節Nの境界を推定するために用いることができる。第1近似として、接合点を結ぶ直線は、結節Nと胸膜Pとの間の接合を示すのに用いられる。代わりに、結節Nを囲む胸膜の曲率から推定したそれを有する曲線を用いてもよい。
次に、結節Nの範囲を決定する。一実施形態では、結節Nは胸膜P以外の主要物とは当接していないか、又はその近傍にもないと仮定する。ステップ14の分割結果が、図15に示すように、結節Nの部分を形成する際に、接合点を結ぶ線を越えた全ての前景領域を識別するために用いられる。
他の実施形態では、ファジーコントラスト領域拡張法が、結節Nの範囲を識別するために用いられる。先ず、局所閾値を基準とした分割処理によって、結節Nの範囲を推定する。各点に対する閾強度値を得るために局所マスクが用いられる。よって、閾値は局所コントラストに敏感であり、低いコントラストの結節を背景から区別することができる。精密分割によって得られた結節領域Nは、「孔」、即ち前景ピクセルによって囲まれた背景、を含みうる。孔は、コントラストの局所的な小さな差に対する精密分割の感度に基づいて生じる。適切な孔充填アルゴリズムが、そのような孔を充填するために用いられ、換言すれば、それらを前景ピクセルに変換する。
次に、結節領域N内で最も高い強度を有するピクセルがシード点として取り出され、バイナリ領域拡張がそのシード点から実行されて連続した前景領域Fを識別する。この領域は、前景及び背景の両者を含むマスクMを得るために、拡張因子を伴い距離変換法を用いて拡張される。拡張因子は50%であってよい。しかし、図16に示すように、マスクMは、接合点を結ぶ線の他側のピクセルを含むことはなく、接合点を超えたその線の射影を含む。次に、連続した前景領域F部分ではない、精密分割処理によって分割された前景ピクセルは、マスクMから除去される。マスクMの背景ピクセルは、背景領域Bとしてラベルされる。
前景及び背景領域F、Bの強度及び勾配分布の平均及び標準偏差が決定される。背景強度の平均μB 、前景強度の平均μF 、背景強度の標準偏差σB 、及び前景強度の標準偏差σF が算出される。パラメータεは、シード点が背景強度の平均μB から離れる前景強度の標準偏差σF の数を計数することで推定され、これはコントラストの測度(measure)として得られ、以下に述べるファジーマップを構築するのに続いて用いられる。
ファジー対象抽出法は、シード点に対するマスクM内のそれぞれのピクセルのファジー連続性(fuzzy connectivity)の2Dマップを確定するために用いられる。隣り合うピクセルの間のファジー親和性関数(fuzzy affinity function)が定義され、ピクセルとシード点との間の経路に沿って親和性を探索することによって、それぞれのピクセルとシード点との間のファジー連続性が得られる。
2点(隣り合う必要はない)間のファジー連続性は、2点間の最も強い親和性を有する経路を考慮することで得られる。最も強い親和性を有する経路が最良の経路として選択され、各経路の強度は、経路に沿った隣り合う点の最も弱い親和性のそれと等しい。2つの隣り合う点の間の強度はそれらの点の間の親和性である。
2点間の親和性は、それらが同一の対象に属する確率の測度である。この確率は、近接度(即ち、ユークリッド距離)の関数であり、それらのピクセルの間の画像の特徴の近似性である。
Acquisition of Nodal Boundary At this stage, two junction points have been determined, indicating the point along boundary B where nodule N is joined to pleura P. These junction points can be used to estimate the boundary of the nodule N in the slice image. As a first approximation, a straight line connecting the junction points is used to indicate the junction between the nodule N and the pleura P. Alternatively, a curve having that estimated from the curvature of the pleura surrounding the nodule N may be used.
Next, the range of the nodule N is determined. In one embodiment, it is assumed that nodule N is not in contact with or near any major object other than pleura P. As shown in FIG. 15, the division result of step 14 is used to identify all foreground regions beyond the line connecting the junction points when forming the nodule N portion.
In other embodiments, a fuzzy contrast region expansion method is used to identify the nodule N range. First, the range of the nodule N is estimated by a division process based on the local threshold. A local mask is used to obtain a threshold intensity value for each point. Thus, the threshold is sensitive to local contrast and low contrast nodules can be distinguished from the background. The nodule region N obtained by fine division may include a “hole”, ie, a background surrounded by foreground pixels. Holes are created based on the sensitivity of fine division to small local differences in contrast. A suitable hole filling algorithm is used to fill such holes, in other words, convert them to foreground pixels.
Next, the pixel with the highest intensity in the nodule region N is taken as a seed point, and binary region expansion is performed from that seed point to identify a continuous foreground region F. This region is expanded using a distance transformation method with an expansion factor to obtain a mask M that includes both foreground and background. The expansion factor may be 50%. However, as shown in FIG. 16, the mask M does not include pixels on the other side of the line connecting the junction points, but includes a projection of the line beyond the junction points. Next, the foreground pixels divided by the fine division process that are not continuous foreground regions F are removed from the mask M. The background pixels of mask M are labeled as background region B.
The mean and standard deviation of the intensity and gradient distribution of the foreground and background regions F, B are determined. An average μ B of background intensity, an average μ F of foreground intensity, a standard deviation σ B of background intensity, and a standard deviation σ F of foreground intensity are calculated. The parameter ε is estimated by counting the number of foreground intensity standard deviations σ F where the seed point is away from the average of the background intensity μ B , which is obtained as a measure of contrast and the fuzzy map described below. Used subsequently to build.
The fuzzy object extraction method is used to establish a 2D map of the fuzzy continuity of each pixel in the mask M relative to the seed point. A fuzzy affinity function between adjacent pixels is defined and fuzzy between each pixel and seed point by searching for affinity along the path between the pixel and seed point. Continuity is obtained.
Fuzzy continuity between two points (not necessarily adjacent) is obtained by considering the path with the strongest affinity between the two points. The path with the strongest affinity is selected as the best path, and the intensity of each path is equal to that of the weakest affinity of neighboring points along the path. The intensity between two adjacent points is the affinity between those points.
The affinity between two points is a measure of the probability that they belong to the same object. This probability is a function of proximity (ie, Euclidean distance) and the closeness of image features between those pixels.

ファジー親和性の一般モデルは、
μk =(c,d)=h(μa (c,d),f(c),f(d),c,d)
で与えられる。ここで、hは範囲[0,1]でのスカラ値、c及びdは2つのピクセルの画像中位置、及びf(i)はスペル(spel)iの強度である。μa は2つのピクセルの間の距離に基づく近傍性関数(adjacency function)であり、式で与えられる。
The general model for fuzzy affinity is
μ k = (c, d) = h (μ a (c, d), f (c), f (d), c, d)
Given in. Here, h is a scalar value in the range [0, 1], c and d are the positions in the image of two pixels, and f (i) is the intensity of spell i. μ a is an adjacency function based on the distance between two pixels and is given by an equation.

Figure 2008503294
Figure 2008503294

シフト非依存性に簡略化すると、c≠dのとき式で与えられ、更に
μk (c,c)=1
である。
To simplify the shift independence, it is given by an equation when c ≠ d, and further μ k (c, c) = 1.
It is.

Figure 2008503294
Figure 2008503294

ここで、下付き「i」は強度に関する計算を示し、「gk」は適切な方向(x、y、zであり得る)それぞれにおける勾配値に関する計算を示している。ωi 及びωg は和が1となる自由パラメータの加重値である。ωi に対して0.9及びωg に対して0.1の値が、強度の近似性を効果的とするために選択されてきた。現関数に用いられたファジー親和性は式に示される。 Here, the subscript “i” indicates the calculation regarding the intensity, and “gk” indicates the calculation regarding the gradient value in each of the appropriate directions (which may be x, y, and z). ω i and ω g are weighted values of the free parameters whose sum is 1. Values of 0.9 for ω i and 0.1 for ω g have been chosen to make the intensity closeness effective. The fuzzy affinity used for the current function is shown in the equation.

Figure 2008503294
Figure 2008503294

ここで、mi 、Si 、mg 及びSg は強度及び勾配に対するガウス分布パラメータである。これらは予め定義されてよく、又は以下に述べるようにシード点の回りの小領域から推定される。
マスクM内の全ての点にわたって、強度及び勾配の平均及び標準偏差σが算出される。勾配に関するパラメータは3方向(x、y及びz)で別々に算出される。対応するσは最大及び最小の勾配の間の差に基いて算出される。
統計的な計算について、以下に詳述する。パラメータmi は開始の強度であり、mgx、mgyはそれぞれx及びy方向の勾配の平均である。パラメータSgx、Sgyはそれぞれの方向の勾配の標準偏差である。
親和性の式に現れる標準偏差(Sd )は、ファジーマップの形成に影響し、そのため結節境界の決定に影響する。それが大きすぎる場合、親和性曲線は比較的扁平となる。結果として、背景領域がより高い親和性を有し、拡張する領域は過剰に分割される。反対に、それが小さすぎる場合、親和性曲線の形状は狭くなり、前景はシード点と低い親和性を有することとなり、結果は過小にしか分割されない。理想的には、曲線は、背景のシード点との親和性が最小であるが有限である程度に分散しているとよい。よって、親和性のガウス曲線は、理想的な分散を達成するように標準偏差を変更して制限又は拡張される。
そして、ファジーマップが、シード点に対するそれぞれのピクセルのファジー連続性値を探索することによって作成される。ファジーマップは、そのピクセルがどれだけ強くシード点と関連付けられているかを示す強調された画像であると捉えてよい。
次に、シード点から開始して、コントラストに基づく領域拡張をファジーマップに施す。領域拡張中に各ピクセルが領域に追加されるとき、領域の内部と外部との間で周辺コントラストが算出される。領域の周辺コントラストは、内部境界の平均グレーレベルと現在の境界の平均グレーレベルとの間の差として画定されてよい。
コントラストに基づく領域拡張の繰返しの各回において、現在の境界から1つのピクセルが選択され、現在の領域に追加される。現在の境界で優先的に選択されるピクセルは、強度と現在の領域の中心に対する距離とに基づいて決定される。領域拡張中に各ピクセルが領域に追加されるとき、領域の内部と外部との間で周辺コントラストが算出される。領域の周辺コントラストは、内部境界の平均グレーレベルと現在の境界の平均グレーレベルとの間の差として画定されてよい。それぞれの段階での周辺コントラストは記録され、領域拡張はマスクMを満たすまで継続される。領域拡張中に得られた最も高い周辺コントラスト値は、結節Nのそれに対応するような境界を有する最適の領域を示すとものとして選び出される。
Here, m i , S i , mg and S g are Gaussian distribution parameters for intensity and gradient. These may be pre-defined or estimated from a small area around the seed point as described below.
The average and standard deviation σ of intensity and gradient are calculated over all points in the mask M. Parameters related to the gradient are calculated separately in three directions (x, y and z). The corresponding σ is calculated based on the difference between the maximum and minimum slopes.
The statistical calculation is described in detail below. The parameter m i is the starting intensity, and m gx and m gy are the average of the gradients in the x and y directions, respectively. The parameters S gx and S gy are standard deviations of gradients in the respective directions.
The standard deviation (S d ) appearing in the affinity equation affects the formation of the fuzzy map and therefore the nodule boundary determination. If it is too large, the affinity curve will be relatively flat. As a result, the background area has a higher affinity and the expanding area is over-divided. Conversely, if it is too small, the shape of the affinity curve will be narrow, the foreground will have a low affinity with the seed point, and the result will only be under-divided. Ideally, the curve should have a minimal affinity for the background seed point but a finite degree of dispersion. Thus, the affinity Gaussian curve is limited or expanded by changing the standard deviation to achieve ideal dispersion.
A fuzzy map is then created by searching for the fuzzy continuity value of each pixel relative to the seed point. A fuzzy map may be viewed as an enhanced image that shows how strongly that pixel is associated with a seed point.
Next, starting from the seed point, the fuzzy map is subjected to region expansion based on contrast. As each pixel is added to the region during region expansion, the peripheral contrast is calculated between the interior and exterior of the region. The peripheral contrast of the region may be defined as the difference between the average gray level of the inner boundary and the average gray level of the current boundary.
In each iteration of contrast-based region expansion, one pixel is selected from the current boundary and added to the current region. The pixels preferentially selected at the current boundary are determined based on the intensity and the distance to the center of the current region. As each pixel is added to the region during region expansion, the peripheral contrast is calculated between the interior and exterior of the region. The peripheral contrast of the region may be defined as the difference between the average gray level of the inner boundary and the average gray level of the current boundary. The peripheral contrast at each stage is recorded and the area expansion continues until the mask M is filled. The highest peripheral contrast value obtained during region expansion is chosen as indicating the optimal region with a boundary corresponding to that of nodule N.

次のスライス画像へのマップ(ステップ28)
現在のスライス画像中の結節Nの範囲が決定された後、現在のスライス画像中の結節Nが、前の隣り合うスライス画像で決定された結節Nの範囲に重なり合うかどうかを決定する。これは、種々の方法で行われてよく、例えば、それぞれのスライス画像中の結節Nの中心を囲む所定半径の円形の「核」を決定し、隣り合うスライス画像同士でその核が重なり合うかどうか、即ち2つの核の間に同一のx及びy座標を有する任意のピクセルがあるかどうか、を決定することによってなされてよい。重なり合いがない、つまり現在のスライス画像では全く結節が検出されなかった場合、これは、開始スライス画像から現在の方向での結節Nの境界に達したことを示しているとしてよい。アルゴリズムが開始スライス画像から一方向のみに進んだ場合、それを他方向に進める。結節境界検出が両方向に実行された場合、アルゴリズムは終了し、結節Nが検出されたそれぞれのスライス画像における検出された結節の範囲を出力する。
前のスライス画像との重なり合いがある場合、アルゴリズムは次のスライス画像に進み、図17に示すように、現在のスライス画像の接合点j1 、j2 を次のスライス画像の2つのシード点p1 、p2 として用いる。例えば、新しいスライス画像のシード点は、前のスライス画像の接合点と同一のx及びy座標を有する。
Map to next slice image (step 28)
After the range of nodule N in the current slice image is determined, it is determined whether the nodule N in the current slice image overlaps the range of nodule N determined in the previous adjacent slice image. This may be done in various ways, for example, determining a circular “nucleus” of a predetermined radius surrounding the center of the nodule N in each slice image, and whether or not the adjacent slice images overlap. May be done by determining whether there are any pixels having the same x and y coordinates between the two nuclei. If there is no overlap, that is, no nodule is detected in the current slice image, this may indicate that the boundary of nodule N in the current direction from the starting slice image has been reached. If the algorithm proceeds in only one direction from the starting slice image, it proceeds in the other direction. If nodule boundary detection is performed in both directions, the algorithm ends and outputs the range of detected nodules in each slice image in which nodule N is detected.
If there is an overlap with the previous slice image, the algorithm proceeds to the next slice image and, as shown in FIG. 17, the junction points j 1 and j 2 of the current slice image are set to the two seed points p of the next slice image. 1, is used as the p 2. For example, the seed point of the new slice image has the same x and y coordinates as the junction point of the previous slice image.

結果
図18は、サンプルのスキャン画像に検出された結節Nの範囲を示している。
Results FIG. 18 shows the range of nodules N detected in the scanned image of the sample.

大腸への応用
上述した実施形態は、大腸のCTスキャン画像におけるポリプの検出に適用することもできる。ポリプは常に、CTスキャン画像中で類似の強度を有する大腸壁に付着している。ポリプの形状は、肺結節のそれとは若干異なっているが、大腸壁とポリプとの接合部は類似の幾何学的特徴を有しており、実施形態はその接合部を検出するのに用いることができる。
本発明は、人体及び/又は動物の内部空間の壁に付着している、他の異常腫瘍の検出に適用可能である。
Application to Large Intestine The above-described embodiment can also be applied to detection of polyps in a CT scan image of the large intestine. Polyps are always attached to the colon wall, which has a similar intensity in CT scan images. The shape of the polyp is slightly different from that of the pulmonary nodule, but the joint between the colon wall and the polyp has similar geometric characteristics, and the embodiment should be used to detect the joint Can do.
The present invention is applicable to the detection of other abnormal tumors attached to the walls of the internal space of the human body and / or animals.

他の実施形態
例示とともに上述の実施形態は本発明の範囲を限定するものではない。種々の変形例が請求項の範囲内で想到され得る。上記議論から明らかなように、本方法は単一のCTスライス画像からなる2D画像、又は連続したCTスライス画像からなる3D画像において実行可能である。
Other Embodiments The embodiments described above together with the examples do not limit the scope of the present invention. Various modifications may be envisaged within the scope of the claims. As is clear from the above discussion, the method can be performed on a 2D image consisting of a single CT slice image or a 3D image consisting of successive CT slice images.

CTスキャン装置を示し、該スキャン装置からの画像データを処理する遠隔コンピュータを示す略示図である。FIG. 2 is a schematic diagram showing a CT computer and a remote computer that processes image data from the scanner. 本発明の実施形態におけるアルゴリズムのフローチャートである。It is a flowchart of the algorithm in embodiment of this invention. (a)は肺のCTスキャン画像の単一のスライス画像を示す図、(b)は分割によって得られた肺領域のCTスキャン画像の単一のスライス画像を示す図、(c)は肺領域の境界のCTスキャン画像の単一のスライス画像を示す図である。(A) is a diagram showing a single slice image of a CT scan image of a lung, (b) is a diagram showing a single slice image of a CT scan image of a lung region obtained by segmentation, (c) is a lung region It is a figure which shows the single slice image of CT scan image of no boundary. 3つの異なる閾値のうちの1つにより肺境界上に検出された特異点を示す図である。FIG. 5 shows a singular point detected on the lung boundary by one of three different thresholds. 結節の両側のシード点を示す図である。It is a figure which shows the seed point of the both sides of a nodule. 胸膜から境界へシード点を移動する方法を説明する図である。It is a figure explaining the method of moving a seed point from a pleura to a boundary. 肺空間から境界へシード点を移動する方法を説明する図である。It is a figure explaining the method of moving a seed point from a lung space to a boundary. 最も近い特異点へシード点を移動する方法を説明する図である。It is a figure explaining the method of moving a seed point to the nearest singular point. 略等距離にある場合最良の特異点を決定する方法を説明する図である。It is a figure explaining the method of determining the best singular point when it exists in a substantially equidistance. 肺が複数の境界に分割された例を示す図である。It is a figure which shows the example by which the lung was divided | segmented into the some boundary. 境界の間の接合がどこで決定されるかを示す図である。FIG. 4 shows where the junction between boundaries is determined. 接合がどのように決定されるかを示し、2つの境界の間の中線上の距離に対して幅を示すグラフである。Fig. 4 is a graph showing how a bond is determined and showing the width against the distance on the midline between two boundaries. 結節の行き過ぎた縁を補正する方法を示す図である。It is a figure which shows the method of correct | amending the edge which the nodule went too much. 検出された縁が結節を越えている場合、行き過ぎた縁を補正する方法を示す図である。It is a figure which shows the method of correct | amending the edge which passed too much when the detected edge has exceeded the nodule. 検出された結節の範囲を示す図である。It is a figure which shows the range of the detected nodule. 結節の範囲を検出する別の方法を説明する図である。It is a figure explaining another method of detecting the range of a nodule. 接合点を次のスライス画像のシード点にマップすることを説明する図である。It is a figure explaining mapping a junction point to the seed point of the next slice image. 一連の連続したスライス画像中で検出された結節の範囲を示す図である。It is a figure which shows the range of the nodule detected in a series of continuous slice images.

Claims (29)

CT(コンピュータ支援断層撮影)スキャン画像中の病巣と内部空間に隣り合う壁との間の接合部の識別方法において、
a.前記壁と内部空間との間の境界を決定し、
b.前記境界に沿った1つ以上の特異点を決定し、
c.前記病巣の両側のそれぞれ少なくとも1つの特異点の位置に基づいて、前記病巣の両側にて前記境界上の第1及び第2の接合点を選択し、
その結果、前記接合点により前記病巣と壁との間の前記接合部が識別されることを特徴とする方法。
In a method for identifying a junction between a lesion in a CT (Computer Aided Tomography) scan image and a wall adjacent to the internal space,
a. Determine the boundary between the wall and the interior space;
b. Determining one or more singularities along the boundary;
c. Selecting first and second junction points on the boundary on both sides of the lesion based on the location of at least one singular point on each side of the lesion;
As a result, the junction between the lesion and the wall is identified by the junction.
前記特異点は、前記境界に沿った少なくとも1つの曲率極大点を含むことを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the singularity includes at least one curvature maximum along the boundary. 前記特異点は、少なくとも1つの、直線と曲線との間の遷移点を含むことを特徴とする請求項1又は請求項2に記載の方法。   3. The method according to claim 1 or 2, wherein the singular point includes at least one transition point between a straight line and a curve. 前記病巣の両側の第1及び第2のシード点の入力を受付け、
第1及び第2の前記接合点は、第1及び第2の前記シード点の位置に基づいて選択されることを特徴とする先行するいずれかの請求項に記載の方法。
Accepting input of first and second seed points on both sides of the lesion;
The method according to any preceding claim, wherein the first and second junction points are selected based on the positions of the first and second seed points.
前記特異点のうち、第1及び第2の前記シード点それぞれの最近傍にある第1及び第2のものは、それぞれ第1及び第2の前記接合点として選択されることを特徴とする請求項4に記載の方法。   Among the singular points, the first and second ones closest to the first and second seed points are selected as the first and second junction points, respectively. Item 5. The method according to Item 4. 前記シード点から前記特異点への寸法は、最近傍の前記接合点を決定すべく、前記境界に沿って測定されることを特徴とする請求項5に記載の方法。   6. The method of claim 5, wherein a dimension from the seed point to the singular point is measured along the boundary to determine the nearest junction point. 前記シード点は、前記境界に沿った前記特異点への寸法を決定すべく、前記境界に向けて移動されることを特徴とする請求項6に記載の方法。   The method of claim 6, wherein the seed point is moved toward the boundary to determine a dimension to the singular point along the boundary. 前記シード点のうちの1つが前記内部空間にある場合、該シード点は、前記シード点のうちの他の1つに向かう方向に前記境界に対して移動されることを特徴とする請求項7に記載の方法。   8. If one of the seed points is in the interior space, the seed point is moved relative to the boundary in a direction toward the other one of the seed points. The method described in 1. 前記シード点のうちの1つが前記壁の中にある場合、該シード点は、前記シード点の間の線の回転角度が制限されるように前記境界に対して移動されることを特徴とする請求項7に記載の方法。   If one of the seed points is in the wall, the seed point is moved relative to the boundary such that the angle of rotation of the line between the seed points is limited The method of claim 7. 前記シード点のうちの1つが前記壁の中にある場合、それは、前記境界への距離が所定の閾値未満のとき前記境界に対して移動されることを特徴とする請求項8又は請求項9に記載の方法。   10. If one of the seed points is in the wall, it is moved relative to the boundary when the distance to the boundary is less than a predetermined threshold. The method described in 1. 各シード点に対して、前記境界に沿った両方向にある最近傍の特異点が識別され、両方向にある該最近傍の特異点への前記境界に沿った寸法が所定の基準を満たす場合、前記最近傍の特異点のうち、より近い方が対応する接合点として選択されることを特徴とする請求項5乃至10のいずれか1つに記載の方法。   For each seed point, the nearest singular point in both directions along the boundary is identified, and the dimension along the boundary to the nearest singular point in both directions satisfies a predetermined criterion, 11. The method according to any one of claims 5 to 10, wherein the closest singularity is selected as the corresponding junction point. 第1及び第2の前記接合点の間の線が前記境界と交叉する場合、第1及び/又は第2の前記接合点は、前記線が前記境界と交叉しなくなるまで前記境界に沿って互いに向かって移動されることを特徴とする先行するいずれかの請求項に記載の方法。   When a line between the first and second junction points intersects the boundary, the first and / or second junction points are mutually aligned along the boundary until the line no longer intersects the boundary. A method according to any preceding claim, characterized in that it is moved towards. 第1及び第2の前記接合点の間の線が病巣からはみ出す場合、前記線が病巣と交叉するが前記境界とは交叉しなくなるまで前記境界に沿って互いに向かって移動されることを特徴とする請求項1乃至11のいずれか1つに記載の方法。   When the line between the first and second junction points protrudes from the lesion, the line is moved toward each other along the boundary until it intersects with the lesion but does not intersect with the boundary. 12. The method according to any one of claims 1 to 11. ステップa乃至cはスキャン画像の連続した一連のスライス画像のそれぞれに対して実行され、該スライス画像のうちの1つにおいて決定された第1及び第2の前記接合点は、前記スライス画像のうちの隣り合う1つに対して第1及び第2の前記シード点を生成するために用いられることを特徴とする請求項4乃至11のいずれか1つに記載の方法。   Steps a to c are performed on each of a series of consecutive slice images of the scanned image, and the first and second junction points determined in one of the slice images are 12. The method according to any one of claims 4 to 11, wherein the method is used to generate the first and second seed points for one neighboring one. ステップa乃至cはスキャン画像の連続した一連のスライス画像のそれぞれに対して実行され、所定の開始スライス画像から開始され、前記病巣の端が検出されるまで、該開始スライス画像からそれぞれの方向に実行されていくことを特徴とする請求項14に記載の方法。   Steps a to c are performed on each of a series of consecutive slice images of the scanned image, starting from a predetermined starting slice image and in each direction from the starting slice image until the end of the lesion is detected. The method of claim 14, wherein the method is performed. 現在のスライス画像中の前記シード点の間に前記病巣が検出されない場合、前記病巣の端が検出されることを特徴とする請求項15に記載の方法。   16. The method of claim 15, wherein an edge of the lesion is detected if the lesion is not detected between the seed points in a current slice image. 前記連続した一連のスライス画像のそれぞれに対して、前記病巣の範囲が検出され、現在のスライス画像に検出された前記病巣の範囲が、隣り合うスライス画像に検出された前記病巣の範囲と重ならない場合、
前記病巣の端が検出されることを特徴とする請求項15又は請求項16に記載の方法。
For each of the series of consecutive slice images, the range of the lesion is detected, and the range of the lesion detected in the current slice image does not overlap the range of the lesion detected in the adjacent slice image. If
The method according to claim 15 or 16, wherein an edge of the lesion is detected.
前記病巣と前記壁との間の前記接合部は、第1及び第2の前記接合点の間に延びる接合線によって画定され、
前記病巣の範囲を該接合線によって制限するように決定することを特徴とする先行するいずれかの請求項に記載の方法。
The joint between the lesion and the wall is defined by a joint line extending between the first and second joint points;
A method according to any preceding claim, characterized in that the extent of the lesion is determined to be limited by the junction line.
前記病巣の範囲は前記結合線によって制限されており、前記スキャン画像を分割し、領域拡張を実行することにより決定されることを特徴とする請求項18に記載の方法。   The method according to claim 18, wherein the extent of the lesion is limited by the connecting line and is determined by dividing the scanned image and performing region expansion. 第1及び第2の前記接合点が前記境界で繋がっていない場合、前記病巣の範囲は、前記接合点がそれぞれ位置する離れた境界区画どうしを繋げる境界接続線によって更に制限されることを特徴とする請求項19に記載の方法。   When the first and second junction points are not connected at the boundary, the range of the lesion is further limited by a boundary connection line that connects the separated boundary sections where the junction points are respectively located. The method according to claim 19. 前記境界接続線は、離れた前記境界区画の間の距離の変化を決定することで画定されることを特徴とする請求項20に記載の方法。   21. The method of claim 20, wherein the boundary connecting line is defined by determining a change in distance between the separated boundary sections. 前記病巣の範囲は、
局所コントラストを基にして閾値を用いて、前記病巣の周りの画像を前景と背景とに分離する精密分離を実行し、
前記接合線によって制限された、前記病巣を示す連続した前景領域を識別し、
マスクを生成するために、前記前景領域を、背景点を加えるように、且つ前記前景領域内に含まれない前景点を除くように拡張し、
前記病巣内のシード点に対して前記マスク内の点の連続性を画定するファジー連続性マップを得、
該ファジー連続性マップから病巣の範囲を決定する
ことによって決定されることを特徴とする請求項18乃至21のいずれか1つに記載の方法。
The extent of the lesion is
Performing a fine separation that separates the image around the lesion into the foreground and background using a threshold based on local contrast;
Identifying a continuous foreground region denoting the lesion, limited by the junction line;
Extending the foreground region to add background points and to exclude foreground points not included in the foreground region to generate a mask;
Obtaining a fuzzy continuity map that defines the continuity of points in the mask relative to seed points in the lesion;
The method according to any one of claims 18 to 21, characterized in that it is determined by determining the extent of a lesion from the fuzzy continuity map.
前記病巣の範囲は、前記ファジー連続性マップ内のシード点から連続領域を拡張し、最も高い境界コントラストを有する領域を前記病巣の範囲として出力することによって、前記ファジー連続性マップから決定されることを特徴とする請求項22に記載の方法。   The lesion range is determined from the fuzzy continuity map by extending a continuous region from a seed point in the fuzzy continuity map and outputting the region having the highest boundary contrast as the lesion range. 23. The method of claim 22, wherein: 肺のCTスキャン画像中での、壁に付着する病巣の範囲の識別方法において、
a.前記病巣と前記壁との間の接合部を識別し、
b.局所コントラストに基づく閾値を用いて、前記病巣の周囲の画像を前景と背景とに分離する精密分割を実行し、
c.前記接合部で制限して、前記病巣を示す前景領域を拡張し、
d.マスクを生成するために、背景点を含んで前記前景領域を拡張し、前記前景領域内に含まれない前景点を除き、
e.前記病巣内のシード点に対する前記マスク内の点の連続性を画定するファジー連続性マップを得、
f.前記ファジー連続性マップから前記病巣の範囲を決定する
ことを特徴とする方法。
In the CT scan image of the lung, in the method of identifying the extent of the lesion attached to the wall,
a. Identify the junction between the lesion and the wall;
b. Using a threshold based on local contrast, performing a fine segmentation that separates the image surrounding the lesion into foreground and background;
c. Restricting at the junction, expanding the foreground region showing the lesion,
d. To generate a mask, extend the foreground region to include a background point, excluding foreground points not included in the foreground region,
e. Obtaining a fuzzy continuity map that defines the continuity of points in the mask relative to seed points in the lesion;
f. Determining the extent of the lesion from the fuzzy continuity map.
ステップfにおいて、
前記ファジー連続性マップ内で前記シード点から連続性領域を拡張し、
前記病巣の範囲として最も高い境界コントラストを有する領域を出力する
ことを特徴とする請求項24に記載の方法。
In step f
Extending a continuity region from the seed point in the fuzzy continuity map;
The method according to claim 24, wherein an area having the highest boundary contrast is output as the lesion range.
前記病巣は結節であり、前記内部空間は肺であることを特徴とする先行するいずれかの請求項に記載の方法。   A method according to any preceding claim, wherein the lesion is a nodule and the internal space is the lung. 前記病巣はポリプであり、前記内部空間は大腸であることを特徴とする請求項1乃至25のいずれか1つに記載の方法。   The method according to any one of claims 1 to 25, wherein the lesion is a polyp and the internal space is a large intestine. 先行するいずれかの請求項に記載の方法を実行すべく構成されたコンピュータプログラム。   A computer program configured to perform a method according to any preceding claim. 請求項28に記載のコンピュータプログラムを記録する記録媒体を備えるコンピュータプログラム装置。   A computer program device comprising a recording medium for recording the computer program according to claim 28.
JP2007517400A 2004-06-23 2005-05-13 Identification method, computer program, and computer program device Expired - Fee Related JP5055115B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB0414081.0 2004-06-23
GB0414081A GB2415563B (en) 2004-06-23 2004-06-23 Lesion boundary detection
US10/935,159 US7697742B2 (en) 2004-06-23 2004-09-08 Lesion boundary detection
US10/935,159 2004-09-08
PCT/GB2005/001841 WO2006000738A1 (en) 2004-06-23 2005-05-13 Lesion boundary detection

Publications (3)

Publication Number Publication Date
JP2008503294A true JP2008503294A (en) 2008-02-07
JP2008503294A6 JP2008503294A6 (en) 2008-05-29
JP5055115B2 JP5055115B2 (en) 2012-10-24

Family

ID=34969123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007517400A Expired - Fee Related JP5055115B2 (en) 2004-06-23 2005-05-13 Identification method, computer program, and computer program device

Country Status (6)

Country Link
EP (1) EP1771822A1 (en)
JP (1) JP5055115B2 (en)
KR (1) KR20070083467A (en)
AU (1) AU2005256785A1 (en)
CA (1) CA2571720A1 (en)
WO (1) WO2006000738A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225990A (en) * 2008-03-21 2009-10-08 Kobe Univ Diagnostic imaging support processing apparatus and program
JP2017029343A (en) * 2015-07-31 2017-02-09 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2018088055A1 (en) * 2016-11-09 2018-05-17 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
JP2018108126A (en) * 2016-12-28 2018-07-12 キヤノン株式会社 Information processing unit, extraction method, and program
JP2020099539A (en) * 2018-12-21 2020-07-02 富士通株式会社 Lung image processing program, lung image processing method, and lung image processing system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5242381B2 (en) 2006-03-16 2013-07-24 オリンパスメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
KR101128662B1 (en) * 2009-12-30 2012-04-12 서울여자대학교 산학협력단 Endo- and Epi- cardial Boundary Detection Apparatus of the Left Ventricle and method thereof
KR101899866B1 (en) 2011-11-03 2018-09-19 삼성전자주식회사 Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour
CN103793905B (en) * 2012-11-02 2019-05-31 上海联影医疗科技有限公司 Determine the method and device in brain image Coronal direction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5185809A (en) * 1987-08-14 1993-02-09 The General Hospital Corporation Morphometric analysis of anatomical tomographic data
JPH05225317A (en) * 1991-12-13 1993-09-03 Nec Corp Coordinate data designation control system
JP2000172829A (en) * 1998-12-07 2000-06-23 Hitachi Ltd Area extracting method
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
JP2003524489A (en) * 2000-01-18 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ Methods, systems, and computer-readable media for two-dimensional and three-dimensional detection of lung nodules in computed tomography scans
US20040064029A1 (en) * 2002-09-30 2004-04-01 The Government Of The Usa As Represented By The Secretary Of The Dept. Of Health & Human Services Computer-aided classification of anomalies in anatomical structures

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004046995A2 (en) * 2002-11-20 2004-06-03 Koninklijke Philips Electronics N.V. Computer-aided detection of lung nodules

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5185809A (en) * 1987-08-14 1993-02-09 The General Hospital Corporation Morphometric analysis of anatomical tomographic data
JPH05225317A (en) * 1991-12-13 1993-09-03 Nec Corp Coordinate data designation control system
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
JP2000172829A (en) * 1998-12-07 2000-06-23 Hitachi Ltd Area extracting method
JP2003524489A (en) * 2000-01-18 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ Methods, systems, and computer-readable media for two-dimensional and three-dimensional detection of lung nodules in computed tomography scans
US20040064029A1 (en) * 2002-09-30 2004-04-01 The Government Of The Usa As Represented By The Secretary Of The Dept. Of Health & Human Services Computer-aided classification of anomalies in anatomical structures

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JEREBKO A K, PROCEEDINGS OF THE SPIE, vol. V5031, JPN5007009842, 2003, US, pages 359 - 369, ISSN: 0002263325 *
KRISHNAN S M, PROCEEDINGS OF THE 20TH ANNUAL INTERNATIONAL CONFERENCE 以下備考, vol. V20 N2, JPN5007009844, 29 October 1998 (1998-10-29), US, pages 895 - 898, ISSN: 0002263326 *
UDUPA J K, CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING, vol. V58 N3, JPN5007009843, May 1996 (1996-05-01), US, pages 246 - 261, ISSN: 0002263327 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225990A (en) * 2008-03-21 2009-10-08 Kobe Univ Diagnostic imaging support processing apparatus and program
JP2017029343A (en) * 2015-07-31 2017-02-09 キヤノン株式会社 Image processing apparatus, image processing method, and program
US10319093B2 (en) 2015-07-31 2019-06-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
WO2018088055A1 (en) * 2016-11-09 2018-05-17 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
JP2018077667A (en) * 2016-11-09 2018-05-17 キヤノン株式会社 Image processing apparatus, image processing method, image processing system and program
US11200443B2 (en) 2016-11-09 2021-12-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system
JP2018108126A (en) * 2016-12-28 2018-07-12 キヤノン株式会社 Information processing unit, extraction method, and program
JP2020099539A (en) * 2018-12-21 2020-07-02 富士通株式会社 Lung image processing program, lung image processing method, and lung image processing system
JP7151464B2 (en) 2018-12-21 2022-10-12 富士通株式会社 Lung image processing program, lung image processing method and lung image processing system

Also Published As

Publication number Publication date
EP1771822A1 (en) 2007-04-11
JP5055115B2 (en) 2012-10-24
WO2006000738A1 (en) 2006-01-05
CA2571720A1 (en) 2006-01-05
KR20070083467A (en) 2007-08-24
AU2005256785A1 (en) 2006-01-05

Similar Documents

Publication Publication Date Title
JP5055115B2 (en) Identification method, computer program, and computer program device
US7697742B2 (en) Lesion boundary detection
JP4999163B2 (en) Image processing method, apparatus, and program
Gonçalves et al. Hessian based approaches for 3D lung nodule segmentation
Sluimer et al. Toward automated segmentation of the pathological lung in CT
Alilou et al. A comprehensive framework for automatic detection of pulmonary nodules in lung CT images
US8019139B2 (en) Method and system for processing an image of body tissues
JP2008503294A6 (en) Identification method, computer program, and computer program device
JP6539303B2 (en) Transforming 3D objects to segment objects in 3D medical images
KR20070085120A (en) Nodule boundary detection
EP1755457A1 (en) Nodule detection
JP2007524488A (en) System and method for toboggan-based object segmentation using divergent gradient field response in images
JP2011526508A (en) Segmentation of medical images
US7480401B2 (en) Method for local surface smoothing with application to chest wall nodule segmentation in lung CT data
Shariaty et al. Texture appearance model, a new model-based segmentation paradigm, application on the segmentation of lung nodule in the CT scan of the chest
JP2006325937A (en) Image determination device, image determination method, and program therefor
JP2006006359A (en) Image generator, image generator method, and its program
Schenk et al. Local-cost computation for efficient segmentation of 3D objects with live wire
JP2002109510A (en) Possible abnormal shadow detecting and processing system
Farag Variational approach for small-size lung nodule segmentation
JP6957152B2 (en) Information processing equipment, extraction methods and programs
Farag et al. Parametric and non-parametric nodule models: Design and evaluation
US8165375B2 (en) Method and system for registering CT data sets
Hu et al. Automated multimodality concurrent classification for segmenting vessels in 3D spectral OCT and color fundus images
Dehmeshki et al. A hybrid approach for automated detection of lung nodules in CT images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

R150 Certificate of patent or registration of utility model

Ref document number: 5055115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees