JP2008503294A - Identification method, computer program, and computer program device - Google Patents
Identification method, computer program, and computer program device Download PDFInfo
- Publication number
- JP2008503294A JP2008503294A JP2007517400A JP2007517400A JP2008503294A JP 2008503294 A JP2008503294 A JP 2008503294A JP 2007517400 A JP2007517400 A JP 2007517400A JP 2007517400 A JP2007517400 A JP 2007517400A JP 2008503294 A JP2008503294 A JP 2008503294A
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- lesion
- points
- point
- seed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
- G06T2207/30064—Lung nodule
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
CTスキャン画像中の病巣と壁との間の接合の検出方法において、内部空間(L)に対して前記壁の境界(B)を決定し、前記境界に沿った特異点(c1 ,c2 )を識別し、及び前記壁と前記病巣との間の接合点として、病巣のどちらかの側の1つの特異点を選択することを特徴とする方法が提供される。特異点は、境界の極大曲率の点及び直線と湾曲部との遷移点であってよい。特異点は、病巣の両側の第1および第2シード点(p1 ,p2 )を受付け、それらが既に境界上にあるわけではない場合にシード点を境界に対して移動し、シード点に最も近い特異点を探索することによって選択されてよい。シード点は、決定された接合点(j1 ,j2 )を隣り合うスライス画像から現在のスライス画像に移すことで決定してよい。In a method for detecting a junction between a lesion and a wall in a CT scan image, a boundary (B) of the wall is determined with respect to an internal space (L), and singular points (c 1 , c 2 ) along the boundary are determined. ) And selecting one singularity on either side of the lesion as the junction between the wall and the lesion is provided. The singular point may be a point of maximum curvature at the boundary and a transition point between a straight line and a curved portion. The singularity accepts the first and second seed points (p 1 , p 2 ) on both sides of the lesion and moves the seed point relative to the boundary if they are not already on the boundary, It may be selected by searching for the nearest singularity. The seed point may be determined by moving the determined junction point (j 1 , j 2 ) from the adjacent slice image to the current slice image.
Description
本発明は、詳細にはコンピュータ支援断層撮影(CT)スキャン画像であるがそれに制限されない、予め人体や動物からスキャンされた画像において、胸膜に接する肺結節又は大腸に接するポリプ等の、壁と病巣との接合部を検出する方法に関する。本発明は、前記方法を実行するためのソフトウェア及び装置を含む。 In particular, the present invention is a computer-aided tomography (CT) scan image, but is not limited thereto, such as a wall and lesion, such as a polyp in contact with a pulmonary nodule or colon in contact with a pleura in an image scanned in advance from a human body or animal It is related with the method of detecting a junction part. The present invention includes software and apparatus for performing the method.
ガンの早期段階で病巣と疑わしき部位を検出することは、生存率を向上するために最も効果的な手段と考えられる。肺結節の検出及びポリプの検出は、医療用画像処理分野において、かなり困難であるが達成すべき課題の一部である。
コンピュータ補助技術が、CTスキャン画像内の結節を含む対象領域を識別するために提案されてきており、それらは結節を血管又は肺壁等の囲繞物体から分離したり、結節の物性を算出したり、及び/又は結節の自動診断を提供したりするものである。完全に自動化された方式では、放射線技師の介入なしで、全ての工程が実行されるが、1つ以上の工程が放射線技師からの入力を必要とする場合もあり、これは準自動化方式と記述されることがある。
Computer-aided techniques have been proposed to identify regions of interest containing nodules in CT scan images, which separate nodules from surrounding objects such as blood vessels or lung walls, and calculate physical properties of nodules. And / or provide automatic diagnosis of nodules. In a fully automated method, all steps are performed without radiologist intervention, but one or more steps may require input from the radiologist, which is described as a semi-automated method. May be.
病巣のサイズ又は範囲を検出することは正確な診断に重要であるが、胸膜に接した肺結節の範囲を検出する、又は胸膜から結節を分離することは、それらがCTスキャン画像中で類似した強度を有するために困難である。同様に、ポリプと大腸壁との間の境界を検出することも困難である。 Detecting the size or extent of the lesion is important for accurate diagnosis, but detecting the extent of a pulmonary nodule that touches the pleura or separating the nodule from the pleura is similar in CT scan images It is difficult to have strength. Similarly, it is difficult to detect the boundary between the polyp and the colon wall.
米国特許出願公開第2003/0099384号明細書及び米国特許出願公開第2003/0099389号明細書には、小さい結節の輪郭を形態的(morphological)に閉じることで胸膜の結節を検出する方法、及び形態的な輪郭の閉鎖に用いられる構造要素よりも大きい結節に対する変形可能な表面モデルが開示されている。
国際公開第03/010102号パンフレット及びMed.Phys.第29巻第11号(2002年11月出版)の2552乃至2558ページに記載されたガーカン・Mら(Gurcan M et. al.)による論文「胸部のコンピュータ支援断層撮影画像における肺結節検出:コンピュータ支援診断システムの予備的評価(Lung Nodule Detection on Thoracic Computed Tomography Images:Preliminary Evaluation of a Computer−aided Diagnostic System)」は、肺の境界に沿って閉じた輪郭上の一対の点を探索することによる肺胸膜の近傍の局所欠刻(local indentation)サーチを用いて胸膜結節を検出する方法を開示しており、そこでは、境界に沿ったそれらの点の間の距離の比が、所定の閾値を越えた分だけ2点間の直線距離より大きくなるように探索される。
US 2003/099384 and US 2003/099389 disclose methods and forms for detecting pleural nodules by morphologically closing the contours of small nodules. A deformable surface model is disclosed for a nodule that is larger than the structural element used to close the contour.
International Publication No. 03/010102 pamphlet and Med. Phys. Volume 29, Issue 11 (published November 2002), pages 2552-2558, Gurcan M et al., “Detection of lung nodules in computed tomography images of the chest: computer "Preliminary evaluation of Assisted Diagnostic System (Lung Nodule Detection on Thoracic Computed Tomography Images: Preliminary Evaluation of a Computer-aided Diagnostics System)" Disclosed is a method for detecting pleural nodules using a local indentation search in the vicinity of the pleura, in which those along the boundary are disclosed. The ratio of the distance between the is searched to be larger than the linear distance between only two points amount that exceeds a predetermined threshold.
本発明によれば、病巣とスキャン画像中の壁との間の接合の検出方法において、内部空間に対する境界を決定し、前記境界に沿った特異点を識別し、及び前記壁と前記病巣との間の接合点として、前記病巣のどちらかの側の1つの特異点を選択する方法が提供される。特異点は、境界の極大曲率の点及び/又は直線と湾曲部との遷移点であってよい。特異点は、病巣の両側の第1および第2シード点(seed points)を受付け、それらが既に境界上にあるわけではない場合にシード点を境界に対して移動し、シード点に最も近い特異点を探索することによって選択されてよい。シード点は、選択された接合点を隣り合うスライス画像から現在のスライス画像に移すことで決定してよい。
本方法の利点は、病巣と胸膜との当接点を3次元で正確に決定することができ、よって病巣の範囲をより精密に決定することができることである。
接合点の位置は、種々の方式で精密化されてよく、ある場合には決定した特異点と精密に一致しなくてもよい。
本発明は、好ましくはコンピュータをもちいて実施され、本方法を実行するソフトウェアに拡張される。
According to the present invention, in a method for detecting a junction between a lesion and a wall in a scan image, a boundary with respect to an internal space is determined, a singular point along the boundary is identified, and the wall and the lesion are A method is provided for selecting one singular point on either side of the lesion as the junction between. The singular point may be a point of maximum curvature at the boundary and / or a transition point between a straight line and a curved portion. The singularity accepts first and second seed points on either side of the lesion and moves the seed point relative to the boundary if they are not already on the boundary, and the singularity closest to the seed point It may be selected by searching for points. The seed point may be determined by moving the selected junction point from the adjacent slice image to the current slice image.
The advantage of this method is that the contact point between the lesion and the pleura can be accurately determined in three dimensions, and thus the range of the lesion can be determined more precisely.
The location of the junction point may be refined in various ways, and in some cases may not exactly match the determined singularity.
The present invention is preferably implemented using a computer and extends to software that performs the method.
CT画像
各実施形態は、ヒト又は動物を検体としたCTスキャンから得られた一連のCTスキャンスライス画像に対して実施される。各スライス画像は、スキャン領域のX線吸収の2次元デジタルグレースケール画像である。スライス画像の特性は使用するCTスキャナに依存する。例えば、高解像度マルチスライスCTスキャナは、x及びy方向に(即ち各スライス画像面に)0.5乃至0.6mm/ピクセルの解像度の画像を生成する。各ピクセルは32ビットのグレースケール解像度を有してよい。各ピクセルの強度値は、通常ハウンズフィールド単位(HU、Hounsfield unit)で表される。一連のスライス画像は、例えば0.75乃至2.5mmの間隔で、z方向(即ちスキャン分離軸)に一定の間隔をおいて隔てられてよい。よって、スキャン画像は、3次元(3D)グレースケール画像であり、スキャンされたスライス画像の面積および数に依存するトータルのサイズを有する。
本発明は、特定のスキャニング方式に制限されない。電子ビームCT(EBCT)、マルチ検出器又はラセン型スキャン、もしくは、X線吸収を表す2D又は3D画像を生成する任意の方式に適用可能である。
図1に示すように、スキャン画像はコンピュータ4によって生成されるものであり、該コンピュータはスキャナ2からスキャンデータを受け取り、該スキャン画像を構築する。スキャン画像は1つ又は複数の電子ファイルとして保存され、固定型又はリムーバブルディスク等の記憶媒体6上に保存される。スキャン画像は肺結節の範囲を識別するためにコンピュータ4によって処理されてよく、又はスキャン画像は、下述のように画像を処理するためのソフトウェアを実行する他のコンピュータ8に転送されてよい。画像処理ソフトウェアはリムーバブルディスク等の担体に保存されてよく、又はネットワーク上でダウンロードされてよい。
CT Images Each embodiment is performed on a series of CT scan slice images obtained from a CT scan using a human or animal specimen. Each slice image is a two-dimensional digital grayscale image of X-ray absorption in the scan area. The characteristics of the slice image depend on the CT scanner used. For example, a high resolution multi-slice CT scanner generates an image with a resolution of 0.5 to 0.6 mm / pixel in the x and y directions (ie, on each slice image plane). Each pixel may have a 32-bit grayscale resolution. The intensity value of each pixel is usually expressed in Hounds field units (HU). A series of slice images may be spaced apart in the z direction (i.e., scan separation axis), for example, at intervals of 0.75 to 2.5 mm. Thus, the scanned image is a three-dimensional (3D) grayscale image and has a total size that depends on the area and number of scanned slice images.
The present invention is not limited to a particular scanning scheme. It can be applied to electron beam CT (EBCT), multi-detector or helical scan, or any scheme that generates 2D or 3D images representing X-ray absorption.
As shown in FIG. 1, the scan image is generated by the computer 4, and the computer receives the scan data from the
肺壁に付着した結節
ある特定の実施形態においては、結節と肺壁との間の境界が検出されるように設計されている。周辺の肺結節は、しばしば胸膜の表面にある程度接合している(肺の周囲で、胸腔の境界に対して圧接されている)。結節はその表面を胸膜とかなりの程度共有している。このため、胸膜と結節との間の境界を示すことは困難な問題である。この複雑さは、結節の対向する両端の胸壁の周辺を識別する入力として2つのシード点(seed points)を用いることで軽減される。該シード点は、放射線技師等のユーザによって選択されてよく、又は自動的に決定されてよい。境界描画法の理論及び実施例は以下に示される。
Nodules Attached to the Lung Wall In certain embodiments, the boundary between the nodule and the lung wall is designed to be detected. The surrounding pulmonary nodules are often somewhat joined to the surface of the pleura (pressed against the thoracic boundary around the lungs). Nodules share their surface with the pleura to a considerable extent. For this reason, showing the boundary between the pleura and the nodule is a difficult problem. This complexity is reduced by using two seed points as inputs to identify the perimeter of the chest wall at opposite ends of the nodule. The seed point may be selected by a user such as a radiologist or may be determined automatically. The theory and examples of the boundary drawing method are shown below.
第1の実施形態では、前記方法は図2を参照して概略を述べた以下のステップを備える。
1)シード点(seed points)を入力する(ステップ12)。
2)周囲の組織から肺を分けるため粗分離を行い、境界を決定する(ステップ14)。
3)輪郭上の特異点を決定する(ステップ16)。
4)各スライス画像に対して以下の処理を実行する(開始スライス画像から開始する)。
a.開始スライス画像でなく、現在点のそれぞれが組織内である場合、現在点を境界に移動する(ステップ18)。このプロセスが失敗した場合、プロセスを終える。
b.それぞれの点が肺空間内にある場合、それを他方の点に向けて境界に当たるまで移動する(ステップ20)。失敗した場合終える。
c.2つの現在点に対して輪郭に沿った最も近傍の特異点を探索する(ステップ22)。
d.点を精密化する(ステップ24)。
e.現在スライス画像において結節の輪郭を得る(ステップ26)。
f.前のスライス画像における結節のオーバラップを確認する。オーバラップがなければ終える。
g.2つの点を次のスライス画像にマップする(ステップ30)。
5)開始スライス画像から両方向に、連続するスライス画像に対して処理を繰返す。
In a first embodiment, the method comprises the following steps outlined with reference to FIG.
1) Input seed points (step 12).
2) Perform rough separation to separate the lungs from surrounding tissues and determine the boundaries (step 14).
3) A singular point on the contour is determined (step 16).
4) The following processing is executed for each slice image (starting from the start slice image).
a. If each of the current points is not within the starting slice image and is within the tissue, the current point is moved to the boundary (step 18). If this process fails, the process ends.
b. If each point is in the lung space, move it towards the other point until it hits the boundary (step 20). Finish if it fails.
c. The nearest singularity along the contour is searched for the two current points (step 22).
d. The point is refined (step 24).
e. A nodule contour is obtained in the current slice image (step 26).
f. Check for nodule overlap in the previous slice image. Finish if there is no overlap.
g. Two points are mapped to the next slice image (step 30).
5) Repeat the process for consecutive slice images in both directions from the start slice image.
シード点の入力(ステップ12)
ユーザはCTスキャン画像の1つ以上のスライス画像を検査し、可能性のある胸膜結節を視覚的に識別する。ユーザ入力デバイスによって、ユーザはスライス画像の1つでの可能性のある胸膜結節の両側を2つのシード点として選ぶ。そのシード点は、胸膜結節の両側にあるだけでよく、正確に境界上にある必要はない。
他に、ユーザは入力デバイスを用いて、可能性のある胸膜結節の周囲にボックス又は他の図形を描いてもよい。その図形と胸膜との交叉点を2つのシード点として選んでもよい。
他の選択肢として、スキャン画像は可能性のある胸膜結節を識別する前処理を施されてよく、シード点はこの前処理段階で入力されてもよい。
Input seed point (step 12)
The user examines one or more slice images of the CT scan image and visually identifies potential pleural nodules. Depending on the user input device, the user selects as two seed points both sides of a possible pleural nodule in one of the slice images. The seed points need only be on either side of the pleural nodule and need not be exactly on the boundary.
Alternatively, the user may use an input device to draw a box or other graphic around a possible pleural nodule. The crossing point between the figure and the pleura may be selected as two seed points.
As another option, the scanned image may be pre-processed to identify possible pleural nodules, and the seed point may be entered at this pre-processing stage.
分割(ステップ14)
シード点を含むスライス画像形成像の上下の複数(例えば30)のスライス画像からなる部分的な画像が選択され、その画像を肺空間と(胸膜に付着した任意の結節を含む)胸膜とに分離するように粗分割が実行される。肺空間の強度は胸膜及び結節のそれよりかなり低いので、その分割は所定の閾値を画像に適用することで実行してよい。その閾値より上ではあるが胸膜に連続していない物体は、このアルゴリズムでは考慮されない。
他に、より再現性よく実施するために、最適の中心スライス画像を探索し、当該最適の中心スライス画像を部分的な画像の中心としてよい。例えば60ピクセル×60ピクセル×10スライス画像の窓(window)を決め、その中心を2つのシード点の中点とする。窓内で最大の強度を有する点を探索し、その最大強度の点を含む対応するスライス画像を、当該部分画像の中心スライス画像として決める。
分割は、初期の粗分割の後に適応分割を実行することでさらに改善される。適応分割においては、粗分割で得られた肺空間は、肺空間を含むマスク及び肺空間の周囲の縁(へり)を得るために、距離変換を用いて拡大される。拡大因子は50%であってよい。このような適応型分割は、マスク内での強度値のみから得られた閾値で実行される。
分割の結果は、スライス画像の2値マップであり、2値の一方の値を有し肺空間を示すピクセルと2値の他方の値を有し囲繞組織を示すピクセルとを含む。肺空間と囲繞組織とのあいだの境界上のピクセルは境界ピクセルとしてラベルされる。
例として、図3aは肺のスライスのスキャン画像を示し、図3bは分割の結果を示している。図3bは、肺空間が白色(2進数の1)であり囲繞組織が黒色(2進数の0)である2値画像である。図3cは、白色で、分割で得られた境界ピクセルを示している。
Division (step 14)
A partial image consisting of multiple slice images (for example, 30) above and below the slice image formation image including the seed point is selected, and the image is separated into lung space and pleura (including any nodules attached to the pleura) In this way, the rough division is performed. Since the intensity of the lung space is much lower than that of the pleura and nodules, the segmentation may be performed by applying a predetermined threshold to the image. Objects above that threshold but not contiguous to the pleura are not considered by this algorithm.
In addition, in order to carry out with higher reproducibility, an optimum center slice image may be searched and the optimum center slice image may be set as the center of a partial image. For example, a window of a 60 pixel × 60 pixel × 10 slice image is determined, and its center is set as a midpoint between two seed points. A point having the maximum intensity in the window is searched, and a corresponding slice image including the point having the maximum intensity is determined as a central slice image of the partial image.
The division is further improved by performing an adaptive division after the initial coarse division. In adaptive segmentation, the lung space obtained by the coarse segmentation is expanded using distance transformation to obtain a mask including the lung space and a peripheral edge (edge) of the lung space. The magnification factor may be 50%. Such adaptive segmentation is performed with a threshold obtained from only the intensity values in the mask.
The result of the segmentation is a binary map of slice images, including pixels that have one of the two values and indicate the lung space, and pixels that have the other binary value and indicate the surrounding tissue. Pixels on the boundary between the lung space and the surrounding tissue are labeled as boundary pixels.
As an example, FIG. 3a shows a scanned image of a lung slice and FIG. 3b shows the result of the segmentation. FIG. 3b is a binary image in which the lung space is white (binary number 1) and the surrounding tissue is black (binary number 0). FIG. 3c is white and shows the boundary pixels obtained by segmentation.
特異点の決定(ステップ16)
結節と胸膜との接合を検出する予備的ステップとして、境界の特異点が決定される。境界の各区画は凹部、凸部、又は直線部として識別される。特異点は、最大の凹曲率又は凸曲率の点、もしくは凹、凸、又は直線の状態間の遷移点のいずれかである。換言すれば、直線部と凸部又は凹部との間、もしくは直接に凸部と凹部との間である。胸膜と結節との間の境界を示すことが可能なので、特異点は重要である。
特異点を決定する、ある特定の方法について述べる。境界輪郭のマップが入力される。これは、例えば、アレイ内での位置が各ピクセルのx及びy座標で示される2値アレイであってよい。そして、境界ピクセルは2進数“1”でフラグされる。これは、換言すれば、境界のビットマップである。
次に、境界ピクセルが開始点として選択される。これは、任意の境界ピクセルが可能であり、例えば、第1の境界ピクセルはビットマップのラスタスキャン(左から右、上から下)で探索される。
Determination of singularity (step 16)
As a preliminary step to detect the junction between the nodule and the pleura, the singularity of the boundary is determined. Each section of the boundary is identified as a recess, protrusion, or straight line. A singular point is either the maximum concave or convex curvature point, or a transition point between concave, convex, or straight states. In other words, it is between the straight part and the convex part or the concave part, or directly between the convex part and the concave part. The singularity is important because it can indicate the boundary between the pleura and the nodule.
A particular method for determining singularities is described. A boundary contour map is input. This may be, for example, a binary array in which the position in the array is indicated by the x and y coordinates of each pixel. The boundary pixel is then flagged with a binary “1”. In other words, it is a boundary bitmap.
Next, the boundary pixel is selected as the starting point. This can be any boundary pixel, for example, the first boundary pixel is searched with a raster scan of the bitmap (left to right, top to bottom).
アルゴリズムは、それから、連続し隣り合う境界ピクセルの間で角度を記録して境界に沿って動かす。各スライス画像のピクセルは2Dカーテシアン(Cartesian)座標に配列しているので、8つの角度のみが可能である。各ピクセルに対して、隣接ピクセルは表1に示すような格子で表される。
各ピクセルと隣接ピクセルとの間の角度は、表2に示すようにコード化可能である。
コードは、表3に示す角度に対応する。
そして、ビットマップは、例えば(1,1,1,2,1,3,3…)のような、境界の周囲のループ内の連続する隣接境界ピクセルの間の角度を示すコードからなる1次元ベクトルを有する連鎖コードに変換される。なお、これらは下方向に対する絶対角度である。
次に、連鎖コードは、各境界ピクセルでの境界の曲率角度に変換される。これは、各境界ピクセルの周りの連鎖コードを取り出し、現在の境界ピクセルの近傍の境界ピクセルに関する連鎖コードがより強く重み付けされるように重み付けを施すことで実行される。なお、曲率角度は、絶対角度よりむしろ境界に対する相対的なものであり、ループの上の現在のピクセルの前の連鎖コードが、該ループの上の現在のピクセルの次のそれから減算されるようになっている。
The algorithm then records an angle between successive adjacent boundary pixels and moves along the boundary. Since the pixels of each slice image are arranged in 2D Cartesian coordinates, only 8 angles are possible. For each pixel, adjacent pixels are represented by a grid as shown in Table 1.
The angle between each pixel and adjacent pixels can be coded as shown in Table 2.
The codes correspond to the angles shown in Table 3.
A bitmap is a one-dimensional code consisting of a code indicating the angle between successive adjacent boundary pixels in a loop around the boundary, for example (1, 1, 1, 2, 1, 3, 3...) Converted to chain code with vector. These are absolute angles with respect to the downward direction.
The chain code is then converted to the boundary curvature angle at each boundary pixel. This is done by taking the chain code around each boundary pixel and weighting so that the chain code for the boundary pixels near the current boundary pixel is more heavily weighted. Note that the curvature angle is relative to the boundary rather than the absolute angle so that the previous chain code of the current pixel on the loop is subtracted from that next of the current pixel on the loop. It has become.
一例として、境界ピクセルiに対する曲率角度は、式に示されるように計算される。ここで、mj はガウス分布に従う重み付け因子であり、cci+j はピクセル(i+j)に対する連鎖コードで、負のjに対しては負数であり、nは、例えばn=5のような、境界の周囲の各方向を考慮した数を示している。
結果として、境界の周りの両方向で近傍のピクセルに関して、各境界ピクセルでの境界の曲率角度を示す1次元ベクトルが得られる。重み付けフィルタの効果は、連鎖コードの厳密な分散値に対して、角度を滑らかにすることである。
次に、曲率角度の極大及び極小が識別される。例えば、近隣比較法が用いられてよく、各角度はベクトル中の前後所定数(例えば3つ)の角度と比較される。
直線と凹部又は凸部との間の遷移点を識別するために、「直線」に対応する角度範囲を画定する。例えば、180°±fの全ての角度を直線として分類してよい。
図4aから4cは、それぞれf=5、15、30°に対する特異点を示している。凹極大及び直線と凹部との間の遷移は正方形で示しており、凸極大及び直線と凸部との間の遷移は円で示してある。図4aは、fを低く設定しすぎると、境界の曲率で緩やかな遷移しか示さない多数の特異点が生じることを示している。fの値は、ソフトウェアで予め設定される、及び/又はユーザにより調整されてよい。
As an example, the curvature angle for boundary pixel i is calculated as shown in the equation. Where m j is a weighting factor according to a Gaussian distribution, cc i + j is a chain code for pixel (i + j), is negative for negative j, and n is, for example, n = 5, The numbers taking into account each direction around the boundary are shown.
The result is a one-dimensional vector that indicates the curvature angle of the boundary at each boundary pixel with respect to neighboring pixels in both directions around the boundary. The effect of the weighting filter is to smooth the angle for the exact variance value of the chain code.
Next, the maximum and minimum curvature angles are identified. For example, neighborhood comparison methods may be used, where each angle is compared to a predetermined number (eg, three) of angles in the vector.
In order to identify a transition point between a straight line and a concave or convex part, an angular range corresponding to a “straight line” is defined. For example, all angles of 180 ° ± f may be classified as straight lines.
Figures 4a to 4c show the singularities for f = 5, 15, and 30 °, respectively. The transition between the concave maximum and the straight line and the concave portion is indicated by a square, and the transition between the convex maximum and the straight line and the convex portion is indicated by a circle. FIG. 4a shows that if f is set too low, a large number of singularities are produced that show only a gradual transition at the boundary curvature. The value of f may be preset by software and / or adjusted by the user.
結節の向きの探索
結節を検出する前に、2つのシード点p1 及びp2 に対して、結節が肺中でどの方向に延びているかを、まず決定する。一実施形態において、図5に図説のように、ベクトルvを2つの点p1 及びp2 の間に設定し、直交するベクトルoをベクトルvの中点から両側に延ばす。肺の空間Lに向かうoの向きは、肺の方向、つまり、胸膜結節Nが胸膜Pから肺の中に延びる方向を示している。
初期スライス画像の後は、結節の方向は、シード点p1 及びp2 に対して、前のスライス画像における検出された結節の方向から決定される。
Searching for nodule orientation Before detecting the nodule, it is first determined in which direction the nodule extends in the lung for the two seed points p 1 and p 2 . In one embodiment, as illustrated in FIG. 5, a vector v is set between two points p 1 and p 2 and an orthogonal vector o extends from the midpoint of the vector v to both sides. The direction of o toward the lung space L indicates the direction of the lung, that is, the direction in which the pleural nodule N extends from the pleura P into the lung.
After the initial slice image, the nodule direction is determined relative to the seed points p 1 and p 2 from the detected nodule direction in the previous slice image.
空間への移動(ステップ18)
各スライス画像に対して、シード点p1 及びp2 は先ず、それらが境界B上にあるかどうか確認決定し、そうでない場合、それらは境界上の適切な点に移動される。初期スライス画像において、ユーザはシード点p1 及びp2 を正確に境界上に置く必要はない。シード点を境界上に移動し、それらのz座標を変更することで次のスライス画像にシード点を移動した後に、シード点は新しいスライス画像の境界上には最早なくてよい。
シード点p1 及びp2 のいずれかが胸膜P内にある場合、その点は、境界上に移動される。移動の方向と距離は、一の特異点から離れて移動しないように制限されてよく、結節と胸膜との界面を示すようになされる。詳細には、界面の角度は、1つのスライス画像から次へ大きく変更しないようにする。シード点を組織から境界へ移動する1つの方式を示す。
先ず、移動するシード点を中心とする窓(例えば、20mm×20mm)中に任意の肺空間Lが存在するかどうか決定する。存在しない場合、エラー条件が示されてよい。存在する場合、図6に示すように、以降のステップが実行される。
・組織中にある点p1 、p2 のそれぞれから2つの線l1 、l2 を、結節Nの方向oに、ベクトルvからそれぞれ45及び135度、それぞれ10単位の長さだけ引く。
・移動するシード点から2つの線l1 、l2 の両端までの最小のサイズの矩形Rを生成する(点p1 、p2 のうち1つが組織中にない場合、そのような一対の線のみがあればよいことに注意する)。
・矩形R内で、境界B上の、シード点に最も近い点を探索する。
・移動距離が10mm未満ならば、その境界上の点に移動する。
本方式は、ベクトルvが回転できる角度及びシード点が移動できる距離に適切な制限をかけるものである。
Move to space (step 18)
For each slice image, seed points p 1 and p 2 first determine if they are on boundary B, otherwise they are moved to the appropriate point on the boundary. In the initial slice image, the user need not place the seed points p 1 and p 2 exactly on the boundary. After moving the seed points onto the boundary and changing their z-coordinate to move to the next slice image, the seed points may no longer be on the boundary of the new slice image.
If either seed point p 1 or p 2 is in pleura P, that point is moved onto the boundary. The direction and distance of movement may be limited so that it does not move away from one singular point, so as to indicate the interface between the nodule and the pleura. Specifically, the angle of the interface is not changed greatly from one slice image to the next. Figure 3 illustrates one way to move a seed point from tissue to the boundary.
First, it is determined whether an arbitrary lung space L exists in a window (for example, 20 mm × 20 mm) centered on the moving seed point. If not present, an error condition may be indicated. If it exists, the following steps are executed as shown in FIG.
Draw two lines l 1 and l 2 from the points p 1 and p 2 in the tissue in the direction o of the nodule N by 45 and 135 degrees from the vector v by 10 units each.
Generate a minimum-sized rectangle R from the moving seed point to the ends of the two lines l 1 , l 2 (if one of the points p 1 , p 2 is not in the tissue, such a pair of lines Note that you only need to have
In the rectangle R, a point closest to the seed point on the boundary B is searched.
・ If the moving distance is less than 10 mm, it moves to a point on the boundary.
This method places an appropriate limit on the angle at which the vector v can rotate and the distance that the seed point can move.
2つの点の統合(ステップ20)
2つのシード点p1 及びp2 のそれぞれが肺空間Lにある場合、その点は、図7に示すように、境界Bに当たるまで、他方の点に向けて移動される。移動した点が互いに所定の距離(例えば2mm)以内の場合、これは点の間に空間しかないことを示しているので、処理は終了する。
Integration of two points (step 20)
If each of the two seed points p 1 and p 2 is in the lung space L, that point is moved towards the other point until it hits a boundary B as shown in FIG. When the moved points are within a predetermined distance (for example, 2 mm) from each other, this indicates that there is only a space between the points, and the processing ends.
最も近い(最近傍の)特異点の探索(ステップ22)
シード点p1 及びp2 は、両者とも今や境界B上にあるはずである。次にそれらは、以下により詳細に述べるように、不適切な特異点の選択を避けるように企図したある条件に従って、境界Bに沿った最も近い特異点に対して移動される。
各シード点に対して、境界Bに沿った両方向で最も近い特異点が決定される。境界に沿った一方向の特異点が、他方向の特異点より顕著に近い場合、シード点はその近い特異点に移動される。例えば、シード点と一方向の最も近い特異点との間の距離(寸法)がある閾値より大きい場合、シード点は他方向の最も近い特異点に移動される。閾値は、例えば距離の2倍のように、各方向の2つの最も近い特異点のうちより近い方とシード点との間の距離の関数であってよい。
各方向の最も近い特異点が略等距離である場合、一の特異点がシード点と各特異点との間の直線上の肺空間の量に基いて選択される。例えば、図9に示すように、境界Bに沿った2つの最も近い特異点c1 、c2 とシード点p1 との間の距離の差が閾値未満の場合、シード点p1 から2つの最も近い特異点c1 、c2 それぞれへの直線l3 を生成し、肺空間Lを通過する線長の割合を決定する。割合が所定の閾値(例えば20%)を超える場合、その特異点は不適切な選択であるとみなし、他方向の最も近い特異点c2 に対する割合が閾値以下であれば、シード点はその点へ移動される。両方の特異点が閾値より大きい割合を有する場合、シード点はどちらの特異点へも移動されない。
Search for nearest (nearest) singularity (step 22)
Both seed points p 1 and p 2 should now be on boundary B. They are then moved relative to the nearest singularity along boundary B according to certain conditions intended to avoid selecting inappropriate singularities, as described in more detail below.
For each seed point, the closest singular point in both directions along the boundary B is determined. If a singular point in one direction along the boundary is significantly closer than a singular point in the other direction, the seed point is moved to that close singular point. For example, if the distance (size) between the seed point and the closest singular point in one direction is greater than a certain threshold, the seed point is moved to the nearest singular point in the other direction. The threshold may be a function of the distance between the closest of the two closest singularities in each direction and the seed point, such as twice the distance.
If the closest singularities in each direction are approximately equidistant, one singularity is selected based on the amount of lung space on the straight line between the seed point and each singularity. For example, as shown in FIG. 9, if the difference in distance between the two closest singular points c 1 and c 2 along the boundary B and the seed point p 1 is less than the threshold, the two points from the seed point p 1 A straight line l 3 to each of the nearest singular points c 1 and c 2 is generated, and the ratio of the line length passing through the lung space L is determined. If the ratio exceeds a predetermined threshold (for example, 20%), the singular point is regarded as an inappropriate selection, and if the ratio to the nearest singular point c 2 in the other direction is less than the threshold, the seed point is the point. Moved to. If both singularities have a percentage greater than the threshold, the seed point is not moved to either singularity.
点同士が近すぎる場合の移動
ある場合、シード点のうちの1つは最良の特異点から比較的離れていることがあり、すると、最も近い特異点を探索する場合、両方のシード点が同じ特異点に、又はかなり近づきあった特異点に移動されることがある。これは、シード点が前のスライス画像からマップされた場合、特に以下に述べるように精密分割移動が適用された場合に起こり得る。境界に沿った2つのシード点の間の距離が5mmのような閾値距離未満の場合、特異点により近いシード点はその特異点に移動される一方、シード点の間の初期の距離のような所定の閾値を越えて2つのシード点の間の距離が増加しないという条件で、他のシード点は境界に沿ってもう1つのシード点から離れて最も近い特異点に移動される。換言すれば、一方を離れるように移動した後のシード点の間の距離は、移動前の距離の2倍を越えることはないはずである。
Movement when points are too close In some cases, one of the seed points may be relatively far from the best singularity, so both seed points are the same when searching for the nearest singularity It may be moved to a singular point or to a singular point that is quite close. This can occur when the seed point is mapped from the previous slice image, especially when fine segmentation movement is applied as described below. If the distance between two seed points along the boundary is less than a threshold distance such as 5 mm, the seed point closer to the singular point is moved to that singular point, while the initial distance between the seed points is The other seed point is moved along the boundary to the nearest singular point away from the other seed point, provided that the distance between the two seed points does not increase beyond a predetermined threshold. In other words, the distance between the seed points after moving away from one side should not exceed twice the distance before the movement.
近傍に特異点が存在しない場合
シード点のうちの1つの近傍に特異点が存在しないような場合、そのシード点を、他方のシード点に対する最も近い特異点に移動してよい。これは、1つのシード点が移動前のシード点の間の距離の50%といった所定の割合を越えて境界に沿って移動されるのを避けることで防げ、その場合、任意の特異点から離れたシード点は移動されない。
When there is no singular point in the vicinity When there is no singular point in the vicinity of one of the seed points, the seed point may be moved to the closest singular point with respect to the other seed point. This can be prevented by avoiding that one seed point is moved along the boundary beyond a certain percentage, such as 50% of the distance between the seed points before movement, in which case it is separated from any singular point. Seed points are not moved.
精密分割(ステップ24)
粗く分割された境界を用いて最も近い特異点を探索した後、シード点の移動は、局所コントラストに応じて、精密分割を用いてシード点の近傍の境界Bを再評価することにより精密化してよい。例えば、各点が前景にあるか背景にあるかを決定するための閾値は、その点を囲む所定範囲の局所点からなるマスク内での各点の強度に基づいて決定してよい。閾値は、該閾値の上下の強度の中心の平均が、前記閾値と等しいか又は所定の程度前記閾値からずれるように選択されてよい。
次に、特異点を精密分割された境界上で決定する。シード点は、以下に例示するように、ある条件に従い、精密分割された境界上で最も近い特異点に移動されてよい。
・シード点の精密分割された境界への移動は、常に結節の方向から離れるように行われる。
・移動する距離は所定の閾値未満とする。閾値は、シード点が、スライス内で初期の点から粗分割を用いた最終の点へどれだけ動いたかに従って設定される。
・精密分割された境界の特異点へ移動する場合にシード点の間の線が回転する角度は、40度のような所定の角度未満とする。
粗分割された境界は、強力な部分体積効果がある結節の精密分割された境界の近傍にないことがあり得る。最も近い特異点が結節から離れる可能性があるこの場合、結節から離れる移動のみが許容されるので、正しい特異点が探索されない。これは、シード点が精密分割された境界と比較して肺内部にある場合、シード点を境界に到達するまで互いに向けて移動し、精密分割された境界上の最も近い特異点を探索することで解決することが可能である。
精密分割の効果は、結節の肺膜との接合を曖昧にする感染した組織等の、結節の周囲の物質の影響を除去することにある。粗分割では、通常境界の部分としてそのような物質が含まれ、一方、精密分割では、そのような物質は背景として再分類されるのである。
Precision division (step 24)
After searching for the nearest singular point using the coarsely divided boundary, the movement of the seed point is refined by re-evaluating the boundary B in the vicinity of the seed point using fine division according to the local contrast. Good. For example, the threshold value for determining whether each point is in the foreground or the background may be determined based on the intensity of each point in a mask composed of a predetermined range of local points surrounding the point. The threshold may be selected such that the average of the intensity centers above and below the threshold is equal to the threshold or deviates from the threshold by a predetermined amount.
Next, singular points are determined on the finely divided boundaries. The seed point may be moved to the nearest singular point on the finely divided boundary according to certain conditions, as illustrated below.
• The movement of the seed point to the finely divided boundary is always away from the nodule direction.
・ The distance traveled is less than a predetermined threshold. The threshold is set according to how far the seed point has moved from the initial point in the slice to the final point using coarse partitioning.
The angle at which the line between the seed points rotates when moving to a singular point on a finely divided boundary is less than a predetermined angle such as 40 degrees.
The coarsely divided boundary may not be near the finely divided boundary of a nodule with a strong partial volume effect. In this case, where the closest singularity may leave the nodule, only movement away from the nodule is allowed, so the correct singularity is not searched. This means that if the seed point is inside the lung compared to a finely divided boundary, the seed points will move towards each other until they reach the boundary and search for the nearest singular point on the finely divided boundary. Can be solved.
The effect of precision segmentation is to eliminate the influence of substances surrounding the nodule, such as infected tissue that obscure the junction of the nodule to the lung membrane. Coarse subdivision usually includes such materials as part of the boundary, while fine subdivision reclassifies such materials as background.
複数の境界
ある場合、肺Lは、粗分割によって2つ以上の部分に分割され、シード点は、例えば図10に図説されるように、それぞれ異なる部分に位置する。これは、現在のスライス画像で、肺を横切って血管が延びている場合に起こり得る。そして、結節Nの部分として血管を含むことで、結節Nの範囲を決定するのに障害となることがある。
この問題を克服するために、シード点が、境界Bに移動される場合、異なる連通していない境界の部分を形成するかどうかを決定する。そのように決定された場合、図11に示すように、結節の方向oで2つのシード点の間にある、2つの境界の間の距離の変化を算出する。距離の変化の例となるグラフを図12に示す。グラフの勾配が最も大きな変化を示す点gが得られ、その点が境界Bに組み込まれる。このようにして、結節Nは血管から分離される。
When there are a plurality of boundaries, the lung L is divided into two or more parts by coarse division, and the seed points are located in different parts as illustrated in FIG. 10, for example. This can happen when the blood vessel extends across the lung in the current slice image. In addition, including a blood vessel as the nodule N portion may be an obstacle to determining the nodule N range.
In order to overcome this problem, if the seed point is moved to boundary B, it is determined whether to form a part of the boundary that is not in communication. If so determined, as shown in FIG. 11, the change in the distance between the two boundaries between the two seed points in the nodal direction o is calculated. FIG. 12 shows a graph as an example of the change in distance. A point g showing the largest change in the gradient of the graph is obtained, and that point is incorporated into the boundary B. In this way, the nodule N is separated from the blood vessel.
輪郭の補正
例えば図13aに示すように、検出された接合点の間の境界の縁が行き過ぎている場合には、特異点が肺壁への結節の当接の正しい位置にない可能性があり、これは、例えば接合での緩やかな角度変化のために起こる。
この問題を避けるために、輪郭補正機能が用いられてよく、図13b乃至13dに示すように、正しい領域の抽出ができるよう接合点を再調整する。先ず、接合点の間に線を引く。線が境界と交叉する場合は、一方の接合点を、その側で境界と交叉しなくなるまで、境界に沿って他方に向けて移動する。そして、他方の接合点を、境界と交叉しなくなるまで、第1の接合点に向けて移動する。
ある場合、特に結節が小さい場合、図14aに示すように、縁が行き過ぎていても接合点の間の線が境界と交叉しないことがある。この場合、図14cに示すように、線が境界に交叉するまで小刻みに変化させることで、図14bに示すように、接合点は境界に沿って同時に移動される。それから、図14dに示すように、線が境界と交叉しなくなるまで、上述の輪郭の補正を進める。
Contour correction For example, as shown in FIG. 13a, if the edge of the boundary between the detected junctions has gone too far, the singularity may not be in the correct position for the contact of the nodule to the lung wall. This occurs, for example, due to gradual angular changes at the junction.
To avoid this problem, a contour correction function may be used, and the junction points are readjusted so that correct regions can be extracted, as shown in FIGS. 13b to 13d. First, a line is drawn between the joining points. If the line intersects the boundary, move one junction along the boundary toward the other until it no longer intersects the boundary on that side. Then, the other junction is moved toward the first junction until it does not cross the boundary.
In some cases, especially when the nodule is small, the line between the junctions may not intersect the boundary even if the edges are overrun, as shown in FIG. 14a. In this case, as shown in FIG. 14c, by changing the line in small increments until the line crosses the boundary, the joint point is simultaneously moved along the boundary as shown in FIG. 14b. Then, as shown in FIG. 14d, the above-described contour correction is advanced until the line does not cross the boundary.
結節境界の取得
この段階では、2つの接合点が決定されており、結節Nが胸膜Pと接合している境界Bに沿った点を示している。これらの接合点は、スライス画像内での結節Nの境界を推定するために用いることができる。第1近似として、接合点を結ぶ直線は、結節Nと胸膜Pとの間の接合を示すのに用いられる。代わりに、結節Nを囲む胸膜の曲率から推定したそれを有する曲線を用いてもよい。
次に、結節Nの範囲を決定する。一実施形態では、結節Nは胸膜P以外の主要物とは当接していないか、又はその近傍にもないと仮定する。ステップ14の分割結果が、図15に示すように、結節Nの部分を形成する際に、接合点を結ぶ線を越えた全ての前景領域を識別するために用いられる。
他の実施形態では、ファジーコントラスト領域拡張法が、結節Nの範囲を識別するために用いられる。先ず、局所閾値を基準とした分割処理によって、結節Nの範囲を推定する。各点に対する閾強度値を得るために局所マスクが用いられる。よって、閾値は局所コントラストに敏感であり、低いコントラストの結節を背景から区別することができる。精密分割によって得られた結節領域Nは、「孔」、即ち前景ピクセルによって囲まれた背景、を含みうる。孔は、コントラストの局所的な小さな差に対する精密分割の感度に基づいて生じる。適切な孔充填アルゴリズムが、そのような孔を充填するために用いられ、換言すれば、それらを前景ピクセルに変換する。
次に、結節領域N内で最も高い強度を有するピクセルがシード点として取り出され、バイナリ領域拡張がそのシード点から実行されて連続した前景領域Fを識別する。この領域は、前景及び背景の両者を含むマスクMを得るために、拡張因子を伴い距離変換法を用いて拡張される。拡張因子は50%であってよい。しかし、図16に示すように、マスクMは、接合点を結ぶ線の他側のピクセルを含むことはなく、接合点を超えたその線の射影を含む。次に、連続した前景領域F部分ではない、精密分割処理によって分割された前景ピクセルは、マスクMから除去される。マスクMの背景ピクセルは、背景領域Bとしてラベルされる。
前景及び背景領域F、Bの強度及び勾配分布の平均及び標準偏差が決定される。背景強度の平均μB 、前景強度の平均μF 、背景強度の標準偏差σB 、及び前景強度の標準偏差σF が算出される。パラメータεは、シード点が背景強度の平均μB から離れる前景強度の標準偏差σF の数を計数することで推定され、これはコントラストの測度(measure)として得られ、以下に述べるファジーマップを構築するのに続いて用いられる。
ファジー対象抽出法は、シード点に対するマスクM内のそれぞれのピクセルのファジー連続性(fuzzy connectivity)の2Dマップを確定するために用いられる。隣り合うピクセルの間のファジー親和性関数(fuzzy affinity function)が定義され、ピクセルとシード点との間の経路に沿って親和性を探索することによって、それぞれのピクセルとシード点との間のファジー連続性が得られる。
2点(隣り合う必要はない)間のファジー連続性は、2点間の最も強い親和性を有する経路を考慮することで得られる。最も強い親和性を有する経路が最良の経路として選択され、各経路の強度は、経路に沿った隣り合う点の最も弱い親和性のそれと等しい。2つの隣り合う点の間の強度はそれらの点の間の親和性である。
2点間の親和性は、それらが同一の対象に属する確率の測度である。この確率は、近接度(即ち、ユークリッド距離)の関数であり、それらのピクセルの間の画像の特徴の近似性である。
Acquisition of Nodal Boundary At this stage, two junction points have been determined, indicating the point along boundary B where nodule N is joined to pleura P. These junction points can be used to estimate the boundary of the nodule N in the slice image. As a first approximation, a straight line connecting the junction points is used to indicate the junction between the nodule N and the pleura P. Alternatively, a curve having that estimated from the curvature of the pleura surrounding the nodule N may be used.
Next, the range of the nodule N is determined. In one embodiment, it is assumed that nodule N is not in contact with or near any major object other than pleura P. As shown in FIG. 15, the division result of
In other embodiments, a fuzzy contrast region expansion method is used to identify the nodule N range. First, the range of the nodule N is estimated by a division process based on the local threshold. A local mask is used to obtain a threshold intensity value for each point. Thus, the threshold is sensitive to local contrast and low contrast nodules can be distinguished from the background. The nodule region N obtained by fine division may include a “hole”, ie, a background surrounded by foreground pixels. Holes are created based on the sensitivity of fine division to small local differences in contrast. A suitable hole filling algorithm is used to fill such holes, in other words, convert them to foreground pixels.
Next, the pixel with the highest intensity in the nodule region N is taken as a seed point, and binary region expansion is performed from that seed point to identify a continuous foreground region F. This region is expanded using a distance transformation method with an expansion factor to obtain a mask M that includes both foreground and background. The expansion factor may be 50%. However, as shown in FIG. 16, the mask M does not include pixels on the other side of the line connecting the junction points, but includes a projection of the line beyond the junction points. Next, the foreground pixels divided by the fine division process that are not continuous foreground regions F are removed from the mask M. The background pixels of mask M are labeled as background region B.
The mean and standard deviation of the intensity and gradient distribution of the foreground and background regions F, B are determined. An average μ B of background intensity, an average μ F of foreground intensity, a standard deviation σ B of background intensity, and a standard deviation σ F of foreground intensity are calculated. The parameter ε is estimated by counting the number of foreground intensity standard deviations σ F where the seed point is away from the average of the background intensity μ B , which is obtained as a measure of contrast and the fuzzy map described below. Used subsequently to build.
The fuzzy object extraction method is used to establish a 2D map of the fuzzy continuity of each pixel in the mask M relative to the seed point. A fuzzy affinity function between adjacent pixels is defined and fuzzy between each pixel and seed point by searching for affinity along the path between the pixel and seed point. Continuity is obtained.
Fuzzy continuity between two points (not necessarily adjacent) is obtained by considering the path with the strongest affinity between the two points. The path with the strongest affinity is selected as the best path, and the intensity of each path is equal to that of the weakest affinity of neighboring points along the path. The intensity between two adjacent points is the affinity between those points.
The affinity between two points is a measure of the probability that they belong to the same object. This probability is a function of proximity (ie, Euclidean distance) and the closeness of image features between those pixels.
ファジー親和性の一般モデルは、
μk =(c,d)=h(μa (c,d),f(c),f(d),c,d)
で与えられる。ここで、hは範囲[0,1]でのスカラ値、c及びdは2つのピクセルの画像中位置、及びf(i)はスペル(spel)iの強度である。μa は2つのピクセルの間の距離に基づく近傍性関数(adjacency function)であり、式で与えられる。
The general model for fuzzy affinity is
μ k = (c, d) = h (μ a (c, d), f (c), f (d), c, d)
Given in. Here, h is a scalar value in the range [0, 1], c and d are the positions in the image of two pixels, and f (i) is the intensity of spell i. μ a is an adjacency function based on the distance between two pixels and is given by an equation.
シフト非依存性に簡略化すると、c≠dのとき式で与えられ、更に
μk (c,c)=1
である。
To simplify the shift independence, it is given by an equation when c ≠ d, and further μ k (c, c) = 1.
It is.
ここで、下付き「i」は強度に関する計算を示し、「gk」は適切な方向(x、y、zであり得る)それぞれにおける勾配値に関する計算を示している。ωi 及びωg は和が1となる自由パラメータの加重値である。ωi に対して0.9及びωg に対して0.1の値が、強度の近似性を効果的とするために選択されてきた。現関数に用いられたファジー親和性は式に示される。 Here, the subscript “i” indicates the calculation regarding the intensity, and “gk” indicates the calculation regarding the gradient value in each of the appropriate directions (which may be x, y, and z). ω i and ω g are weighted values of the free parameters whose sum is 1. Values of 0.9 for ω i and 0.1 for ω g have been chosen to make the intensity closeness effective. The fuzzy affinity used for the current function is shown in the equation.
ここで、mi 、Si 、mg 及びSg は強度及び勾配に対するガウス分布パラメータである。これらは予め定義されてよく、又は以下に述べるようにシード点の回りの小領域から推定される。
マスクM内の全ての点にわたって、強度及び勾配の平均及び標準偏差σが算出される。勾配に関するパラメータは3方向(x、y及びz)で別々に算出される。対応するσは最大及び最小の勾配の間の差に基いて算出される。
統計的な計算について、以下に詳述する。パラメータmi は開始の強度であり、mgx、mgyはそれぞれx及びy方向の勾配の平均である。パラメータSgx、Sgyはそれぞれの方向の勾配の標準偏差である。
親和性の式に現れる標準偏差(Sd )は、ファジーマップの形成に影響し、そのため結節境界の決定に影響する。それが大きすぎる場合、親和性曲線は比較的扁平となる。結果として、背景領域がより高い親和性を有し、拡張する領域は過剰に分割される。反対に、それが小さすぎる場合、親和性曲線の形状は狭くなり、前景はシード点と低い親和性を有することとなり、結果は過小にしか分割されない。理想的には、曲線は、背景のシード点との親和性が最小であるが有限である程度に分散しているとよい。よって、親和性のガウス曲線は、理想的な分散を達成するように標準偏差を変更して制限又は拡張される。
そして、ファジーマップが、シード点に対するそれぞれのピクセルのファジー連続性値を探索することによって作成される。ファジーマップは、そのピクセルがどれだけ強くシード点と関連付けられているかを示す強調された画像であると捉えてよい。
次に、シード点から開始して、コントラストに基づく領域拡張をファジーマップに施す。領域拡張中に各ピクセルが領域に追加されるとき、領域の内部と外部との間で周辺コントラストが算出される。領域の周辺コントラストは、内部境界の平均グレーレベルと現在の境界の平均グレーレベルとの間の差として画定されてよい。
コントラストに基づく領域拡張の繰返しの各回において、現在の境界から1つのピクセルが選択され、現在の領域に追加される。現在の境界で優先的に選択されるピクセルは、強度と現在の領域の中心に対する距離とに基づいて決定される。領域拡張中に各ピクセルが領域に追加されるとき、領域の内部と外部との間で周辺コントラストが算出される。領域の周辺コントラストは、内部境界の平均グレーレベルと現在の境界の平均グレーレベルとの間の差として画定されてよい。それぞれの段階での周辺コントラストは記録され、領域拡張はマスクMを満たすまで継続される。領域拡張中に得られた最も高い周辺コントラスト値は、結節Nのそれに対応するような境界を有する最適の領域を示すとものとして選び出される。
Here, m i , S i , mg and S g are Gaussian distribution parameters for intensity and gradient. These may be pre-defined or estimated from a small area around the seed point as described below.
The average and standard deviation σ of intensity and gradient are calculated over all points in the mask M. Parameters related to the gradient are calculated separately in three directions (x, y and z). The corresponding σ is calculated based on the difference between the maximum and minimum slopes.
The statistical calculation is described in detail below. The parameter m i is the starting intensity, and m gx and m gy are the average of the gradients in the x and y directions, respectively. The parameters S gx and S gy are standard deviations of gradients in the respective directions.
The standard deviation (S d ) appearing in the affinity equation affects the formation of the fuzzy map and therefore the nodule boundary determination. If it is too large, the affinity curve will be relatively flat. As a result, the background area has a higher affinity and the expanding area is over-divided. Conversely, if it is too small, the shape of the affinity curve will be narrow, the foreground will have a low affinity with the seed point, and the result will only be under-divided. Ideally, the curve should have a minimal affinity for the background seed point but a finite degree of dispersion. Thus, the affinity Gaussian curve is limited or expanded by changing the standard deviation to achieve ideal dispersion.
A fuzzy map is then created by searching for the fuzzy continuity value of each pixel relative to the seed point. A fuzzy map may be viewed as an enhanced image that shows how strongly that pixel is associated with a seed point.
Next, starting from the seed point, the fuzzy map is subjected to region expansion based on contrast. As each pixel is added to the region during region expansion, the peripheral contrast is calculated between the interior and exterior of the region. The peripheral contrast of the region may be defined as the difference between the average gray level of the inner boundary and the average gray level of the current boundary.
In each iteration of contrast-based region expansion, one pixel is selected from the current boundary and added to the current region. The pixels preferentially selected at the current boundary are determined based on the intensity and the distance to the center of the current region. As each pixel is added to the region during region expansion, the peripheral contrast is calculated between the interior and exterior of the region. The peripheral contrast of the region may be defined as the difference between the average gray level of the inner boundary and the average gray level of the current boundary. The peripheral contrast at each stage is recorded and the area expansion continues until the mask M is filled. The highest peripheral contrast value obtained during region expansion is chosen as indicating the optimal region with a boundary corresponding to that of nodule N.
次のスライス画像へのマップ(ステップ28)
現在のスライス画像中の結節Nの範囲が決定された後、現在のスライス画像中の結節Nが、前の隣り合うスライス画像で決定された結節Nの範囲に重なり合うかどうかを決定する。これは、種々の方法で行われてよく、例えば、それぞれのスライス画像中の結節Nの中心を囲む所定半径の円形の「核」を決定し、隣り合うスライス画像同士でその核が重なり合うかどうか、即ち2つの核の間に同一のx及びy座標を有する任意のピクセルがあるかどうか、を決定することによってなされてよい。重なり合いがない、つまり現在のスライス画像では全く結節が検出されなかった場合、これは、開始スライス画像から現在の方向での結節Nの境界に達したことを示しているとしてよい。アルゴリズムが開始スライス画像から一方向のみに進んだ場合、それを他方向に進める。結節境界検出が両方向に実行された場合、アルゴリズムは終了し、結節Nが検出されたそれぞれのスライス画像における検出された結節の範囲を出力する。
前のスライス画像との重なり合いがある場合、アルゴリズムは次のスライス画像に進み、図17に示すように、現在のスライス画像の接合点j1 、j2 を次のスライス画像の2つのシード点p1 、p2 として用いる。例えば、新しいスライス画像のシード点は、前のスライス画像の接合点と同一のx及びy座標を有する。
Map to next slice image (step 28)
After the range of nodule N in the current slice image is determined, it is determined whether the nodule N in the current slice image overlaps the range of nodule N determined in the previous adjacent slice image. This may be done in various ways, for example, determining a circular “nucleus” of a predetermined radius surrounding the center of the nodule N in each slice image, and whether or not the adjacent slice images overlap. May be done by determining whether there are any pixels having the same x and y coordinates between the two nuclei. If there is no overlap, that is, no nodule is detected in the current slice image, this may indicate that the boundary of nodule N in the current direction from the starting slice image has been reached. If the algorithm proceeds in only one direction from the starting slice image, it proceeds in the other direction. If nodule boundary detection is performed in both directions, the algorithm ends and outputs the range of detected nodules in each slice image in which nodule N is detected.
If there is an overlap with the previous slice image, the algorithm proceeds to the next slice image and, as shown in FIG. 17, the junction points j 1 and j 2 of the current slice image are set to the two seed points p of the next slice image. 1, is used as the p 2. For example, the seed point of the new slice image has the same x and y coordinates as the junction point of the previous slice image.
結果
図18は、サンプルのスキャン画像に検出された結節Nの範囲を示している。
Results FIG. 18 shows the range of nodules N detected in the scanned image of the sample.
大腸への応用
上述した実施形態は、大腸のCTスキャン画像におけるポリプの検出に適用することもできる。ポリプは常に、CTスキャン画像中で類似の強度を有する大腸壁に付着している。ポリプの形状は、肺結節のそれとは若干異なっているが、大腸壁とポリプとの接合部は類似の幾何学的特徴を有しており、実施形態はその接合部を検出するのに用いることができる。
本発明は、人体及び/又は動物の内部空間の壁に付着している、他の異常腫瘍の検出に適用可能である。
Application to Large Intestine The above-described embodiment can also be applied to detection of polyps in a CT scan image of the large intestine. Polyps are always attached to the colon wall, which has a similar intensity in CT scan images. The shape of the polyp is slightly different from that of the pulmonary nodule, but the joint between the colon wall and the polyp has similar geometric characteristics, and the embodiment should be used to detect the joint Can do.
The present invention is applicable to the detection of other abnormal tumors attached to the walls of the internal space of the human body and / or animals.
他の実施形態
例示とともに上述の実施形態は本発明の範囲を限定するものではない。種々の変形例が請求項の範囲内で想到され得る。上記議論から明らかなように、本方法は単一のCTスライス画像からなる2D画像、又は連続したCTスライス画像からなる3D画像において実行可能である。
Other Embodiments The embodiments described above together with the examples do not limit the scope of the present invention. Various modifications may be envisaged within the scope of the claims. As is clear from the above discussion, the method can be performed on a 2D image consisting of a single CT slice image or a 3D image consisting of successive CT slice images.
Claims (29)
a.前記壁と内部空間との間の境界を決定し、
b.前記境界に沿った1つ以上の特異点を決定し、
c.前記病巣の両側のそれぞれ少なくとも1つの特異点の位置に基づいて、前記病巣の両側にて前記境界上の第1及び第2の接合点を選択し、
その結果、前記接合点により前記病巣と壁との間の前記接合部が識別されることを特徴とする方法。 In a method for identifying a junction between a lesion in a CT (Computer Aided Tomography) scan image and a wall adjacent to the internal space,
a. Determine the boundary between the wall and the interior space;
b. Determining one or more singularities along the boundary;
c. Selecting first and second junction points on the boundary on both sides of the lesion based on the location of at least one singular point on each side of the lesion;
As a result, the junction between the lesion and the wall is identified by the junction.
第1及び第2の前記接合点は、第1及び第2の前記シード点の位置に基づいて選択されることを特徴とする先行するいずれかの請求項に記載の方法。 Accepting input of first and second seed points on both sides of the lesion;
The method according to any preceding claim, wherein the first and second junction points are selected based on the positions of the first and second seed points.
前記病巣の端が検出されることを特徴とする請求項15又は請求項16に記載の方法。 For each of the series of consecutive slice images, the range of the lesion is detected, and the range of the lesion detected in the current slice image does not overlap the range of the lesion detected in the adjacent slice image. If
The method according to claim 15 or 16, wherein an edge of the lesion is detected.
前記病巣の範囲を該接合線によって制限するように決定することを特徴とする先行するいずれかの請求項に記載の方法。 The joint between the lesion and the wall is defined by a joint line extending between the first and second joint points;
A method according to any preceding claim, characterized in that the extent of the lesion is determined to be limited by the junction line.
局所コントラストを基にして閾値を用いて、前記病巣の周りの画像を前景と背景とに分離する精密分離を実行し、
前記接合線によって制限された、前記病巣を示す連続した前景領域を識別し、
マスクを生成するために、前記前景領域を、背景点を加えるように、且つ前記前景領域内に含まれない前景点を除くように拡張し、
前記病巣内のシード点に対して前記マスク内の点の連続性を画定するファジー連続性マップを得、
該ファジー連続性マップから病巣の範囲を決定する
ことによって決定されることを特徴とする請求項18乃至21のいずれか1つに記載の方法。 The extent of the lesion is
Performing a fine separation that separates the image around the lesion into the foreground and background using a threshold based on local contrast;
Identifying a continuous foreground region denoting the lesion, limited by the junction line;
Extending the foreground region to add background points and to exclude foreground points not included in the foreground region to generate a mask;
Obtaining a fuzzy continuity map that defines the continuity of points in the mask relative to seed points in the lesion;
The method according to any one of claims 18 to 21, characterized in that it is determined by determining the extent of a lesion from the fuzzy continuity map.
a.前記病巣と前記壁との間の接合部を識別し、
b.局所コントラストに基づく閾値を用いて、前記病巣の周囲の画像を前景と背景とに分離する精密分割を実行し、
c.前記接合部で制限して、前記病巣を示す前景領域を拡張し、
d.マスクを生成するために、背景点を含んで前記前景領域を拡張し、前記前景領域内に含まれない前景点を除き、
e.前記病巣内のシード点に対する前記マスク内の点の連続性を画定するファジー連続性マップを得、
f.前記ファジー連続性マップから前記病巣の範囲を決定する
ことを特徴とする方法。 In the CT scan image of the lung, in the method of identifying the extent of the lesion attached to the wall,
a. Identify the junction between the lesion and the wall;
b. Using a threshold based on local contrast, performing a fine segmentation that separates the image surrounding the lesion into foreground and background;
c. Restricting at the junction, expanding the foreground region showing the lesion,
d. To generate a mask, extend the foreground region to include a background point, excluding foreground points not included in the foreground region,
e. Obtaining a fuzzy continuity map that defines the continuity of points in the mask relative to seed points in the lesion;
f. Determining the extent of the lesion from the fuzzy continuity map.
前記ファジー連続性マップ内で前記シード点から連続性領域を拡張し、
前記病巣の範囲として最も高い境界コントラストを有する領域を出力する
ことを特徴とする請求項24に記載の方法。 In step f
Extending a continuity region from the seed point in the fuzzy continuity map;
The method according to claim 24, wherein an area having the highest boundary contrast is output as the lesion range.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0414081.0 | 2004-06-23 | ||
GB0414081A GB2415563B (en) | 2004-06-23 | 2004-06-23 | Lesion boundary detection |
US10/935,159 US7697742B2 (en) | 2004-06-23 | 2004-09-08 | Lesion boundary detection |
US10/935,159 | 2004-09-08 | ||
PCT/GB2005/001841 WO2006000738A1 (en) | 2004-06-23 | 2005-05-13 | Lesion boundary detection |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008503294A true JP2008503294A (en) | 2008-02-07 |
JP2008503294A6 JP2008503294A6 (en) | 2008-05-29 |
JP5055115B2 JP5055115B2 (en) | 2012-10-24 |
Family
ID=34969123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007517400A Expired - Fee Related JP5055115B2 (en) | 2004-06-23 | 2005-05-13 | Identification method, computer program, and computer program device |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1771822A1 (en) |
JP (1) | JP5055115B2 (en) |
KR (1) | KR20070083467A (en) |
AU (1) | AU2005256785A1 (en) |
CA (1) | CA2571720A1 (en) |
WO (1) | WO2006000738A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009225990A (en) * | 2008-03-21 | 2009-10-08 | Kobe Univ | Diagnostic imaging support processing apparatus and program |
JP2017029343A (en) * | 2015-07-31 | 2017-02-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2018088055A1 (en) * | 2016-11-09 | 2018-05-17 | キヤノン株式会社 | Image processing device, image processing method, image processing system, and program |
JP2018108126A (en) * | 2016-12-28 | 2018-07-12 | キヤノン株式会社 | Information processing unit, extraction method, and program |
JP2020099539A (en) * | 2018-12-21 | 2020-07-02 | 富士通株式会社 | Lung image processing program, lung image processing method, and lung image processing system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5242381B2 (en) | 2006-03-16 | 2013-07-24 | オリンパスメディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing method |
KR101128662B1 (en) * | 2009-12-30 | 2012-04-12 | 서울여자대학교 산학협력단 | Endo- and Epi- cardial Boundary Detection Apparatus of the Left Ventricle and method thereof |
KR101899866B1 (en) | 2011-11-03 | 2018-09-19 | 삼성전자주식회사 | Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour |
CN103793905B (en) * | 2012-11-02 | 2019-05-31 | 上海联影医疗科技有限公司 | Determine the method and device in brain image Coronal direction |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5185809A (en) * | 1987-08-14 | 1993-02-09 | The General Hospital Corporation | Morphometric analysis of anatomical tomographic data |
JPH05225317A (en) * | 1991-12-13 | 1993-09-03 | Nec Corp | Coordinate data designation control system |
JP2000172829A (en) * | 1998-12-07 | 2000-06-23 | Hitachi Ltd | Area extracting method |
US6246784B1 (en) * | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
JP2003524489A (en) * | 2000-01-18 | 2003-08-19 | ザ・ユニバーシティー・オブ・シカゴ | Methods, systems, and computer-readable media for two-dimensional and three-dimensional detection of lung nodules in computed tomography scans |
US20040064029A1 (en) * | 2002-09-30 | 2004-04-01 | The Government Of The Usa As Represented By The Secretary Of The Dept. Of Health & Human Services | Computer-aided classification of anomalies in anatomical structures |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004046995A2 (en) * | 2002-11-20 | 2004-06-03 | Koninklijke Philips Electronics N.V. | Computer-aided detection of lung nodules |
-
2005
- 2005-05-13 AU AU2005256785A patent/AU2005256785A1/en not_active Abandoned
- 2005-05-13 JP JP2007517400A patent/JP5055115B2/en not_active Expired - Fee Related
- 2005-05-13 CA CA002571720A patent/CA2571720A1/en not_active Abandoned
- 2005-05-13 EP EP05804912A patent/EP1771822A1/en not_active Withdrawn
- 2005-05-13 WO PCT/GB2005/001841 patent/WO2006000738A1/en active Application Filing
- 2005-05-13 KR KR1020077001635A patent/KR20070083467A/en not_active Application Discontinuation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5185809A (en) * | 1987-08-14 | 1993-02-09 | The General Hospital Corporation | Morphometric analysis of anatomical tomographic data |
JPH05225317A (en) * | 1991-12-13 | 1993-09-03 | Nec Corp | Coordinate data designation control system |
US6246784B1 (en) * | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
JP2000172829A (en) * | 1998-12-07 | 2000-06-23 | Hitachi Ltd | Area extracting method |
JP2003524489A (en) * | 2000-01-18 | 2003-08-19 | ザ・ユニバーシティー・オブ・シカゴ | Methods, systems, and computer-readable media for two-dimensional and three-dimensional detection of lung nodules in computed tomography scans |
US20040064029A1 (en) * | 2002-09-30 | 2004-04-01 | The Government Of The Usa As Represented By The Secretary Of The Dept. Of Health & Human Services | Computer-aided classification of anomalies in anatomical structures |
Non-Patent Citations (3)
Title |
---|
JEREBKO A K, PROCEEDINGS OF THE SPIE, vol. V5031, JPN5007009842, 2003, US, pages 359 - 369, ISSN: 0002263325 * |
KRISHNAN S M, PROCEEDINGS OF THE 20TH ANNUAL INTERNATIONAL CONFERENCE 以下備考, vol. V20 N2, JPN5007009844, 29 October 1998 (1998-10-29), US, pages 895 - 898, ISSN: 0002263326 * |
UDUPA J K, CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING, vol. V58 N3, JPN5007009843, May 1996 (1996-05-01), US, pages 246 - 261, ISSN: 0002263327 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009225990A (en) * | 2008-03-21 | 2009-10-08 | Kobe Univ | Diagnostic imaging support processing apparatus and program |
JP2017029343A (en) * | 2015-07-31 | 2017-02-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10319093B2 (en) | 2015-07-31 | 2019-06-11 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and program |
WO2018088055A1 (en) * | 2016-11-09 | 2018-05-17 | キヤノン株式会社 | Image processing device, image processing method, image processing system, and program |
JP2018077667A (en) * | 2016-11-09 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing system and program |
US11200443B2 (en) | 2016-11-09 | 2021-12-14 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image processing system |
JP2018108126A (en) * | 2016-12-28 | 2018-07-12 | キヤノン株式会社 | Information processing unit, extraction method, and program |
JP2020099539A (en) * | 2018-12-21 | 2020-07-02 | 富士通株式会社 | Lung image processing program, lung image processing method, and lung image processing system |
JP7151464B2 (en) | 2018-12-21 | 2022-10-12 | 富士通株式会社 | Lung image processing program, lung image processing method and lung image processing system |
Also Published As
Publication number | Publication date |
---|---|
EP1771822A1 (en) | 2007-04-11 |
JP5055115B2 (en) | 2012-10-24 |
WO2006000738A1 (en) | 2006-01-05 |
CA2571720A1 (en) | 2006-01-05 |
KR20070083467A (en) | 2007-08-24 |
AU2005256785A1 (en) | 2006-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5055115B2 (en) | Identification method, computer program, and computer program device | |
US7697742B2 (en) | Lesion boundary detection | |
JP4999163B2 (en) | Image processing method, apparatus, and program | |
Gonçalves et al. | Hessian based approaches for 3D lung nodule segmentation | |
Sluimer et al. | Toward automated segmentation of the pathological lung in CT | |
Alilou et al. | A comprehensive framework for automatic detection of pulmonary nodules in lung CT images | |
US8019139B2 (en) | Method and system for processing an image of body tissues | |
JP2008503294A6 (en) | Identification method, computer program, and computer program device | |
JP6539303B2 (en) | Transforming 3D objects to segment objects in 3D medical images | |
KR20070085120A (en) | Nodule boundary detection | |
EP1755457A1 (en) | Nodule detection | |
JP2007524488A (en) | System and method for toboggan-based object segmentation using divergent gradient field response in images | |
JP2011526508A (en) | Segmentation of medical images | |
US7480401B2 (en) | Method for local surface smoothing with application to chest wall nodule segmentation in lung CT data | |
Shariaty et al. | Texture appearance model, a new model-based segmentation paradigm, application on the segmentation of lung nodule in the CT scan of the chest | |
JP2006325937A (en) | Image determination device, image determination method, and program therefor | |
JP2006006359A (en) | Image generator, image generator method, and its program | |
Schenk et al. | Local-cost computation for efficient segmentation of 3D objects with live wire | |
JP2002109510A (en) | Possible abnormal shadow detecting and processing system | |
Farag | Variational approach for small-size lung nodule segmentation | |
JP6957152B2 (en) | Information processing equipment, extraction methods and programs | |
Farag et al. | Parametric and non-parametric nodule models: Design and evaluation | |
US8165375B2 (en) | Method and system for registering CT data sets | |
Hu et al. | Automated multimodality concurrent classification for segmenting vessels in 3D spectral OCT and color fundus images | |
Dehmeshki et al. | A hybrid approach for automated detection of lung nodules in CT images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120703 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5055115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |