WO2015016481A1 - 기도와 폐엽을 추출하는 방법 및 그 장치 - Google Patents

기도와 폐엽을 추출하는 방법 및 그 장치 Download PDF

Info

Publication number
WO2015016481A1
WO2015016481A1 PCT/KR2014/004989 KR2014004989W WO2015016481A1 WO 2015016481 A1 WO2015016481 A1 WO 2015016481A1 KR 2014004989 W KR2014004989 W KR 2014004989W WO 2015016481 A1 WO2015016481 A1 WO 2015016481A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
candidate
extracting
image
lung
Prior art date
Application number
PCT/KR2014/004989
Other languages
English (en)
French (fr)
Inventor
박상준
구진모
정진욱
이두희
김양욱
Original Assignee
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130091595A external-priority patent/KR101482247B1/ko
Priority claimed from KR1020130124155A external-priority patent/KR101514003B1/ko
Application filed by 서울대학교 산학협력단 filed Critical 서울대학교 산학협력단
Priority to US14/909,304 priority Critical patent/US9996919B2/en
Publication of WO2015016481A1 publication Critical patent/WO2015016481A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule

Definitions

  • the present invention relates to a method and apparatus for extracting airways and lung lobes from a three-dimensional human body image.
  • the present invention is derived from a study conducted as part of the Basic Research Project of the Science and Engineering Department of the Ministry of Science, ICT and Future Planning. [Task No .: 2014R1A1A1005254, Title: Detailed classification and pulmonary function of Korean COPD severity based on GOLD criteria in ultra-low dose chest CT] Comparative Evaluation with Test: Development of Multidisciplinary Image Biomarkers]
  • the airway the way the air passes when breathing, consists of the trachea and the bronchus.
  • the bronchus contains very small broncholes up to 2 mm in diameter.
  • the present invention has been made in an effort to provide a method and apparatus for extracting an airway by an automated method without specifying a bronchial part by a human in a 3D human body image.
  • the technical problem to be achieved by the present invention to accurately analyze and quantify the location of the lung disease lesions to separate the gaps in the parenchyma from the lung parenchyma from the three-dimensional human image, so as to more accurately establish the internal and external treatment and surgical planning A method of dividing and a device thereof are provided.
  • an embodiment of the airway extraction method obtaining a three-dimensional human body image; Extracting a first candidate region of the airway from the 3D human body image through a region growing method; Dividing a lung region from the 3D human body image and extracting a second candidate region of the airway from the lung region based on a directionality of a change in signal intensity of voxels belonging to the lung region; Calculating a third candidate region in which the first candidate region and the second candidate region are combined; And extracting an airway region by removing noise based on a similarity in directionality with respect to a change in signal strength of voxels belonging to the third candidate region.
  • the step of obtaining a three-dimensional human body image the step of obtaining a three-dimensional human body image; Setting an area having a predetermined horizontal and vertical size in the sagittal plane of the 3D human body image; Creating an image in which a predetermined number of sagittal images located in the middle of the 3D human body image is projected in a depth direction of the sagittal plane; Finding a voxel having a minimum signal intensity among the voxels belonging to the set area in the projected image and setting the seed point as a seed point; And extracting the airways by applying a region growth method based on the seed point.
  • an embodiment of a lobe extraction method comprises the steps of: obtaining a three-dimensional human body image; Dividing a lung region from the 3D human body image using a region growing method; Extracting a candidate group of gaps between lung lobes based on a change in signal intensity of voxels belonging to the lung region; Reconstructing an image of the lung region including the niche candidate group from an image viewed from the front of the human body, and generating a virtual niche based on the niche candidate group represented by the reconstructed image; And extracting the lobe using the virtual gap.
  • the step of obtaining a three-dimensional human body image Dividing a lung region from the 3D human body image using a region growing method; Obtaining a virtual gap between the lobes of the lung region; Obtaining a center of gravity coordinate of each region divided by the virtual gap; And dividing the lobe by performing a region growth method simultaneously in each region using the center of gravity coordinates of each region as the seed point.
  • the tube structure information of the bronchial tree can be used to maximize the detection of bronchial segments without leaking from the trachea of about 30 mm to the bronchus of 2 mm or less in diameter from the 3D chest image.
  • the starting position for airway extraction can be automatically detected from the 3D human body image.
  • the lobes can be segmented without leakage, and the gap between the lobes made of thin membranes within 1 mm thick can be accurately distinguished using anatomical information and ultimately the lungs.
  • anatomical information of lesions in the parenchyma can be provided.
  • FIG. 2 is a view showing the configuration of an embodiment of an image processing apparatus for extracting an airway from a 3D human body image according to the present invention
  • FIG. 3 is a flow diagram of an embodiment of a method for extracting an airway from a 3D human body image according to the present invention
  • FIG. 4 is a view showing a flow of an embodiment of the automatic detection of the seed point for the application of the region growth method according to the present invention
  • FIG. 8 illustrates a detailed flow of a method of extracting a first candidate region for airway extraction according to the present invention
  • FIG. 9 is a flow diagram of an embodiment of an adaptive region growth method according to the present invention.
  • FIG. 10 is a diagram illustrating an example of an airway extracted image obtained through a region growing method based on different signal intensity upper limits according to the present invention
  • FIG. 11 is a view showing a gap existing in the airway extraction region obtained through the region growth method according to the present invention and the result of filling the gap;
  • FIG. 12 illustrates a detailed flow of a method for extracting a second candidate region for airway extraction, in accordance with the present invention.
  • FIG. 13 is a diagram showing the airway tube structure according to the present invention as a vector
  • 17 is a diagram illustrating an example of an airway extraction result obtained by removing noise according to the present invention.
  • FIG. 18 is a view showing the configuration of an embodiment of an image processing apparatus for extracting lung lobes from a 3D human body image according to the present invention
  • FIG. 19 is a diagram illustrating an example of a chest CT image
  • FIG. 20 is a diagram illustrating an example of detecting an area having a sheet structure characteristic in a lung region by using the Hessian matrix according to the present invention in the chest CT image of FIG. 19.
  • FIG. 20 is a diagram illustrating an example of detecting an area having a sheet structure characteristic in a lung region by using the Hessian matrix according to the present invention in the chest CT image of FIG. 19.
  • FIG. 23 is a diagram illustrating an example of an image in which gap recognition is further enhanced by applying 3D labeling to the image of FIG. 22;
  • FIG. 24 illustrates an example of reconstructing a lung image including a detected gap according to the present invention into an image viewed from the front of the human body;
  • 25 is a diagram illustrating an example of a result of detecting a gap using an interpolation method according to the present invention.
  • 29 is a view showing another embodiment of a method for extracting lung lobes from a 3D human body image according to the present invention.
  • FIG. 30 is a view showing a case where it is difficult to distinguish the gap in the lung parenchyma due to lung disease
  • FIG. 31 is a view illustrating an example of a result of dividing a lobe by applying the lobe extraction method of FIG. 29;
  • FIG. 32 is a view showing another example of a result of extracting lung lobes by applying the method according to the present invention.
  • 33 is a flowchart illustrating another embodiment of a method of extracting an airway from a 3D human body image according to the present invention.
  • FIG. 1 is a diagram illustrating a brief example of a system for photographing and processing a 3D human body image according to the present invention.
  • the 3D human body imager 100 is a device for capturing a 3D image of the inside of a human body.
  • a CT image and a magnetic resonance imager (MRI) photographing apparatus are present, but are not necessarily limited thereto. This includes all devices capable of obtaining internal three-dimensional images.
  • the image processing apparatus 110 processes and processes the input human body image according to various purposes such as extracting the necessary tissue by receiving the 3D human body image captured by the 3D human body imager 100.
  • the image processing apparatus 110 is illustrated as directly receiving a captured image of the 3D human body imager 100, but is not necessarily limited thereto.
  • Various electronic media for example, compact disc (CD), The 3D human body image stored in a DVD (Digital Versatile Disc, USB memory, etc.) can be input.
  • the output device 120 generally includes a monitor and receives and outputs an image of human tissue processed by the image processing apparatus 110.
  • the output device 120 may be implemented as a single device with the image processing device 110 or may be connected to the image processing device 110 through a wired or wireless communication network to display an image received from the image processing device 110 remotely. have.
  • An embodiment to be described below discloses a method and apparatus for extracting airways and lung lobes from human tissues, in particular, from a 3D human body image.
  • the present invention is not limited thereto. Of course, it can be used to extract other tissues of the human body based on the basic idea of the present invention.
  • FIG. 2 is a diagram illustrating a configuration of an embodiment of an image processing apparatus for extracting an airway from a 3D human body image according to the present invention.
  • the image processing apparatus 110 may include an image input unit 200, a first extractor 210, a second extractor 220, a candidate region extractor 230, and a noise remover 240. Include.
  • the image input unit 200 receives a 3D human body image.
  • each tissue is displayed as a contrast of signal intensity.
  • the signal intensity of lung tissue is approximately -400 HU (Hounsfield Unit) or less and approximately -950 HU inside the airways where air is present.
  • the first extractor 210 extracts the first candidate region for the airway by applying a region growth method to the 3D human body image.
  • a region growing method a simple region growing method or an adaptive region growing method may be used.
  • the simple region growth method is a method of extending a region from a three-dimensional pixel point belonging to a human tissue to be extracted, that is, a voxel, to a peripheral region satisfying an upper limit value and a lower limit value of signal intensity.
  • the lower limit of signal intensity for extracting airways from CT images is -1024 HU and the upper limit is -950 HU.
  • the signal intensity is different for the same tissue in the three-dimensional human image or the presence or absence of disease, so the upper limit and the lower limit for the application of the region growth method are required for more accurate division of the human tissue. You need to change it accordingly.
  • a method of segmenting tissue using the adaptive region growth method will be described with reference to FIG. 9.
  • the first candidate region extracted by the first extractor 210 is simply extracted by contrasting signal strength, it is difficult to accurately extract a small bronchial portion of 2 mm or less in diameter.
  • the resolution of the 3D human body image is low, the number of voxels indicating a small bronchus is very small, which makes it more difficult to extract.
  • the second extractor 220 In order to accurately extract a small bronchus portion of 2 mm or less in diameter, the second extractor 220 first divides the lung region from the 3D human body image and then, based on the direction of the signal intensity change of the voxels belonging to the divided lung region, based on the direction of the bronchus. Extract a second candidate region for.
  • Human tissue may have structural features that distinguish it from the surroundings.
  • the bronchial tree has a tube structure, and the tube structure has a structure in which a vector for a change in signal strength is aligned in a certain direction.
  • a detailed method of extracting the tissue based on the directionality of the change in the signal strength of the voxels by the second extractor 220 will be described in detail with reference to FIGS. 12 to 13.
  • the candidate region extractor 230 combines the first candidate region extracted by the first extractor 210 and the second candidate region extracted by the second extractor to obtain a third candidate region. For example, the candidate region extractor 230 extracts a third candidate region to which the bronchial region of the first candidate region and the bronchial region of the second candidate region are connected. To this end, the candidate region extractor 230 may extract the third candidate region for the airway by applying a region growth method to one image in which the first candidate region and the second rear region are combined.
  • FIG. 3 is a flow diagram of an embodiment of a method for extracting an airway from a 3D human body image according to the present invention.
  • the image processing apparatus receives a 3D human body image (S300).
  • the image processing apparatus extracts a first candidate region for the airway by applying a region growth method to the input 3D human image (S310).
  • a region growth method for extracting the first candidate region is shown in FIG. 9, and an automatic detection method of the seed point for applying the region growth method is illustrated in FIG. 4.
  • the image processing apparatus divides the lung region from the received 3D human body image and extracts the second candidate region based on the direction of the change in the signal intensity of the voxels belonging to the lung region (S320).
  • a detailed method for extracting the second candidate region is shown in FIG. 12.
  • the image processing apparatus extracts the third candidate region by applying an image growth method to the image combining the first candidate region and the second candidate region (S330), and removes the noise of the extracted third candidate region to obtain a final airway image. Obtain (S340). More details on noise cancellation are shown in FIGS. 14-16.
  • the image processing apparatus receives a 3D human body image (S400).
  • the image processing apparatus defines the size and position of the 2D region of a predetermined size in the received human image (S410).
  • the size and position of the 2D region is determined and stored in advance according to the anatomical position of the input 3D human body image or the tissue to be extracted. For example, if the airway is to be extracted from the CT image, as shown in FIG. Define a two-dimensional reference area 510 consisting of a height connecting the 30% to 40% point. In the case of CT images, the center of the x-y axis is almost fixed while the center of the z axis can be changed every time. Therefore, a two-dimensional reference region is set based on the sagittal plane.
  • the image processing apparatus selects a voxel having a specific signal intensity in the previously set two-dimensional reference region as the seed point from the image in which N images are projected as one (S430). For example, in order to find the seed point 720 for airway extraction, since the airway space is filled with air and the signal intensity will be very low, the image processing apparatus may use the two-dimensional reference area 710 of the projection image 700. The voxel having the lowest signal strength is selected as the seed point 720. The image processing apparatus determines whether the number of voxels having a similar signal strength connected to the seed point is greater than or equal to a preset threshold to verify whether the selected seed point exists in the tissue to be actually searched for. If the number of neighboring voxels connected to the seed point is less than the threshold, the seed point selection is determined to be wrong and the other voxels around the seed are searched again to select the seed point.
  • the image processing apparatus extracts a desired tissue, for example, an airway, by applying a region growth method based on the automatically detected seed point (S440).
  • 8 illustrates a detailed flow of a method of extracting a first candidate region for airway extraction according to the present invention. 8 corresponds to the first extraction unit 210 of FIG. 2 or the first candidate region extraction step S310 of FIG. 3.
  • the image processing apparatus may include a preprocessing process for removing a job before applying the region growth method, if necessary (S800).
  • the image processing apparatus may perform anisotropic diffusion (AD) filtering during the preprocessing. Since AD filtering is an algorithm that can effectively remove noise while preserving a reliable boundary, a detailed description thereof will be omitted.
  • the image processing apparatus divides a region to be extracted by applying a region growing method (simple region growing method or an adaptive region growing method) after the preprocessing process (S810). For example, the image processing apparatus divides the airway region by applying a region growth method based on the seed point in the trachea of the 3D chest image.
  • a region growing method simple region growing method or an adaptive region growing method
  • I is a binary reconstructin image obtained through the region growth method
  • B 26 represents a spherical SE composed of 26 pixels adjacent to the center pixel.
  • the image processing apparatus acquires the first candidate region from which the noise of the gap is removed (S830).
  • FIG. 9 is a flowchart illustrating an embodiment of the adaptive region growth method according to the present invention.
  • the image processing apparatus first sets an initial lower limit value and an upper limit value of signal strength (S900). For example, when the airway is to be extracted from the CT image, the initial lower limit is -1024 HU and the initial upper limit is -950 HU.
  • the image processing apparatus extracts a candidate region on the 3D human image by applying a region growing method based on the initial lower limit value and the initial upper limit value (S910). Even if the size of the lower limit and the upper limit for applying the region growth method is slightly different from the threshold, the results of the application of the region growth method are remarkably different.
  • the left image 1000 of FIG. 10 is an airway extraction image obtained by a region growing method at an optimal upper limit value
  • the right image 1010 is a region growing method when its size is larger than the upper limit value of the left one. As a result of airway extraction obtained through, only one difference shows that the result is significantly different.
  • the image processing apparatus compares the volume of the extracted candidate region with a preset reference volume to verify whether the extracted candidate region correctly extracted the intended tissue (S920).
  • the image processing apparatus does not verify the reference volume based on a fixed reference volume, but the ratio of the number of voxels belonging to the current extraction candidate region and the number of voxels belonging to the previously extracted candidate region is set to a preset threshold. It may be verified based on deviation (S920).
  • the current lower limit value is increased or the upper limit value is decreased in order to refine the extraction of the candidate region (S930).
  • the lower limit is meaningless, so reduce the upper limit.
  • the image processing apparatus re-extracts the candidate region by applying the region growth method based on the reduced upper limit (or the increased lower limit) (S940), and then verifies whether the image is properly extracted through the ratio of the reference volume or the number of voxels ( S920).
  • FIG. 12 is a flowchart illustrating a detailed flow of a method of extracting a second candidate region for airway extraction according to the present invention.
  • FIG. 12 corresponds to the second extracting unit 220 of FIG. 2 or the second candidate region extraction S320 of FIG. 3.
  • the image processing apparatus divides a lung region from a 3D chest image (S1200). For example, if a lung region is to be segmented in a CT image, the region growth method is applied based on -400 HU.
  • the image processing apparatus determines the direction of the signal intensity change of the voxels belonging to the divided lung region (S1210). This directionality can be identified through eigenvectors and eigenvalues. For example, if the direction of the signal strength to the bronchus is shown, it may be represented by a vector having a constant direction as shown in the right figure of FIG.
  • Each element of the Hessian matrix can be regarded as the coefficient of the cubic simultaneous equation, and the eigenvectors and eigenvalues can be found by solving the equations.
  • bronchus In the case of bronchus, it has a typical tube-shaped line structure, and can be defined as follows by preliminarily examining the range of intrinsic values for specifying the line structure of the bronchus.
  • the reference eigenvalue 70 preset for the bronchus is just one example, and the reference eigenvalue may be 60 or 80 depending on the application example, and may be a value that can reflect the structural characteristics of the bronchus.
  • the image processing apparatus compares the eigenvectors and eigenvalues of the tissue to be extracted with the eigenvectors and eigenvalues of the human tissues extracted from the 3D human body image, and extracts voxels satisfying a predetermined criterion.
  • 2 candidate regions are acquired (S1220). For example, the image processing apparatus obtains an eigenvector and an eigenvalue for a change in signal strength of voxels belonging to a lung region, and then determines whether the range of eigenvalues for each direction satisfies Equation 3 above.
  • Candidate regions can be extracted.
  • 14 to 16 illustrate an embodiment of a noise reduction method for airway extraction according to the present invention.
  • 14 to 16 correspond to the noise removing unit 240 of FIG. 2 or the noise removing step S340 of FIG. 3.
  • the third candidate region may be obtained by applying a region growing method to an image in which the first candidate region and the second candidate region are combined.
  • FP false positive
  • the computer recognizes an incorrect answer as an incorrect answer. That is, in the third candidate region, there is a bumpy noise around the trachea, the bronchus, and the like.
  • the airway is a line structure of a tube structure, the eigenvectors with respect to the change in signal intensity exhibit a constant direction, and thus the similarity of the directions can be examined to remove FP, that is, noise.
  • CS similarity s is given by the following equation.
  • a, v is a vector, Is the nome of vector a, Denotes the dot product of the vectors a and v.
  • the image processing apparatus may include (1) a noise removing step for trachea, (2) a noise removing step for samll airway, and (3) to increase noise removal efficiency. ) It consists of a zone linking step that refers to a true bronchial TP (true positive).
  • the fourth candidate region is generated by performing a similarity check on the difference ( ⁇ ) image between the third candidate region and the first candidate region.
  • a reference vector for inspection is required, and the reference vector is set as an average vector of voxels in a predetermined space in the first candidate region.
  • the reference vector uses a vector average of voxels in a 5x5x5 space of the first candidate region, and considers it to be noise if CS is less than a preset reference value (eg, 0.99) and removes it.
  • a preset reference value eg, 0.99
  • the reference value for caught removal can be set in various ways depending on the application.
  • This process removes most of the noise from the trachea and the main bronchus, but also removes the boundary of the bronchus that is present in the third candidate region. This occurs because there is no reference pixel corresponding to the first candidate region around the bronchial region in the CS process, and a process for connecting such islands is required, and the process is performed in step (4). do.
  • Noise reduction of the bronchus may be performed by performing a similarity check on the difference ( ⁇ ) image between the fourth candidate region and the first candidate region to generate a fifth candidate region.
  • a reference vector for checking similarity of voxels belonging to a difference (-) image is an average vector of voxels belonging to a peripheral area having a predetermined size in the difference (-) image of the second candidate region and the first candidate region.
  • the image processing apparatus may use, as a reference vector, an average vector of voxels belonging to a 5x5x5 size region as a reference vector in a difference (-) image between the second candidate region and the first candidate region. For example, voxels less than 0.99) are considered noise and removed. Since the current noise removal step can remove not only the noise but also the micro-bronchi, the following steps are performed to recover it.
  • the independent area is connected to the airway and restored. This extracts the final airway area that is naturally connected.
  • 17 is a diagram illustrating an example of an airway extraction result obtained by removing noise according to the present invention.
  • FIG. 17 (a) is a diagram showing an airway region obtained through a region growth method, (b) is a diagram showing an airway region obtained through an adaptive region growth method, and (c) is a signal intensity
  • the result of detecting a bronchial bronchus on the basis of the direction to the change of (d) is a figure which shows the airway area
  • FIG. 18 is a diagram illustrating a configuration of an embodiment of an image processing apparatus for extracting lung lobes from a 3D human body image according to the present invention.
  • the image processing apparatus 110 includes an input unit 1800, a lung region divider 1810, a gap candidate group extractor 1820, a virtual niche generator 1830, and a lobe extractor 1840. do.
  • the input unit 1800 receives a 3D human body image.
  • the three-dimensional human body image represents each tissue as a contrast of signal intensity.
  • the signal intensity of lung tissue is approximately -400 HU (Hounsfield Unit) or less.
  • the signal intensity (intensity) that appears in each person or according to the presence or absence of disease is slightly different for the same tissue in the 3D human body image.
  • This method is to apply the region growth method by determining the upper limit and the lower limit through the feedback process.
  • the gap candidate group extracting unit 1820 has a sheet structure characteristic based on the direction of the signal intensity change of the voxel based on the candidate group of gaps between the lobes in the parenchyma obtained by the lung region dividing unit 1810. Find the area you have and detect gaps.
  • the gap candidate group extracting unit 1820 detects a candidate group having a plane structure characteristic based on a change in signal intensity of voxels belonging to a lung region to detect a gap region.
  • an eigenvector and an eigenvalue may be used to determine a change in signal strength of voxels.
  • other methods may be used to detect the change in signal strength of the voxels.
  • the description will be limited to a case where an eigen value is used to determine a change in signal strength of voxels in a closed region.
  • I represents the signal intensity at the (x, y, z) coordinate.
  • Each element of the Hessian matrix can be regarded as the coefficient of the cubic simultaneous equation, and the eigenvectors and eigenvalues can be found by solving the equations.
  • the image processing apparatus may grasp in advance the eigenvectors and eigenvalues representing the structural characteristics of each tissue. For example, when the eigenvalues for the x, y, and z axes are ⁇ 1 , ⁇ 2 , and ⁇ 3 , respectively, the following characteristics are obtained.
  • the area of the voxels satisfying the condition of the surface structure of Table 2 with respect to the eigenvalue obtained through the Hessian matrix is found in FIG. Referring to FIG. 20, it can be seen that not only the niche candidate groups 2000, 2010, and 2020 to be searched for in the present invention, but also many areas around them are also detected.
  • the precondition for the eigenvalue is ⁇ 1 > ⁇ 2 > ⁇ 3
  • ⁇ 1 is the eigenvalue in the x-axis direction
  • ⁇ 2 is the eigenvalue in the y-axis direction
  • ⁇ 3 is the eigenvalue in the z-axis direction.
  • the x axis represents the left and right directions in the front image of the human body
  • the y axis represents the vertical direction in the front image of the human body
  • the z axis represents the depth direction in the front image of the human body.
  • the eigenvalue reference ratio 3.0 is just one example, and the eigenvalue reference ratio may be 2.0 or 4.0, and may be a value that can reflect the structural characteristics of the lobe gap.
  • the gap candidate group extracting unit 1820 preferably removes the outer surface of the lung region.
  • FIG. 21 illustrates a case where regions of voxels satisfying surface structure characteristics are found by using an eigenvalue reference ratio. Referring to FIG. 21, it can be seen that as compared with FIG. 20, many gaps in the noise area are eliminated. However, FIG. 21 is preferable because noise is still included around the gap candidate groups 2100, 2110, and 2120.
  • the gap candidate group extractor 1820 removes the noise by using various image processing techniques after detecting the gap candidate group. For example, since most of the noise except for the gap is in the form of islands with little connection with other parts, a 3D labeling technique is applied. Since the 3D labeling binds the voxels belonging to the same area in the 3D space based on the connected component property, the gap candidate group extractor 1820 may determine a predetermined number of pixels among the independent areas obtained by applying the 3D labeling ( For example, an area of 500 pixels or less is treated as noise and removed. The predetermined number of pixels for noise processing may be variously set according to an application example such as 3000,5000 according to an application example.
  • the gap candidate group extracting unit 1820 performs a morphological closing operation using a structuring element (SE) in order to remove noise, increase the connectivity of the gap candidate group, and connect the broken portions. Equation 3) may be performed.
  • SE structuring element
  • FIG. 22 An example of the result of increased noise reduction and connectivity through three-dimensional labeling and morphological closing association is shown in FIG. 22.
  • FIG. 22 it can be seen that the regions of the gap candidate groups 2210, 2220, and 2230 are further strengthened.
  • the image of FIG. 23 showing the gap candidate group 2300, 2310, 2320 from which the noise is removed may be obtained by performing a morphological closing operation and repeating 3D labeling. The number of iterations can be variously set depending on the application.
  • the gap candidate group detected by the gap candidate group extracting unit 1820 may be missing or distorted a part of the surface without completely including the gap, such as a hole.
  • the virtual niche generation unit 1830 reconstructs the lung image including the niche candidate group into an image (that is, the XZ plane) viewed from the front of the human body as shown in FIG. Based on the gap candidate groups 2400, 2410, and 2420 that are represented, a line or plane equation for the gap is obtained to generate a virtual gap.
  • the reason why the lung area is reconstructed as an image viewed from the front of the human body as shown in FIG. 24 is that the shape of the gap can be better understood linearly than when viewed from the other direction, and the shape can generate the virtual gap more accurately. Because there is.
  • the simplest example of calculating the virtual gap is a method of generating a virtual gap based on the gap candidate group represented by the lung region image in front of the human body as a straight line equation.
  • the gap is regarded as a straight line, the calculation is simple and there is a small error in the calculation of the equation. However, the actual gap is composed of a curve rather than a straight line.
  • the virtual niche generation unit 1830 finds an inflection point in the line represented by the niche candidate group to reduce an error with the actual niche by referring to Equation 9 below and generates a line equation composed of two or more straight lines.
  • the virtual gap generating unit 1830 is a method of generating a virtual gap in three dimensions by using an equation of a curved surface. To this end, the thin plate spline (TPS) method of Equation 10 is used.
  • TPS thin plate spline
  • T can be interpolated.
  • w is an unknown parameter (unkwon Parameter)
  • U (r) is the following equation.
  • the virtual gap generation unit 1830 may calculate an equation for the virtual gap based on the interpolation method.
  • a method of calculating a virtual gap using a straight line or curve for each plane of an image viewed from the front of the human body by interpolating a part of points forming the gap candidate groups. 25 shows an example of accurately positioning the gap using interpolation.
  • a spline or a bezier curve may be used as an interpolation method. Bezier curve is given by the following equation.
  • control points P are required, and as the interval of t is narrowed, more detailed interpolation points are formed.
  • the cubic B-Spline interpolation is represented by the following equation.
  • the number of control points may be three, which only affects the order of the equation, and the effect to be interpolated is similar.
  • the lobe extraction unit 1840 extracts each lobe on the basis of the virtual gap obtained by the virtual gap generation unit 1830.
  • the lobe extractor 1840 may divide the lobe by applying a region growth method to the areas of each lobe based on the virtual gap. In the case of the right lung consisting of three lung lobes, the lobe extractor 1840 divides the lobe lobe in the middle after applying the area growth method to the lobe lobe located at the top and the lobe lobe located at the bottom.
  • 26 and 27 illustrate a process of dividing the lobe by applying a virtual gap.
  • the lobe extractor 1840 may apply the region growth method at the center of each region divided by the virtual gap in applying the region growth method based on the virtual gap. This will be described with reference to FIG. 29.
  • FIG. 28 is a diagram illustrating an example of a method of extracting lung lobes from a 3D human body image according to the present invention.
  • the image processing apparatus acquires a 3D human body image (S2800).
  • the image processing apparatus applies a region growth method to a 3D human body image to divide a lung region and to remove a bronchus or blood vessel (S2810).
  • the image processing apparatus removes the noise of the divided lung region by using AD or Gaussian smoothing technique (S2820), and then finds the surface structure characteristics based on the direction of the signal intensity change of the voxels in the lung region and detects the niche candidate group. (S2830).
  • the directionality for the change in signal strength may use the eigenvalue obtained using the Hessian matrix.
  • the present embodiment can find a more accurate gap candidate group using the reference ratio of the eigenvalues in each direction.
  • the image processing apparatus detects a niche candidate group and performs a morphological closing operation or three-dimensional labeling to remove the surrounding noise (S2840).
  • the image processing apparatus reconstructs an image of the lung region including the niche candidate group from the front of the human body and calculates an equation representing the niche based on the niche candidate group shown in the reconstructed image ( S2850).
  • the image processing apparatus generates a virtual gap for dividing the lobe based on the calculated equation (S2860), and extracts the lung lobe by using the generated virtual gap (S2870).
  • the image processing apparatus may divide the lobe by applying the region growth method to each region divided by the virtual gap.
  • 29 is a view showing another embodiment of a method for extracting lung lobes from a 3D human body image according to the present invention.
  • the image processing apparatus calculates the coordinates of the center of gravity of each region divided by the virtual gap (S2930).
  • the image processing apparatus simultaneously applies the region growth method using the center of gravity of each region divided by the virtual gap as the seed point (S2940). For example, since the right lung is composed of three lung lobes, the image processing apparatus performs the area growth method in parallel in three areas divided by the virtual gap in the right lung. In addition, since the left lung is composed of two lobes, the image processing apparatus simultaneously performs the region growth method in two areas divided based on the virtual gap.
  • FIG. 30 is a diagram illustrating a case where it is difficult to distinguish a gap in the lung parenchyma due to lung disease.
  • the detected gap candidate group 3000 is shown.
  • FIG. 29 Another example of dividing the lobe by applying the various lobe extraction method according to the present invention is shown in FIG.
  • 33 is a flowchart illustrating another embodiment of a method of extracting an airway from a 3D human body image according to the present invention.
  • a lung region is extracted by applying a region growth method (simple region growth method or an adaptive region growth method) to a 3D human body image (S3300 and S3305), and holes present in the extracted lung region are extracted.
  • a process of filling the back is performed.
  • the image processing apparatus calculates the Hessian matrix by referring only to the voxels (excluding the lung vessel voxels) corresponding to the obtained lung region (S3315).
  • the image processing apparatus determines the linearity of the vector using the eigen value of the Hessian matrix (S3320). As an example of a linearity grasping method, it may be checked whether the conditions of Table 1 and Equation 3 are satisfied.
  • the image processing apparatus applies a region growing method to an image of a combination of voxels and airway masks satisfying the linearity condition. Only voxels with connectivity to existing airways are considered candidates for microbronchioles.
  • the centerline that is the skeleton of the airway is extracted (centerline extraction), and the fine bronchial candidate group is found using end points in the centerline (S3330).
  • the image processing apparatus also obtains a Hessian matrix for the image including the voxels of the lung vessel after segmenting the lung region in the 3D human image (S3345) (S3350).
  • the image processing apparatus performs vector region growth on the basis of the previously obtained endpoint (S3335). More specifically, the image processing apparatus obtains a vector average of voxels corresponding to the airways by examining a 5x5x5 size based on the endpoint. The image processing apparatus performs region growth on voxels, not airways, using the end point as a starting point. The image processing apparatus recognizes the result of the region growth only when the cosine similarity of the newly searched airway candidate group is 0.95 or more based on the vector average and the region growth of the voxel calculated in the previous step.
  • the image processing apparatus checks whether the newly detected airway is linear in order to remove the FP (False Postive) (S3340).
  • An example of the linearity condition is as follows.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

기도와 페엽을 추출하는 방법 및 그 장치가 개시된다. 영상처리장치는 3차원 인체 영상에서 영역 성장법을 통해 기도에 관한 제1 후보 영역을 추출하고, 3차원 인체 영상에서 분할한 폐 영역에 속한 복셀들의 신호강도의 변화에 대한 방향성을 기초로 제2 후보 영역을 추출한 후, 제1 후보 영역과 제2 후보 영역을 결합한 제3 후보 영역에 대해 복셀들의 신호강도의 변화에 대한 방향성의 유사도를 기초로 잡음을 제거하여 기도 영역을 추출한다. 또한 영상처리장치는 3차원 인체 영상으로부터 영역성장법을 이용하여 폐 영역을 분할하고, 폐 영역에 속한 복셀(voxel)들의 신호강도 변화에 대한 방향성을 기초로 폐엽 사이의 틈새 후보군을 추출하고, 틈새 후보군을 포함한 폐 영역의 영상을 인체 정면에서 바라보는 영상으로 재구성하여 나타나는 틈새 후보군을 기초로 가상 틈새를 생성하고, 가상 틈새를 이용하여 폐엽을 추출한다.

Description

기도와 폐엽을 추출하는 방법 및 그 장치
본 발명은 3차원 인체 영상으로부터 기도와 폐엽을 추출하는 방법 및 그 장치에 관한 것이다.
본 발명은 미래창조과학부의 이공분야기초연구사업의 일환으로 수행한 연구로부터 도출된 것이다.[과제번호: 2014R1A1A1005254, 과제명: 초저선량흉부CT에서 GOLD 기준에 근거한 한국형 COPD 중증도의 상세분류 및 폐기능검사와의 비교평가: 다학제적 영상생체지표개발]
호흡할 때 공기가 지나가는 길인 기도(airway)는 기관(trachea) 및 기관지(bronchus)로 구성된다. 기관지는 직경 2mm 이하의 매우 작은 소기관지(bronchiole)를 포함한다.
컴퓨터단층촬영(computed tomography, CT) 영상을 이용하여 기관지 및 흉부 질환의 정확한 분석 및 판단을 위해서는 기도의 정확한 추출이 선행되어야 한다. 그러나 CT 영상의 부분용적효과(partial volume effect)와 잡음(noise), 기관지에 인접한 주변 장기 및 병변(lesion)의 영향으로 인해 발생하는 영상 내 신호강도(intensity)의 대조도(contrast) 감소 현상은 기도 분할을 어렵게 한다. 따라서 종래 기도 추출방법으로는 직경 2mm 이내의 소기관지 부위에 대한 양질의 추출 결과를 얻을 수 없다.
또한 사람의 폐(lung)는 우폐와 좌폐로 구성되고, 우폐는 위엽, 중간엽, 아래엽의 세 부분이 경사틈새(oblique fissure)와 수평틈새(horizontal fissure)에 의해 분리되어 있으며, 좌폐는 우폐에 비해 부피가 작고 2개의 엽, 즉 위엽과 아래엽으로 구성되어 있다. 각 폐엽은 1mm 이내의 얇은 막의 틈새에 의해 구분되어져 있으며, 폐 질환으로 특정 폐엽을 외과적 수술을 통해 제거해야 하는 경우나 이를 위해 사전에 환부의 정확한 위치 정보를 파악하기 위해서는 먼저 틈새에 의해 구분되어지는 해당 폐엽의 3차원 해부학적 위치를 정확하게 구분하여 추출할 수 있어야 한다.
본 발명이 이루고자 하는 기술적 과제는, 기관지 나무(bronchial tree)의 튜브 구조 정보를 이용하여 매우 작은 직경의 소기관지 부위도 정확하게 추출할 수 있는 기도 추출 방법 및 그 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는, 3차원 인체 영상에서 사람에 의한 기관지 부위의 특정 없이 자동화된 방법으로 기도를 추출하는 방법 및 그 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는, 폐질환 병변의 위치를 정확하게 분석하고 정량화하여 내외과적인 치료 및 수술 계획을 보다 정밀히 정립할 수 있도록 3차원 인체 영상으로부터 폐실질 내 틈새를 구분짓고, 폐엽을 추출하여 분할하는 방법 및 그 장치를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 기도 추출 방법의 일 실시예는, 3차원 인체 영상을 획득하는 단계; 상기 3차원 인체 영상에서 영역 성장법을 통해 기도에 관한 제1 후보 영역을 추출하는 단계; 상기 3차원 인체 영상에서 폐 영역을 분할하고, 상기 폐 영역에 속한 복셀(voxel)들의 신호강도의 변화에 대한 방향성을 기초로 상기 폐 영역에서 기도에 관한 제2 후보 영역을 추출하는 단계; 상기 제1 후보 영역과 상기 제2 후보 영역을 결합한 제3 후보 영역을 산출하는 단계; 및 상기 제3 후보 영역에 속한 복셀들의 신호강도의 변화에 대한 방향성의 유사도를 기초로 잡음을 제거하여 기도 영역을 추출하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 기도 추출 방법의 다른 일 예는, 3차원 인체 영상을 획득하는 단계; 상기 3차원 인체 영상의 시상면에서 가로와 세로의 일정 크기를 가진 면적을 설정하는 단계; 상기 시상면의 깊이 방향으로 상기 3차원 인체 영상의 중간에 위치한 소정 개수의 시상면 영상을 하나로 투영한 영상을 만드는 단계; 상기 투영한 영상에서 상기 설정된 면적에 속한 복셀들 중 최소 신호강도를 가진 복셀을 찾아 종자점으로 설정하는 단계; 및 상기 종자점을 기준으로 영역 성장법을 적용하여 기도를 추출하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 폐엽 추출 방법의 일 실시예는, 3차원 인체 영상을 획득하는 단계; 상기 3차원 인체 영상으로부터 영역성장법을 이용하여 폐 영역을 분할하는 단계; 상기 폐 영역에 속한 복셀(voxel)들의 신호강도 변화에 대한 방향성을 기초로 폐엽 사이의 틈새 후보군을 추출하는 단계; 상기 틈새 후보군을 포함한 상기 폐 영역의 영상을 인체 정면에서 바라보는 영상으로 재구성하고, 상기 재구성된 영상에서 나타내는 틈새 후보군을 기초로 가상 틈새를 생성하는 단계; 및 상기 가상 틈새를 이용하여 폐엽을 추출하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 폐엽 추출 방법의 다른 일 예는, 3차원 인체 영상을 획득하는 단계; 상기 3차원 인체 영상으로부터 영역성장법을 이용하여 폐 영역을 분할하는 단계; 상기 폐 영역의 폐엽 사이의 가상 틈새를 구하는 단계; 상기 가상 틈새로 구분되는 각 영역의 무게중심 좌표를 구하는 단계; 및 상기 각 영역의 무게중심 좌표를 종자점으로 하여 각 영역에서 동시에 영역성장법을 수행하여 폐엽을 분할하는 단계;를 포함한다.
본 발명에 따르면, 기관지 나무의 튜브 구조 정보를 이용하여 3차원 흉부 영상으로부터 30mm 정도의 기관으로부터 직경 2mm 이하의 소기관지까지 누수 없이 기관지 분절들의 탐지를 극대화할 수 있다. 또한 3차원 인체 영상에서 기도 추출을 위한 시작 위치를 자동으로 탐지할 수 있다.
또한, 고해상도 CT보다 10배 이상 적은 방사선량을 이용한 저선량 CT에서 폐엽을 누수 없이 분할할 수 있으며, 두께 1mm 이내의 얇은 막으로 이루어진 폐엽 사이의 틈새를 해부학적 정보를 이용해 정확히 구별해 내고 궁극적으로 폐실질 내 5개의 폐엽을 정확히 분할하여 폐실질 내 병변의 해부학적 정보를 제공할 수 있다.
도 1은 본 발명에 따른 3차원 인체 영상을 촬영하고 처리하는 시스템의 간략한 일 예를 도시한 도면,
도 2는 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 영상처리장치의 일 실시예의 구성을 도시한 도면,
도 3은 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 방법의 일 실시예의 흐름을 도시한 도면,
도 4는 본 발명에 따른 영역 성장법의 적용을 위한 종자점의 자동탐지 방법의 일 실시예의 흐름을 도시한 도면,
도 5 내지 도 7은 종자점 탐지 방법을 기도 추출에 적용한 일 예를 도시한 도면,
도 8은 본 발명에 따른, 기도 추출을 위한 제1 후보 영역을 추출하는 방법의 상세 흐름을 도시한 도면,
도 9는 본 발명에 따른 적응적 영역 성장법의 일 실시예의 흐름을 도시한 도면,
도 10은 본 발명에 따른, 서로 다른 신호강도 상한값을 기준으로 영역 성장법을 통해 얻은 기도 추출 영상의 일 예를 도시한 도면,
도 11은 본 발명에 따른 영역 성장법을 통해 얻은 기도 추출 영역의 내부에 존재하는 빈틈과 그 빈틈을 메운 결과를 도시한 도면,
도 12는 본 발명에 따른, 기도 추출을 위한 제2 후보 영역을 추출하는 방법의 상세 흐름을 도시한 도면
도 13은 본 발명에 따른 기도 튜브 구조를 벡터로 표시한 도면,
도 14 내지 도 16은 본 발명에 따른, 기도 추출을 위한 잡음 제거 방법의 일 실시예를 도시한 도면,
도 17은 본 발명에 따른 잡음 제거를 통해 얻은 기도 추출 결과의 일 예를 도시한 도면,
도 18은 본 발명에 따른, 3차원 인체 영상으로부터 폐엽을 추출하는 영상처리 장치의 일 실시예의 구성을 도시한 도면,
도 19는 흉부 CT 영상의 일 예를 도시한 도면,
도 20은 도 19의 흉부 CT 영상에서 본 발명에 따른 헤시안 행렬을 이용하여 폐 영역 내 면(sheet) 구조 특성을 가진 부분을 탐지한 영상의 일 예를 도시한 도면,
도 21은 본 발명에 따른, 고유값 기준비율을 이용하여 폐엽 사이의 틈새를 탐지한 영상의 일 예를 도시한 도면,
도 22는 도 21의 영상에 대해 잡음 제거 및 형태학적 닫힘 연산을 수행한 결과를 도시한 도면,
도 23은 도 22의 영상에 대해 3차원 레이블링을 적용하여 틈새 인식을 보다 강화한 영상의 일 예를 도시한 도면,
도 24는 본 발명에 따라 탐지된 틈새를 포함한 폐 영상을 인체 정면에서 바라보는 영상으로 재구성한 일 예를 도시한 도면,
도 25는 본 발명에 따른 보간법을 이용하여 틈새를 탐지한 결과의 일 예를 도시한 도면,
도 26 및 도 27은 본 발명에 따른 가상 틈새를 적용하여 폐엽을 분할하는 과정의 일 예를 도시한 도면,
도 28은 본 발명에 따른 3차원 인체 영상으로부터 폐엽을 추출하는 방법의 일 예를 도시한 도면,
도 29는 본 발명에 따른 3차원 인체 영상으로부터 폐엽을 추출하는 방법의 다른 실시예를 도시한 도면,
도 30은 폐 질환으로 인해 폐실질 내 틈새를 구분하기 어려운 사례를 도시한 도면,
도 31은 도 29의 폐엽 추출 방법을 적용하여 폐엽을 분할한 결과의 일 예를 도시한 도면,
도 32는 본 발명에 따른 방법을 적용하여 폐엽을 추출한 결과의 다른 일 예를 도시한 도면, 그리고,
도 33은 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 방법의 다른 실시 예의 흐름을 도시한 도면이다.
이하에서, 첨부된 도면들을 참조하여 본 발명에 따른 기도 추출 방법 및 그 장치에 대해 상세히 설명한다.
도 1은 본 발명에 따른 3차원 인체 영상을 촬영하고 처리하는 시스템의 간략한 일 예를 도시한 도면이다.
도 1을 참조하면, 본 발명에 따른 시스템은 크게 3차원 인체영상촬영기(100), 영상처리장치(110) 및 출력장치(120)를 포함한다.
3차원 인체영상촬영기(100)는 인체 내부의 3차원 영상을 촬영하는 장치로서, 일반적으로 CT 영상, 자기공명영상(Magnetic Resonance Imaging, MRI) 촬영 장치 등이 존재하나 반드시 이에 한정되는 것은 아니며, 인체 내부의 3차원 영상을 얻을 수 있는 모든 장치를 포함한다.
영상처리장치(110)는 3차원 인체영상촬영기(100)가 촬영한 3차원 인체 영상을 입력받아 필요한 조직을 추출하는 등 다양한 목적에 따라 입력받은 인체 영상을 가공하고 처리한다. 본 실시예에서 영상처리장치(110)는 3차원 인체영상촬영기(100)의 촬영 영상을 직접 입력받는 것으로 도시하였으나 반드시 이에 한정되는 것은 아니며, 각종 전자매체(예를 들어, CD(compact disc), DVD(Digital Versatile Disc), USB 메모리 등)에 저장된 3차원 인체 영상을 입력받을 수 있다.
출력장치(120)는 일반적으로 모니터를 포함하며, 영상처리장치(110)에 의해 가공처리된 인체 조직에 대한 영상을 입력받아 출력한다. 출력장치(120)는 영상처리장치(110)와 하나의 장치로 구현되거나, 또는 영상처리장치(110)와 유무선 통신망을 통해 연결되어 원격에서 영상처리장치(110)로부터 수신한 영상을 표시할 수 있다.
이하에서 살펴볼 실시 예는 3차원 인체 영상으로부터 인체 조직 중 특히 기도와 폐엽을 추출하는 방법 및 장치에 대해 개시하고 있으나, 이는 본 발명의 이해와 설명의 편의를 위한 것일 뿐 반드시 이에 한정되는 것은 아니며, 본 발명의 기본적인 사상을 기초로 인체의 다른 조직을 추출하는데 사용될 수 있음은 물론이다.
도 2는 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 영상처리장치의 일 실시예의 구성을 도시한 도면이다.
도 2를 참조하면, 영상처리장치(110)는 영상입력부(200), 제1추출부(210), 제2추출부(220), 후보영역추출부(230) 및 잡음제거부(240)를 포함한다.
영상입력부(200)는 3차원 인체 영상을 입력받는다. 3차원 인체 영상은 신호강도(intensity)의 대조(contrast)로서 각각의 조직이 표시된다. 예를 들어, CT 영상에서, 폐 조직의 신호강도는 대략 -400HU(Hounsfield Unit) 이하이며, 공기가 존재하는 기도의 내부 대략 -950HU이다.
제1추출부(210)는 3차원 인체 영상에 대해 영역 성장법을 적용하여 기도에 대한 제1 후보영역을 추출한다. 여기서 영역 성장법으로 단순 영역 성장법(Simple Region Growing) 또는 적응적 영역 성장법(Adaptive Region Growing)이 사용될 수 있다.
단순 영역 성장법은 추출하고자 하는 인체 조직에 속한 3차원 화소점, 즉 복셀(voxel)에서부터 신호강도의 상한값과 하한값을 만족하는 주변 영역으로 영역을 확장하는 방법이다. 예를 들어, CT 영상에서 기도를 추출하기 위한 신호강도 하한값은 -1024HU, 상한값은 -950HU이다.
그러나 3차원 인체 영상 내 동일 조직에 대해 사람마다 또는 질병의 유무에 따라 나타나는 신호강도(intensity)는 다소의 차이가 있으므로, 보다 정확한 인체 조직의 분할을 위해서는 영역 성장법의 적용을 위한 상한값 및 하한값을 적절히 변경할 필요가 있다. 적응적 영역 성장법을 이용하여 조직을 분할하는 방법에 대해서는 도 9에서 설명한다.
단순 영역 성장법이나 적응적 영역 성장법의 적용을 위해서는 영역 성장을 위한 최초 지점, 즉 종자점(seed point)이 결정되어야 하는데, 이는 사람이 직접 선택해 줄 수 있으나 본 실시 예는 종자점의 자동 탐지 방법을 제시하며, 이는 도 4 내지 도 7에 도시되어 있다.
제1추출부(210)가 추출한 제1 후보영역은 단순히 신호강도의 대조를 통해 추출한 것이므로, 직경 2mm 이하의 작은 기관지 부분을 정확하게 추출하기 어렵다. 더구나 3차원 인체 영상의 해상도가 낮은 경우는 작은 기관지를 나타내는 복셀 개수가 매우 작으므로 더더욱 추출하기가 어려워진다.
제2추출부(220)는 직경 2mm 이하의 작은 기관지 부분을 정확하게 추출하기 위하여, 먼저 3차원 인체 영상으로부터 폐 영역을 분할하고 분할된 폐 영역에 속한 복셀들의 신호강도 변화에 대한 방향성을 기초로 기관지에 대한 제2 후보영역을 추출한다. 인체 조직은 주변과 구분되는 구조적인 특징을 가질 수 있다. 예를 들어, 기관지 나무는 튜브 구조로 이루어지고, 그 튜브 구조로 인해 신호강도의 변화에 대한 벡터가 일정 방향으로 정렬되는 구조를 가지게 된다. 제2추출부(220)가 복셀들의 신호강도의 변화에 대한 방향성을 기초로 조직을 추출하는 상세한 방법은 도 12 내지 도 13에서 상세히 설명한다.
후보영역추출부(230)는 제1추출부(210)에 의해 추출한 제1 후보영역과 제2추출부에 의해 추출한 제2 후보영역을 합쳐 제3 후보영역을 획득한다. 예를 들어, 후보영역추출부(230)는 제1 후보영역의 기관지 영역과 제2 후보영역의 기관지 영역이 연결된 제3 후보영역을 추출한다. 이를 위해 후보영역추출부(230)는 제1 후보영역과 제2 후부영역이 결합된 하나의 영상에 대해 영역 성장법을 적용하여 기도에 대한 제3 후보영역으로 추출할 수 있다.
잡음제거부(240)는 후보영역추출부(230)에 의해 추출한 제3 후보영역의 잡음을 제거하여 최종적인 기도 영상을 추출한다. 잡음제거부(240)는 제3 후보영역에 속한 복셀들의 신호강도 변화에 대한 방향성의 유사도를 기초로 잡음을 제거한다. 잡음제거의 구체적인 방법은 도 14 내지 도 16에 도시되어 있다.
도 3은 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 방법의 일 실시예의 흐름을 도시한 도면이다.
도 3을 참조하면, 먼저 영상처리장치는 3차원 인체영상을 입력받는다(S300).
영상처리장치는 입력받은 3차원 인체 영상에 대해 영역 성장법을 적용하여 기도에 대한 제1 후보영역을 추출한다(S310). 제1 후보영역의 추출을 위한 적응적 영역 성장법은 도 9에 도시되어 있으며, 영역 성장법의 적용을 위한 종자점의 자동탐지 방법은 도 4에 도시되어 있다.
다음으로 영상처리장치는 입력받은 3차원 인체 영상에서 폐 영역을 분할하고, 폐 영역에 속한 복셀들의 신호강도의 변화에 대한 방향성을 기초로 제2 후보영역을 추출한다(S320). 제2 후보영역의 추출에 대한 구체적인 방법은 도 12에 도시되어 있다.
영상처리장치는 제1 후보영역과 제2 후보영역을 결합한 영상에 대해 영상 성장법을 적용하여 제3 후보영역을 추출하고(S330), 추출한 제3 후보영역의 잡음을 제거하여 최종적인 기도 영상을 획득한다(S340). 잡음 제거에 대한 보다 구체적인 내용은 도 14 내지 도 16에 도시되어 있다.
도 4는 본 발명에 따른 영역 성장법의 적용을 위한 종자점의 자동탐지 방법의 일 실시예의 흐름을 도시한 도면이다. 도 5 내지 도 7은 종자점 탐지 방법을 기도 추출에 적용한 일 예를 도시한 도면이다.
도 4를 참조하면, 영상처리장치는 3차원 인체 영상을 입력받는다(S400). 영상처리장치는 입력받은 인체 영상 내 일정 크기의 2차원 영역의 크기 및 위치를 정의한다(S410). 2차원 영역의 크기 및 위치는 입력되는 3차원 인체 영상의 부위나 추출하고자 하는 조직의 해부학적 위치에 따라 미리 결정되어 저장된다. 예를 들어, CT 영상으로부터 기도를 추출하고자 하는 경우, 도 5와 같이 3차원 흉부 영상의 시상면 영상(500)을 기준으로 가로 x축의 중심에서 양쪽으로 50 픽셀의 길이와 세로 y축의 전체 길이에서 30% ~ 40%되는 지점을 연결한 높이로 구성된 2차원 기준영역(510)을 정의한다. CT 영상의 경우 x-y 축의 중심은 거의 고정적인 반면 z 축의 중심은 매번 달라질 수 있으므로, 시상면을 기준으로 2차원 기준영역을 설정한다.
영상처리장치는 2차원(x-y) 영역의 깊이방향(z축)으로 일정 개수의 영상을 선택한 후 이를 하나의 영상으로 투영한다(S420). 예를 들어, 기도를 추출하고자 하는 경우, 도 6과 같이 시상면의 인체 영상들 중 z 축 방향으로 중앙에 위치한 10장을 선택한 후 이를 하나로 투영시켜 한 장의 시상면 영상(도 7)을 얻는다. 예를 들어, z축 방향의 해상도가 512 픽셀이라면, 영상처리장치는 z축 방향으로 251번째 시상면 영상부터 260번째까지 총 10장의 영상을 투영한다.
영상처리장치는 N장의 영상이 하나로 투영된 영상에서, 앞서 설정한 2차원 기준영역 내 특정 신호강도를 갖는 복셀을 종자점으로 선택한다(S430). 예를 들어, 기도 추출을 위한 종자점(720)을 찾고자 하는 경우, 기도 내 공간은 공기가 차 있어 신호강도가 매우 낮을 것이므로, 영상처리장치는 투영 영상(700)의 2차원 기준 영역(710) 내에서 신호강도가 가장 낮은 복셀을 종자점(720)으로 선택한다. 영상처리장치는 선택한 종자점이 실제 찾고자 하는 조직 내에 존재하는 것인지 검증하기 위하여 종자점과 연결되는 유사한 신호강도를 가진 복셀들의 개수가 미리 설정된 임계치 이상인지 파악한다. 종자점과 연결된 주변 복셀들의 수가 임계치 미만이면 종자점 선택은 잘못된 것으로 파악하고 주변의 다른 복셀을 다시 검색하여 종자점으로 선택한다.
영상처리장치는 자동 탐지한 종자점을 기준으로 영역 성장법을 적용하여 원하는 조직, 예를 들어 기도를 추출한다(S440).
도 8은 본 발명에 따른, 기도 추출을 위한 제1 후보 영역을 추출하는 방법의 상세 흐름을 도시한 도면이다. 도 8은 앞서 살핀 도 2의 제1추출부(210) 또는 도 3의 제1후보영역추출 단계(S310)에 해당한다.
도 8을 참조하면, 영상처리장치는 필요에 따라 영역 성장법의 적용 이전에 잡을 제거를 위한 전처리과정을 포함할 수 있다(S800). 예를 들어, 영상처리장치는 비등방성 확산(anisotropic diffusion, AD) 필터링을 전처리과정에서 수행할 수 있다. AD 필터링는 신뢰할 수 있는 경계를 보존하면서 잡음을 효과적으로 제거할 수 있는 알고리즘으로서 종래에 널리 사용되는 알고리즘이므로 이에 대한 상세한 설명은 생략한다. 다만 AD 필터링과정에 반복횟수(i)와 필터링 강도(k)를 결정하여야 하는데, 일 예로, i=1, k=∞로 설정할 수 있다.
영상처리장치는 전처리과정 후 영역 성장법(단순 영역 성장법 또는 적응적 영역 성장법)을 적용하여 추출하고자 하는 영역을 분할한다(S810). 예를 들어, 영상처리장치는 3차원 흉부 영상의 기관 내의 종자점을 기준으로 영역 성장법을 적용하여 기도 영역을 분할한다.
영역 성장법을 적용하여 특정 영역을 분할하는 경우 도 11과 같이 내부에 빈틈과 같은 잡음이 포함될 수 있다. 예를 들어, 도 11과 같이 영역 성장법을 통해 기도 영역(1100)을 추출하는 경우 그 내부에 빈틈(1110)이 존재할 수 있다(도 11의 (a),(c)). 따라서 영상처리장치는 빈틈(1110)과 같은 잡음을 제거하는 단계를 수행한다(S820). 추출된 영상 내부의 빈틈을 채워주기 위한 여러 가지 알고리즘이 존재한다. 일 예로, 영상처리장치는 스트럭처링 원소(structuring element, SE)를 이용한 형태학적 닫힘(morphological closing) 연산(아래 수학식 1)을 통해 추출 영역 내 빈틈을 메울 수 있다(도 11의 (b),(d)).
수학식 1
Figure PCTKR2014004989-appb-M000001
여기서, I는 영역 성장법을 통해 얻은 이진 복원(binary reconstructin) 영상이며, B26은 중심픽셀을 기준으로 이웃한 26개의 픽셀들로 이루어진 구형 SE를 나타낸다.
이로써, 영상처리장치는 빈틈의 잡음 등이 제거된 제1 후보 영역을 획득한다(S830).
도 9는 본 발명에 따른 적응적 영역 성장법의 일 실시예의 흐름을 도시한 도면이다.
도 9를 참조하면, 영상처리장치는 먼저 신호강도의 초기 하한값 및 상한값을 설정한다(S900). 예를 들어, CT 영상으로부터 기도를 추출하고자 하는 경우, 초기 하한값은 -1024HU, 초기 상한값은 -950HU로 설정한다.
영상처리장치는 3차원 인체 영상에 대해, 초기 하한값과 초기 상한값을 기준으로 영역 성장법을 적용하여 후보 영역을 추출한다(S910). 영역 성장법을 적용하기 위한 하한값과 상한값의 크기가 임계치에서 조금만 달라져도 영역 성장법의 적용 결과는 현저하게 차이가 난다. 예를 들어, 도 10의 왼쪽 영상(1000)은 최적의 상한값에서 영역 성장법을 통해 얻은 기도 추출 영상이며, 오른쪽 영상(1010)은 왼쪽의 상한값보다 그 크기가 1이 더 큰 경우에 영역 성장법을 통해 얻은 기도 추출 영상으로서, 단지 1의 차이로 그 결과가 현저하게 달라짐을 알 수 있다.
따라서 영상처리장치는 추출한 후보 영역이 원래 의도한 조직을 제대로 추출하였는지 검증하기 위하여 추출한 후보 영역의 부피와 미리 설정된 기준 부피를 비교한다(S920). 또 다른 방법으로 영상처리장치는 그 값이 고정되어 있는 기준 부피를 기준으로 검증하는 아니라, 현 추출 후보 영역에 속한 복셀들의 개수와 이전에 추출한 후보 영역에 속한 복셀들의 개수의 비율이 기 설정된 임계치를 벗어나는지를 기초로 검증할 수 있다(S920).
추출한 후보 영역이 원래 의도한 조직을 제대로 추출한 경우, 후보 영역의 추출을 보다 정교하게 하기 위하여 현재의 하한값을 증가시키거나 상한값을 감소시킨다(S930). 기도의 경우에 하한값은 의미가 없으므로 상한값을 감소시킨다.
그리고 영상처리장치는 감소한 상한값(또는 증가한 하한값)을 기준으로 영역 성장법을 적용하여 후보 영역을 다시 추출한 후(S940), 앞서 살핀 바와 같이 기준 부피 또는 복셀 개수의 비율을 통해 제대로 추출되었는지 검증한다(S920).
상하한값의 조정과 후보 영역의 재추출 과정을 반복 수행하면서 최적의 상하한값을 찾을 수 있으며, 영상처리장치는 최적의 상하한값을 기준으로 영역 성장법을 통해 제1 후보영역을 추출한다(S950).
도 12는 본 발명에 따른, 기도 추출을 위한 제2 후보 영역을 추출하는 방법의 상세 흐름을 도시한 도면이다. 도 12는 앞서 살핀 도 2의 제2추출부(220) 또는 도 3의 제2후보영역추출(S320) 단계에 해당한다.
도 12를 참조하면, 영상처리장치는 3차원 흉부 영상으로부터 폐 영역을 분할한다(S1200). 예를 들어, CT 영상에서 폐 영역을 분할하고자 하는 경우 -400HU를 기준으로 영역성장법을 적용한다.
영상처리장치는 분할한 폐 영역에 속한 복셀들의 신호강도의 변화에 대한 방향성을 파악한다(S1210). 이러한 방향성은 고유벡터(eigenvector) 및 고유값(eigenvalue)를 통해 파악될 수 있다. 예를 들어, 기관지에 대한 신호강도의 방향성을 도시화하면, 도 13의 오른쪽 그림과 같이 일정한 방향을 가진 벡터로 표시될 수 있다.
고유벡터 및 고유값은 헤시안(hessian) 행렬을 통해 구할 수 있다. 3차원 영상의 각 복셀이 주변 복셀과 어떠한 관계를 갖고 있는지 헤시안 행렬로 나타내면 다음과 같다.
수학식 2
Figure PCTKR2014004989-appb-M000002
여기서, I는 (x,y,z) 좌표에서의 신호강도(intensity)를 나타낸다.
헤시안 행렬의 각 원소를 3차 연립 방정식의 계수로 간주하고, 그 방정식의 해를 구하는 과정을 통해 고유벡터 및 고유값을 구할 수 있다.
영상처리장치는 이와는 별도로 각 조직의 구조적 특징을 나타내는 고유벡터 및 고유값을 미리 파악하여 가지고 있을 수 있다. 예를 들어, x,y,z 축에 대한 고유값이 각각 λ123 이라 할 때 다음과 같은 특성이 있다.
표 1
구조 특징 고유값 조건
면(sheet)
Figure PCTKR2014004989-appb-I000001
선(line)
Figure PCTKR2014004989-appb-I000002
덩어리(blob)
Figure PCTKR2014004989-appb-I000003
기관지의 경우 대표적인 튜브 형태의 선 구조를 가지며, 기관지의 선 구조를 특정하기 위한 고유값의 범위를 사전 조사하여 다음과 같이 정의할 수 있다.
수학식 3
Figure PCTKR2014004989-appb-M000003
여기서, 기관지에 대해 미리 설정된 기준 고유값 70은 하나의 예일 뿐이며, 기준 고유값은 적용 예에 따라 60이나 80이 될 수 있는 등 기관지의 구조적 특징을 반영할 수 있는 값이면 된다.
영상처리장치는 추출하고자 하는 조직에 대해 미리 가지고 있는 기준 고유벡터 및 기준 고유값과, 3차원 인체 영상으로부터 추출한 인체 조직에 대한 고유벡터 및 고유값을 비교하여 일정 기준을 만족하는 복셀들을 추출하여 제2 후보 영역을 획득한다(S1220). 예를 들어, 영상처리장치는 폐 영역에 속한 복셀들의 신호강도의 변화에 대한 고유벡터 및 고유값을 구한 후 각 방향에 대한 고유값의 범위가 위 수학식3을 만족하는지 파악하는 과정을 통해 기관지 후보 영역을 추출할 수 있다.
도 14 내지 도 16은 본 발명에 따른, 기도 추출을 위한 잡음 제거 방법의 일 실시예를 도시한 도면이다. 도 14 내지 도 16은 앞서 도 2의 잡음제거부(240) 또는 도 3의 잡음제거단계(S340)에 해당한다.
도 14를 참조하면, 앞서 살핀 제1 후보 영역과 제2 후보 영역을 합하여 제3 후보 영역을 추출하는 과정이 도시되어 있다. 제3 후보 영역은 제1 후보영역과 제2 후보영역이 합친 영상에 영역 성장법을 적용하여 얻을 수 있다.
제3 후보 영역에는 FP(false positive, 컴퓨터가 오답인데 정답으로 인식하는 경우)가 존재한다. 즉, 제3 후보 영역은 기관과 기관지 등의 주변에 우둘투둘한 잡음이 존재한다. 도 13에 도시된 바와 같이 기도는 튜브 구조의 선 구조물이므로 신호강도의 변화에 대한 고유벡터가 일정한 방향성을 나타나므로 그 방향성의 유사도를 검사하여 FP, 즉 잡음을 제거할 수 있다.
방향성의 유사도를 검사하는 방법의 일 예로 코사인 유사도(cosine similarity, CS)가 있다. CS 검사의 경우 두 벡터가 완전히 동일하면 1이 되고, 다를수록 그 값이 0에 가까워진다. CS 유사도(s)는 다음 수학식과 같다.
수학식 4
Figure PCTKR2014004989-appb-M000004
a,v는 벡터,
Figure PCTKR2014004989-appb-I000004
는 벡터 a의 놈(nome),
Figure PCTKR2014004989-appb-I000005
는 벡터 a,v의 내적을 나타낸다.
도 15 및 도 16을 참조하면, 영상처리장치는 잡음 제거의 효율을 높이기 위하여 (1) 기관(Trachea)에 대한 잡음제거 단계, (2) 소기관지(samll airway)에 대한 잡음제거단계, (3) 소기관지 TP(true positive)를 참조한 영역 연결 단계로 구성된다.
(1) 기관에 대한 잡음제거 단계;
제3 후보 영역과 제1 후보 영역의 차(-) 영상에 대한 유사도 검사를 수행하여 제4 후보 영역을 생성한다. 차(-) 영상에 속한 복셀들의 CS를 통한 유사도 검사를 위해서는 검사를 위한 기준 벡터가 필요하며, 그 기준 벡터는 제1 후보 영역에서 일정 공간 내 복셀들의 평균한 벡터로 설정한다. 예를 들어, 기준 벡터는 제1 후보 영역의 5x5x5 공간 내의 복셀들의 벡터 평균을 사용하며, CS가 미리 설정된 기준값(예를 들어, 0.99) 미만이면 잡음으로 간주하고 제거한다. 잡은 제거를 위한기준값은 0.99 외에 적용 예에 따라 다양하게 설정가능하다.
이러한 과정을 통해 기관과 주 기관지(main bronchus)의 잡음의 대부분이 제거되나, 제3 후보 영역에 존재하는 소기관지의 경계 부분도 제거된다. 이는 CS 과정에서 소기관지 영역 주변에 제1 후보 영역에 해당하는 기준 픽셀이 존재하지 않기 때문에 일어나는 현상이며, 이와 같은 고립 영역(island)을 연결해주기 위한 과정이 필요하며, 위 (4) 단계에서 수행된다.
(2) 소기관지에 대한 잡음제거단계
소기관지의 잡음 제거는 제4 후보 영역과 제1 후보 영역의 차(-) 영상 대해 유사도 검사를 수행하여 제5 후보 영역을 생성한다. 차(-) 영상에 속한 복셀들의 유사도 검사를 위한 기준 벡터는 제2 후보 영역과 제1 후보 영역의 차(-) 영상에서 일정 크기의 주변 영역에 속한 복셀들의 평균 벡터이다. 예를 들어, 영상처리장치는 제2 후보영역과 제1 후보영역의 차(-) 영상에서 5x5x5 크기의 영역에 속한 복셀들의 평균 벡터를 기준 벡터로 이용하고, CS 유사도가 미리 설정된 기준값(예를 들어, 0.99) 이하인 복셀은 잡음으로 간주하여 제거한다. 현 잡음제거단계는 잡음뿐만 아니라 미세기관지도 제거될 수 있으므로 이를 복구하기 위하여 다음 단계를 수행한다.
(3) 소기관지 TP(true positive)를 참조한 영역 연결 단계
제5 후보 영역에 존재하는 복셀들은 상당히 신뢰할 수 있는 미세기관지에 관한 것이다. 따라서 이 복셀들의 벡터를 기준으로 하여 주변 복셀들간의 CS를 검사하여 미리 설정된 기준값(예를 들어, 0.5) 이상이면 소기관지 영역으로 복구한다. 여기서 기준값 0.5는 하나의 예일 뿐이며 적용 예에 따라 다양하게 변경가능하다.
이러한 복구과정을 통해 제6 후보 영역이 생성된다. 그러나 제6 후보 영역에는 아직도 끊어져 있는 영역이 존재할 수 있으며, 이를 연결시켜주기 위하여 3차원 레이블링(labeling)을 수행한다. 3차원 레이블링은 3차원 공간에서 동일한 영역에 속한 복셀들을 연결 요소(connected component) 속성에 근거해 묶어주며, 이를 통해 제6 후보 영역 내 독립된 영역(island)을 찾을 수 있다. 영상처리장치는 찾은 독립된 영역 중 소정 픽셀 개수(예를 들어, 10 픽셀) 이하의 영역은 잡음으로 처리한다. 잡음 처리를 위한 소정 픽셀 개수는 적용 예에 따라 10 픽셀보다 많거나 적게 설정할 수 있다. 소정 픽셀 개수 이상의 독립된 영역의 주변 5x5x5 영역에서 제3 후보 영역에 해당하는 복셀이 있는지 검사하고, 있다면 독립된 영역을 기도에 연결하여 복구해준다. 이로써 자연스럽게 연결된 최종적인 기도 영역이 추출된다.
도 17은 본 발명에 따른 잡음 제거를 통해 얻은 기도 추출 결과의 일 예를 도시한 도면이다.
도 17을 참조하면, (a)는 영역 성장법을 통해 얻은 기도 영역을 도시한 도면이고, (b)는 적응적 영역 성장법을 통해 얻은 기도 영역을 도시한 도면이고, (c)는 신호강도의 변화에 대한 방향성을 기초로 소기관지를 탐지한 결과를 도시한 도면이고, (d)는 (c)에서 FP 등의 잡음을 제거한 후의 기도 영역을 도시한 도면이다.
도 18은 본 발명에 따른, 3차원 인체 영상으로부터 폐엽을 추출하는 영상처리 장치의 일 실시예의 구성을 도시한 도면이다.
도 18을 참조하면, 영상처리장치(110)는 입력부(1800), 폐영역분할부(1810), 틈새후보군추출부(1820), 가상틈새생성부(1830), 폐엽추출부(1840)를 포함한다.
입력부(1800)는 3차원 인체 영상을 입력받는다. 3차원 인체 영상은 신호강도(intensity)의 대조(contrast)로서 각각의 조직을 표시한다. 예를 들어, CT 영상에서, 폐 조직의 신호강도는 대략 -400HU(Hounsfield Unit) 이하이다.
폐영역 분할부(1810)는 3차원 인체 영상에 영역성장법을 적용하여 폐영역(좌폐 및 우폐)을 분할한다. 여기서 영역성장법으로 단순 영역성장법(Simple Region Growing) 또는 적응적 영역성장법(Adaptive Region Growing)이 사용될 수 있다.
단순 영역성장법은 추출하고자 하는 인체 조직에 속한 3차원 화소점(복셀, voxel)의 특정 위치(즉, 종자점)에서 신호강도의 상한값과 하한값을 만족하는 주변 복셀로 영역을 확장하는 방법이다. 예를 들어, 폐영역분할부(210)는 CT 영상에서 -400HU를 기준으로 영역성장법을 적용하여 폐 영역을 분할할 수 있다. CT 영상의 촬영 파라미터들에 따라 영역성장법을 위한 기준값은 -350HU, -450HU 등 다양하게 변경 가능하다.
적응적 영역성장법은 3차원 인체 영상 내 동일 조직에 대해 사람마다 또는 질병의 유무에 따라 나타나는 신호강도(intensity)는 다소의 차이가 있으므로, 보다 정확한 인체 조직의 분할을 위해서는 영역성장법의 적용을 위한 상한값 및 하한값을 피드백 과정을 통해 결정하여 영역성장법을 적용하는 방법이다.
또한 폐영역분할부(1810)는 영역성장법을 통해 구한 폐실질 영역에서 기관지나 혈관 영역을 제거할 수 있다.
틈새후보군추출부(1820)는 폐영역분할부(1810)에 의해 획득한 폐실질 영역에서 폐엽 사이의 틈새(fissure) 후보군을 복셀의 신호강도 변화에 대한 방향성을 기초로 면(sheet) 구조 특성을 가진 영역을 구하고 틈새를 탐지한다.
틈새후보군추출부(1820)는 틈새 탐지에 앞서 잡음을 제거할 수 있다. 잡음 제거는 비등방성 확산(anisotropic diffusion, AD)이나 가우시안 평활화(Gaussian Smoothing) 등을 이용하여 수행할 수 있으며, 이 외 다양한 잡음제거 방법이 적용 가능하다.
틈새후보군추출부(1820)는 틈새 영역의 탐지를 위해 폐 영역에 속한 복셀들의 신호강도 변화를 기초로 면 구조 특성을 갖는 후보군을 탐지한다. 복셀들의 신호강도 변화를 파악하기 위한 일 예로 고유벡터(eigenvector) 및 고유값(eigenvalue)를 이용할 수 있다. 복셀들의 신호강도 변화를 파악하기 위하여 다른 방법이 이용될 수 있음은 물론이다. 이하에서는 설명의 편의를 위해 폐 영역 내 복셀들의 신호강도 변화를 파악하기 위하여 고유값을 이용하는 경우로 한정하여 설명한다.
고유벡터 및 고유값은 헤시안(hessian) 행렬을 이용하여 구할 수 있다. 3차원 영상의 각 복셀이 주변 복셀과 어떠한 관계를 갖고 있는지 헤시안 행렬로 나타내면 다음과 같다.
수학식 5
Figure PCTKR2014004989-appb-M000005
여기서, I는 (x,y,z) 좌표에서의 신호강도(intensity)를 나타낸다.
헤시안 행렬의 각 원소를 3차 연립 방정식의 계수로 간주하고, 그 방정식의 해를 구하는 과정을 통해 고유벡터 및 고유값을 구할 수 있다.
영상처리장치는 각 조직의 구조적 특징을 나타내는 고유벡터 및 고유값을 미리 파악하여 가지고 있을 수 있다. 예를 들어, x,y,z 축에 대한 고유값이 각각 λ123 이라 할 때 다음과 같은 특성이 있다.
표 2
구조 특징 고유값 조건
면(sheet)
Figure PCTKR2014004989-appb-I000006
선(line)
Figure PCTKR2014004989-appb-I000007
덩어리(blob)
Figure PCTKR2014004989-appb-I000008
예를 들어, 헤시안 행렬을 통해 구한 고유값에 대해 위 표 2의 면 구조에 관한 조건을 만족하는 복셀들의 영역을 도 19의 CT 영상에서 찾으면 도 20과 같다. 도 20을 참조하면, 본 발명에서 찾고자 하는 틈새 후보군(2000,2010,2020)뿐만 아니라 그 주변의 많은 영역도 함께 탐지됨을 알 수 있다.
고유값의 면 구조 특징만을 이용하여 얻은 결과 영상(도 20)은 많은 잡음이 포함되어 있으므로 보다 더 정확한 틈새 영역을 탐지하기 위하여 각 방향에 대한 고유값의 비율을 이용한다. 예를 들어, 고유값의 기준비율을 사전 조사하여 다음과 같이 정의할 수 있다.
수학식 6
Figure PCTKR2014004989-appb-M000006
여기서, 고유값의 전제조건은 λ123이며, λ1은 x축 방향의 고유값, λ2는 y축 방향의 고유값, λ3는 z축 방향의 고유값을 나타낸다. 또한 x축은 인체의 정면 영상에서의 좌우방향, y축은 인체의 정면 영상에서 상하방향, z축은 인체의 정면 영상에서 깊이방향을 각각 나타낸다.
여기서, 고유값 기준비율 3.0은 하나의 예일 뿐이며, 고유값 기준비율은 2.0이나 4.0이 될 수 있는 등 폐엽 틈새의 구조적 특징을 반영할 수 있는 값이면 된다.
복셀들의 신호강도 변화에 대한 방향성을 기초로 파악된 폐 영역 내의 면 성분에는 폐의 외곽면도 포함하므로, 틈새후보군추출부(1820)는 폐 영역의 외곽면을 제거하는 것이 바람직하다.
도 21은 고유값 기준비율을 이용하여 면 구조 특성을 만족하는 복셀들의 영역을 찾은 경우를 도시하고 있다. 도 21을 참조하면, 도 20과 비교하여 많은 틈많은 잡음 영역이 없어졌음을 알 수 있다. 그러나 도 21은 틈새 후보군(2100,2110,2120)을 포함한 주변에 여전히 잡음이 포함되어 있으므로 이를 제거하는 바람직하다.
잡음 제거를 위해, 틈새후보군추출부(1820)는 틈새 후보군 탐지 후 여러 영상 처리 기법을 이용하여 잡음을 제거한다. 예를 들어, 틈새를 제외한 대부분의 잡음은 다른 부분과의 연결도가 적은 섬(island) 형태이므로, 3차원 레이블링(labeling) 기법을 적용한다. 3차원 레이블링은 3차원 공간에서 동일한 영역에 속한 복셀들을 연결 요소(connected component) 속성에 근거해 묶어주므로, 틈새후보군추출부(1820)는 3차원 레이블링을 적용하여 획득한 독립된 영역 중 소정 픽셀 개수(예를 들어, 500 픽셀) 이하의 영역을 잡음으로 처리하여 제거한다. 잡음 처리를 위한 소정 픽셀 개수는 적용 예에 따라 3000,5000 등 적용 예에 따라 다양하게 설정할 수 있다.
또한 틈새후보군추출부(1820)는 잡음 제거와 더불어 틈새 후보군의 연결도(connectivity)를 높이고 끊어진 부분들을 연결하기 위하여 스트럭처링 원소(structuring element, SE)를 이용한 형태학적 닫힘(morphological closing) 연산(아래 수학식 3)을 수행할 수 있다.
수학식 7
Figure PCTKR2014004989-appb-M000007
여기서, I는 이진 복원(binary reconstructin) 영상이며, B26은 중심픽셀을 기준으로 이웃한 26개의 픽셀들로 이루어진 구형 SE를 나타낸다.
3차원 레이블링 및 형태학적 닫힘 연상을 통해 잡음제거와 연결도를 높인 결과의 일 예는 도 22에 도시되어 있다. 도 22를 참조하면 틈새 후보군(2210,2220,2230)의 영역이 보다 강화되었음을 알 수 있다. 틈새의 보다 정확한 탐지를 위해 형태학적 닫힘 연산과 3차원 레이블링의 반복 수행 등을 통해 잡음이 제거된 틈새 후보군(2300,2310,2320)을 나타내는 도 23의 영상을 얻을 수 있다. 반복 수행의 횟수는 적용 예에 따라 다양하게 설정할 수 있다.
틈새후보군추출부(1820)에 의해 탐지된 틈새 후보군은 홀(hole)을 포함하는 등 틈새를 완벽하게 표현하지 못하고 면의 일부를 누락하거나 왜곡하고 있을 수 있다.
따라서 가상틈새생성부(1830)는 틈새 후보군의 탐지가 완료되면 그 틈새 후보군을 포함한 폐 영상을 도 24와 같이 인체의 정면에서 바라보는 영상(즉, X-Z 평면)으로 재구성하고, 그 재구성된 영상에서 나타내는 틈새 후보군(2400,2410,2420)을 기초로 틈새에 대한 선 또는 면 방정식을 구하여 가상 틈새를 생성한다. 폐 영역을 도 24와 같이 인체의 정면에서 바라보는 영상으로 재구성하는 이유는 다른 방향에서 바라보는 경우에 비해 틈새의 모양을 선형으로 보다 잘 파악할 수 있으며 이들 모양을 통해 가상 틈새를 보다 정확하게 생성할 수 있기 때문이다.
정면 영상에서 나타나는 가상 틈새의 모양을 기초로 틈새를 나타내는 방정식을 구하는 다양한 방법이 존재한다. 이하에서 제시하는 수학적 모델링 방법은 본 발명의 이해를 돕기 위한 하나의 실시 예에 지나지 아니하며 본 발명이 이하의 수학적 모델에 한정되는 것이 아님은 분명하다.
가상 틈새를 구하는 가장 간단한 예로, 인체 정면의 폐 영역 영상에서 나타내는 틈새 후보군을 하나의 직선 방정식으로 나타낸 후, 이를 기초로 가상 틈새를 생성하는 방법이다. 가상틈새생성부(1830)는 틈새후보군추출부(1820)에서 탐지한 틈새 후보군의 임의의 두 점 P1=(a,b), P2=(c,d)이 주어지면 다음과 같은 직선 방정식을 구한 후 이를 방정식을 활용하여 가상 틈새를 생성한다.
수학식 8
Figure PCTKR2014004989-appb-M000008
틈새를 하나의 직선으로 간주할 경우 계산이 간단하고 방정식 계산상의 오류가 적은 장점은 있으나, 실제 틈새는 직선이 아닌 곡선으로 이루어진 경우가 대부분이어서 오차가 큰 단점이 있다.
또 다른 실시 예로, 가상틈새생성부(1830)는 실제 틈새와의 오차를 줄이기 위하여 틈새 후보군이 나타내는 선에서 변곡점을 다음 수학식 9를 참조하여 찾아내고 두 개 또는 그 이상의 직선들로 이루어지는 선 방정식을 구한다.
수학식 9
Figure PCTKR2014004989-appb-M000009
또 다른 실시 예로, 가상틈새생성부(1830)는 곡면의 방정식을 이용하여 3차원으로 가상 틈새를 생성하는 방법이다. 이를 위해 다음 수학식 10의 TPS(Thin Plate Spline) 기법을 사용한다.
수학식 10
Figure PCTKR2014004989-appb-M000010
임의의 점 P=(x,y,z)가 주어졌을 때, T를 보간할 수 있다. 이때, a,w는 알려지지 않은 인자(unkwon Parameter)이고, U(r)은 다음 수학식과 같다.
수학식 11
Figure PCTKR2014004989-appb-M000011
이 경우 틈새를 3차원 상에서 하나의 면으로 보고 직접 곡면을 계산할 수 있는 장점이 있으나 틈새 계산에 사용되는 점의 수가 많아지면 곡면 방정식의 계산 복잡도가 높아지는 단점이 있다.
또 다른 실시예로, 가상틈새생성부(1830)는 보간법을 기초로 가상 틈새를 위한 방정식을 계산할 수 있다. 틈새 후보군들을 이루는 점들의 일부를 보간하여 인체 정면에서 보여지는 영상의 면마다 하나의 직선 또는 곡선으로 가상 틈새를 계산하는 방법이다. 도 25는 보간법을 이용해 틈새를 정확하게 위치시켜준 일 예를 도시하고 있다. 보간법으로 스플라인(spline), 베지어(bezier) 커브 등의 방법이 사용될 수 있다. 베지어 커브는 다음 수학식과 같다.
수학식 12
Figure PCTKR2014004989-appb-M000012
여기서, 총 네 개의 제어점(control point) P가 필요하며 t의 간격을 좁힐수록 더 상세한 보간점이 형성된다. 큐빅 B-Spline 보간법을 식으로 나타내면 다음 수학식과 같다. 여기서, 제어점의 개수는 3개일 수도 있으며, 이는 수학식의 차수에 영향을 미칠 뿐, 보간하고자 하는 효과는 비슷하다.
수학식 13
Figure PCTKR2014004989-appb-M000013
폐엽추출부(1840)는 가상틈새생성부(1830)에 의해 구한 가상 틈새를 기준으로 각 페엽을 추출한다. 폐엽추출부(1840)는 가상 틈새를 기준으로 각 페엽들의 영역에서 영역성장법을 적용하여 폐엽을 분할할 수 있다. 3개의 폐엽으로 구성된 우폐의 경우, 폐엽추출부(1840)는 가장 상단에 위치한 폐엽과 가장 하단에 위치한 폐엽에 대해 영역성장법을 적용하여 페엽을 분할한 후 중간에 위치한 폐엽을 분할한다. 이는 우폐에서 비스듬한 모양으로 중앙에 위치한 폐엽을 미리 분할하는 것보다 상하단의 확실한 위치에 놓여있는 폐엽들을 먼저 구분하면 자동으로 중간에 위치한 폐엽을 구분할 수 있어 보다 정확한 폐엽 분할이 가능하기 때문이다. 도 26 및 도 27은 가상 틈새를 적용하여 폐엽을 분할하는 과정을 나타내고 있다.
또 다른 예로서, 폐엽추출부(1840)는 가상 틈새를 기준으로 영역성장법을 적용함에 있어 가상 틈새로 구분되는 각 영역의 중심에서 영역성장법을 동시에 적용할 수 있다. 이에 대해서는 도 29를 참조하여 살펴본다.
도 28은 본 발명에 따른 3차원 인체 영상으로부터 폐엽을 추출하는 방법의 일 예를 도시한 도면이다.
도 28을 참조하면, 영상처리장치는 3차원 인체 영상을 획득한다(S2800). 영상처리장치는 3차원 인체 영상에 영역성장법을 적용하여 폐 영역을 분할하고 기관지나 혈관 등을 제거한다(S2810). 영상처리장치는 AD나 가우시안 평활화 기법 등을 이용하여 분할된 폐 영역의 잡음을 제거한 후(S2820), 폐 영역 내 복셀들의 신호강도 변화에 대한 방향성을 기초로 면 구조 특성을 찾아내고 틈새 후보군을 탐지한다(S2830). 신호강도 변화에 대한 방향성은 헤시안 행렬을 이용하여 구한 고유값을 이용할 수 있다. 특히 본 실시예는 각 방향에 대한 고유값의 기준비율을 이용하여 보다 정확한 틈새 후보군을 찾을 수 있다. 그리고 영상처리장치는 틈새 후보군을 탐지한 후 주변의 잡음을 제거하기 위하여 형태학적 닫힘 연산이나 3차원 레이블링 등을 수행한다(S2840).
틈새 후보군의 탐지가 완료되면, 영상처리장치는 틈새 후보군을 포함한 폐 영역의 영상을 인체 정면에서 바라보는 영상으로 재구성하고, 재구성된 영상에서 보여지는 틈새 후보군을 기초로 틈새를 나타내는 방정식을 산출한다(S2850). 영상처리장치는 산출된 방정식을 기초로 폐엽을 구분하는 가상 틈새를 생성하고(S2860), 생성된 가상 틈새를 이용하여 폐엽을 구분하여 추출한다(S2870). 이때 영상처리장치는 가상 틈새로 구분되는 각 영역에 대해 영역성장법을 적용하여 폐엽을 분할할 수 있다.
도 29는 본 발명에 따른 3차원 인체 영상으로부터 폐엽을 추출하는 방법의 다른 실시예를 도시한 도면이다.
도 29를 참조하면, 영상처리장치는 폐 영역을 포함하는 3차원 인체 영상을 획득한다(S2900). 영상처리장치는 영역성장법을 이용하여 3차원 인체 영상으로부터 폐 영역을 분할한다(S2910). 그리고 영상처리장치는 분할된 폐 영역에서 폐엽 사이의 가상 틈새를 생성한다(S2920). 여기서 가상 틈새는 본 발명의 실시 예를 통해 생성한 가상 틈새에 한정되는 것이 아니라 종래 여러 가지 방법을 통해 예측한 틈새를 모두 포함한다.
영상처리장치는 가상 틈새로 구분되는 각 영역의 무게 중심의 좌표를 산출한다(S2930). 영상처리장치는 가상 틈새로 구분되는 각 영역의 무게 중심을 종자점으로 하여 동시에 영역성장법을 적용한다(S2940). 예를 들어, 우폐는 3개의 폐엽으로 구성되므로, 영상처리장치는 우폐의 경우 가상 틈새를 기준으로 구분되는 3 개의 영역에서 동시에 병렬적으로 영역성장법을 수행한다. 그리고 좌폐는 2개의 폐엽으로 구성되므로, 영상처리장치는 가상 틈새를 기준으로 구분되는 2개의 영역에서 동시에 병렬적으로 영역성장법을 수행한다.
가상 틈새로 구분되는 각 영역에서 동시(병렬)에 영역성장법을 적용하므로, 어느 하나의 폐엽에서 성장한 영역이 다른 폐엽에서 성장한 영역과 서로 맞붙게 된다. 두 영역이 서로 맞붙게 되면 맞붙은 부분에서의 영역 성장을 멈추며 두 영역을 구분하는 틈새가 정해진다. 영역성장법의 동시 적용을 통해 얻은 각 영역 사이의 틈새를 이용하여 폐엽을 분할한다(S2950).
도 30은 폐 질환으로 인해 폐실질 내 틈새를 구분하기 어려운 사례를 도시한 도면이다. 도 30의 아래쪽 그림에는 탐지된 틈새 후보군(3000)이 도시되어 있다. 이 경우 틈새 후보군을 기초로 방정식을 산출하고 가상 틈새를 생성하는 데 어려움이 있다. 따라서 획득된 틈새 후보군을 기초로 각 영역을 구분하여 병렬적 영역성장법을 적용하여 폐엽을 추출하는 도 29의 방법을 적용하면, 도 31과 같이 각 폐엽을 보다 정확하게 구분할 수 있다. 또한 본 발명에 따른 다양한 폐엽 추출 방법을 적용하여 폐엽을 구분한 또 다른 예는 도 32에 도시되어 있다.
도 33은 본 발명에 따른, 3차원 인체 영상으로부터 기도를 추출하는 방법의 다른 실시 예의 흐름을 도시한 도면이다.
도 33을 참조하면, 3차원 인체 영상에 대해 영역 성장법(단순영역 성장법 또는 적응적 영역 성장법)을 적용하여 폐 영역을 추출하고(S3300,S3305), 추출한 폐 영역에 존재하는 홀(hole) 등을 채우는 과정을 수행한다(S3310).
영상처리장치는 구해진 폐 영역에 해당하는 복셀(폐 혈관(lung vessel) 복셀 제외)만 참조하여 헤시안 행렬을 계산한다(S3315).
영상처리장치는 헤시안 행렬의 고유값(eigen value)을 이용하여 벡터의 선형성(lineness)을 파악한다(S3320). 선형성 파악 방법의 일 예로, 표 1 및 수학식 3의 조건의 만족여부를 검사할 수 있다.
영상처리장치는 다음으로 선형성 조건을 만족하는 복셀과 기도 마스크를 합친 이미지에 대해 영역 성장법을 적용한다(S3325). 이때 기존 기도와 연결성을 갖는 복셀만 미세기관지의 후보로 인정한다. 그리고 단계 S3325의 결과에서 기도의 뼈대가 되는 중심선을 추출(centerline extraction)하고, 해당 중심선에서의 끝점(end point)들을 이용하여 미세 기관지 후보군을 찾는다(S3330).
영상처리장치는 또한 3차원 인체 영상에서 폐 영역을 분할(segmentation)한 후(S3345), 폐 혈관(lung vessel)의 복셀을 포함한 이미지에 대해 헤시안 행렬을 구한다(S3350).
영상처리장치는 앞서 구한 끝점을 기준으로 벡터 영역 성장을 수행한다(S3335). 보다 구체적으로 영상처리장치는 끝점을 기준으로 5x5x5 크기를 검사하여 기도에 해당하는 복셀의 벡터 평균을 구한다. 그리고 영상처리장치는 끝점을 시작점으로 하여 기도가 아닌 복셀을 대상으로 영역 성장을 실시한다. 영상처리장치는 이전 단게에서 계산된 복셀의 벡터 평균과 영역 성장을 통해 새로 탐색되는 기도 후보군의 코사인 유사도(cosine similarity)가 0.95 이상인 경우만 영역 성장의 결과로 인정한다.
영상처리장치는 FP(False Postive) 제거를 위해 새로 탐지된 기도의 선형성 여부를 검사한다(S3340). 이때 선형성 조건의 일 예는 다음 수학식과 같다.
수학식 14
Figure PCTKR2014004989-appb-M000014
영상처리장치는 FP제거가 완료된 최종 영역에 대해 영역 성장법을 적용하여 연결성을 가진 복셀을 최종적으로 미세기관지로 인정한다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (24)

  1. 3차원 인체 영상을 획득하는 단계;
    상기 3차원 인체 영상에서 영역 성장법을 통해 기도에 관한 제1 후보 영역을 추출하는 단계;
    상기 3차원 인체 영상에서 폐 영역을 분할하고, 상기 폐 영역에 속한 복셀(voxel)들의 신호강도의 변화에 대한 방향성을 기초로 상기 폐 영역에서 기도에 관한 제2 후보 영역을 추출하는 단계;
    상기 제1 후보 영역과 상기 제2 후보 영역을 결합한 제3 후보 영역을 산출하는 단계; 및
    상기 제3 후보 영역에 속한 복셀들의 신호강도의 변화에 대한 방향성의 유사도를 기초로 잡음을 제거하여 기도 영역을 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  2. 제 1항에 있어서, 상기 인체 영상을 획득하는 단계는,
    컴퓨터 단층 촬영(CT)을 통해 3차원 인체 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 기도 추출 방법.
  3. 제 1항에 있어서, 상기 제1 후보 영역을 추출하는 단계는,
    상기 3차원 인체 영상 내 기도에 속한 복셀의 신호강도 상한값을 기준으로 영역을 확장하는 영역 확장법을 통해 제1 후보 영역을 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  4. 제 3항에 있어서, 상기 제1 후보 영역을 추출하는 단계는,
    상기 영역 확장법을 적용하여 얻은 후보 영역의 용적이 기준 부피 이하이면 상기 상한값을 감소한 후 상기 감소된 상한값을 기준으로 다시 영역 확장법을 통해 새로운 후보 영역을 추출하는 단계;
    상기 새로운 후보 영역의 용적이 상기 기준 부피 이상이 될 때까지 상기 초기 상한값을 감소시켜 새로운 후보 영역을 추출하는 과정을 반복수행하는 단계; 및
    상기 새로운 부호 영역의 용적이 상기 기준 부피 이상이 되면, 상기 기준 부피 이상이 되기 이전에 추출한 후보 영역을 상기 제1 영역으로 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  5. 제 3항에 있어서, 상기 제1 후보 영역을 추출하는 단계는,
    상기 상한값을 감소하는 단계;
    상기 감소된 상한값을 기준으로 영역 확장법을 적용하여 새롭게 추출한 후보 영역에 속한 복셀 개수와, 이전에 추출한 후보 영역에 속한 복셀 개수의 비율을 구하는 단계; 및
    상기 복셀 개수의 비율이 기 설정된 임계치를 초과하면, 상기 임계치의 초과 이전에 추출한 후보 영역을 상기 제1 후보 영역으로 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  6. 제 1항에 있어서, 상기 제1 후보 영역을 추출하는 단계는,
    상기 제1 후보 영역에 대해 스트럭처링 원소(structruing element)를 이용한 형태학적 닫힘(morphological closing) 연산을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 기도 추출 방법.
  7. 제 1항에 있어서,
    상기 제1 후보 영역을 추출하는 단계 이전에 비등방성 확산(anisotropic diffusion) 필터링을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 기도 추출 방법.
  8. 제 1항에 있어서, 상기 제2 후보 영역을 추출하는 단계는,
    상기 3차원 인체 영상에서 영역 성장법을 통해 폐 영역을 분할하는 단계;
    상기 폐 영역에 속한 복셀들의 신호강도의 각 방향의 변화에 대한 제1 고유벡터 및 제1 고유값을 구하는 단계; 및
    기관지 튜브 구조의 신호강도의 변화에 대하여 미리 정해진 기준 고유벡터 및 기준 고유값과, 상기 복셀들의 제1 고유벡터 및 제1 고유값을 비교하여 제2 후보 영역을 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  9. 제 8항에 있어서, 상기 제2 후보 영역을 추출하는 단계는,
    상기 복셀들의 세 방향에 대한 각각의 고유값 λ123은,
    λ1 < 기준 고유값, λ2 > 기준 고유값, λ3 > 기준 고유값을 만족하는 것을 특징으로 하는 기도 추출 방법.
  10. 제 1항에 있어서, 상기 잡음을 제거하는 단계는,
    상기 제3 후보 영역의 복셀에 대한 신호강도의 변화에 대한 벡터와 상기 복셀을 포함한 주변 공간의 신호강도의 변화에 대한 평균 벡터의 유사도를 산출하여, 상기 유사도가 일정 크기 이하인 화소를 잡음으로 간주하여 제거하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  11. 제 10항에 있어서, 상기 잡음을 제거하는 단계는,
    상기 제2 후보 영역과 상기 제1 후보 영역의 차(-) 영상에 속한 제1 복셀의 벡터와, 상기 제1 후보 영역에서 상기 제1 복셀과 동일한 위치의 복셀 주변 영역에 대한 평균 벡터의 제1 유사도를 산출하고, 상기 제1 유사도가 일정 크기 이하인 제1 복셀을 잡음으로 간주하여 제거한 제4 후보 영역을 획득하는 단계;
    상기 제3 후보 영역과 상기 제1 후보 영역의 차(-) 영상에 속한 제2 복셀의 벡터와, 상기 제2 후보 영역과 상기 제1 후보 영역의 차(-) 영상에서 상기 제2 복셀과 동일한 위치의 복셀 주변 영역에 대한 평균 벡터의 제2 유사도를 산출하고, 상기 제2 유사도가 일정 크기 이하인 제2 복셀을 잡음으로 간주하여 제거한 제5 후보 영역을 획득하는 단계;
    상기 제3 후보 영역에 속한 복셀, 상기 제4 후보 영역에 속하지 않은 복셀 및 상기 제5 후보 영역에 속하지 않은 복셀의 교집합 영역에 속하는 제3 복셀의 벡터와, 상기 제5 후보 영역과 상기 제1 후보 영역의 차(-) 영상에서 상기 제3 복셀과 동일한 위치의 복셀 주변 영역에 대한 평균 벡터와의 제3 유사도를 산출하고, 상기 제3 유사도가 일정 크기 이상인 복셀을 복구하여 기도 영역을 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  12. 제 11항에 있어서, 상기 기도 영역을 추출하는 단계;
    상기 획득한 기도 영역에 대해 3차원 레이블링(labeling)을 통하여 얻어지는 독립된 영역들 중 복셀의 개수가 기 설정된 개수 미만인 독립된 영역은 제거하고, 상기 기 설정된 개수 이상인 독립된 영역은 상기 제3 후보 영역을 기준으로 연결 복구하는 단계;를 더 포함하는 것을 특징으로 하는 기도 추출 방법.
  13. 3차원 인체 영상을 획득하는 단계;
    상기 3차원 인체 영상의 시상면에서 가로와 세로의 일정 크기를 가진 면적을 설정하는 단계;
    상기 시상면의 깊이 방향으로 상기 3차원 인체 영상의 중간에 위치한 소정 개수의 시상면 영상을 하나로 투영한 영상을 만드는 단계;
    상기 투영한 영상에서 상기 설정된 면적에 속한 복셀들 중 최소 신호강도를 가진 복셀을 찾아 종자점으로 설정하는 단계; 및
    상기 종자점을 기준으로 영역 성장법을 적용하여 기도를 추출하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  14. 제 13항에 있어서, 상기 면적을 설정하는 단계는,
    상기 시상면의 가로 방향의 중심으로부터 좌우 일정 길이를 설정하고, 상기 시상면의 세로 방향에서 위로부터 일정 비율 이격된 위치로부터 일정 높이를 설정하는 단계;를 포함하는 것을 특징으로 하는 기도 추출 방법.
  15. 3차원 인체 영상을 획득하는 단계;
    상기 3차원 인체 영상으로부터 영역성장법을 이용하여 폐 영역을 분할하는 단계;
    상기 폐 영역에 속한 복셀(voxel)들의 신호강도 변화에 대한 방향성을 기초로 폐엽 사이의 틈새 후보군을 추출하는 단계;
    상기 틈새 후보군을 포함한 상기 폐 영역의 영상을 인체 정면에서 바라보는 영상으로 재구성하고, 상기 재구성된 영상에서 나타내는 틈새 후보군을 기초로 가상 틈새를 생성하는 단계; 및
    상기 가상 틈새를 이용하여 폐엽을 추출하는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  16. 제 15항에 있어서,
    상기 틈새 후보군을 추출하는 단계 이전에, 잡음 제거를 위하여 비등방성 확산(anisotropic diffusion) 필터링 또는 가우시안 평활화(Gaussian Smoothing)를 수행하는 단계;를 더 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  17. 제 15항에 있어서, 상기 틈새 후보군을 추출하는 단계는,
    상기 폐 영역에 속한 복셀들의 신호강도의 각 방향의 변화에 대한 고유값(eigen value)을 구하는 단계; 및
    상기 각 방향에 대한 고유값의 비율을 기초로 폐엽 사이의 면(sheet) 성분을 추출하는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  18. 제 17항에 있어서, 상기 면 성분을 추출하는 단계는,
    상기 복셀들의 세 방향에 대한 각각의 고유값 λ1, λ2, λ3은,
    (|λ3|/|λ1|) > 기준 고유값, (|λ3|/|λ2|) > 기준 고유값을 만족하는 복셀들의 집합을 상기 면 성분으로 추출하는 단계를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  19. 제 17항에 있어서,
    3차원 레이블링(labeling)을 이용하여 상기 틈새 이외의 영역에 대한 잡음을 제거하는 단계;를 더 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  20. 제 17항에 있어서,
    상기 추출한 면 성분에 대해, 스트럭처링 원소(structruing element)를 이용한 형태학적 닫힘(morphological closing) 연산을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  21. 제 15항에 있어서, 상기 폐엽을 추출하는 단계는,
    상기 가상 틈새를 통해 구분되는 각 영역에서 영역성장법을 이용하여 각각의 폐엽을 분할하는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  22. 3차원 인체 영상을 획득하는 단계;
    상기 3차원 인체 영상으로부터 영역성장법을 이용하여 폐 영역을 분할하는 단계;
    상기 폐 영역의 폐엽 사이의 가상 틈새를 구하는 단계;
    상기 가상 틈새로 구분되는 각 영역의 무게중심 좌표를 구하는 단계;
    상기 각 영역의 무게중심 좌표를 종자점으로 하여 각 영역에서 동시에 영역성장법을 수행하여 폐엽을 분할하는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  23. 제 22항에 있어서, 상기 가상 틈새를 구하는 단계는,
    상기 폐 영역에 속한 복셀(voxel)들의 신호강도 변화에 대한 방향성을 기초로 상기 폐 영역을 구성하는 폐엽들 사이의 면 특성을 갖는 가상 틈새를 추출하는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
  24. 제 22항에 있어서, 상기 분할하는 단계는,
    각 폐엽에서 영영성장법에 의해 성장한 영역이 다른 폐엽에서 영역성장법에 의해 성장한 영역과 맞붙게 되면, 상기 획득된 틈새를 기반으로 맞붙는 방향으로의 영역 성장을 멈추는 단계;를 포함하는 것을 특징으로 하는 폐엽 추출 방법.
PCT/KR2014/004989 2013-08-01 2014-06-05 기도와 폐엽을 추출하는 방법 및 그 장치 WO2015016481A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/909,304 US9996919B2 (en) 2013-08-01 2014-06-05 Method for extracting airways and pulmonary lobes and apparatus therefor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2013-0091595 2013-08-01
KR1020130091595A KR101482247B1 (ko) 2013-08-01 2013-08-01 기도 추출 방법 및 그 장치
KR1020130124155A KR101514003B1 (ko) 2013-10-17 2013-10-17 폐엽 추출 방법 및 그 장치
KR10-2013-0124155 2013-10-17

Publications (1)

Publication Number Publication Date
WO2015016481A1 true WO2015016481A1 (ko) 2015-02-05

Family

ID=52431973

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/004989 WO2015016481A1 (ko) 2013-08-01 2014-06-05 기도와 폐엽을 추출하는 방법 및 그 장치

Country Status (2)

Country Link
US (1) US9996919B2 (ko)
WO (1) WO2015016481A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139454A (zh) * 2015-08-06 2015-12-09 北京工业大学 一种三维ct图像中肝脏三维感兴趣区域的自动提取方法
WO2021014045A1 (es) 2019-07-23 2021-01-28 Piher Sensors & Controls, S.A. Sistema sensor de posición

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1859404B1 (en) * 2005-02-11 2018-12-19 Philips Intellectual Property & Standards GmbH Identifying abnormal tissue in images of computed tomography
WO2015054295A1 (en) * 2013-10-07 2015-04-16 Arizona Board Of Regents On Behalf Of Arizona State University Kidney glomeruli measurement systems and methods
CN106651842A (zh) * 2016-12-09 2017-05-10 江西中科九峰智慧医疗科技有限公司 一种ct影像肺结节种子点自动获取和分割方法
CN106846461B (zh) * 2016-12-30 2019-12-03 西安交通大学 一种人体三维扫描方法
KR101930905B1 (ko) 2017-02-28 2018-12-19 메디컬아이피 주식회사 의료영상의 영역 분리 방법 및 그 장치
WO2018159868A1 (ko) * 2017-02-28 2018-09-07 메디컬아이피 주식회사 의료영상의 영역 분리 방법 및 그 장치
CN106910193B (zh) * 2017-04-23 2020-04-07 河南明峰医疗科技有限公司 一种扫描图像处理方法
EP3633612A4 (en) * 2017-06-30 2020-06-03 Shanghai United Imaging Healthcare Co., Ltd. IMAGE SEGMENTATION METHOD AND SYSTEM
US10796481B2 (en) * 2018-04-20 2020-10-06 Siemens Healthcare Gmbh Visualization of lung fissures in medical imaging
US11080830B2 (en) * 2018-04-25 2021-08-03 Perkinelmer Cellular Technologies Germany Gmbh Systems and methods for segmentation and analysis of 3D images
KR102227921B1 (ko) * 2018-06-04 2021-04-16 주식회사 코어라인소프트 로브기준으로 폐혈관을 정량화하는 방법
CN110473207B (zh) * 2019-07-30 2022-05-10 赛诺威盛科技(北京)股份有限公司 一种交互式分割肺叶的方法
US11790602B2 (en) * 2019-08-13 2023-10-17 Sony Group Corporation Information processing device and method
EP4014201A1 (en) * 2019-08-14 2022-06-22 F. Hoffmann-La Roche AG Three dimensional object segmentation of medical images localized with object detection
CN114203297B (zh) * 2021-12-14 2022-09-16 清华大学 用于医学影像的呼吸道疾病随诊辅助方法及装置
CN114419077B (zh) * 2022-03-31 2022-07-05 深圳市一图智能科技有限公司 一种基于ct图像的肺支气管自动分割方法及系统
CN115049685B (zh) * 2022-08-12 2023-02-03 聚时科技(深圳)有限公司 区域生长图像分割方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120071292A (ko) * 2010-12-22 2012-07-02 삼성전자주식회사 영상 처리 방법 및 그에 따른 영상 처리 장치
US8233964B2 (en) * 2005-09-16 2012-07-31 Siemens Medical Solutions Usa, Inc. System and method for color-coding segmented chest image airways for assessment
US20120268450A1 (en) * 2010-09-29 2012-10-25 Siemens Corporation Automated Detection of Airway and Vessel Orientations for Quantitative Analysis and Visualization
JP2012223315A (ja) * 2011-04-19 2012-11-15 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5172228A (en) * 1991-11-19 1992-12-15 Utah State University Foundation Image compression method and apparatus employing distortion adaptive tree search vector quantization
WO2003070102A2 (en) * 2002-02-15 2003-08-28 The Regents Of The University Of Michigan Lung nodule detection and classification
KR100503424B1 (ko) * 2003-09-18 2005-07-22 한국전자통신연구원 다중단면 전산화단층촬영 영상을 이용한 폐결절 자동 검출방법 및 이를 기록한 기록매체
US7474775B2 (en) * 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
US8517945B2 (en) * 2005-04-28 2013-08-27 Carestream Health, Inc. Segmentation of lesions in ultrasound images
WO2007132487A1 (en) * 2006-05-15 2007-11-22 Im3D S.P.A. Method and system for automatic recognition of preneoplastic anomalies in anatomic structures based on an improved region-growing segmentation, and computer program therefor
WO2007132421A1 (en) * 2006-05-17 2007-11-22 Koninklijke Philips Electronics N.V. Computer program to output contrast enhanced medical image data
US8532356B2 (en) * 2006-07-10 2013-09-10 Siemens Medical Solutions Usa, Inc. Method for automatic separation of segmented tubular and circular objects
US8244012B2 (en) * 2007-02-05 2012-08-14 Siemens Medical Solutions Usa, Inc. Computer aided detection of pulmonary embolism with local characteristic features in CT angiography
JP2011524754A (ja) * 2008-02-13 2011-09-08 キットウェア インク 細胞の損傷および疾患のリスクを測定する方法およびシステム
US8009921B2 (en) * 2008-02-19 2011-08-30 Xerox Corporation Context dependent intelligent thumbnail images
US8718340B2 (en) * 2008-09-03 2014-05-06 Trustees Of The University Of Pennsylvania System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis
CN102388305B (zh) * 2009-02-02 2014-11-19 罗格斯新泽西州立大学 基于图像的风险分数-来自数字组织病理学的存活率和结果的预后预估
US9679389B2 (en) * 2009-05-19 2017-06-13 Algotec Systems Ltd. Method and system for blood vessel segmentation and classification
US9082036B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for accurate sub-pixel localization of markers on X-ray images
US8553957B2 (en) 2010-12-22 2013-10-08 Samsung Electronics Co., Ltd. Method of processing image and image processing apparatus using the method
RU2589292C2 (ru) * 2011-05-24 2016-07-10 Конинклейке Филипс Н.В. Устройство и способ формирования карты коррекции затухания

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8233964B2 (en) * 2005-09-16 2012-07-31 Siemens Medical Solutions Usa, Inc. System and method for color-coding segmented chest image airways for assessment
US20120268450A1 (en) * 2010-09-29 2012-10-25 Siemens Corporation Automated Detection of Airway and Vessel Orientations for Quantitative Analysis and Visualization
KR20120071292A (ko) * 2010-12-22 2012-07-02 삼성전자주식회사 영상 처리 방법 및 그에 따른 영상 처리 장치
JP2012223315A (ja) * 2011-04-19 2012-11-15 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139454A (zh) * 2015-08-06 2015-12-09 北京工业大学 一种三维ct图像中肝脏三维感兴趣区域的自动提取方法
CN105139454B (zh) * 2015-08-06 2018-01-19 北京工业大学 一种三维ct图像中肝脏三维感兴趣区域的自动提取方法
WO2021014045A1 (es) 2019-07-23 2021-01-28 Piher Sensors & Controls, S.A. Sistema sensor de posición
CN113661371A (zh) * 2019-07-23 2021-11-16 比尔传感和控制公司 位置传感器系统

Also Published As

Publication number Publication date
US9996919B2 (en) 2018-06-12
US20160189373A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
WO2015016481A1 (ko) 기도와 폐엽을 추출하는 방법 및 그 장치
US5850469A (en) Real time tracking of camera pose
EP2402907B1 (en) Information processing apparatus, three-dimensional position calculation method, and program
KR101482247B1 (ko) 기도 추출 방법 및 그 장치
US6343143B1 (en) Process for the registration of two different images of the same object
JPH1023452A (ja) 画像抽出装置および方法
JP5156601B2 (ja) 形状測定装置およびプログラム
JP2008304269A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2013109691A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2967086B1 (ja) 多眼画像処理による人物の三次元姿勢推定方法
JP2010113530A (ja) 画像認識装置及びプログラム
WO2013160663A2 (en) A system and method for image analysis
KR102373725B1 (ko) 3차원 복부 영상 분석 방법 및 장치
Nagel et al. Motion boundary detection in image sequences by local stochastic tests
US7570799B2 (en) Morphological inspection method based on skeletonization
JPH01182714A (ja) ひび割れ自動計測装置
JP4082718B2 (ja) 画像認識方法および画像表示方法および画像認識装置
RU2542876C2 (ru) Устройство выделения высокодетализированных объектов на изображении сцены
JP2003022454A (ja) データの座標変換方法
JP5620741B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP3474772B2 (ja) センサキャリブレーション方法及び装置及びセンサキャリブレーションプログラムを記録した記録媒体
KR101814728B1 (ko) 3d 모델 골격 추출 방법 및 장치
WO2020076134A1 (ko) 암 영역 정보 보정 장치 및 방법
WO2020075991A1 (ko) 암 영역 상태 평가 장치 및 방법
JPH05192326A (ja) 断層像輪郭線描画装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14832032

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14909304

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14832032

Country of ref document: EP

Kind code of ref document: A1