KR100979335B1 - Method for automatic quantification of air trapping on chest CT data - Google Patents

Method for automatic quantification of air trapping on chest CT data Download PDF

Info

Publication number
KR100979335B1
KR100979335B1 KR1020080069376A KR20080069376A KR100979335B1 KR 100979335 B1 KR100979335 B1 KR 100979335B1 KR 1020080069376 A KR1020080069376 A KR 1020080069376A KR 20080069376 A KR20080069376 A KR 20080069376A KR 100979335 B1 KR100979335 B1 KR 100979335B1
Authority
KR
South Korea
Prior art keywords
image
volume data
chest
binary
minimum
Prior art date
Application number
KR1020080069376A
Other languages
Korean (ko)
Other versions
KR20100008810A (en
Inventor
서준범
김남국
이정진
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020080069376A priority Critical patent/KR100979335B1/en
Publication of KR20100008810A publication Critical patent/KR20100008810A/en
Application granted granted Critical
Publication of KR100979335B1 publication Critical patent/KR100979335B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은, (a) CT(Computed Tomography) 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득하는 단계; (b) 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성하는 단계; (c) 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정하는 단계; (d) 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정하는 단계; (e) 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하는 단계; 및 (f) 상기 감산영상을 분석하고 정량화하는 단계를 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공한다. The present invention comprises the steps of: (a) acquiring three-dimensional minimum breathing chest volume data and three-dimensional maximum breathing chest volume data through CT (Computed Tomography) technique; (b) dividing pulmonary parenchyma and pulmonary vessel from each volume data, and generating a binary image for each volume data; (c) correcting global movement between binary images for each of the volume data by using an affine matching technique for minimizing the distance between the closed surfaces of the minimum and maximum breaths; (d) correcting local motion between the binary images using a regional deformation model based non-rigid registration technique; (e) generating a subtracted image between the binary images whose correspondence is identified through the global and local motion correction; And (f) analyzing and quantifying the subtracted image, thereby providing an automatic air capture quantification method using a chest CT image.

상기 자동 공기 포획 정량화 방법은, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석함에 따라, 기존에 수작업에 의존한 정성적인 판독 방법을 자동화할 수 있다. 또한, 폐질환 환자의 공기 포획 영역을 정량적으로 진단할 수 있어, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공할 수 있다.The automatic air capture quantification method uses affine matching and local deformation model based non-rigid image matching to determine the correspondence relationship between minimum and maximum breathing images, and automatically captures the air capture area using image subtraction and analysis. As a result of the analysis, it is possible to automate qualitative reading methods that are traditionally manual. In addition, it is possible to quantitatively diagnose the air trapping area of the lung disease patient, thereby providing quantified data on how much air is trapped in which part of the lung.

Description

흉부 CT영상을 이용한 자동 공기 포획 정량화 방법{Method for automatic quantification of air trapping on chest CT data}Method for automatic quantification of air trapping on chest CT data}

본 발명은 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법에 관한 것으로서, 보다 상세하게는 폐질환 환자의 최소/최대호흡 CT영상을 이용한 자동 공기 포획 정량화 방법에 관한 것이다.The present invention relates to an automatic air capture quantification method using chest CT images, and more particularly, to an automatic air capture quantification method using minimum / maximum breathing CT images of lung disease patients.

국내에서 비교적 흔히 발생되는 만성 폐쇄성 폐질환의 유병률은, 2002년에 시행한 전국 실태조사에서 8.7%로 보고되었다. 그런데, 그 주요 원인인 흡연인구가 여전히 많은 관계로 상기 유병률은 지속적으로 증가될 것으로 예상된다. The prevalence of chronic obstructive pulmonary disease, which occurs relatively frequently in Korea, was reported to be 8.7% in the 2002 National Survey. However, the prevalence rate is expected to continue to increase because the smoking population, which is the main cause, is still large.

상기 만성 폐쇄성 폐질환 환자에서 기류폐쇄를 일으키는 주요 병소는 말초기도이다. 여기서, CT영상을 이용한 병소의 평가는 매우 제한적인데, 호흡 시 말초기도의 조기폐쇄에 의한 공기포획 평가에 국한된다고 할 수 있다. CT영상에서 보여지는 공기 포획의 정도는, 말초기도의 평활근 층 내의 염증침윤의 정도와 연관된다. 이러한 공기 포획의 발견은, 만성 폐쇄성 폐질환의 조기발견에 도움을 줄 수 있어, 이를 정확하게 분석하는 것은 임상적으로 매우 중요하다.The major lesion causing airflow obstruction in patients with chronic obstructive pulmonary disease is the peripheral airway. Here, the evaluation of lesions using CT images is very limited, and it can be said that it is limited to the evaluation of air capture due to early obstruction of peripheral airway during respiration. The extent of air capture seen on CT images is related to the degree of inflammatory infiltration in the smooth muscle layer of the peripheral airways. The discovery of these air traps may assist in the early detection of chronic obstructive pulmonary disease, so accurate analysis is of great clinical importance.

최근, 이러한 공기 포획을 진단하는 영상 검사로서 CT(컴퓨터단층촬영) 기술 이 많이 사용되고 있다. 공기 포획의 진단에 쓰이는 CT영상의 주요 특징은, 최대호흡 영상에서 폐 실질의 밝기값과 최소호흡 영상에서 동일한 위치의 밝기 값을 비교하는 것인데, 이는 그 변화가 작은 영역, 즉 공기가 포획되어 있는 영역의 존재와 분포를 파악하는 것이다. 그런데, 환자의 호흡에 따라 폐의 지역적 변형이 매우 크므로, 그 대응 관계의 파악이 어렵고 시간이 많이 소요된다. 또한, 그 진단과 평가에 있어서, 단지 의사에 의해 육안으로 정성적으로 평가되고 있는 관계로, 의사들 간의 판독결과가 서로 상이할 수 있으며, 오진의 우려가 있는 문제점이 있다.Recently, CT (computed tomography) technology has been widely used as an imaging test for diagnosing such air trapping. The main feature of CT imaging for the diagnosis of air trapping is to compare the brightness of the lung parenchyma in the maximal breathing image with the brightness of the same position in the minimal breathing image, which is the area where the change is small. It is to identify the existence and distribution of the area. However, since the regional deformation of the lung is very large according to the breathing of the patient, it is difficult and time consuming to identify the correspondence relationship. Further, in the diagnosis and evaluation, only the doctors are qualitatively evaluated visually, so that the reading results between the doctors may be different from each other, and there is a problem that there is a risk of misdiagnosis.

본원 발명은, 기존에 수작업으로 정성적으로 수행되었던 최소/최대호흡 영상들의 대응 관계 파악 및 공기 포획 영역 분석과는 달리, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공하는데 목적이 있다.Unlike the grasping of the correspondence relationship between the minimum and maximum breathing images and the air capture region analysis, which have been performed qualitatively by hand, the present invention uses the affine matching technique and the regional deformation model based non-rigid image matching technique. The purpose of the present invention is to provide an automatic air capture quantification method using chest CT images which grasps the correspondence relationship between the maximum breathing images and automatically analyzes the air capture area using image subtraction and analysis techniques.

본 발명은, (a) CT 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득하는 단계; (b) 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성하는 단계; (c) 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정하는 단계; (d) 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정하는 단계; (e) 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하는 단계; 및 (f) 상기 감산영상을 분석하고 정량화하는 단계를 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공한다.The present invention includes the steps of: (a) acquiring three-dimensional minimum breathing chest volume data and three-dimensional maximum breathing chest volume data through CT techniques; (b) dividing pulmonary parenchyma and pulmonary vessel from each volume data, and generating a binary image for each volume data; (c) correcting global movement between binary images for each of the volume data by using an affine matching technique for minimizing the distance between the closed surfaces of the minimum and maximum breaths; (d) correcting local motion between the binary images using a regional deformation model based non-rigid registration technique; (e) generating a subtracted image between the binary images whose correspondence is identified through the global and local motion correction; And (f) analyzing and quantifying the subtracted image, thereby providing an automatic air capture quantification method using a chest CT image.

또한, 본 발명은, 상기 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. The present invention also provides a computer-readable recording medium having recorded thereon a program for executing an automatic air capture quantification method using the chest CT image on a computer.

본원 발명에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법은, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석함에 따라, 기존에 수작업에 의존한 정성적인 판독 방법을 자동화할 수 있다. 또한, 폐질환 환자의 공기 포획 영역을 정량적으로 진단할 수 있어, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공할 수 있다. 더욱이, 폐질환 환자의 공기 포획 영역을 시각적으로 표현하는 경우, 진단 및 평가의 오류를 줄임은 물론이며, 실제 임상에 즉시 적용 가능한 진단 보조 도구로 적용 가능한 이점이 있다.Automatic air capture quantification method using chest CT image according to the present invention, grasp the relationship between the minimum / maximum breathing images using the affine matching method and regional deformation model-based non-rigid image matching, image subtraction and analysis Automatic analysis of air capture zones can be used to automate qualitative reading methods that are traditionally manual. In addition, it is possible to quantitatively diagnose the air trapping area of the lung disease patient, thereby providing quantified data on how much air is trapped in which part of the lung. Furthermore, when visually expressing the air trapping area of a lung disease patient, it is possible to reduce errors in diagnosis and evaluation, as well as to be applicable as a diagnostic aid immediately applicable to actual clinical practice.

도 1은 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 흐름도이다. 도 2는 도 1의 다른 흐름도이고, 도 3은 도 1의 방법을 위한 시스템 구성도이다.1 is a flowchart of an automatic air capture quantification method using chest CT images according to an embodiment of the present invention. 2 is another flow chart of FIG. 1, and FIG. 3 is a system diagram for the method of FIG.

먼저, 상기 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 설명에 앞서, 상기 방법을 위한 자동 공기 포획 정량화 시스템(100)에 관하여 설명하면 다음과 같다. 상기 자동 공기 포획 정량화 시스템(100)은, 촬영부(110), 표시부(130), 입력부(120) 및 제어분석부(140)를 포함한다.First, prior to the description of the automatic air capture quantification method using the chest CT image, the automatic air capture quantification system 100 for the method will be described as follows. The automatic air capture quantification system 100 includes a photographing unit 110, a display unit 130, an input unit 120, and a control analysis unit 140.

상기 촬영부(110)는 최소호흡 및 최대호흡에 대한 3차원 흉부 볼륨데이터를 CT 기법에 의해 촬영하여 그 촬영정보를 획득한다. 상기 제어분석부(140)는 상기 획득된 촬영정보에서 폐 실질과 폐 혈관을 분할하여, 최소호흡 및 최대호흡에 대한 각 이진영상을 생성하고, 각 이진영상에 대한 전역적 및 지역적 움직임을 보상한다. 또한, 제어분석부(140)는 상기 움직임이 보상된 이진영상 간의 감산영상을 생성하고 이를 정량화하여, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공한다. 물론, 이외에도 상기 제어분석부(140)는 상기 촬영부(110), 표시부(130), 입력부(120) 등의 각 구성요소의 제어가 가능하다. The photographing unit 110 acquires the photographing information by capturing three-dimensional chest volume data of the minimum breath and the maximum breath by a CT technique. The control analyzer 140 divides the lung parenchyma and the pulmonary blood vessels from the obtained photographing information, generates binary images for minimum and maximum breathing, and compensates for global and local motions for each binary image. . In addition, the control analysis unit 140 generates and quantifies the subtracted image between the motion-compensated binary images, and provides quantified data on how much air is trapped in which part of the lung. Of course, in addition to the control analysis unit 140 may control the respective components, such as the photographing unit 110, the display unit 130, the input unit 120.

한편, 상기 입력부(120)는 사용자(전문가 혹은 의사)로부터 각종 조작신호를 입력 받아 상기 제어분석부(140)로 전송 가능하다. 상기 표시부(130)는 상기 촬영정보 이외에도 상기 감산영상을 시각화하여 화면으로 표시 가능하다. 또한, 상기 제어분석부(140)는 상기 입력부(120)에 입력된 신호를 처리하여 그에 대응되는 동작을 표시부(130)에 전송하여, 해당 사항이 실시간 화면으로 표시되도록 한다.Meanwhile, the input unit 120 may receive various manipulation signals from a user (expert or doctor) and transmit them to the control analysis unit 140. The display unit 130 may visualize and display the subtracted image in addition to the photographing information. In addition, the control analysis unit 140 processes the signal input to the input unit 120 and transmits a corresponding operation to the display unit 130, so that the corresponding information is displayed on the real-time screen.

이하에서는, 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법에 관하여 도 1 내지 도 3을 참조로 하여 보다 상세히 설명하고자 한다.Hereinafter, an automatic air capture quantification method using a chest CT image according to an embodiment of the present invention will be described in more detail with reference to FIGS. 1 to 3.

먼저, 상기 촬영부(110)가 CT 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득한다.(S110). 이렇게 획득된 각 볼륨데이터들은 상기 제어분석부(140)로 전달되어 처리된다. 영기서, 상기 획득되는 각 볼륨데이터는, 상기 촬영부(110)에서 촬영된 데이터 이외에도, 외부에서 촬영되 어 상기 입력부(130)를 통해 입력받은 볼륨데이터일 수 있다.First, the photographing unit 110 obtains the 3D minimum breathing chest volume data and the 3D maximum breathing chest volume data through CT techniques (S110). Each volume data thus obtained is transferred to the control analyzer 140 and processed. In this case, each of the obtained volume data may be, in addition to the data photographed by the photographing unit 110, volume data photographed from the outside and received through the input unit 130.

다음으로, 상기 제어분석부(140)는 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성한다(S120). 상기 폐실질과 폐혈관의 분할을 위해서는 아래와 같이 씨앗점 영역 성장법을 이용한다.Next, the control analyzer 140 divides the lung parenchyma and the pulmonary blood vessel from each volume data, and generates a binary image for each volume data (S120). In order to divide the parenchyma and pulmonary blood vessel, seed point region growth method is used as follows.

먼저, 각각의 볼륨데이터 영상으로부터, 상기 폐실질과 비슷한 밝기값을 갖는 흉부 외부의 배경을, 각 슬라이스마다 2차원 씨앗점 영역 성장법을 수행하여 제거한다. 이때, 각 슬라이스의 가장 외곽의 점들을 씨앗점으로 이용한다. First, from each volume data image, a background outside the chest having a brightness value similar to the lung parenchyma is removed by performing a two-dimensional seed point region growth method for each slice. At this time, the outermost points of each slice are used as seed points.

그리고, 최대호흡의 볼륨데이터에서는 -1024HU이상 및 -400HU이하의 임계값을 이용하고, 최소호흡의 볼륨데이터에서는 -1024HU이상 및 -200HU이하의 임계값을 이용하여, 3차원 씨앗점 영역 성장법을 수행하여 폐 실질을 추출한다. 이러한 3차원 씨앗점 영역 성장법에 이용되는 씨앗점은 기관지가 분지하는 위치의 기관지 부위를 템플릿(template)으로 하여 자동 추출한 후 중심점을 사용한다. 여기서, 동일한 씨앗점을 이용하여 -1024HU이상 및 -950HU이하의 임계로 3차원 씨앗점 영역 성장법을 수행하면 기관지가 추출되며, 미리 추출된 폐 실질에서 상기 기관지 부위를 제거하면, 폐만 남게 된다. 이러한 씨앗점 성장법은 기존에 개시되어 있으므로 보다 상세한 설명은 생략하고자 한다.In the volume data of the maximum breathing, a threshold value of -1024 HU or more and -400 HU or less is used, and in the volume data of the minimum breathing, a threshold value of -1024 HU or more and -200 HU or less is used to generate a three-dimensional seed point region growth method. To extract the lung parenchyma. The seed point used in the three-dimensional seed point region growth method uses a center point after automatically extracting the bronchial region at the position where the bronchus branches as a template. In this case, when the 3D seed point region growth method is performed using the same seed point at a threshold of -1024 HU or more and -950 HU or less, the bronchus is extracted, and when the bronchial region is removed from the previously extracted lung parenchyma, only the lung remains. Since the seed point growth method is disclosed in the past, a detailed description thereof will be omitted.

그리고, 남은 폐 실질에서 구멍 채움(hole filling)을 수행하면, 폐혈관이 포함된 폐 실질이 분할되는데, 이 영역에서 -400HU이상의 영역들은 폐혈관, 나머지 영역들은 폐 실질로 볼 수 있다. 여기서, 수학식 1을 참조하면, 상기 폐실질은 1번 클래스(class)로 '0'의 값을, 상기 폐혈관과 폐 외부는 2번 클래스로 '1'의 값을 각각 할당하여, 상기 이진영상을 생성할 수 있다.In addition, when hole filling is performed in the remaining lung parenchyma, the lung parenchyma containing the pulmonary blood vessels is divided. In this region, more than -400 HU are pulmonary blood vessels, and the remaining regions are pulmonary parenchyma. Here, referring to Equation 1, the lung parenchyma is assigned a value of '0' as a class 1, and the value of '1' as a class 2 for the pulmonary blood vessel and the outside of the lung, respectively, and the binary An image can be generated.

[수학식 1][Equation 1]

Figure 112008051303611-pat00001
Figure 112008051303611-pat00001

상기 3차원 최소호흡 및 최대호흡 볼륨데이터에 관한 각 이진영상의 모습은 도 4의 예시 영상을 참조하면 된다. 그리고, 이진영상의 생성 이후에 폐 경계를 추출할 수 있다(S121). 추후의 정합 과정(S130~S140)은 클래스별로 분류된 상기 이진영상들을 대상으로 수행되는데, 이러한 두 이진영상 사이의 폐실질과 폐혈관의 밝기값의 차이를 보정함으로써 보다 정확한 정합이 가능할 수 있다.Refer to the example image of FIG. 4 for the appearance of each binary image regarding the 3D minimum and maximum breath volume data. After the generation of the binary image, the lung boundary may be extracted (S121). Subsequent registration processes (S130 ˜ S140) are performed on the binary images classified by class, and may be more precisely matched by correcting the difference between the brightness values of pulmonary parenchyma and pulmonary blood vessel between the two binary images.

즉, 상기 이진영상 생성 단계(S120) 이후, 상기 제어분석부(140)는, 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인(Affine) 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정한다(S130). 먼저, 상기 볼륨데이터(영상)의 폐 표면에 대한 챔퍼 거리맵을 생성하고, 수학식 2를 이용하여, 두 볼륨데이터(영상)의 폐 표면들 사이의 평균 거리를 최소화하기 위한 초기 정합을 수행한다(S131).That is, after the binary image generation step (S120), the control analysis unit 140, using an affine matching technique to minimize the distance between the closed surface of the minimum breath and the maximum breath, to each of the volume data Compensate for the global motion between the binary images (S130). First, a chamfer distance map of the closed surface of the volume data (image) is generated, and Equation 2 is used to perform initial registration to minimize the average distance between the closed surfaces of the two volume data (image). (S131).

[수학식 2][Equation 2]

Figure 112008051303611-pat00002
Figure 112008051303611-pat00002

여기서, 각 볼륨데이터를 영상1,2로 표현하여 설명하면 다음과 같다. 영상1의 점

Figure 112008051303611-pat00003
는 영상2의 점
Figure 112008051303611-pat00004
로 변환된다.
Figure 112008051303611-pat00005
는 영상 2에서 3차원으로 만들어진 챔퍼 거리맵의 점
Figure 112008051303611-pat00006
의 위치에서의 상기 거리 값이다.
Figure 112008051303611-pat00007
은 영상1과 영상2의 중첩된 영역에서의 점들의 개수이며, 각 점들에 대한 거리를 합산한 결과를
Figure 112008051303611-pat00008
으로 나눔에 따라, 상기 폐 표면들 사이의 평균 거리가 산출된다.Here, each volume data will be described as an image 1,2, as follows. Dot of Image 1
Figure 112008051303611-pat00003
Is the point in image 2
Figure 112008051303611-pat00004
Is converted to.
Figure 112008051303611-pat00005
Is the point on the chamfer distance map created in 3D in image 2.
Figure 112008051303611-pat00006
The distance value at the position of.
Figure 112008051303611-pat00007
Is the number of points in the overlapped area of Image 1 and Image 2, and the result of summing the distances for each point
Figure 112008051303611-pat00008
By dividing by, the average distance between the lung surfaces is calculated.

변환 함수는 이동 변환과 회전 변환으로 이루어진 강체 변환 함수에, 확대/축소 변환을 추가한 어파인 변환(Affine Transform)을 사용한다. 강체 변환 인자인 3개의 이동 변환 인자(

Figure 112008051303611-pat00009
,
Figure 112008051303611-pat00010
,
Figure 112008051303611-pat00011
)와, 3개의 회전 변환인자(
Figure 112008051303611-pat00012
,
Figure 112008051303611-pat00013
,
Figure 112008051303611-pat00014
)와, 3개의 확대/축소 변환 인자(
Figure 112008051303611-pat00015
,
Figure 112008051303611-pat00016
,
Figure 112008051303611-pat00017
)에 대한 변환식은 다음의 수학식 3과 같이 결정된다.The transform function uses an affine transform that adds a zoom transform to a rigid transform function consisting of a shift transform and a rotation transform. Three shift transform factors that are rigid
Figure 112008051303611-pat00009
,
Figure 112008051303611-pat00010
,
Figure 112008051303611-pat00011
) And three rotation conversion factors (
Figure 112008051303611-pat00012
,
Figure 112008051303611-pat00013
,
Figure 112008051303611-pat00014
) And three zoom conversion factors (
Figure 112008051303611-pat00015
,
Figure 112008051303611-pat00016
,
Figure 112008051303611-pat00017
The conversion equation for) is determined as in Equation 3 below.

[수학식 3]&Quot; (3) "

Figure 112008051303611-pat00018
Figure 112008051303611-pat00018

Figure 112008051303611-pat00019
Figure 112008051303611-pat00020
는 영상1에서의 복셀 및 중심의 좌표이고,
Figure 112008051303611-pat00021
Figure 112008051303611-pat00022
는 영상2에서의 복셀과 중심의 좌표이다. 변환 인자의 탐색을 위하여, 파웰의 방향 기법을 적용하여 빠른 시간 내에 최적의 위치로 수렴하도록 한다. 물론,
Figure 112008051303611-pat00023
는 회전 각도를 의미한다.
Figure 112008051303611-pat00019
Wow
Figure 112008051303611-pat00020
Is the coordinate of the voxel and the center of the image 1,
Figure 112008051303611-pat00021
Wow
Figure 112008051303611-pat00022
Is the coordinate of the voxel and the center in the image 2. To search for the conversion factor, Powell's direction technique is applied to converge to the optimum position in a short time. sure,
Figure 112008051303611-pat00023
Means the angle of rotation.

상기 어파인 정합 기법을 이용하여 전역적 움직임 보상이 완료된 이후, 상기 제어분석부(140)는 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정한다(S140).After the global motion compensation is completed using the affine matching technique, the control analyzer 140 corrects the local motion between the binary images using a local deformation model based non-rigid matching technique (S140).

먼저, 한 점

Figure 112008051303611-pat00024
의 근방
Figure 112008051303611-pat00025
에서, 오차 함수를 최소화하는 변환 인자들을 수학 식 4를 이용하여 각 점마다 계산하게 되면, 최적의 비강체 정합이 가능하다.First, one point
Figure 112008051303611-pat00024
Near
Figure 112008051303611-pat00025
In Equation 4, the optimal non-rigid registration is possible by calculating the conversion factors for minimizing the error function for each point using Equation 4.

[수학식 4]&Quot; (4) "

Figure 112008051303611-pat00026
Figure 112008051303611-pat00026

상기 수학식 4에서,

Figure 112008051303611-pat00027
는 점
Figure 112008051303611-pat00028
에 대한 선형 어파인 변환의 인자들이고,
Figure 112008051303611-pat00029
는 점
Figure 112008051303611-pat00030
에 대한 이동 변환의 인자들이다. 점
Figure 112008051303611-pat00031
를 중심으로 근방
Figure 112008051303611-pat00032
는 5×5×5 정육면체로 근사한다. 변환 인자들이 공간적으로 조금씩 변화한다고 가정하며, 상기 변환 인자들의 공간적 변화를 최소화하기 위해, 수학식 5의 평활화(smoothness) 항을 오차 함수에 추가할 필요가 있다.In Equation 4,
Figure 112008051303611-pat00027
Point
Figure 112008051303611-pat00028
Are factors of a linear affine transformation for,
Figure 112008051303611-pat00029
Point
Figure 112008051303611-pat00030
Are the arguments to the shift transform for. point
Figure 112008051303611-pat00031
Near
Figure 112008051303611-pat00032
Approximates to a 5 × 5 × 5 cube. It is assumed that the transformation factors change little by little in space, and in order to minimize the spatial variation of the transformation factors, it is necessary to add the smoothness term of Equation 5 to the error function.

[수학식 5][Equation 5]

Figure 112008051303611-pat00033
Figure 112008051303611-pat00033

결국 지역적으로 어파인 변형이면서 전역적으로는 변형이 부드럽게 변화하는 최적의 변환 인자는, 수학식 4 내지 수학식 5를 동시에 만족시키는 다음과 같은 수학식 6의 오차 함수를 최소화하도록 계산한다.Eventually, the optimal transformation factor, which is locally transformed and smoothly changes globally, is calculated to minimize the error function of Equation 6 below, which satisfies Equations 4 to 5 simultaneously.

[수학식 6]&Quot; (6) "

Figure 112008051303611-pat00034
Figure 112008051303611-pat00034

위 오차 함수의 최적화는 뉴턴-랩선(Newton-Raphson) 반복(iterative) 기법으로 수행된다. 각각의 반복마다 움직이는 영상은, 현재 구해진 최적의 지역적 변환에 따라서 워핑(warping)되어, 다음 반복 계산 시에는 워핑된 영상과 고정된 영상에서 최적의 변환 인자들을 탐색하게 된다. 또한, 정합의 대상이 되는 두 영상들에 대하여 각각 가우시안 피라미드를 생성하여 다중 해상도 기법을 적용한다. 이러한 정합 과정을 거친 최소호흡 및 최대호흡 영상의 3차원 볼륨 렌더링 결과에 관한 예시가 도 5에 도시되어 있다.The optimization of the error function is performed with the Newton-Raphson iterative technique. The moving image in each repetition is warped according to the optimal local transformation currently obtained, so that the next repetition calculation calculates the optimal conversion factors in the warped image and the fixed image. In addition, a Gaussian pyramid is generated for each of two images to be matched, and a multi-resolution technique is applied. An example of a 3D volume rendering result of the minimally and maximally breathing images that have undergone such registration is shown in FIG. 5.

한편, 각 정합 결과에 대한 유사도 측정값은 에러경계(Error Bound)와 비교되는데, 유사도가 에러경계 이하의 값이면 그 이후의 단계(S150)를 진행하고, 에러경계 이상인 경우에는 상기 어파인 정합 과정(S130)을 재시도하여 정합 과정을 반복하는 작업이 더 추가될 수 있다.On the other hand, the similarity measurement value for each matching result is compared with the error boundary (Error Bound), if the similarity is less than the error boundary proceeds to step (S150) thereafter, if the error boundary or more the affine matching process The operation of repeating the matching process by retrying operation S130 may be further added.

상기 각각의 정합 기법을 수행한 이후, 상기 제어분석부(140)는 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하고(S150), 상기 감산영상을 분석하여 정량화한다(S160). 여기서, 상기 감산영상은, 상기 최소호흡에 대한 이진영상의 밝기값에서 상기 최대호흡에 대한 이진영상의 밝기값을 감산한 밝기값에 대응되는 영상을 의미한다.After performing each matching technique, the control analysis unit 140 generates a subtracted image between the binary images whose correspondence is identified through the global and local motion correction (S150), and analyzes the subtracted image. Quantification by (S160). Here, the subtracted image means an image corresponding to a brightness value obtained by subtracting the brightness value of the binary image for the maximum breath from the brightness value of the binary image for the minimum breath.

다음, 상기 제어분석부(140)는 상기 정량화된 감산영상을 상기 표시부(120) 를 통해 화면으로 가시화한다(S170). 즉, 도 6의 (a)를 참조하면, 상기 감산영상에 관한 정보를, 기존의 최대호흡 CT영상의 폐실질에 오버레이하여 표현할 수 있다.Next, the control analyzer 140 visualizes the quantified subtracted image on the screen through the display unit 120 (S170). That is, referring to FIG. 6A, the information about the subtracted image may be overlaid on the lung parenchyma of the existing maximum respiratory CT image.

한편, 도 6의 (a)의 흑백 영상에서는 기존의 영상과 오버레이된 영상 간의 차이점 파악이 쉽지 않은 단점이 있다. 따라서, 도 7의 (b)를 참조하면, 상기 제어분석부(140)는 상기 감산영상의 밝기값을 칼라화화고, 그 결과를 상기 최대호흡 또는 최소호흡의 CT영상에 칼라 매핑하여 상기 표시부(120)를 통해 가시화할 수 있다. 여기서, 상기 감산영상 정보의 칼라 매핑에는 무지개(rainbow) 칼라 테이블을 이용할 수 있다. 예를 들어, 도 7 (b)에서 파란색 계통의 부분은 최소호흡 CT영상과 최대호흡 CT영상 사이에서 CT 밝기값의 증가가 작은 부분을 의미하며, 이 부분들이 공기 포획 영역을 나타낸다.On the other hand, in the black and white image of Figure 6 (a) has a disadvantage that it is not easy to determine the difference between the existing image and the overlayed image. Therefore, referring to FIG. 7B, the control analyzer 140 colorizes the brightness value of the subtracted image, color-maps the result to the CT image of the maximum breath or the minimum breath, and displays the display unit ( 120). Here, a rainbow color table may be used for color mapping of the subtracted image information. For example, in FIG. 7B, the portion of the blue system means a portion where the increase in CT brightness is small between the minimum breath CT image and the maximum breath CT image, and these portions represent the air trapping region.

이상 상술한 자동 공기 포획 정량화 방법을 요약하면 다음과 같다. CT 기법에 의해 얻어진 최소/최대호흡 흉부 볼륨데이터들로부터 각각의 이진영상을 생성한다(S110~S120). 그리고, 최소/최대호흡의 폐 표면 간 거리를 최소화하는 어파인 정합 기법과, 지역적 변형 모델 기반 비강체 정합 기법을 이용하여, 두 이진영상 간의 전역적 및 지역적 움직임을 보정한다(S130~S140). 이후, 각 이진영상을 정렬하고 감산하여 감산영상을 생성한 이후, 이를 분석하여 공기 포획 정보를 정량화하고 가시화한다(S150~S170).The above-mentioned automatic air capture quantification method is summarized as follows. Each binary image is generated from the minimum / maximum breathing chest volume data obtained by the CT technique (S110 to S120). In addition, by using the affine matching method to minimize the distance between the lung surface of the minimum / maximum breath and the non-rigid registration method based on the regional deformation model, the global and local movement between the two binary images is corrected (S130 ~ S140). Then, after aligning and subtracting each binary image to generate a subtracted image, it is analyzed to quantify and visualize air capture information (S150 to S170).

한편, 이상과 같은 상기 CT영상을 이용한 자동 공기 포획 정량화 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있고 실행될 수 있는 매체로서 데이터가 저장되는 모든 종류의 기록장치를 포함한다.On the other hand, the automatic air capture quantification method using the CT image as described above, it can be implemented as a computer-readable code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices on which data is stored as media that can be read and executed by a computer system.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CO-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of computer-readable recording media include ROM, RAM, CO-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상과 같은 상기 자동 공기 포획 정량화 방법은, 폐질환 환자의 최소/최대호흡 CT영상을 이용하여, 폐질환 환자의 공기 포획 영역을 시각적 및 정량적으로 진단할 수 있어, 실제 임상에 즉시 적용 가능한 진단 보조 도구로 적용 가능하다. 즉, 최소호흡 폐 CT영상과 최대호흡 폐 CT영상에서 폐 실질의 밝기 값 변화를 자동으로 분석하여 폐의 어느 부분이 얼마나 공기 포획이 되었는지에 관한 정량화된 자료를 제공하는데 도움이 될 수 있다.The automatic air capture quantification method as described above can visually and quantitatively diagnose the air trapping area of the lung disease patient by using the CT images of the lung disease patients. Applicable as a tool. In other words, the change in the brightness value of the lung parenchyma can be automatically analyzed in the minimally respiratory pulmonary CT images and the maximum respiratory pulmonary CT images.

나아가, 현재 의사의 수작업에 의존한 정성적인 판독 방법을 자동화 시키며, 이를 검증하는 방식으로 의료 형태가 변경된다면 보다 정량적이고 정교한 판독이 가능할 수 있다. 또한, 이러한 자동 공기 포획 정량화 방법을, 기존의 3차원 CT 장치 혹은 의료영상 저장 및 전달 장치(Picture archive and communication system)에 적용하는 경우, 상당 규모의 소프트웨어 판매 및 수출효과를 가져올 수 있을 뿐 아니라, 나아가 세계시장에서 국내 의료시스템의 경쟁력을 강화시킬 수 있을 것이다.Furthermore, if a medical form is changed by automating a qualitative reading method which is currently dependent on a doctor's manual operation and verifying it, more quantitative and sophisticated reading may be possible. In addition, if the automatic air capture quantification method is applied to the existing three-dimensional CT device or a picture archive and communication system, a significant amount of software sales and exports can be obtained. Furthermore, it will be able to strengthen the competitiveness of domestic medical systems in the global market.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

도 1은 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 흐름도,1 is a flow chart of an automatic air capture quantification method using a chest CT image according to an embodiment of the present invention,

도 2는 도 1의 다른 흐름도,2 is another flow chart of FIG. 1;

도 3은 도 1의 방법을 위한 시스템 구성도,3 is a system diagram for the method of FIG. 1;

도 4는 생성된 이진 영상의 예시도,4 is an exemplary diagram of a generated binary image;

도 5는 정합 과정을 거친 최소/최대호흡 영상의 3차원 볼륨 렌더링 결과의 예시도,5 is an exemplary diagram of a 3D volume rendering result of a minimum / maximum breathing image that has undergone a matching process;

도 6은 도 5의 정합 이후 생성된 감산 영상 및 감산 영상의 칼라 매핑을 통한 공기 포획 가시화 결과의 예시도이다.6 is an exemplary diagram of an air capture visualization result through color mapping of a subtracted image and a subtracted image generated after registration of FIG. 5.

< 도면의 주요부분에 대한 부호의 간단한 설명 ><Brief description of symbols for the main parts of the drawings>

100: 자동 공기 포획 정량화 시스템 110: 촬영부100: automatic air capture quantification system 110: the imaging unit

120: 표시부 130: 입력부120: display unit 130: input unit

140: 제어분석부140: control analysis unit

Claims (6)

(a) CT 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득하는 단계;(a) acquiring three-dimensional minimum breathing chest volume data and three-dimensional maximum breathing chest volume data through a CT technique; (b) 상기 3차원 최소호흡 흉부 볼륨데이터 및 상기 3차원 최대호흡 흉부 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성하는 단계;(b) dividing the lung parenchyma and the pulmonary vessel from the three-dimensional minimum breathing chest volume data and the three-dimensional maximum breathing chest volume data, and generating a binary image for each volume data; (c) 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정하는 단계;(c) correcting global movement between binary images for each of the volume data by using an affine matching technique for minimizing the distance between the closed surfaces of the minimum and maximum breaths; (d) 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정하는 단계;(d) correcting local motion between the binary images using a regional deformation model based non-rigid registration technique; (e) 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하는 단계; 및(e) generating a subtracted image between the binary images whose correspondence is identified through the global and local motion correction; And (f) 상기 감산영상을 분석하고 정량화하는 단계를 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법.(f) analyzing and quantifying the subtracted image, automatic air capture quantification method using a chest CT image. 청구항 1에 있어서, 상기 (b) 단계는,The method according to claim 1, wherein step (b), 상기 폐실질은 '0'의 값, 상기 폐혈관과 폐 외부는 '1'의 값을 각각 할당하여 상기 이진영상을 생성하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법.The lung parenchyma is a value of '0', the pulmonary blood vessels and the outside of the lungs are assigned a value of '1' to generate the binary image, automatic air capture quantification method using a chest CT image. 청구항 1에 있어서, 상기 (f) 단계 이후,The method according to claim 1, after the step (f), (g) 상기 정량화된 감산영상을 화면으로 가시화하는 단계를 더 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법.(g) further comprising visualizing the quantified subtracted image on a screen, automatic air capture quantification method using a chest CT image. 청구항 3에 있어서, 상기 감산영상은,The method of claim 3, wherein the subtracted video, 상기 최소호흡에 대한 이진영상의 밝기값에서 상기 최대호흡에 대한 이진영상의 밝기값을 감산한 밝기값에 대응되는 영상인, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법.And an image corresponding to the brightness value obtained by subtracting the brightness value of the binary image for the maximum breath from the brightness value of the binary image for the minimal breathing. 청구항 4에 있어서, 상기 (g) 단계는,The method according to claim 4, wherein (g) step, 상기 감산영상의 밝기값을 칼라화화여, 상기 최대호흡 또는 최소호흡의 CT영상에 칼라 매핑하여 가시화하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법.And colorizing the brightness value of the subtracted image and visually mapping the color value to the CT image of the maximum breath or the minimum breath. 제 1항 내지 제 5항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 5 on a computer.
KR1020080069376A 2008-07-17 2008-07-17 Method for automatic quantification of air trapping on chest CT data KR100979335B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080069376A KR100979335B1 (en) 2008-07-17 2008-07-17 Method for automatic quantification of air trapping on chest CT data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080069376A KR100979335B1 (en) 2008-07-17 2008-07-17 Method for automatic quantification of air trapping on chest CT data

Publications (2)

Publication Number Publication Date
KR20100008810A KR20100008810A (en) 2010-01-27
KR100979335B1 true KR100979335B1 (en) 2010-08-31

Family

ID=41817331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080069376A KR100979335B1 (en) 2008-07-17 2008-07-17 Method for automatic quantification of air trapping on chest CT data

Country Status (1)

Country Link
KR (1) KR100979335B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160004890A (en) 2014-07-03 2016-01-13 이화여자대학교 산학협력단 Method of measuring subcutaneous fat by chest computed tomography
US10368809B2 (en) 2012-08-08 2019-08-06 Samsung Electronics Co., Ltd. Method and apparatus for tracking a position of a tumor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101135205B1 (en) * 2010-05-25 2012-04-16 인하대학교 산학협력단 A pulmonary vessel extraction method for automatical disease detection using chest ct images
KR102510760B1 (en) * 2016-02-15 2023-03-16 삼성전자주식회사 Image processing apparatus, image processing method thereof and recording medium
CN111388000B (en) * 2020-03-27 2023-08-25 上海杏脉信息科技有限公司 Virtual lung air retention image prediction method and system, storage medium and terminal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100426396B1 (en) 2000-11-28 2004-04-08 김종찬 Virtual reality endoscopy method using 3D image processing method
US7298879B2 (en) 2002-11-20 2007-11-20 Koninklijke Philips Electronics N.V. Computer-aided detection of lung nodules

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100426396B1 (en) 2000-11-28 2004-04-08 김종찬 Virtual reality endoscopy method using 3D image processing method
US7298879B2 (en) 2002-11-20 2007-11-20 Koninklijke Philips Electronics N.V. Computer-aided detection of lung nodules

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10368809B2 (en) 2012-08-08 2019-08-06 Samsung Electronics Co., Ltd. Method and apparatus for tracking a position of a tumor
KR20160004890A (en) 2014-07-03 2016-01-13 이화여자대학교 산학협력단 Method of measuring subcutaneous fat by chest computed tomography

Also Published As

Publication number Publication date
KR20100008810A (en) 2010-01-27

Similar Documents

Publication Publication Date Title
US11931141B2 (en) Hybrid registration method
US8831312B2 (en) Method for segmenting objects in images
JP4718003B2 (en) Method for detecting interval changes in radiographs
JP5723541B2 (en) MEDICAL IMAGE DIAGNOSIS SUPPORT DEVICE, ITS OPERATION METHOD, AND PROGRAM
US8605978B2 (en) Medical image processing apparatus and method, and computer readable recording medium on which is recorded program for the same
JP4130661B2 (en) Device for detecting temporal changes between temporally continuous chest images
KR101428005B1 (en) Method of motion compensation and phase-matched attenuation correction in pet imaging based on a few low-dose ct images
JP2012523889A (en) Overlapping, subtraction and display of chest radiographs
US8195269B2 (en) System and method for automatic detection and measurement of malacia in the airways
KR100979335B1 (en) Method for automatic quantification of air trapping on chest CT data
CN112885453A (en) Method and system for identifying pathological changes in subsequent medical images
WO2006011545A1 (en) Medical image diagnosis assisting system, device and image processing program
US10007984B2 (en) Method for quantifying medical image
CN100577103C (en) Image processing device and method which use two images
US11996182B2 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
KR101028798B1 (en) Method for detection of hepatic tumors using registration of multi-phase liver CT images
US20030128890A1 (en) Method of forming different images of an object to be examined
WO2005009242A1 (en) Medical image processing device and method
CN109300122A (en) Image procossing and Threshold, device and equipment
CN101241597A (en) Visual enhancement of interval changes using a temporal subtraction technique
JP2005270635A (en) Method for processing image and device for processing image
WO2013121679A1 (en) Region extraction system
CN115222878A (en) Scene reconstruction method applied to lung bronchoscope surgical robot
JP2020113275A (en) Lung analysis and reporting system
JP4567395B2 (en) Angiography image processing apparatus, angiography image processing method, and angiography image processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130827

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150811

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160826

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180801

Year of fee payment: 9