KR100979335B1 - Method for automatic quantification of air trapping on chest CT data - Google Patents
Method for automatic quantification of air trapping on chest CT data Download PDFInfo
- Publication number
- KR100979335B1 KR100979335B1 KR1020080069376A KR20080069376A KR100979335B1 KR 100979335 B1 KR100979335 B1 KR 100979335B1 KR 1020080069376 A KR1020080069376 A KR 1020080069376A KR 20080069376 A KR20080069376 A KR 20080069376A KR 100979335 B1 KR100979335 B1 KR 100979335B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- volume data
- chest
- binary
- minimum
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000011002 quantification Methods 0.000 title claims abstract description 24
- 230000029058 respiratory gaseous exchange Effects 0.000 claims abstract description 26
- 210000004072 lung Anatomy 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims abstract description 15
- 230000002685 pulmonary effect Effects 0.000 claims abstract description 14
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims abstract description 4
- 210000001147 pulmonary artery Anatomy 0.000 claims abstract description 3
- 210000004204 blood vessel Anatomy 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 abstract description 31
- 238000004458 analytical method Methods 0.000 abstract description 15
- 208000019693 Lung disease Diseases 0.000 abstract description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 208000006545 Chronic Obstructive Pulmonary Disease Diseases 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000000241 respiratory effect Effects 0.000 description 3
- 206010061876 Obstruction Diseases 0.000 description 2
- 210000000621 bronchi Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 210000002460 smooth muscle Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/504—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Vascular Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
본 발명은, (a) CT(Computed Tomography) 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득하는 단계; (b) 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성하는 단계; (c) 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정하는 단계; (d) 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정하는 단계; (e) 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하는 단계; 및 (f) 상기 감산영상을 분석하고 정량화하는 단계를 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공한다. The present invention comprises the steps of: (a) acquiring three-dimensional minimum breathing chest volume data and three-dimensional maximum breathing chest volume data through CT (Computed Tomography) technique; (b) dividing pulmonary parenchyma and pulmonary vessel from each volume data, and generating a binary image for each volume data; (c) correcting global movement between binary images for each of the volume data by using an affine matching technique for minimizing the distance between the closed surfaces of the minimum and maximum breaths; (d) correcting local motion between the binary images using a regional deformation model based non-rigid registration technique; (e) generating a subtracted image between the binary images whose correspondence is identified through the global and local motion correction; And (f) analyzing and quantifying the subtracted image, thereby providing an automatic air capture quantification method using a chest CT image.
상기 자동 공기 포획 정량화 방법은, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석함에 따라, 기존에 수작업에 의존한 정성적인 판독 방법을 자동화할 수 있다. 또한, 폐질환 환자의 공기 포획 영역을 정량적으로 진단할 수 있어, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공할 수 있다.The automatic air capture quantification method uses affine matching and local deformation model based non-rigid image matching to determine the correspondence relationship between minimum and maximum breathing images, and automatically captures the air capture area using image subtraction and analysis. As a result of the analysis, it is possible to automate qualitative reading methods that are traditionally manual. In addition, it is possible to quantitatively diagnose the air trapping area of the lung disease patient, thereby providing quantified data on how much air is trapped in which part of the lung.
Description
본 발명은 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법에 관한 것으로서, 보다 상세하게는 폐질환 환자의 최소/최대호흡 CT영상을 이용한 자동 공기 포획 정량화 방법에 관한 것이다.The present invention relates to an automatic air capture quantification method using chest CT images, and more particularly, to an automatic air capture quantification method using minimum / maximum breathing CT images of lung disease patients.
국내에서 비교적 흔히 발생되는 만성 폐쇄성 폐질환의 유병률은, 2002년에 시행한 전국 실태조사에서 8.7%로 보고되었다. 그런데, 그 주요 원인인 흡연인구가 여전히 많은 관계로 상기 유병률은 지속적으로 증가될 것으로 예상된다. The prevalence of chronic obstructive pulmonary disease, which occurs relatively frequently in Korea, was reported to be 8.7% in the 2002 National Survey. However, the prevalence rate is expected to continue to increase because the smoking population, which is the main cause, is still large.
상기 만성 폐쇄성 폐질환 환자에서 기류폐쇄를 일으키는 주요 병소는 말초기도이다. 여기서, CT영상을 이용한 병소의 평가는 매우 제한적인데, 호흡 시 말초기도의 조기폐쇄에 의한 공기포획 평가에 국한된다고 할 수 있다. CT영상에서 보여지는 공기 포획의 정도는, 말초기도의 평활근 층 내의 염증침윤의 정도와 연관된다. 이러한 공기 포획의 발견은, 만성 폐쇄성 폐질환의 조기발견에 도움을 줄 수 있어, 이를 정확하게 분석하는 것은 임상적으로 매우 중요하다.The major lesion causing airflow obstruction in patients with chronic obstructive pulmonary disease is the peripheral airway. Here, the evaluation of lesions using CT images is very limited, and it can be said that it is limited to the evaluation of air capture due to early obstruction of peripheral airway during respiration. The extent of air capture seen on CT images is related to the degree of inflammatory infiltration in the smooth muscle layer of the peripheral airways. The discovery of these air traps may assist in the early detection of chronic obstructive pulmonary disease, so accurate analysis is of great clinical importance.
최근, 이러한 공기 포획을 진단하는 영상 검사로서 CT(컴퓨터단층촬영) 기술 이 많이 사용되고 있다. 공기 포획의 진단에 쓰이는 CT영상의 주요 특징은, 최대호흡 영상에서 폐 실질의 밝기값과 최소호흡 영상에서 동일한 위치의 밝기 값을 비교하는 것인데, 이는 그 변화가 작은 영역, 즉 공기가 포획되어 있는 영역의 존재와 분포를 파악하는 것이다. 그런데, 환자의 호흡에 따라 폐의 지역적 변형이 매우 크므로, 그 대응 관계의 파악이 어렵고 시간이 많이 소요된다. 또한, 그 진단과 평가에 있어서, 단지 의사에 의해 육안으로 정성적으로 평가되고 있는 관계로, 의사들 간의 판독결과가 서로 상이할 수 있으며, 오진의 우려가 있는 문제점이 있다.Recently, CT (computed tomography) technology has been widely used as an imaging test for diagnosing such air trapping. The main feature of CT imaging for the diagnosis of air trapping is to compare the brightness of the lung parenchyma in the maximal breathing image with the brightness of the same position in the minimal breathing image, which is the area where the change is small. It is to identify the existence and distribution of the area. However, since the regional deformation of the lung is very large according to the breathing of the patient, it is difficult and time consuming to identify the correspondence relationship. Further, in the diagnosis and evaluation, only the doctors are qualitatively evaluated visually, so that the reading results between the doctors may be different from each other, and there is a problem that there is a risk of misdiagnosis.
본원 발명은, 기존에 수작업으로 정성적으로 수행되었던 최소/최대호흡 영상들의 대응 관계 파악 및 공기 포획 영역 분석과는 달리, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공하는데 목적이 있다.Unlike the grasping of the correspondence relationship between the minimum and maximum breathing images and the air capture region analysis, which have been performed qualitatively by hand, the present invention uses the affine matching technique and the regional deformation model based non-rigid image matching technique. The purpose of the present invention is to provide an automatic air capture quantification method using chest CT images which grasps the correspondence relationship between the maximum breathing images and automatically analyzes the air capture area using image subtraction and analysis techniques.
본 발명은, (a) CT 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득하는 단계; (b) 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성하는 단계; (c) 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정하는 단계; (d) 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정하는 단계; (e) 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하는 단계; 및 (f) 상기 감산영상을 분석하고 정량화하는 단계를 포함하는, 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 제공한다.The present invention includes the steps of: (a) acquiring three-dimensional minimum breathing chest volume data and three-dimensional maximum breathing chest volume data through CT techniques; (b) dividing pulmonary parenchyma and pulmonary vessel from each volume data, and generating a binary image for each volume data; (c) correcting global movement between binary images for each of the volume data by using an affine matching technique for minimizing the distance between the closed surfaces of the minimum and maximum breaths; (d) correcting local motion between the binary images using a regional deformation model based non-rigid registration technique; (e) generating a subtracted image between the binary images whose correspondence is identified through the global and local motion correction; And (f) analyzing and quantifying the subtracted image, thereby providing an automatic air capture quantification method using a chest CT image.
또한, 본 발명은, 상기 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. The present invention also provides a computer-readable recording medium having recorded thereon a program for executing an automatic air capture quantification method using the chest CT image on a computer.
본원 발명에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법은, 어파인 정합 기법과 지역적 변형모델 기반 비강체 영상 정합 기법을 이용하여 최소/최대호흡 영상들의 대응 관계를 파악하고, 영상 감산 및 분석 기법을 이용하여 공기 포획 영역을 자동 분석함에 따라, 기존에 수작업에 의존한 정성적인 판독 방법을 자동화할 수 있다. 또한, 폐질환 환자의 공기 포획 영역을 정량적으로 진단할 수 있어, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공할 수 있다. 더욱이, 폐질환 환자의 공기 포획 영역을 시각적으로 표현하는 경우, 진단 및 평가의 오류를 줄임은 물론이며, 실제 임상에 즉시 적용 가능한 진단 보조 도구로 적용 가능한 이점이 있다.Automatic air capture quantification method using chest CT image according to the present invention, grasp the relationship between the minimum / maximum breathing images using the affine matching method and regional deformation model-based non-rigid image matching, image subtraction and analysis Automatic analysis of air capture zones can be used to automate qualitative reading methods that are traditionally manual. In addition, it is possible to quantitatively diagnose the air trapping area of the lung disease patient, thereby providing quantified data on how much air is trapped in which part of the lung. Furthermore, when visually expressing the air trapping area of a lung disease patient, it is possible to reduce errors in diagnosis and evaluation, as well as to be applicable as a diagnostic aid immediately applicable to actual clinical practice.
도 1은 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 흐름도이다. 도 2는 도 1의 다른 흐름도이고, 도 3은 도 1의 방법을 위한 시스템 구성도이다.1 is a flowchart of an automatic air capture quantification method using chest CT images according to an embodiment of the present invention. 2 is another flow chart of FIG. 1, and FIG. 3 is a system diagram for the method of FIG.
먼저, 상기 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 설명에 앞서, 상기 방법을 위한 자동 공기 포획 정량화 시스템(100)에 관하여 설명하면 다음과 같다. 상기 자동 공기 포획 정량화 시스템(100)은, 촬영부(110), 표시부(130), 입력부(120) 및 제어분석부(140)를 포함한다.First, prior to the description of the automatic air capture quantification method using the chest CT image, the automatic air
상기 촬영부(110)는 최소호흡 및 최대호흡에 대한 3차원 흉부 볼륨데이터를 CT 기법에 의해 촬영하여 그 촬영정보를 획득한다. 상기 제어분석부(140)는 상기 획득된 촬영정보에서 폐 실질과 폐 혈관을 분할하여, 최소호흡 및 최대호흡에 대한 각 이진영상을 생성하고, 각 이진영상에 대한 전역적 및 지역적 움직임을 보상한다. 또한, 제어분석부(140)는 상기 움직임이 보상된 이진영상 간의 감산영상을 생성하고 이를 정량화하여, 폐의 어느 부분에 얼마만큼의 공기가 포획되었는지에 관한 정량화된 자료를 제공한다. 물론, 이외에도 상기 제어분석부(140)는 상기 촬영부(110), 표시부(130), 입력부(120) 등의 각 구성요소의 제어가 가능하다. The photographing
한편, 상기 입력부(120)는 사용자(전문가 혹은 의사)로부터 각종 조작신호를 입력 받아 상기 제어분석부(140)로 전송 가능하다. 상기 표시부(130)는 상기 촬영정보 이외에도 상기 감산영상을 시각화하여 화면으로 표시 가능하다. 또한, 상기 제어분석부(140)는 상기 입력부(120)에 입력된 신호를 처리하여 그에 대응되는 동작을 표시부(130)에 전송하여, 해당 사항이 실시간 화면으로 표시되도록 한다.Meanwhile, the
이하에서는, 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법에 관하여 도 1 내지 도 3을 참조로 하여 보다 상세히 설명하고자 한다.Hereinafter, an automatic air capture quantification method using a chest CT image according to an embodiment of the present invention will be described in more detail with reference to FIGS. 1 to 3.
먼저, 상기 촬영부(110)가 CT 기법을 통해 3차원 최소호흡 흉부 볼륨데이터와 3차원 최대호흡 흉부 볼륨데이터를 각각 획득한다.(S110). 이렇게 획득된 각 볼륨데이터들은 상기 제어분석부(140)로 전달되어 처리된다. 영기서, 상기 획득되는 각 볼륨데이터는, 상기 촬영부(110)에서 촬영된 데이터 이외에도, 외부에서 촬영되 어 상기 입력부(130)를 통해 입력받은 볼륨데이터일 수 있다.First, the photographing
다음으로, 상기 제어분석부(140)는 각각의 볼륨데이터에서 폐실질과 폐혈관을 분할하여, 각 볼륨데이터에 대한 이진영상을 생성한다(S120). 상기 폐실질과 폐혈관의 분할을 위해서는 아래와 같이 씨앗점 영역 성장법을 이용한다.Next, the
먼저, 각각의 볼륨데이터 영상으로부터, 상기 폐실질과 비슷한 밝기값을 갖는 흉부 외부의 배경을, 각 슬라이스마다 2차원 씨앗점 영역 성장법을 수행하여 제거한다. 이때, 각 슬라이스의 가장 외곽의 점들을 씨앗점으로 이용한다. First, from each volume data image, a background outside the chest having a brightness value similar to the lung parenchyma is removed by performing a two-dimensional seed point region growth method for each slice. At this time, the outermost points of each slice are used as seed points.
그리고, 최대호흡의 볼륨데이터에서는 -1024HU이상 및 -400HU이하의 임계값을 이용하고, 최소호흡의 볼륨데이터에서는 -1024HU이상 및 -200HU이하의 임계값을 이용하여, 3차원 씨앗점 영역 성장법을 수행하여 폐 실질을 추출한다. 이러한 3차원 씨앗점 영역 성장법에 이용되는 씨앗점은 기관지가 분지하는 위치의 기관지 부위를 템플릿(template)으로 하여 자동 추출한 후 중심점을 사용한다. 여기서, 동일한 씨앗점을 이용하여 -1024HU이상 및 -950HU이하의 임계로 3차원 씨앗점 영역 성장법을 수행하면 기관지가 추출되며, 미리 추출된 폐 실질에서 상기 기관지 부위를 제거하면, 폐만 남게 된다. 이러한 씨앗점 성장법은 기존에 개시되어 있으므로 보다 상세한 설명은 생략하고자 한다.In the volume data of the maximum breathing, a threshold value of -1024 HU or more and -400 HU or less is used, and in the volume data of the minimum breathing, a threshold value of -1024 HU or more and -200 HU or less is used to generate a three-dimensional seed point region growth method. To extract the lung parenchyma. The seed point used in the three-dimensional seed point region growth method uses a center point after automatically extracting the bronchial region at the position where the bronchus branches as a template. In this case, when the 3D seed point region growth method is performed using the same seed point at a threshold of -1024 HU or more and -950 HU or less, the bronchus is extracted, and when the bronchial region is removed from the previously extracted lung parenchyma, only the lung remains. Since the seed point growth method is disclosed in the past, a detailed description thereof will be omitted.
그리고, 남은 폐 실질에서 구멍 채움(hole filling)을 수행하면, 폐혈관이 포함된 폐 실질이 분할되는데, 이 영역에서 -400HU이상의 영역들은 폐혈관, 나머지 영역들은 폐 실질로 볼 수 있다. 여기서, 수학식 1을 참조하면, 상기 폐실질은 1번 클래스(class)로 '0'의 값을, 상기 폐혈관과 폐 외부는 2번 클래스로 '1'의 값을 각각 할당하여, 상기 이진영상을 생성할 수 있다.In addition, when hole filling is performed in the remaining lung parenchyma, the lung parenchyma containing the pulmonary blood vessels is divided. In this region, more than -400 HU are pulmonary blood vessels, and the remaining regions are pulmonary parenchyma. Here, referring to Equation 1, the lung parenchyma is assigned a value of '0' as a class 1, and the value of '1' as a class 2 for the pulmonary blood vessel and the outside of the lung, respectively, and the binary An image can be generated.
[수학식 1][Equation 1]
상기 3차원 최소호흡 및 최대호흡 볼륨데이터에 관한 각 이진영상의 모습은 도 4의 예시 영상을 참조하면 된다. 그리고, 이진영상의 생성 이후에 폐 경계를 추출할 수 있다(S121). 추후의 정합 과정(S130~S140)은 클래스별로 분류된 상기 이진영상들을 대상으로 수행되는데, 이러한 두 이진영상 사이의 폐실질과 폐혈관의 밝기값의 차이를 보정함으로써 보다 정확한 정합이 가능할 수 있다.Refer to the example image of FIG. 4 for the appearance of each binary image regarding the 3D minimum and maximum breath volume data. After the generation of the binary image, the lung boundary may be extracted (S121). Subsequent registration processes (S130 ˜ S140) are performed on the binary images classified by class, and may be more precisely matched by correcting the difference between the brightness values of pulmonary parenchyma and pulmonary blood vessel between the two binary images.
즉, 상기 이진영상 생성 단계(S120) 이후, 상기 제어분석부(140)는, 최소호흡과 최대호흡의 폐표면 간 거리를 최소화하는 어파인(Affine) 정합기법을 이용하여, 상기 각 볼륨데이터에 대한 이진영상 간의 전역적 움직임을 보정한다(S130). 먼저, 상기 볼륨데이터(영상)의 폐 표면에 대한 챔퍼 거리맵을 생성하고, 수학식 2를 이용하여, 두 볼륨데이터(영상)의 폐 표면들 사이의 평균 거리를 최소화하기 위한 초기 정합을 수행한다(S131).That is, after the binary image generation step (S120), the
[수학식 2][Equation 2]
여기서, 각 볼륨데이터를 영상1,2로 표현하여 설명하면 다음과 같다. 영상1의 점 는 영상2의 점 로 변환된다. 는 영상 2에서 3차원으로 만들어진 챔퍼 거리맵의 점 의 위치에서의 상기 거리 값이다. 은 영상1과 영상2의 중첩된 영역에서의 점들의 개수이며, 각 점들에 대한 거리를 합산한 결과를 으로 나눔에 따라, 상기 폐 표면들 사이의 평균 거리가 산출된다.Here, each volume data will be described as an image 1,2, as follows. Dot of Image 1 Is the point in image 2 Is converted to. Is the point on the chamfer distance map created in 3D in image 2. The distance value at the position of. Is the number of points in the overlapped area of Image 1 and Image 2, and the result of summing the distances for each point By dividing by, the average distance between the lung surfaces is calculated.
변환 함수는 이동 변환과 회전 변환으로 이루어진 강체 변환 함수에, 확대/축소 변환을 추가한 어파인 변환(Affine Transform)을 사용한다. 강체 변환 인자인 3개의 이동 변환 인자(,,)와, 3개의 회전 변환인자(,,)와, 3개의 확대/축소 변환 인자(,,)에 대한 변환식은 다음의 수학식 3과 같이 결정된다.The transform function uses an affine transform that adds a zoom transform to a rigid transform function consisting of a shift transform and a rotation transform. Three shift transform factors that are rigid , , ) And three rotation conversion factors ( , , ) And three zoom conversion factors ( , , The conversion equation for) is determined as in Equation 3 below.
[수학식 3]&Quot; (3) "
와 는 영상1에서의 복셀 및 중심의 좌표이고, 와 는 영상2에서의 복셀과 중심의 좌표이다. 변환 인자의 탐색을 위하여, 파웰의 방향 기법을 적용하여 빠른 시간 내에 최적의 위치로 수렴하도록 한다. 물론, 는 회전 각도를 의미한다. Wow Is the coordinate of the voxel and the center of the image 1, Wow Is the coordinate of the voxel and the center in the image 2. To search for the conversion factor, Powell's direction technique is applied to converge to the optimum position in a short time. sure, Means the angle of rotation.
상기 어파인 정합 기법을 이용하여 전역적 움직임 보상이 완료된 이후, 상기 제어분석부(140)는 지역적 변형모델 기반 비강체 정합기법을 이용하여, 상기 이진영상 간의 지역적 움직임을 보정한다(S140).After the global motion compensation is completed using the affine matching technique, the
먼저, 한 점 의 근방 에서, 오차 함수를 최소화하는 변환 인자들을 수학 식 4를 이용하여 각 점마다 계산하게 되면, 최적의 비강체 정합이 가능하다.First, one point Near In Equation 4, the optimal non-rigid registration is possible by calculating the conversion factors for minimizing the error function for each point using Equation 4.
[수학식 4]&Quot; (4) "
상기 수학식 4에서, 는 점 에 대한 선형 어파인 변환의 인자들이고, 는 점 에 대한 이동 변환의 인자들이다. 점 를 중심으로 근방 는 5×5×5 정육면체로 근사한다. 변환 인자들이 공간적으로 조금씩 변화한다고 가정하며, 상기 변환 인자들의 공간적 변화를 최소화하기 위해, 수학식 5의 평활화(smoothness) 항을 오차 함수에 추가할 필요가 있다.In Equation 4, Point Are factors of a linear affine transformation for, Point Are the arguments to the shift transform for. point Near Approximates to a 5 × 5 × 5 cube. It is assumed that the transformation factors change little by little in space, and in order to minimize the spatial variation of the transformation factors, it is necessary to add the smoothness term of Equation 5 to the error function.
[수학식 5][Equation 5]
결국 지역적으로 어파인 변형이면서 전역적으로는 변형이 부드럽게 변화하는 최적의 변환 인자는, 수학식 4 내지 수학식 5를 동시에 만족시키는 다음과 같은 수학식 6의 오차 함수를 최소화하도록 계산한다.Eventually, the optimal transformation factor, which is locally transformed and smoothly changes globally, is calculated to minimize the error function of Equation 6 below, which satisfies Equations 4 to 5 simultaneously.
[수학식 6]&Quot; (6) "
위 오차 함수의 최적화는 뉴턴-랩선(Newton-Raphson) 반복(iterative) 기법으로 수행된다. 각각의 반복마다 움직이는 영상은, 현재 구해진 최적의 지역적 변환에 따라서 워핑(warping)되어, 다음 반복 계산 시에는 워핑된 영상과 고정된 영상에서 최적의 변환 인자들을 탐색하게 된다. 또한, 정합의 대상이 되는 두 영상들에 대하여 각각 가우시안 피라미드를 생성하여 다중 해상도 기법을 적용한다. 이러한 정합 과정을 거친 최소호흡 및 최대호흡 영상의 3차원 볼륨 렌더링 결과에 관한 예시가 도 5에 도시되어 있다.The optimization of the error function is performed with the Newton-Raphson iterative technique. The moving image in each repetition is warped according to the optimal local transformation currently obtained, so that the next repetition calculation calculates the optimal conversion factors in the warped image and the fixed image. In addition, a Gaussian pyramid is generated for each of two images to be matched, and a multi-resolution technique is applied. An example of a 3D volume rendering result of the minimally and maximally breathing images that have undergone such registration is shown in FIG. 5.
한편, 각 정합 결과에 대한 유사도 측정값은 에러경계(Error Bound)와 비교되는데, 유사도가 에러경계 이하의 값이면 그 이후의 단계(S150)를 진행하고, 에러경계 이상인 경우에는 상기 어파인 정합 과정(S130)을 재시도하여 정합 과정을 반복하는 작업이 더 추가될 수 있다.On the other hand, the similarity measurement value for each matching result is compared with the error boundary (Error Bound), if the similarity is less than the error boundary proceeds to step (S150) thereafter, if the error boundary or more the affine matching process The operation of repeating the matching process by retrying operation S130 may be further added.
상기 각각의 정합 기법을 수행한 이후, 상기 제어분석부(140)는 상기 전역적 및 지역적 움직임 보정을 통해 대응관계가 파악된 상기 이진영상 간의 감산영상을 생성하고(S150), 상기 감산영상을 분석하여 정량화한다(S160). 여기서, 상기 감산영상은, 상기 최소호흡에 대한 이진영상의 밝기값에서 상기 최대호흡에 대한 이진영상의 밝기값을 감산한 밝기값에 대응되는 영상을 의미한다.After performing each matching technique, the
다음, 상기 제어분석부(140)는 상기 정량화된 감산영상을 상기 표시부(120) 를 통해 화면으로 가시화한다(S170). 즉, 도 6의 (a)를 참조하면, 상기 감산영상에 관한 정보를, 기존의 최대호흡 CT영상의 폐실질에 오버레이하여 표현할 수 있다.Next, the
한편, 도 6의 (a)의 흑백 영상에서는 기존의 영상과 오버레이된 영상 간의 차이점 파악이 쉽지 않은 단점이 있다. 따라서, 도 7의 (b)를 참조하면, 상기 제어분석부(140)는 상기 감산영상의 밝기값을 칼라화화고, 그 결과를 상기 최대호흡 또는 최소호흡의 CT영상에 칼라 매핑하여 상기 표시부(120)를 통해 가시화할 수 있다. 여기서, 상기 감산영상 정보의 칼라 매핑에는 무지개(rainbow) 칼라 테이블을 이용할 수 있다. 예를 들어, 도 7 (b)에서 파란색 계통의 부분은 최소호흡 CT영상과 최대호흡 CT영상 사이에서 CT 밝기값의 증가가 작은 부분을 의미하며, 이 부분들이 공기 포획 영역을 나타낸다.On the other hand, in the black and white image of Figure 6 (a) has a disadvantage that it is not easy to determine the difference between the existing image and the overlayed image. Therefore, referring to FIG. 7B, the
이상 상술한 자동 공기 포획 정량화 방법을 요약하면 다음과 같다. CT 기법에 의해 얻어진 최소/최대호흡 흉부 볼륨데이터들로부터 각각의 이진영상을 생성한다(S110~S120). 그리고, 최소/최대호흡의 폐 표면 간 거리를 최소화하는 어파인 정합 기법과, 지역적 변형 모델 기반 비강체 정합 기법을 이용하여, 두 이진영상 간의 전역적 및 지역적 움직임을 보정한다(S130~S140). 이후, 각 이진영상을 정렬하고 감산하여 감산영상을 생성한 이후, 이를 분석하여 공기 포획 정보를 정량화하고 가시화한다(S150~S170).The above-mentioned automatic air capture quantification method is summarized as follows. Each binary image is generated from the minimum / maximum breathing chest volume data obtained by the CT technique (S110 to S120). In addition, by using the affine matching method to minimize the distance between the lung surface of the minimum / maximum breath and the non-rigid registration method based on the regional deformation model, the global and local movement between the two binary images is corrected (S130 ~ S140). Then, after aligning and subtracting each binary image to generate a subtracted image, it is analyzed to quantify and visualize air capture information (S150 to S170).
한편, 이상과 같은 상기 CT영상을 이용한 자동 공기 포획 정량화 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있고 실행될 수 있는 매체로서 데이터가 저장되는 모든 종류의 기록장치를 포함한다.On the other hand, the automatic air capture quantification method using the CT image as described above, it can be implemented as a computer-readable code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices on which data is stored as media that can be read and executed by a computer system.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CO-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of computer-readable recording media include ROM, RAM, CO-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상과 같은 상기 자동 공기 포획 정량화 방법은, 폐질환 환자의 최소/최대호흡 CT영상을 이용하여, 폐질환 환자의 공기 포획 영역을 시각적 및 정량적으로 진단할 수 있어, 실제 임상에 즉시 적용 가능한 진단 보조 도구로 적용 가능하다. 즉, 최소호흡 폐 CT영상과 최대호흡 폐 CT영상에서 폐 실질의 밝기 값 변화를 자동으로 분석하여 폐의 어느 부분이 얼마나 공기 포획이 되었는지에 관한 정량화된 자료를 제공하는데 도움이 될 수 있다.The automatic air capture quantification method as described above can visually and quantitatively diagnose the air trapping area of the lung disease patient by using the CT images of the lung disease patients. Applicable as a tool. In other words, the change in the brightness value of the lung parenchyma can be automatically analyzed in the minimally respiratory pulmonary CT images and the maximum respiratory pulmonary CT images.
나아가, 현재 의사의 수작업에 의존한 정성적인 판독 방법을 자동화 시키며, 이를 검증하는 방식으로 의료 형태가 변경된다면 보다 정량적이고 정교한 판독이 가능할 수 있다. 또한, 이러한 자동 공기 포획 정량화 방법을, 기존의 3차원 CT 장치 혹은 의료영상 저장 및 전달 장치(Picture archive and communication system)에 적용하는 경우, 상당 규모의 소프트웨어 판매 및 수출효과를 가져올 수 있을 뿐 아니라, 나아가 세계시장에서 국내 의료시스템의 경쟁력을 강화시킬 수 있을 것이다.Furthermore, if a medical form is changed by automating a qualitative reading method which is currently dependent on a doctor's manual operation and verifying it, more quantitative and sophisticated reading may be possible. In addition, if the automatic air capture quantification method is applied to the existing three-dimensional CT device or a picture archive and communication system, a significant amount of software sales and exports can be obtained. Furthermore, it will be able to strengthen the competitiveness of domestic medical systems in the global market.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
도 1은 본 발명의 실시예에 따른 흉부 CT영상을 이용한 자동 공기 포획 정량화 방법의 흐름도,1 is a flow chart of an automatic air capture quantification method using a chest CT image according to an embodiment of the present invention,
도 2는 도 1의 다른 흐름도,2 is another flow chart of FIG. 1;
도 3은 도 1의 방법을 위한 시스템 구성도,3 is a system diagram for the method of FIG. 1;
도 4는 생성된 이진 영상의 예시도,4 is an exemplary diagram of a generated binary image;
도 5는 정합 과정을 거친 최소/최대호흡 영상의 3차원 볼륨 렌더링 결과의 예시도,5 is an exemplary diagram of a 3D volume rendering result of a minimum / maximum breathing image that has undergone a matching process;
도 6은 도 5의 정합 이후 생성된 감산 영상 및 감산 영상의 칼라 매핑을 통한 공기 포획 가시화 결과의 예시도이다.6 is an exemplary diagram of an air capture visualization result through color mapping of a subtracted image and a subtracted image generated after registration of FIG. 5.
< 도면의 주요부분에 대한 부호의 간단한 설명 ><Brief description of symbols for the main parts of the drawings>
100: 자동 공기 포획 정량화 시스템 110: 촬영부100: automatic air capture quantification system 110: the imaging unit
120: 표시부 130: 입력부120: display unit 130: input unit
140: 제어분석부140: control analysis unit
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080069376A KR100979335B1 (en) | 2008-07-17 | 2008-07-17 | Method for automatic quantification of air trapping on chest CT data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080069376A KR100979335B1 (en) | 2008-07-17 | 2008-07-17 | Method for automatic quantification of air trapping on chest CT data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100008810A KR20100008810A (en) | 2010-01-27 |
KR100979335B1 true KR100979335B1 (en) | 2010-08-31 |
Family
ID=41817331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080069376A KR100979335B1 (en) | 2008-07-17 | 2008-07-17 | Method for automatic quantification of air trapping on chest CT data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100979335B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160004890A (en) | 2014-07-03 | 2016-01-13 | 이화여자대학교 산학협력단 | Method of measuring subcutaneous fat by chest computed tomography |
US10368809B2 (en) | 2012-08-08 | 2019-08-06 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking a position of a tumor |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101135205B1 (en) * | 2010-05-25 | 2012-04-16 | 인하대학교 산학협력단 | A pulmonary vessel extraction method for automatical disease detection using chest ct images |
KR102510760B1 (en) * | 2016-02-15 | 2023-03-16 | 삼성전자주식회사 | Image processing apparatus, image processing method thereof and recording medium |
CN111388000B (en) * | 2020-03-27 | 2023-08-25 | 上海杏脉信息科技有限公司 | Virtual lung air retention image prediction method and system, storage medium and terminal |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100426396B1 (en) | 2000-11-28 | 2004-04-08 | 김종찬 | Virtual reality endoscopy method using 3D image processing method |
US7298879B2 (en) | 2002-11-20 | 2007-11-20 | Koninklijke Philips Electronics N.V. | Computer-aided detection of lung nodules |
-
2008
- 2008-07-17 KR KR1020080069376A patent/KR100979335B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100426396B1 (en) | 2000-11-28 | 2004-04-08 | 김종찬 | Virtual reality endoscopy method using 3D image processing method |
US7298879B2 (en) | 2002-11-20 | 2007-11-20 | Koninklijke Philips Electronics N.V. | Computer-aided detection of lung nodules |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10368809B2 (en) | 2012-08-08 | 2019-08-06 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking a position of a tumor |
KR20160004890A (en) | 2014-07-03 | 2016-01-13 | 이화여자대학교 산학협력단 | Method of measuring subcutaneous fat by chest computed tomography |
Also Published As
Publication number | Publication date |
---|---|
KR20100008810A (en) | 2010-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11931141B2 (en) | Hybrid registration method | |
US8831312B2 (en) | Method for segmenting objects in images | |
JP4718003B2 (en) | Method for detecting interval changes in radiographs | |
JP5723541B2 (en) | MEDICAL IMAGE DIAGNOSIS SUPPORT DEVICE, ITS OPERATION METHOD, AND PROGRAM | |
US8605978B2 (en) | Medical image processing apparatus and method, and computer readable recording medium on which is recorded program for the same | |
JP4130661B2 (en) | Device for detecting temporal changes between temporally continuous chest images | |
KR101428005B1 (en) | Method of motion compensation and phase-matched attenuation correction in pet imaging based on a few low-dose ct images | |
JP2012523889A (en) | Overlapping, subtraction and display of chest radiographs | |
US8195269B2 (en) | System and method for automatic detection and measurement of malacia in the airways | |
KR100979335B1 (en) | Method for automatic quantification of air trapping on chest CT data | |
CN112885453A (en) | Method and system for identifying pathological changes in subsequent medical images | |
WO2006011545A1 (en) | Medical image diagnosis assisting system, device and image processing program | |
US10007984B2 (en) | Method for quantifying medical image | |
CN100577103C (en) | Image processing device and method which use two images | |
US11996182B2 (en) | Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network | |
KR101028798B1 (en) | Method for detection of hepatic tumors using registration of multi-phase liver CT images | |
US20030128890A1 (en) | Method of forming different images of an object to be examined | |
WO2005009242A1 (en) | Medical image processing device and method | |
CN109300122A (en) | Image procossing and Threshold, device and equipment | |
CN101241597A (en) | Visual enhancement of interval changes using a temporal subtraction technique | |
JP2005270635A (en) | Method for processing image and device for processing image | |
WO2013121679A1 (en) | Region extraction system | |
CN115222878A (en) | Scene reconstruction method applied to lung bronchoscope surgical robot | |
JP2020113275A (en) | Lung analysis and reporting system | |
JP4567395B2 (en) | Angiography image processing apparatus, angiography image processing method, and angiography image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130827 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140828 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150811 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160826 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170828 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20180801 Year of fee payment: 9 |