KR101964844B1 - Apparatus and Method for CT Image Reconstruction Based on Motion Compensation - Google Patents
Apparatus and Method for CT Image Reconstruction Based on Motion Compensation Download PDFInfo
- Publication number
- KR101964844B1 KR101964844B1 KR1020160172635A KR20160172635A KR101964844B1 KR 101964844 B1 KR101964844 B1 KR 101964844B1 KR 1020160172635 A KR1020160172635 A KR 1020160172635A KR 20160172635 A KR20160172635 A KR 20160172635A KR 101964844 B1 KR101964844 B1 KR 101964844B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- patch
- projection
- projection image
- motion
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000002591 computed tomography Methods 0.000 claims description 114
- 239000013598 vector Substances 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 30
- 238000001914 filtration Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 229920001621 AMOLED Polymers 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/14—Applications or adaptations for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/40—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
- A61B6/4064—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
- A61B6/4085—Cone-beams
-
- A61B6/51—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
Abstract
움직임 보상에 기반하여 CT 데이터를 재구성하는 방법이 제공된다. 본 방법은, N개의 CT 투사 영상을 획득하는 단계 - N은 자연수이며 상기 N개의 CT 투사 영상은 N/2개의 반대편 투사 영상들의 쌍으로 구성됨 -, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계, 및 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 상기 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하는 단계를 포함할 수 있다.A method of reconstructing CT data based on motion compensation is provided. The method comprises the steps of: obtaining N CT projection images, wherein N is a natural number and the N CT projection images are composed of N / 2 pairs of opposite projection images; Compensated projection image by performing motion compensation on any one of the N projected images, and generating N / 2 CT projected images in which the motion compensation is not performed among the N CT projected images, And reconstructing the CT data using N / 2 projected images.
Description
본 발명은 CT 데이터 재구성 기술에 관한 것으로, 더 구체적으로 움직임 보상에 기반한 CT 데이터 재구성에 관한 것이다.The present invention relates to CT data reconstruction techniques, and more particularly to CT data reconstruction based on motion compensation.
컴퓨터 단층촬영(Computed Tomography: CT, 이하 CT로 표기하기로 함)은 촬영 대상을 여러 각도에서 X선 촬영하여 촬영 대상에 대한 3차원 영상을 제공하는 의료 화상 처리 방식으로 알려져 있다. CT에 의해 제공되는 3차원 의료 영상은 촬영 대상의 내부 단면 등을 비파괴적 방식으로 세밀하고 정확하게 보여줄 수 있는 장점이 있어 치의료 분야에서 널리 사용되고 있다. CT 영상을 얻기 위해서는 촬영 대상을 사이에 두고 X선 소스와 X선 검출기가 서로 대향 배치되도록 탑재된 CT 촬영 장치의 CT 겐트리를 X선 소스와 X선 검출기 사이에 고정된 한 축을 중심으로 회전시키면서 X선 소스로부터 X선 빔을 촬영 대상으로 조사하고 이를 투과한 X선 빔을 X선 검출기에 의해 검출함으로써 촬영 대상에 대한 여러 방향의 투사 데이터를 획득한 후 이를 기초로 CT 데이터를 재구성한다.BACKGROUND ART Computed tomography (CT) is known as a medical image processing method in which an object to be imaged is X-rayed at various angles to provide a three-dimensional image of an object to be imaged. The 3D medical image provided by CT is widely used in the field of dentistry because it has the advantage of showing the internal section of the object to be imaged in detail in a non-destructive manner. In order to obtain a CT image, a CT gantry of a CT photographing apparatus mounted so that an X-ray source and an X-ray detector are opposed to each other with an object to be photographed is rotated about an axis fixed between the X- The X-ray source irradiates the X-ray beam from the X-ray source and detects the X-ray beam transmitted through the X-ray beam by the X-ray detector to acquire projection data in various directions to the object to be imaged.
하지만 이와 같이 촬영 대상에 대한 여러 방향의 투사 데이터를 회득하는 과정 중에 촬영 대상인 환자가 조금이라도 움직일 경우 이른바 모션 아티펙트(Motion Artifact)의 영향으로 인해 CT 영상의 품질을 보장할 수 없게 된다. 고정 장치(immobilization tools)를 사용하여 촬영 대상의 움직임을 억제할 수는 있겠으나 이러한 고정 장치에 의해 촬영 대상의 움직임을 방지하는 데에는 한계가 있다. 또한 카메라 등 촬영 대상의 움직임을 감지하는 별도의 감지 수단을 사용하여 촬영 대상의 움직임을 감지하고, 움직임이 감지된 시점에서의 투사 데이터를 그 움직임의 역으로 보정하는 방법도 생각해 볼 수 있으나, 이 경우 촬영 대상의 움직임을 감지하는 별도의 감지 수단이 요구되는 것은 물론 감지 수단의 감지 결과와 투사 데이터라는 서로 다른 정보를 시간적으로 비교하는데 과도한 시간 및 연산이 필요로 된다.However, when the subject to be photographed moves slightly even during the process of acquiring projection data in various directions with respect to the object to be imaged, the quality of the CT image can not be guaranteed due to the effect of so-called motion artifact. Immobilization tools may be used to suppress motion of the subject, but there is a limit to preventing movement of the subject by the immobilization device. It is also possible to consider a method of sensing the motion of an object to be imaged by using a separate sensing means for sensing the motion of the object such as a camera and correcting the projection data at a point of time when the motion is detected, A separate sensing means for sensing the movement of the object to be photographed is required and an excessive time and calculation are required for comparing the sensing result of the sensing means with the different information of the projection data in terms of time.
이에 따라 별도의 고정 장치와 별도의 감시 수단을 사용하지 않고도 환자의 움직임이 있는 경우에도 신뢰할 만한 품질의 CT 영상을 제공할 수 있는 개선된 CT 데이터 재구성 방법이 본 기술 분야에 요구되고 있다.Accordingly, there is a need in the art for an improved CT data reconstruction method capable of providing a reliable quality CT image even when there is a movement of the patient without using a separate fixing device and a separate monitoring means.
본 발명이 해결하고자 하는 과제는, 별도의 고정 장치와 별도의 감지 수단을 사용하지 않고도 투사 데이터만을 가지고 촬영 대상의 움직임이 있는 경우에도 신뢰할 만한 품질의 CT 영상을 제공해 줄 수 있는 개선된 CT 데이터 재구성 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an improved CT data reconstruction capable of providing a CT image of a reliable quality even when there is motion of an object to be shot with only projection data without using a separate fixing device and a separate sensing means A method and an apparatus.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.
일 측면에서, 움직임 보상에 기반하여 CT(Computed Tomography) 데이터를 재구성하기 위한 장치가 제공된다. 본 장치는, N개의 CT 투사 영상(projection images)을 저장하는 저장부, 및 상기 N개의 CT 투사 영상을 N/2개의 반대편 투사 영상들의 쌍(pair of opposite projection images)으로 구성하고, 각각의 반대편 투사 영상들의 쌍의 투사 영상들 사이의 상관도에 따라 촬영 대상의 움직임을 판단하도록 구성된 영상 처리부를 포함할 수 있다.In one aspect, an apparatus is provided for reconstructing computed tomography (CT) data based on motion compensation. The apparatus comprises: a storage unit for storing N CT projection images; and a storage unit for storing the N CT projected images into N / 2 pairs of opposite projection images, And an image processor configured to determine a motion of an object to be photographed according to a degree of correlation between projection images of the pair of projection images.
일 실시예에서, 상기 영상 처리부는, 상기 촬영 대상의 움직임이 있다고 판단된 경우, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상(motion compensation)을 수행하여 움직임 보상된 투사 영상을 생성하고, 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 CT 투사 영상과 상기 움직임 보상된 투사 영상을 이용하여 CT 데이터를 재구성하도록 더 구성될 수 있다.In one embodiment, when it is determined that there is motion of the object to be imaged, the image processing unit performs motion compensation on any one of the N / 2 pairs of opposite projection images And reconstruct the CT data using the motion compensated projection image and the motion compensated projection image from among the N CT projected images.
일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함하고, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터(motion vector) 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하도록 더 구성될 수 있다.In one embodiment, each of the pair of the N / 2 opposing projection images includes a first projection image and a second projection image, and the image processing unit is configured to perform, for each pair of the N / 2 opposite projection images, A first motion vector for the second projection image when the first projection image is regarded as a reference and a second motion vector for the first projection image when the second projection image is used as a reference, 2 < / RTI > motion vector.
일 실시예에서, 상기 영상 처리부는, 상기 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링(smoothing filtering)을 수행하고, 상기 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit further performs a smoothing filtering on the determined N / 2 first motion vectors and performs a flattening filtering on the determined N / 2 second motion vectors Lt; / RTI >
일 실시예에서, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 움직임 벡터를 이용하여 상기 해당 제2 투사 영상을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 동작, (ii) 상기 움직임 보상된 제2 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제2 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성하는 동작, (iii) 상기 해당 제2 움직임 벡터를 이용하여 상기 해당 제1 투사 영상을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성하는 동작, (iv) 상기 움직임 보상된 제1 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제1 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성하는 동작, (v) 상기 제1의 단면 영상 및 상기 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사하는 동작, (vi) 상기 제1의 단면 영상이 상기 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제2 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작, 및 (vii) 상기 제2의 단면 영상이 상기 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제1 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may perform (i) motion compensation on the corresponding second projection image using the corresponding first motion vector for each of the pair of the N / 2 opposite projection images, (Ii) reconstructing a first sectional image using the CT projection images excluding the corresponding second projection image among the motion-compensated second projection image and the N CT projection images, (Iii) motion-compensated first projection image by motion-compensating the first projection image using the second motion vector, (iv) performing motion compensation on the motion-compensated first projection image and the N Reconstructing a second sectional image using the CT projection images excluding the first projection image among the CT projection images, (v) reconstructing the second sectional image using the first sectional image and the second section (Ii) if it is determined that the first sectional image is higher in definition than the second sectional image, the motion compensated second projection image Compensated projection image, and (vii) when the second sectional image is determined to be higher in sharpness than the first sectional image, the motion compensated first projection image is determined as the motion- And to perform an operation of determining a projection image.
일 실시예에서, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 투사 영상에서 제1 패치(patch)를 설정하는 동작, (ii) 상기 해당 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작, (iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작, (iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 해당 제1 움직임 벡터를 결정하는 동작, (v) 상기 해당 제2 투사 영상에서 제3 패치를 설정하는 동작, (vi) 상기 해당 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작, (vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및 (viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 해당 제2 움직임 벡터를 결정하는 동작을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may include: (i) setting a first patch in the corresponding first projection image for each of the N / 2 pairs of opposite projection images; (ii) (Iii) setting a first search area surrounding the area corresponding to the first patch in the second projection image, (iii) moving the second patch corresponding to the first patch in the first search area, (Iv) determining a position of the first patch based on the position of the first patch and the position of the second patch, and determining the position of the second patch with the highest degree of similarity between the first patch and the second patch, (V) setting a third patch in the second projection image, (vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image (Vii) corresponding to the third patch (Viii) an operation of moving the fourth patch in the second search area to determine the position of the third patch, which is the highest in the degree of similarity between the third patch and the fourth patch, and And determining the corresponding second motion vector based on the position of the fourth patch.
일 측면에서, 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법이 제공된다. 본 방법은, N개의 CT 투사 영상을 획득하는 단계 - N은 자연수이며 상기 N개의 CT 투사 영상은 N/2개의 반대편 투사 영상들의 쌍으로 구성됨 -, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계, 및 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 상기 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하는 단계를 포함할 수 있다.In one aspect, a method of reconstructing CT data based on motion compensation is provided. The method comprises the steps of: obtaining N CT projection images, wherein N is a natural number and the N CT projection images are composed of N / 2 pairs of opposite projection images; Compensated projection image by performing motion compensation on any one of the N projected images, and generating N / 2 CT projected images in which the motion compensation is not performed among the N CT projected images, And reconstructing the CT data using N / 2 projected images.
일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함하고, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계를 포함할 수 있다.In one embodiment, each of the N / 2 pairs of opposing projection images includes a first projection image and a second projection image, and each of the N / 2 pairs of opposite projection images includes a first projection image and a second projection image, Wherein the step of generating a motion-compensated projection image by performing motion compensation on each of the N / 2 pairs of opposing projection images comprises the steps of: And determining a second motion vector for the first projection image based on the first motion vector and the second projection image.
일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링을 수행하고, 상기 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the step of generating a motion-compensated projection image by performing motion compensation on any one of the N / 2 pairs of opposing projection images comprises: Performing a flattening filtering on the determined N / 2 second motion vectors, and performing a flattening filtering on the determined N / 2 second motion vectors.
일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 움직임 벡터를 이용하여 상기 해당 제2 투사 영상을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 동작, (ii) 상기 움직임 보상된 제2 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제2 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성하는 동작, (iii) 상기 해당 제2 움직임 벡터를 이용하여 상기 해당 제1 투사 영상을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성하는 동작, (iv) 상기 움직임 보상된 제1 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제1 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성하는 동작, (v) 상기 제1의 단면 영상 및 상기 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사하는 동작, (vi) 상기 제1의 단면 영상이 상기 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제2 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작, 및 (vii) 상기 제2의 단면 영상이 상기 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제1 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the step of generating a motion-compensated projection image by performing motion compensation on any one of the N / 2 pairs of opposing projection images comprises: (I) motion-compensated second projection image by motion-compensating the corresponding second projection image using the corresponding first motion vector, (ii) generating an motion-compensated second projection image by using the motion-compensated second projection image And reconstructing a first sectional image using the CT projection images excluding the corresponding second projection image among the N CT projection images, (iii) reconstructing the first sectional image using the corresponding second motion vector, Compensated first projection image by performing motion compensation on the first projection image and the N first projection image, and (iv) Reconstructing a second sectional image using CT projection images other than the first CT image and the second sectional image, (v) examining whether the image of the first sectional image or the second sectional image is higher in sharpness (vi) determining the motion-compensated second projection image as the motion-compensated projection image when it is determined that the first sectional image is higher in sharpness than the second sectional image, and (vii) And determining the motion-compensated first projection image as the motion-compensated projected image when it is determined that the second sectional image is higher in sharpness than the first sectional image have.
일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 투사 영상에서 제1 패치를 설정하는 동작, (ii) 상기 해당 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작, (iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작, (iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 해당 제1 움직임 벡터를 결정하는 동작, (v) 상기 해당 제2 투사 영상에서 제3 패치를 설정하는 동작, (vi) 상기 해당 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작, (vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및 (viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 해당 제2 움직임 벡터를 결정하는 동작을 수행하는 단계를 포함할 수 있다.In one embodiment, for each of the N / 2 pairs of opposing projection images, a first motion vector for the corresponding second projection image and a corresponding first projection image for the corresponding first projection image, Wherein the step of determining the second motion vector for the first projection image based on the first projection image comprises: (i) calculating, for each of the pair of the N / 2 opposite projection images, (Ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image, (iii) setting a second patch corresponding to the first patch, Determining the position of the second patch at which the degree of similarity between the first patch and the second patch becomes the highest while moving the first patch in the first search area, (iv) In position (Vi) setting an area corresponding to the third patch in the first projected image to an area corresponding to the third patch, (Vii) an operation of moving the fourth patch corresponding to the third patch in the second search area while setting the second search area surrounding the third patch to a position where the degree of similarity between the third patch and the fourth patch becomes the highest And (viii) performing an operation of determining the corresponding second motion vector based on the position of the third patch and the position of the fourth patch.
본 발명의 실시예들에 따르면, 별도의 고정 장치와 별도의 감지 수단을 사용하지 않고도 투사 데이터만을 가지고 촬영 대상의 움직임이 있는 경우에도 움직임 보상에 기반하여 CT 데이터를 재구성함으로써 신뢰할 만한 품질의 CT 영상을 제공할 수 있다는 기술적 효과가 있다.According to the embodiments of the present invention, even if there is movement of the imaging subject with only projection data without using a separate fixing device and a separate sensing means, the CT data can be reconstructed based on the motion compensation, Can be provided.
도 1은 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하기 위한 장치의 구성을 도시한 도면이다.
도 2는 X선 소스로부터 X선 빔이 촬영 대상으로 조사되고 이를 투과한 X선 빔이 X선 검출기에 의해 검출됨으로써 투사 데이터가 획득되는 원리를 설명하기 위한 도면이다.
도 3은 CT 촬영이 진행되는 동안 촬영 대상이 움직이지 않은 경우에 있어서의 본 발명의 일 실시예에 따른 반대편 투사 영상들의 쌍을 예시하기 위한 도면.
도 4는 CT 촬영이 진행되는 동안 촬영 대상이 움직인 경우에 있어서의 본 발명의 일 실시예에 따른 반대편 투사 영상들의 쌍을 예시하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법을 설명하기 위한 흐름도를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따라 제1 움직임 벡터를 결정하는 방식을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따라 제2 움직임 벡터를 결정하는 방식을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 제1 움직임 벡터 및 제2 움직임 벡터를 결정하는 절차를 설명하기 위한 흐름도를 도시한 도면이다.
도 9a는 N/2개의 제1 움직임 벡터의 X축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타낸 도면이다.
도 9b는 N/2개의 제1 움직임 벡터의 Y축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따라 반대편 투사 영상들의 쌍 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하는 절차를 설명하기 위한 흐름도를 도시한 도면이다.
도 11 내지 도 13은 종래 기술에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상과 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상을 나란히 도시한 도면들이다.1 is a block diagram illustrating an apparatus for reconstructing CT data based on motion compensation according to an embodiment of the present invention.
2 is a view for explaining the principle that projection data is acquired by irradiating an X-ray beam from an X-ray source to an object to be imaged and detecting an X-ray beam transmitted through the object, by an X-ray detector.
3 is a diagram illustrating a pair of opposing projection images according to an exemplary embodiment of the present invention in a case where an object to be imaged does not move during the progress of a CT scan.
4 is a diagram illustrating a pair of opposing projection images according to an exemplary embodiment of the present invention when the object to be imaged moves while the CT image is being taken.
FIG. 5 is a flowchart illustrating a method of reconstructing CT data based on motion compensation according to an embodiment of the present invention. Referring to FIG.
6 is a diagram for explaining a method of determining a first motion vector according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining a method of determining a second motion vector according to an embodiment of the present invention.
FIG. 8 is a flowchart illustrating a procedure for determining a first motion vector and a second motion vector according to an embodiment of the present invention. Referring to FIG.
FIG. 9A is a diagram illustrating X-axis components of N / 2 first motion vectors and a simulation result obtained by performing a flattening filtering on the X-axis components.
FIG. 9B is a diagram illustrating Y-axis components of N / 2 first motion vectors and a simulation result obtained by performing a flattening filtering on the Y-axis components.
FIG. 10 is a flowchart illustrating a procedure for selecting one of the pairs of opposite projection images to perform motion compensation according to an exemplary embodiment of the present invention. Referring to FIG.
FIGS. 11 to 13 are views showing a cross-sectional image reconstructed and reconstructed according to a conventional technique and a cross-sectional image reconstructed and rendered by CT data according to an embodiment of the present invention.
본 발명의 이점들과 특징들 그리고 이들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 실시예들은 단지 본 발명의 개시가 완전하도록 하며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of attaining them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. To fully disclose the scope of the invention to a person skilled in the art, and the invention is only defined by the scope of the claims.
본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들어, 단수로 표현된 구성 요소는 문맥 상 명백하게 단수만을 의미하지 않는다면 복수의 구성 요소를 포함하는 개념으로 이해되어야 한다. 또한, 본 발명의 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성이 배제되는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the present invention. For example, an element expressed in singular < Desc / Clms Page number 5 > terms should be understood to include a plurality of elements unless the context clearly dictates a singular value. In addition, in the specification of the present invention, it is to be understood that terms such as "include" or "have" are intended to specify the presence of stated features, integers, steps, operations, components, The use of the term does not exclude the presence or addition of one or more other features, numbers, steps, operations, elements, parts or combinations thereof.
본 명세서에 기재된 실시예에 있어서 '모듈(module)' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어(hardware) 또는 소프트웨어(software)로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(processor)로 구현될 수 있다.Means a functional part that performs at least one function or operation and may be implemented in hardware or software or may be implemented in hardware and software. May be implemented as a combination. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated with at least one module except for 'module' or 'module' which needs to be implemented by specific hardware, and may be implemented by at least one processor .
덧붙여, 다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 발명의 명세서에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, all terms used herein, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the related art and may be interpreted in an ideal or overly formal sense unless explicitly defined in the specification of the present invention It does not.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세히 설명하기로 한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions will not be described in detail if they obscure the subject matter of the present invention.
도 1은 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하기 위한 장치의 구성을 도시한 도면이다.1 is a block diagram illustrating an apparatus for reconstructing CT data based on motion compensation according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 CT 데이터 재구성 장치(100)는 입력 인터페이스(110), 영상 처리부(120), 저장부(130) 및 디스플레이부(140)를 포함할 수 있다. 입력 인터페이스(110)는 콘 빔(cone beam) CT와 같은 CT 촬영 장치(도시되지 않음)에 의해 획득한, 프레임 단위의 CT 투사 영상들을 나타내는 투사 데이터(projection data)를 저장부(130)로 입력하기 위해 사용될 수 있다. 투사 데이터는, 촬영 대상을 사이에 두고 서로 대향하도록 배치된 X선 소스와 X선 검출기를 탑재한 겐트리를 포함하고 X선 소스와 X선 검출기 사이의 한 축인 회전축을 따라 겐트리를 회전시키도록 작동되는 CT 촬영 장치를 이용하여 X선 촬영을 수행함으로써 촬영 대상에 대해 획득된 여러 방향의 투사 데이터일 수 있다. 이 때, 회전축은 촬영 대상의 길이 방향을 따라 고정된 상태일 수 있다.1, the CT
도 2에 도시된 바와 같이 X선 소스(222)를 탑재한 CT 촬영 장치의 CT 겐트리(도시되지 않음)가 촬영 대상(S)을 관통하는 고정된 회전축(232)을 중심으로 궤적(237)을 따라 회전하면서 X선 소스(222)로부터 X선 빔이 촬영 대상(S)으로 조사되고 이를 투과한 X선 빔이 X선 검출기(210)에 의해 검출되는데, 여기서 CT 겐트리와 함께 회전하는 X선 소스(222)로부터의 X선 빔이 X선 검출기(210)에 의해 프레임 단위로 검출된 복수의 데이터를 망라하여 투사 데이터라 칭한다. X선 검출기(210)에 의해 검출된 프레임 단위의 복수의 투사 데이터는 복수의 CT 투사 영상에 관한 정보를 포함할 수 있다. 입력 인터페이스(110)는 본 발명의 다양한 실시예들에 따른 영상 분석/처리를 수행하기 위하여 사용자 명령을 입력하기 위한 하드웨어 및 소프트웨어 모듈로 구성될 수 있다. 입력 인터페이스(110)는 필요한 다양한 명령을 영상 처리부(120)로 입력하거나, 디스플레이부(140)에 표시된 영상의 일부 또는 전부를 지시하여 이에 따른 다양한 영상 처리를 수행하기 위해 유리하게 사용될 수 있다. 일 실시예에서, 입력 인터페이스(110)는 컴퓨터의 키보드(keyboard), 키패드(keypad), 터치패드(touchpad), 마우스(mouse) 등을 포함할 수 있으나, 입력 인터페이스의 종류가 이에 제한되는 것은 아니다. 예컨대, 입력 인터페이스(110)는 전술한 입력 장치들을 이용하여 제어 가능한 그래픽 사용자 인터페이스(Graphic User Interface)를 포함할 수도 있다. 디스플레이부(140)는 본 발명의 다양한 실시예에 따라 재구성된 3차원 CT 영상 및/또는 그 단면 영상들을 디스플레이하기 위한 것으로, LCD 디스플레이, LED 디스플레이, AMOLED 디스플레이, CRT 디스플레이 등의 다양한 디스플레이 장치를 포함할 수 있다.A CT gantry (not shown) of the CT photographing apparatus having the
저장부(130)는, CT 투사 영상들을 나타내는 투사 데이터를 저장하기 위해 사용될 수 있다. 영상 처리부(120)는 저장부(130)에 저장된 CT 투사 영상들을 복수의 반대편 투사 영상들의 쌍(pairs of opposite projection images, 330, 340)으로 구성할 수 있다. 반대편 투사 영상들의 쌍(330, 340)은, 도 3에 도시된 바와 같이 그들이 획득된 시점들에서의 X선 검출기(210)의 위치들이 서로 180°만큼 차이가 나게 되는 두 개의 영상일 수 있다. 도 3에서는 설명의 편의상 X선 검출기(210)의 위치에 X선 검출기(210)에 의해 검출되는 투사 데이터에 해당하는 CT 투사 영상의 프레임을 표시하였다. 또한, 이하의 설명에서는 도시된 투사 영상 프레임(들)을 편의상 '투사 영상(들)'이라 지칭하기로 한다. 예컨대, X선 검출기(210)가 0°위치에 있을 때 획득한 투사 영상과 X선 검출기(210)가 180°위치에 있을 때 획득한 투사 영상은 반대편 투사 영상들의 쌍(330, 340)을 구성할 수 있다. 다른 예로서, X선 검출기(210)가 30°위치에 있을 때 획득한 투사 영상과 X선 검출기가 210°위치에 있을 때 획득한 투사 영상도 반대편 투사 영상들의 쌍(330, 340)을 구성할 수 있다. CT 투사 영상들의 총 개수가 N이라면, 반대편 투사 영상들의 쌍(330)은 N/2개 일 수 있다. 저장부(130)는 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함에 따른 중간 결과의 영상 데이터(예컨대, 움직임 보상된 영상들에 대한 데이터), 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함으로써 얻어진 결과 영상 데이터(예컨대, 재구성된 CT 데이터 및/또는 그 단면 영상 데이터), 본 발명의 다양한 실시예들에 따른 영상 처리를 수행하는데 필요한 변수값들(예컨대, 움직임 벡터들)을 저장하기 위해 사용될 수 있다. 저장부(130)는 영상 처리부(120)의 구현에 필요한 소프트웨어/펌웨어 등을 더 저장할 수 있다. 저장부(130)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드(MultiMedia Card: MMC), 카드 타입의 메모리(예를 들어, SD(Secure Digital) 카드 또는 XD(eXtream Digital) 카드 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크 및 광 디스크 중 어느 하나의 저장 매체로 구현될 수 있으나, 당업자라면 저장부(130)의 구현 형태가 이에 한정되는 것이 아님을 알 수 있을 것이다.The
영상 처리부(120)는 CT 투사 영상들에 대해 전처리 필터링 등 선정된 영상 처리를 수행할 수 있다. 이하의 설명에서는, CT 투사 영상들 또는 영상 처리가 수행된 CT 투사 영상들을 모두 총괄하여 'CT 투사 영상들' 또는 '투사 영상들'이라고 지칭하기로 한다.The
CT 투사 영상들의 총 개수가 N이라고 가정하는 경우, 영상 처리부(120)는 N/2개의 반대편 투사 영상들의 쌍(330, 340)의 각각의 어느 하나의 투사 영상에 대해 움직임 보상(motion compensation)을 수행하여 움직임 보상된 투사 영상을 생성하도록 구성될 수 있다. CT 촬영 장치에 의해 촬영이 진행되는 동안 촬영 대상(S)인 환자가 고정된 상태로 움직이지 않았다면, 도 3에 도시된 바와 같이 한 위치에서 획득된 투사 영상(330)과 그 반대편의, 즉 그와 180°회전된 위치에서 획득된 투사 영상(340) 간의 상관도는 최대일 수 있다. 즉, 이 경우의 반대편 투사 영상들의 쌍(330, 340)은 서로간에 상관도(correlation)가 최대인 영상들일 수 있다. 그러나, 도 4에 도시된 바와 같이 CT 촬영 장치에 의해 촬영이 진행되는 동안 촬영 대상(S)이 움직였다면, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상(430)은 그 반대편의, 즉 그와 180°회전된 위치에서 획득된 투사 영상(440)과의 관계에서 상관도가 낮아지게 된다.If it is assumed that the total number of CT projection images is N, the
따라서 영상 처리부(120)는 저장부(130)에 저장된 CT 투사 영상들을 복수의 반대편 투사 영상들의 쌍(430, 440)으로 구성하고, 각각의 투사 영상들의 쌍 사이의 상관도를 기초로 촬영 대상의 움직임 여부를 감지 및 판단할 수 있다.Accordingly, the
이러한 촬영 대상(S)의 움직임이 강체 병진 운동(translating rigid motion)이라고 가정할 경우, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상(430)은 그 반대편의 투사 영상(440)을 기초로 움직임 추정을 함으로써 보상될 수 있다. 마찬가지로, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상이 투사 영상(440)인 경우에도 그 반대편의 투사 영상인 투사 영상(430)을 기초로 투사 영상(440)에 대해 움직임 추정을 함으로써 이를 보상할 수 있다. 이하의 설명에서는, 반대편 투사 영상들의 쌍(430, 440)을 이루는 투사 영상(430) 및 투사 영상(440)을 각각 '제1 투사 영상(430)' 및 '제2 투사 영상(440)'이라고 지칭하기로 한다.Assuming that the motion of the object S is a translating rigid motion, the projected
영상 처리부(120)는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 제1 투사 영상(430)을 기준으로 하였을 때의 해당 제2 투사 영상(440)에 대한 제1 움직임 벡터(motion vector) 및 해당 제2 투사 영상(440)을 기준으로 하였을 때의 해당 제1 투사 영상(430)에 대한 제2 움직임 벡터를 결정하도록 더 구성될 수 있다. 일 실시예에서, 영상 처리부(120)는 제1 움직임 벡터 및 제2 움직임 벡터를 패치 정합 알고리즘(patch matching algorithm) 또는 블록 정합 알고리즘(block matching algorithm)을 이용하여 결정할 수 있다. 영상 처리부(120)는, 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링(smoothing filtering)을 수행하고, 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하도록 더 구성될 수 있다.The
영상 처리부(120)는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여, 해당 제1 움직임 벡터를 이용하여 해당 제2 투사 영상(440)을 보상함으로써 생성한 움직임 보상된 제2 투사 영상 및 해당 제2 움직임 벡터를 이용하여 해당 제1 투사 영상(430)을 보상함으로써 생성한 움직임 보상된 제1 투사 영상 중 어느 하나를 목적한 움직임 보상된 투사 영상으로 선택할 수 있다. 일 실시예에서, 이러한 선택은, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 해당 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과와 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 해당 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과 간의 선명도에 있어서의 차이에 기반할 수 있다. 움직임 보상된 제2 투사 영상을 이용하여 CT 영상을 재구성해 본 결과가 움직임 보상된 제1 투사 영상을 이용하여 CT 영상을 재구성해 본 결과 보다 양호하다면 해당 제2 투사 영상(440)이 촬영 대상(S)의 움직임이 있었을 시점에서 획득한 영상에 해당하는 것으로 추정되고, 따라서 해당 반대편 투사 영상들의 쌍(430, 440) 중에서 해당 제2 투사 영상(440)을 움직임 보상한 움직임 보상된 제2 투사 영상을 최종 CT 재구성에 이용하는 것이 합리적이기 때문이다.The
영상 처리부(120)는, 종래와 같이 N개의 CT 투사 영상을 이용하여 CT 영상을 재구성하는 대신에 N개의 CT 투사 영상 중 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하도록 더 구성될 수 있다. CT 데이터를 재구성함에 있어서 움직임 보상된 투사 영상들을 이용함으로써 재구성된 CT 데이터에 기반해 렌더링된 3차원 영상 또는 그 단면 영상들의 화질을 획기적으로 높일 수 있게 된다. CT 데이터의 재구성은, 다 방향의 X선 투사 데이터를 촬영 대상 내부의 각각의 위치로 투영시켜 해당 위치에서의 상대적 X선 감쇄율을 알아 내는, 일반적으로 잘 알려진 '역 투영'(back projection)이라는 CT 재구성 알고리즘을 이용해 수행될 수 있다. 역 투영 알고리즘은 본 기술 분야에 잘 알려진 기술이므로 본 명세서에서는 그 상세한 설명을 피하고자 한다. 참고로, 본 발명의 실시에 적용될 수 있는 CT 재구성 알고리즘이 전술한 알고리즘에 한정되는 것은 아니다.Instead of reconstructing the CT image using the N CT projected images as in the conventional art, the
도 5는 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법을 설명하기 위한 흐름도를 도시한 도면이다.FIG. 5 is a flowchart illustrating a method of reconstructing CT data based on motion compensation according to an embodiment of the present invention. Referring to FIG.
본 발명의 일 실시예에 따른 CT 데이터 재구성 방법은 N개의 CT 투사 영상을 획득하는 단계(S505)로부터 시작된다. N개의 CT 투사 영상은 X선 검출기(210)에 의해 N번 검출된 투사 데이터를 저장부(130)에 저장함으로써 획득될 수 있다. 전술한 바와 같이, 제1 투사 영상(430) 및 제2 투사 영상(440)으로 구성되는 반대편 투사 영상들의 쌍(430, 440)이 N/2개 모여서 N개의 투사 영상이 구성될 수 있다. 단계(S510)에서는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성한다. 이 단계에서는, 도 6 및 도 7에 도시된 바와 같이 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 제1 투사 영상(430)을 기준으로 하였을 때의 해당 제2 투사 영상(440)에 대한 제1 움직임 벡터(d1) 및 해당 제2 투사 영상(440)을 기준으로 하였을 때의 해당 제1 투사 영상(430)에 대한 제2 움직임 벡터(d2)를 결정할 수 있다.The CT data reconstruction method according to an embodiment of the present invention starts from the step S505 of acquiring N CT projected images. The N CT projected images can be obtained by storing the projection data detected N times by the
이하, 제1 움직임 벡터(d1) 및 제2 움직임 벡터(d2)를 결정하는 절차를 도 6 내지 도 8을 참조하면서 설명하기로 한다. 이하에서 설명되는 단계들은 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 수행될 수 있다.Hereinafter, a procedure for determining the first motion vector d 1 and the second motion vector d 2 will be described with reference to FIGS. 6 to 8. FIG. The steps described below may be performed for each of the N / 2 pairs of
도 8을 참조하면, 본 절차는 제1 투사 영상(430)에서 제1 패치(610)를 설정하는 단계(S805)로부터 시작된다. 일 실시예에서, 제1 패치(610)는 제1 투사 영상(430)의 중앙 부분에서의 작은 블록으로서 설정될 수 있다. 다른 실시예에서, 제1 패치(610)는 제1 투사 영상(430)의 특징을 이루는 부분에서의 작은 블록으로서 설정될 수 있다. 단계(S810)에서는, 제2 투사 영상(440)에서 제1 패치(610)에 대응하는 영역을 둘러싸는 제1 탐색 영역(630)을 설정한다. 제1 탐색 영역(630)의 크기는 제1 패치(610)의 크기 보다는 충분히 크되 영상 처리부(120)의 연산 부하를 과하게 높이지 않을 정도로 제2 투사 영상(440)의 크기 보다는 작도록 적절히 선택될 수 있다. 단계(S815)에서는, 제1 패치(610)에 대응하는 제2 패치(620)를 제1 탐색 영역(630) 내에서 이동시키면서 제1 패치(610)와 제2 패치(620) 간의 유사도가 가장 높게 되는 제2 패치(620)의 위치를 결정한다. 여기서, 유사도를 나타내는 척도로서 상관도(correlation) 및 MSE(mean square error) 중 어느 하나를 채택할 수 있다. 단계(S820)에서는, 제1 패치(610)의 위치와 제2 패치(620)의 위치에 근거하여 제1 움직임 벡터(d1)를 결정한다. 제2 투사 영상(440)이 (x, y)로 좌표 값을 나타내는 XY 평면상에 놓여 있고, 예컨대 제1 패치(610)의 기준 좌표 값이 (300, 400)이고 제2 패치(620)의 기준 좌표 값이 (302, 405)라면 제1 움직임 벡터(d1)는 (2, 5)일 수 있다.Referring to FIG. 8, this procedure starts from step S805 of setting the
단계(S825)에서는, 제2 투사 영상(440)에서 제3 패치(710)를 설정한다. 일 실시예에서, 제3 패치(710)는 제2 투사 영상(440)의 중앙 부분에서의 작은 블록으로서 설정될 수 있다. 다른 실시예에서, 제3 패치(710)는 제2 투사 영상(440)의 특징을 이루는 부분에서의 작은 블록으로서 설정될 수 있다. 단계(S830)에서는, 제1 투사 영상(430)에서 제3 패치(710)에 대응하는 영역을 둘러싸는 제2 탐색 영역(730)을 설정한다. 제2 탐색 영역(730)의 크기는 제3 패치(710)의 크기 보다는 충분히 크되 영상 처리부(120)의 연산 부하를 과하게 높이지 않을 정도로 제1 투사 영상(430)의 크기 보다는 작도록 적절히 선택될 수 있다. 단계(S835)에서는, 제3 패치(710)에 대응하는 제4 패치(720)를 제2 탐색 영역(730) 내에서 이동시키면서 제3 패치(710)와 제4 패치(720) 간의 유사도가 가장 높게 되는 제4 패치(720)의 위치를 결정한다. 단계(S840)에서는, 제3 패치(710)의 위치와 제4 패치(720)의 위치에 근거하여 제2 움직임 벡터(d2)를 결정한다. 예컨대 제3 패치(710)의 기준 좌표 값이 (302, 405)이고 제4 패치(720)의 기준 좌표 값이 (300, 400)이라면 제2 움직임 벡터(d2)는 (- 2, - 5)일 수 있다.In step S825, the
다시 도 5를 참조하면, 단계(S510)에서는 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 결정된 제1 움직임 벡터(d1) 및 제2 움직임 벡터(d2)에 대해 평탄화 필터링을 수행한다. 촬영 대상(S)이 빠르게 움직이지 않는다고 가정한다면 움직임 벡터의 값이 급격히 변화할 가능성이 극히 낮으므로, 급격한 변동이 있는 움직임 벡터를 해당 투사 영상과 이웃한 투사 영상들에 대한 움직임 벡터들에 의해 평탄화시키기 위함이다. 일 실시예에서, N/2개의 제1 움직임 벡터와 N/2개의 제2 움직임 벡터에 대해 별도로 평탄화 필터링을 수행할 수 있다. 일 실시예에서, 평탄화 필터링은 각 움직임 벡터의 성분 별로 별도로 수행될 수 있다. 도 9a에 N/2개의 제1 움직임 벡터(d1)의 X축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타내었다. 도 9b에는 N/2개의 제1 움직임 벡터(d1)의 Y축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타내었다. 도 9a 및 도 9b를 참조하면, 평탄화 필터링에 의해 잘못 추정된 움직임 벡터들의 성분들이 평탄화되는 것을 확인할 수 있다.Referring again to FIG. 5, in step S510, for a first motion vector d 1 and a second motion vector d 2 determined for each of the N / 2 pairs of
단계(S510)에서는 또한 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 쌍(430, 440) 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하여 선택한 투사 영상을 움직임 보상한다. 투사 영상에 대한 움직임 보상은 투사 영상을 해당 움직임 벡터에 따라 수평 및/또는 수직 방향으로 이동시킴으로써 이루어질 수 있다. 일 실시예에서, 어느 하나의 투사 영상의 선택은, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 해당 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과와 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 해당 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과 간의 선명도에 있어서의 차이에 기반할 수 있다. 즉, 움직임 보상된 제2 투사 영상을 이용하여 CT 데이터를 재구성한 결과가 움직임 보상된 제1 투사 영상을 이용하여 CT 데이터를 재구성한 결과 보다 그 선명도가 높다면, 움직임 보상된 제2 투사 영상이 최종 CT 데이터 재구성을 위해 선택된다.In step S510, one of the pair (430, 440) of the N / 2 opposing
이하, 반대편 투사 영상들의 쌍(430, 440) 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하는 절차를 도 10을 참조하면서 설명하기로 한다. 이하에서 설명되는 단계들은 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 수행될 수 있다.Hereinafter, a procedure for selecting one of the pair of
도 10을 참조하면, 본 절차는 제1 움직임 벡터(d1)를 이용하여 제2 투사 영상(440)을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 단계(S1010)로부터 시작된다. 단계(S1020)에서는, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성한다. 단계(S1030)에서는, 제2 움직임 벡터(d2)를 이용하여 제1 투사 영상(430)을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성한다. 단계(S1040)에서는, 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성한다. 단계(S1050)에서는, 제1의 단면 영상 및 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사한다. 단계(S1060)에서는, 제1의 단면 영상이 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 움직임 보상된 제2 투사 영상을 움직임 보상된 투사 영상으로 결정한다. 반면, 단계(S1070)에서는, 제2의 단면 영상이 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 움직임 보상된 제1 투사 영상을 움직임 보상된 투사 영상으로 결정한다.Referring to FIG. 10, the procedure begins with a step S1010 of generating a motion-compensated second projection image by motion-compensating a
다시 도 5를 참조하면, 단계(S515)에서는, N개의 CT 투사 영상 중 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성한다. 전술한 바와 같이, CT 데이터를 재구성함에 있어서 움직임 보상된 투사 영상들을 이용함으로써 재구성된 CT 데이터에 기반해 렌더링된 3차원 영상 또는 그 단면 영상들의 화질을 획기적으로 높일 수 있게 된다. 일 실시예에서, 역 투영 알고리즘을 이용해 CT 데이터를 재구성할 수 있다.Referring again to FIG. 5, in step S515, CT data is reconstructed using N / 2 CT projection images and N / 2 motion-compensated projection images in which motion compensation is not performed among N CT projection images . As described above, by using the motion-compensated projection images in reconstructing the CT data, it is possible to dramatically increase the image quality of the 3D image or the sectional images rendered based on the reconstructed CT data. In one embodiment, CT data can be reconstructed using a back projection algorithm.
도 11 내지 도 13은 종래 기술에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상과 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상을 나란히 도시한 도면들이다. 도시된 도면들(화살표로 표시된 부분 참조)로부터 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상이 종래 기술에 따른 단면 영상 보다 선명도에 있어 획기적으로 개선된 것을 확인할 수 있다.FIGS. 11 to 13 are views showing a cross-sectional image reconstructed and reconstructed according to a conventional technique and a cross-sectional image reconstructed and rendered by CT data according to an embodiment of the present invention. It can be seen from the drawings (refer to the part indicated by the arrows) that the sectional image reconstructed and rendered by the CT data according to the embodiment of the present invention is remarkably improved in sharpness than the sectional image according to the related art.
본원에 개시된 실시예들에 있어서, 도시된 구성 요소들의 배치는 발명이 구현되는 환경 또는 요구 사항에 따라 달라질 수 있다. 예컨대, 일부 구성 요소가 생략되거나 몇몇 구성 요소들이 통합되어 하나로 실시될 수 있다. 또한 일부 구성 요소들의 배치 순서 및 연결이 변경될 수 있다.In the embodiments disclosed herein, the arrangement of the components shown may vary depending on the environment or requirements in which the invention is implemented. For example, some components may be omitted or some components may be integrated into one. In addition, the arrangement order and connection of some components may be changed.
이상에서는 본 발명의 다양한 실시예들에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예들에 한정되지 아니하며, 상술한 실시예들은 첨부하는 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변형 실시될 수 있음은 물론이고, 이러한 변형 실시예들이 본 발명의 기술적 사상이나 범위와 별개로 이해되어져서는 아니 될 것이다. 따라서, 본 발명의 기술적 범위는 오직 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention. Accordingly, the technical scope of the present invention should be determined only by the appended claims.
100: CT 데이터 재구성 장치
110: 입력 인터페이스
120: 영상 처리부
130: 저장부
140: 디스플레이부
330, 340: 반대편 투사 영상들의 쌍
430, 440: 반대편 투사 영상들의 쌍
210: X선 검출기
222: X선 소스
232: 회전축
237: 궤적
610: 제1 패치
620: 제2 패치
630: 제1 탐색 영역
710: 제3 패치
720: 제4 패치
730: 제2 탐색 영역
S: 촬영 대상
d1: 제1 움직임 벡터
d2: 제2 움직임 벡터100: CT data reconstruction device
110: input interface
120:
130:
140:
330, 340: a pair of opposite projection images
430, 440: a pair of opposite projection images
210: X-ray detector
222: X-ray source
232:
237: Trajectory
610: First Patch
620: Second Patch
630: first search area
710: Third Patch
720: Fourth Patch
730: Second search area
S: Shooting target
d 1 : first motion vector
d 2 : second motion vector
Claims (11)
N개의 투사 영상(projection images)을 저장하는 저장부, 및
상기 N개의 투사 영상을 N/2개의 반대편 투사 영상의 쌍(pair of opposite projection images)으로 구성하고 - 상기 N/2개의 반대편 투사 영상의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함함 -, 상기 N/2개의 반대편 투사 영상의 쌍의 각각의 상기 제1 투사 영상과 상기 제2 투사 영상 간의 상관도에 따라 상기 제1 투사 영상 및 상기 제2 투사 영상 중 어느 하나를 움직임 보상하여 CT 데이터를 재구성하도록 구성된 영상 처리부를 포함하되,
상기 영상 처리부는,
상기 제1 투사 영상을 움직임 보상해서 움직임 보상된 제1 투사 영상을 생성하고 상기 움직임 보상된 제1 투사 영상을 포함하는 투사 영상들을 이용하여 제1 단면 영상을 생성하며,
상기 제2 투사 영상을 움직임 보상해서 움직임 보상된 제2 투사 영상을 생성하고 상기 움직임 보상된 제2 투사 영상을 포함하는 투사 영상들을 이용하여 제2 단면 영상을 생성하며,
상기 제1 단면 영상 및 상기 제2 단면 영상 중에서 선명도가 더 높은 단면 영상을 생성하는데 이용된 움직임 보상된 투사 영상을 포함하는 투사 영상들을 이용하여 상기 CT 데이터를 재구성하도록 더 구성되는, CT 데이터 재구성 장치.
An apparatus for reconstructing computed tomography (CT) data based on motion compensation,
A storage unit for storing N projection images, and
Wherein the N projected images comprise N / 2 pairs of opposite projection images, each of the N / 2 pairs of opposite projected images comprises a first projected image and a second projected image Compensates for any one of the first projected image and the second projected image according to a degree of correlation between the first projected image and the second projected image of each of the N / 2 pairs of projected images, And an image processing unit configured to reconstruct CT data,
Wherein the image processing unit comprises:
Compensated motion-compensated first projection image to generate a first sectional image using projection images including the motion-compensated first projection image,
Compensated second projection image by motion-compensating the second projection image to generate a second sectional image using projection images including the motion-compensated second projection image,
Further comprising: reconstructing the CT data using projection images including a motion compensated projection image used to generate a cross-sectional image having a higher definition of the first cross-sectional image and the second cross-sectional image, .
상기 영상 처리부는, 상기 제1 투사 영상을 기준으로 한 상기 제2 투사 영상에 대한 제1 움직임 벡터(motion vector) 및 상기 제2 투사 영상을 기준으로 한 상기 제1 투사 영상에 대한 제2 움직임 벡터를 결정하도록 더 구성되는, CT 데이터 재구성 장치.
The method according to claim 1,
Wherein the image processing unit includes a first motion vector for the second projection image based on the first projection image and a second motion vector for the first projection image based on the second projection image, The CT data reconstruction device further comprising:
상기 영상 처리부는, 상기 제1 움직임 벡터를 이용하여 상기 제2 투사 영상을 움직임 보상하고, 상기 제2 움직임 벡터를 이용하여 상기 제1 투사 영상을 움직임 보상하도록 더 구성되는, CT 데이터 재구성 장치.
3. The method of claim 2,
Wherein the image processing unit further performs motion compensation on the second projection image using the first motion vector and motion compensation the first projection image using the second motion vector.
상기 영상 처리부는,
(i) 상기 제1 투사 영상에서 제1 패치(patch)를 설정하는 동작,
(ii) 상기 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작,
(iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작,
(iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 제1 움직임 벡터를 결정하는 동작,
(v) 상기 제2 투사 영상에서 제3 패치를 설정하는 동작,
(vi) 상기 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작,
(vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및
(viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 제2 움직임 벡터를 결정하는 동작
을 수행하도록 더 구성되는, CT 데이터 재구성 장치.
3. The method of claim 2,
Wherein the image processing unit comprises:
(i) setting a first patch in the first projection image,
(ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image,
(iii) an operation of moving the second patch corresponding to the first patch in the first search area while determining the position of the second patch at which the degree of similarity between the first patch and the second patch becomes the highest,
(iv) determining the first motion vector based on the position of the first patch and the position of the second patch,
(v) setting the third patch in the second projection image,
(vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image,
(vii) an operation of moving the fourth patch corresponding to the third patch in the second search area while determining the position of the fourth patch in which the degree of similarity between the third patch and the fourth patch is the highest, and
(viii) determining the second motion vector based on the position of the third patch and the position of the fourth patch
Wherein the CT data reconstruction device further comprises:
N개의 투사 영상을 획득하는 단계 - 상기 N은 자연수임 -, 및
상기 N개의 투사 영상을 N/2개의 반대편 투사 영상의 쌍으로 구성하고 - 상기 N/2개의 반대편 투사 영상의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함함 -, 상기 N/2개의 반대편 투사 영상의 쌍의 각각의 상기 제1 투사 영상과 상기 제2 투사 영상 간의 상관도에 따라 상기 제1 투사 영상 및 상기 제2 투사 영상 중 어느 하나를 움직임 보상하여 CT 데이터를 재구성하는 단계를 포함하되,
상기 CT 데이터를 재구성하는 단계는,
상기 제1 투사 영상을 움직임 보상해서 움직임 보상된 제1 투사 영상을 생성하고 상기 움직임 보상된 제1 투사 영상을 포함하는 투사 영상들을 이용하여 제1 단면 영상을 생성하는 단계,
상기 제2 투사 영상을 움직임 보상해서 움직임 보상된 제2 투사 영상을 생성하고 상기 움직임 보상된 제2 투사 영상을 포함하는 투사 영상들을 이용하여 제2 단면 영상을 생성하는 단계, 및
상기 제1 단면 영상 및 상기 제2 단면 영상 중에서 선명도가 더 높은 단면 영상을 생성하는데 이용된 움직임 보상된 투사 영상을 포함하는 투사 영상들을 이용하여 상기 CT 데이터를 재구성하는 단계를 포함하는, CT 데이터 재구성 방법.
A method performed by a computer processor to reconstruct CT data based on motion compensation,
Obtaining N projected images, wherein N is a natural number, and
Wherein each of the N / 2 pairs of opposite projected images comprises a first projected image and a second projected image, the N / 2 second projected image comprises a first projected image and a second projected image, Compensating the CT data by performing motion compensation on any one of the first projection image and the second projection image according to the degree of correlation between the first projection image and the second projection image of the pair of the opposite projection images, Including,
Wherein reconstructing the CT data comprises:
Compensating the first projection image to generate a first projection image and generating a first sectional image using projection images including the motion-compensated first projection image,
Compensating the second projection image to generate a motion compensated second projection image and generating a second sectional image using projection images including the motion compensated second projection image,
Reconstructing the CT data using projection images including a motion compensated projection image used to produce a sectional image having a higher sharpness out of the first sectional image and the second sectional image, Way.
상기 제2 단면 영상을 생성하는 단계는 상기 제1 투사 영상을 기준으로 한 상기 제2 투사 영상에 대한 제1 움직임 벡터(motion vector)를 결정하는 단계를 포함하고, 상기 제1 단면 영상을 생성하는 단계는 상기 제2 투사 영상을 기준으로 한 상기 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.
8. The method of claim 7,
Wherein the step of generating the second sectional image includes the step of determining a first motion vector for the second projection image with reference to the first projection image, Wherein the step of determining the second motion vector comprises determining a second motion vector for the first projection image with reference to the second projection image.
상기 제1 단면 영상을 생성하는 단계는 상기 제2 움직임 벡터를 이용하여 상기 제1 투사 영상을 움직임 보상하는 단계를 더 포함하고, 상기 제2 단면 영상을 생성하는 단계는 상기 제1 움직임 벡터를 이용하여 상기 제2 투사 영상을 움직임 보상하는 단계를 더 포함하는, CT 데이터 재구성 방법.
9. The method of claim 8,
The generating of the first sectional image may further include motion compensating the first projection image using the second motion vector, and the step of generating the second sectional image may include using the first motion vector And performing motion compensation on the second projection image.
상기 제1 움직임 벡터를 결정하는 단계는,
(i) 상기 제1 투사 영상에서 제1 패치(patch)를 설정하는 단계,
(ii) 상기 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 단계,
(iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 단계, 및
(iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 제1 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.
9. The method of claim 8,
Wherein determining the first motion vector comprises:
(i) setting a first patch in the first projection image,
(ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image,
(iii) moving the second patch corresponding to the first patch in the first search area and determining the position of the second patch with the highest degree of similarity between the first patch and the second patch, and
(iv) determining the first motion vector based on the position of the first patch and the position of the second patch.
상기 제2 움직임 벡터를 결정하는 단계는,
(v) 상기 제2 투사 영상에서 제3 패치를 설정하는 단계,
(vi) 상기 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 단계,
(vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 단계, 및
(viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 제2 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.11. The method of claim 10,
Wherein the step of determining the second motion vector comprises:
(v) setting a third patch in the second projection image,
(vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image,
(vii) moving the fourth patch corresponding to the third patch in the second search area, and determining a position of the fourth patch having the highest degree of similarity between the third patch and the fourth patch; and
(viii) determining the second motion vector based on the position of the third patch and the position of the fourth patch.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17180020.4A EP3272288B1 (en) | 2016-07-22 | 2017-07-06 | Apparatus and method for ct data reconstruction based on motion compensation |
US15/654,868 US10373350B2 (en) | 2016-07-22 | 2017-07-20 | Apparatus and method for CT data reconstruction based on motion compensation |
CN201710606635.XA CN107644447B (en) | 2016-07-22 | 2017-07-24 | Apparatus and method for motion compensation based CT data reconstruction |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160093759 | 2016-07-22 | ||
KR1020160093759 | 2016-07-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180010942A KR20180010942A (en) | 2018-01-31 |
KR101964844B1 true KR101964844B1 (en) | 2019-04-03 |
Family
ID=61083201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160172635A KR101964844B1 (en) | 2016-07-22 | 2016-12-16 | Apparatus and Method for CT Image Reconstruction Based on Motion Compensation |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101964844B1 (en) |
CN (1) | CN107644447B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102610610B1 (en) * | 2021-05-26 | 2023-12-06 | 주식회사 바텍 | Spiral type CT Imaging Apparatus and Method capable of for detecting object movement |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002330961A (en) | 2001-03-09 | 2002-11-19 | Hitachi Medical Corp | X-ray ct system |
JP2007181674A (en) | 2005-12-21 | 2007-07-19 | Medison Co Ltd | Method of forming image using block matching and motion compensated interpolation |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5671263A (en) * | 1996-03-13 | 1997-09-23 | Analogic Corporation | Motion artifact suppression filter for use in computed tomography systems |
US7672490B2 (en) * | 2004-02-13 | 2010-03-02 | Koninklijke Philips Electronics N.V. | Motion artifacts compensation |
US7515678B2 (en) * | 2005-11-23 | 2009-04-07 | General Electric Company | Method and system for performing CT image reconstruction with motion artifact correction |
US20080267455A1 (en) * | 2005-12-20 | 2008-10-30 | Koninklijke Philips Electronics N. V. | Method for Movement Compensation of Image Data |
US7700921B2 (en) * | 2006-11-15 | 2010-04-20 | Digirad Corporation | Multi-short-scan technique in SPECT imaging |
KR101018051B1 (en) * | 2008-10-23 | 2011-03-02 | 한국과학기술원 | Method for reducing metal artifact from X-ray image |
ES2899745T3 (en) * | 2009-09-16 | 2022-03-14 | 4Dmedical Ltd | Particle Imaging Velocimetry Suitable for X-Ray Projection Imaging |
CN102258383B (en) * | 2010-05-25 | 2013-03-20 | 株式会社东芝 | X ray computer tomography device and image processing method |
DE102011083647A1 (en) * | 2011-09-28 | 2013-03-28 | Siemens Aktiengesellschaft | Motion compensated computer tomography-image data set creating method, involves reconstructing final image data set using movement-compensating reconstruction method based on reconstruction algorithm and movement field |
JP6233980B2 (en) * | 2013-02-21 | 2017-11-22 | 株式会社日立製作所 | X-ray CT apparatus and image reconstruction method |
WO2015053787A1 (en) * | 2013-10-11 | 2015-04-16 | Analogic Corporation | Tomosynthesis imaging |
KR101582093B1 (en) * | 2014-02-21 | 2016-01-04 | 삼성전자주식회사 | Computer tomography apparatus and method for reconstrucing a computer tomography image thereof |
-
2016
- 2016-12-16 KR KR1020160172635A patent/KR101964844B1/en active IP Right Grant
-
2017
- 2017-07-24 CN CN201710606635.XA patent/CN107644447B/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002330961A (en) | 2001-03-09 | 2002-11-19 | Hitachi Medical Corp | X-ray ct system |
JP2007181674A (en) | 2005-12-21 | 2007-07-19 | Medison Co Ltd | Method of forming image using block matching and motion compensated interpolation |
Also Published As
Publication number | Publication date |
---|---|
CN107644447A (en) | 2018-01-30 |
CN107644447B (en) | 2021-05-11 |
KR20180010942A (en) | 2018-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101651845B1 (en) | Reconstruction of image data by means of contour data | |
JP7387270B2 (en) | Medical image processing device, learning method, X-ray diagnostic device, medical image processing method, and program | |
US9533172B2 (en) | Image processing based on positional difference among plural perspective images | |
EP1530162B1 (en) | Radiation image processing apparatus, radiation image processing method, program, and computer-readable medium | |
US10631810B2 (en) | Image processing device, radiation imaging system, image processing method, and image processing program | |
US10631827B2 (en) | Method and apparatus for processing medical image | |
US10032295B2 (en) | Tomography apparatus and method of processing tomography image | |
JP2008307184A (en) | Image processing device and image processing program | |
US10013778B2 (en) | Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus | |
KR101964844B1 (en) | Apparatus and Method for CT Image Reconstruction Based on Motion Compensation | |
US8098920B2 (en) | Method of extrapolating a grey-level bidimensional image in a radiography device and a radiography device implementing such a method | |
US20190259187A1 (en) | Apparatus for tomosynthesis image reconstruction | |
EP3272288B1 (en) | Apparatus and method for ct data reconstruction based on motion compensation | |
US20220183583A1 (en) | Subject motion measuring apparatus, subject motion measuring method, non-transitory computer readable medium and imaging system | |
KR20170078180A (en) | Method and system for establishing region-of-interest in tomography | |
KR101799399B1 (en) | Image reconstruction method using bi-section search method in DTS | |
KR102206089B1 (en) | X-ray imaging method using x-ray ct imaging apparatus and x-ray ct imaging apparatus | |
CN111246800A (en) | Method and device for changing image magnification | |
Nakazeko et al. | Estimation of patient’s angle from skull radiographs using deep learning | |
JP7341667B2 (en) | Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems | |
WO2023097100A1 (en) | X-ray dissectography | |
JP2023107528A (en) | Information processing method, medical image diagnostic apparatus and information processing system | |
WO2022174355A1 (en) | Adaptive dual-energy x-ray imaging using pre-calibrated weighting factors | |
CN115965741A (en) | Control method and device of perspective imaging device, electronic device and storage medium | |
CN113963056A (en) | CT image reconstruction method, device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |