KR101964844B1 - Apparatus and Method for CT Image Reconstruction Based on Motion Compensation - Google Patents

Apparatus and Method for CT Image Reconstruction Based on Motion Compensation Download PDF

Info

Publication number
KR101964844B1
KR101964844B1 KR1020160172635A KR20160172635A KR101964844B1 KR 101964844 B1 KR101964844 B1 KR 101964844B1 KR 1020160172635 A KR1020160172635 A KR 1020160172635A KR 20160172635 A KR20160172635 A KR 20160172635A KR 101964844 B1 KR101964844 B1 KR 101964844B1
Authority
KR
South Korea
Prior art keywords
image
patch
projection
projection image
motion
Prior art date
Application number
KR1020160172635A
Other languages
Korean (ko)
Other versions
KR20180010942A (en
Inventor
예종철
구자욱
김태우
최성일
배웅
Original Assignee
주식회사 바텍
한국과학기술원
(주)바텍이우홀딩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바텍, 한국과학기술원, (주)바텍이우홀딩스 filed Critical 주식회사 바텍
Priority to EP17180020.4A priority Critical patent/EP3272288B1/en
Priority to US15/654,868 priority patent/US10373350B2/en
Priority to CN201710606635.XA priority patent/CN107644447B/en
Publication of KR20180010942A publication Critical patent/KR20180010942A/en
Application granted granted Critical
Publication of KR101964844B1 publication Critical patent/KR101964844B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/14Applications or adaptations for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/40Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry

Abstract

움직임 보상에 기반하여 CT 데이터를 재구성하는 방법이 제공된다. 본 방법은, N개의 CT 투사 영상을 획득하는 단계 - N은 자연수이며 상기 N개의 CT 투사 영상은 N/2개의 반대편 투사 영상들의 쌍으로 구성됨 -, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계, 및 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 상기 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하는 단계를 포함할 수 있다.A method of reconstructing CT data based on motion compensation is provided. The method comprises the steps of: obtaining N CT projection images, wherein N is a natural number and the N CT projection images are composed of N / 2 pairs of opposite projection images; Compensated projection image by performing motion compensation on any one of the N projected images, and generating N / 2 CT projected images in which the motion compensation is not performed among the N CT projected images, And reconstructing the CT data using N / 2 projected images.

Description

움직임 보상에 기반한 CT 데이터 재구성 방법 및 장치{Apparatus and Method for CT Image Reconstruction Based on Motion Compensation}Technical Field [0001] The present invention relates to a method and apparatus for reconstructing CT data based on motion compensation,

본 발명은 CT 데이터 재구성 기술에 관한 것으로, 더 구체적으로 움직임 보상에 기반한 CT 데이터 재구성에 관한 것이다.The present invention relates to CT data reconstruction techniques, and more particularly to CT data reconstruction based on motion compensation.

컴퓨터 단층촬영(Computed Tomography: CT, 이하 CT로 표기하기로 함)은 촬영 대상을 여러 각도에서 X선 촬영하여 촬영 대상에 대한 3차원 영상을 제공하는 의료 화상 처리 방식으로 알려져 있다. CT에 의해 제공되는 3차원 의료 영상은 촬영 대상의 내부 단면 등을 비파괴적 방식으로 세밀하고 정확하게 보여줄 수 있는 장점이 있어 치의료 분야에서 널리 사용되고 있다. CT 영상을 얻기 위해서는 촬영 대상을 사이에 두고 X선 소스와 X선 검출기가 서로 대향 배치되도록 탑재된 CT 촬영 장치의 CT 겐트리를 X선 소스와 X선 검출기 사이에 고정된 한 축을 중심으로 회전시키면서 X선 소스로부터 X선 빔을 촬영 대상으로 조사하고 이를 투과한 X선 빔을 X선 검출기에 의해 검출함으로써 촬영 대상에 대한 여러 방향의 투사 데이터를 획득한 후 이를 기초로 CT 데이터를 재구성한다.BACKGROUND ART Computed tomography (CT) is known as a medical image processing method in which an object to be imaged is X-rayed at various angles to provide a three-dimensional image of an object to be imaged. The 3D medical image provided by CT is widely used in the field of dentistry because it has the advantage of showing the internal section of the object to be imaged in detail in a non-destructive manner. In order to obtain a CT image, a CT gantry of a CT photographing apparatus mounted so that an X-ray source and an X-ray detector are opposed to each other with an object to be photographed is rotated about an axis fixed between the X- The X-ray source irradiates the X-ray beam from the X-ray source and detects the X-ray beam transmitted through the X-ray beam by the X-ray detector to acquire projection data in various directions to the object to be imaged.

하지만 이와 같이 촬영 대상에 대한 여러 방향의 투사 데이터를 회득하는 과정 중에 촬영 대상인 환자가 조금이라도 움직일 경우 이른바 모션 아티펙트(Motion Artifact)의 영향으로 인해 CT 영상의 품질을 보장할 수 없게 된다. 고정 장치(immobilization tools)를 사용하여 촬영 대상의 움직임을 억제할 수는 있겠으나 이러한 고정 장치에 의해 촬영 대상의 움직임을 방지하는 데에는 한계가 있다. 또한 카메라 등 촬영 대상의 움직임을 감지하는 별도의 감지 수단을 사용하여 촬영 대상의 움직임을 감지하고, 움직임이 감지된 시점에서의 투사 데이터를 그 움직임의 역으로 보정하는 방법도 생각해 볼 수 있으나, 이 경우 촬영 대상의 움직임을 감지하는 별도의 감지 수단이 요구되는 것은 물론 감지 수단의 감지 결과와 투사 데이터라는 서로 다른 정보를 시간적으로 비교하는데 과도한 시간 및 연산이 필요로 된다.However, when the subject to be photographed moves slightly even during the process of acquiring projection data in various directions with respect to the object to be imaged, the quality of the CT image can not be guaranteed due to the effect of so-called motion artifact. Immobilization tools may be used to suppress motion of the subject, but there is a limit to preventing movement of the subject by the immobilization device. It is also possible to consider a method of sensing the motion of an object to be imaged by using a separate sensing means for sensing the motion of the object such as a camera and correcting the projection data at a point of time when the motion is detected, A separate sensing means for sensing the movement of the object to be photographed is required and an excessive time and calculation are required for comparing the sensing result of the sensing means with the different information of the projection data in terms of time.

이에 따라 별도의 고정 장치와 별도의 감시 수단을 사용하지 않고도 환자의 움직임이 있는 경우에도 신뢰할 만한 품질의 CT 영상을 제공할 수 있는 개선된 CT 데이터 재구성 방법이 본 기술 분야에 요구되고 있다.Accordingly, there is a need in the art for an improved CT data reconstruction method capable of providing a reliable quality CT image even when there is a movement of the patient without using a separate fixing device and a separate monitoring means.

본 발명이 해결하고자 하는 과제는, 별도의 고정 장치와 별도의 감지 수단을 사용하지 않고도 투사 데이터만을 가지고 촬영 대상의 움직임이 있는 경우에도 신뢰할 만한 품질의 CT 영상을 제공해 줄 수 있는 개선된 CT 데이터 재구성 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an improved CT data reconstruction capable of providing a CT image of a reliable quality even when there is motion of an object to be shot with only projection data without using a separate fixing device and a separate sensing means A method and an apparatus.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

일 측면에서, 움직임 보상에 기반하여 CT(Computed Tomography) 데이터를 재구성하기 위한 장치가 제공된다. 본 장치는, N개의 CT 투사 영상(projection images)을 저장하는 저장부, 및 상기 N개의 CT 투사 영상을 N/2개의 반대편 투사 영상들의 쌍(pair of opposite projection images)으로 구성하고, 각각의 반대편 투사 영상들의 쌍의 투사 영상들 사이의 상관도에 따라 촬영 대상의 움직임을 판단하도록 구성된 영상 처리부를 포함할 수 있다.In one aspect, an apparatus is provided for reconstructing computed tomography (CT) data based on motion compensation. The apparatus comprises: a storage unit for storing N CT projection images; and a storage unit for storing the N CT projected images into N / 2 pairs of opposite projection images, And an image processor configured to determine a motion of an object to be photographed according to a degree of correlation between projection images of the pair of projection images.

일 실시예에서, 상기 영상 처리부는, 상기 촬영 대상의 움직임이 있다고 판단된 경우, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상(motion compensation)을 수행하여 움직임 보상된 투사 영상을 생성하고, 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 CT 투사 영상과 상기 움직임 보상된 투사 영상을 이용하여 CT 데이터를 재구성하도록 더 구성될 수 있다.In one embodiment, when it is determined that there is motion of the object to be imaged, the image processing unit performs motion compensation on any one of the N / 2 pairs of opposite projection images And reconstruct the CT data using the motion compensated projection image and the motion compensated projection image from among the N CT projected images.

일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함하고, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터(motion vector) 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하도록 더 구성될 수 있다.In one embodiment, each of the pair of the N / 2 opposing projection images includes a first projection image and a second projection image, and the image processing unit is configured to perform, for each pair of the N / 2 opposite projection images, A first motion vector for the second projection image when the first projection image is regarded as a reference and a second motion vector for the first projection image when the second projection image is used as a reference, 2 < / RTI > motion vector.

일 실시예에서, 상기 영상 처리부는, 상기 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링(smoothing filtering)을 수행하고, 상기 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit further performs a smoothing filtering on the determined N / 2 first motion vectors and performs a flattening filtering on the determined N / 2 second motion vectors Lt; / RTI >

일 실시예에서, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 움직임 벡터를 이용하여 상기 해당 제2 투사 영상을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 동작, (ii) 상기 움직임 보상된 제2 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제2 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성하는 동작, (iii) 상기 해당 제2 움직임 벡터를 이용하여 상기 해당 제1 투사 영상을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성하는 동작, (iv) 상기 움직임 보상된 제1 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제1 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성하는 동작, (v) 상기 제1의 단면 영상 및 상기 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사하는 동작, (vi) 상기 제1의 단면 영상이 상기 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제2 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작, 및 (vii) 상기 제2의 단면 영상이 상기 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제1 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may perform (i) motion compensation on the corresponding second projection image using the corresponding first motion vector for each of the pair of the N / 2 opposite projection images, (Ii) reconstructing a first sectional image using the CT projection images excluding the corresponding second projection image among the motion-compensated second projection image and the N CT projection images, (Iii) motion-compensated first projection image by motion-compensating the first projection image using the second motion vector, (iv) performing motion compensation on the motion-compensated first projection image and the N Reconstructing a second sectional image using the CT projection images excluding the first projection image among the CT projection images, (v) reconstructing the second sectional image using the first sectional image and the second section (Ii) if it is determined that the first sectional image is higher in definition than the second sectional image, the motion compensated second projection image Compensated projection image, and (vii) when the second sectional image is determined to be higher in sharpness than the first sectional image, the motion compensated first projection image is determined as the motion- And to perform an operation of determining a projection image.

일 실시예에서, 상기 영상 처리부는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 투사 영상에서 제1 패치(patch)를 설정하는 동작, (ii) 상기 해당 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작, (iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작, (iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 해당 제1 움직임 벡터를 결정하는 동작, (v) 상기 해당 제2 투사 영상에서 제3 패치를 설정하는 동작, (vi) 상기 해당 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작, (vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및 (viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 해당 제2 움직임 벡터를 결정하는 동작을 수행하도록 더 구성될 수 있다.In one embodiment, the image processing unit may include: (i) setting a first patch in the corresponding first projection image for each of the N / 2 pairs of opposite projection images; (ii) (Iii) setting a first search area surrounding the area corresponding to the first patch in the second projection image, (iii) moving the second patch corresponding to the first patch in the first search area, (Iv) determining a position of the first patch based on the position of the first patch and the position of the second patch, and determining the position of the second patch with the highest degree of similarity between the first patch and the second patch, (V) setting a third patch in the second projection image, (vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image (Vii) corresponding to the third patch (Viii) an operation of moving the fourth patch in the second search area to determine the position of the third patch, which is the highest in the degree of similarity between the third patch and the fourth patch, and And determining the corresponding second motion vector based on the position of the fourth patch.

일 측면에서, 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법이 제공된다. 본 방법은, N개의 CT 투사 영상을 획득하는 단계 - N은 자연수이며 상기 N개의 CT 투사 영상은 N/2개의 반대편 투사 영상들의 쌍으로 구성됨 -, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계, 및 상기 N개의 CT 투사 영상 중 상기 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 상기 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하는 단계를 포함할 수 있다.In one aspect, a method of reconstructing CT data based on motion compensation is provided. The method comprises the steps of: obtaining N CT projection images, wherein N is a natural number and the N CT projection images are composed of N / 2 pairs of opposite projection images; Compensated projection image by performing motion compensation on any one of the N projected images, and generating N / 2 CT projected images in which the motion compensation is not performed among the N CT projected images, And reconstructing the CT data using N / 2 projected images.

일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함하고, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계를 포함할 수 있다.In one embodiment, each of the N / 2 pairs of opposing projection images includes a first projection image and a second projection image, and each of the N / 2 pairs of opposite projection images includes a first projection image and a second projection image, Wherein the step of generating a motion-compensated projection image by performing motion compensation on each of the N / 2 pairs of opposing projection images comprises the steps of: And determining a second motion vector for the first projection image based on the first motion vector and the second projection image.

일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링을 수행하고, 상기 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the step of generating a motion-compensated projection image by performing motion compensation on any one of the N / 2 pairs of opposing projection images comprises: Performing a flattening filtering on the determined N / 2 second motion vectors, and performing a flattening filtering on the determined N / 2 second motion vectors.

일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 움직임 벡터를 이용하여 상기 해당 제2 투사 영상을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 동작, (ii) 상기 움직임 보상된 제2 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제2 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성하는 동작, (iii) 상기 해당 제2 움직임 벡터를 이용하여 상기 해당 제1 투사 영상을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성하는 동작, (iv) 상기 움직임 보상된 제1 투사 영상과 상기 N개의 CT 투사 영상 중 상기 해당 제1 투사 영상을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성하는 동작, (v) 상기 제1의 단면 영상 및 상기 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사하는 동작, (vi) 상기 제1의 단면 영상이 상기 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제2 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작, 및 (vii) 상기 제2의 단면 영상이 상기 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 상기 움직임 보상된 제1 투사 영상을 상기 움직임 보상된 투사 영상으로 결정하는 동작을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the step of generating a motion-compensated projection image by performing motion compensation on any one of the N / 2 pairs of opposing projection images comprises: (I) motion-compensated second projection image by motion-compensating the corresponding second projection image using the corresponding first motion vector, (ii) generating an motion-compensated second projection image by using the motion-compensated second projection image And reconstructing a first sectional image using the CT projection images excluding the corresponding second projection image among the N CT projection images, (iii) reconstructing the first sectional image using the corresponding second motion vector, Compensated first projection image by performing motion compensation on the first projection image and the N first projection image, and (iv) Reconstructing a second sectional image using CT projection images other than the first CT image and the second sectional image, (v) examining whether the image of the first sectional image or the second sectional image is higher in sharpness (vi) determining the motion-compensated second projection image as the motion-compensated projection image when it is determined that the first sectional image is higher in sharpness than the second sectional image, and (vii) And determining the motion-compensated first projection image as the motion-compensated projected image when it is determined that the second sectional image is higher in sharpness than the first sectional image have.

일 실시예에서, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 상기 해당 제1 투사 영상을 기준으로 하였을 때의 상기 해당 제2 투사 영상에 대한 제1 움직임 벡터 및 상기 해당 제2 투사 영상을 기준으로 하였을 때의 상기 해당 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계는, 상기 N/2개의 반대편 투사 영상들의 쌍의 각각에 대하여 (i) 상기 해당 제1 투사 영상에서 제1 패치를 설정하는 동작, (ii) 상기 해당 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작, (iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작, (iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 해당 제1 움직임 벡터를 결정하는 동작, (v) 상기 해당 제2 투사 영상에서 제3 패치를 설정하는 동작, (vi) 상기 해당 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작, (vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및 (viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 해당 제2 움직임 벡터를 결정하는 동작을 수행하는 단계를 포함할 수 있다.In one embodiment, for each of the N / 2 pairs of opposing projection images, a first motion vector for the corresponding second projection image and a corresponding first projection image for the corresponding first projection image, Wherein the step of determining the second motion vector for the first projection image based on the first projection image comprises: (i) calculating, for each of the pair of the N / 2 opposite projection images, (Ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image, (iii) setting a second patch corresponding to the first patch, Determining the position of the second patch at which the degree of similarity between the first patch and the second patch becomes the highest while moving the first patch in the first search area, (iv) In position (Vi) setting an area corresponding to the third patch in the first projected image to an area corresponding to the third patch, (Vii) an operation of moving the fourth patch corresponding to the third patch in the second search area while setting the second search area surrounding the third patch to a position where the degree of similarity between the third patch and the fourth patch becomes the highest And (viii) performing an operation of determining the corresponding second motion vector based on the position of the third patch and the position of the fourth patch.

본 발명의 실시예들에 따르면, 별도의 고정 장치와 별도의 감지 수단을 사용하지 않고도 투사 데이터만을 가지고 촬영 대상의 움직임이 있는 경우에도 움직임 보상에 기반하여 CT 데이터를 재구성함으로써 신뢰할 만한 품질의 CT 영상을 제공할 수 있다는 기술적 효과가 있다.According to the embodiments of the present invention, even if there is movement of the imaging subject with only projection data without using a separate fixing device and a separate sensing means, the CT data can be reconstructed based on the motion compensation, Can be provided.

도 1은 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하기 위한 장치의 구성을 도시한 도면이다.
도 2는 X선 소스로부터 X선 빔이 촬영 대상으로 조사되고 이를 투과한 X선 빔이 X선 검출기에 의해 검출됨으로써 투사 데이터가 획득되는 원리를 설명하기 위한 도면이다.
도 3은 CT 촬영이 진행되는 동안 촬영 대상이 움직이지 않은 경우에 있어서의 본 발명의 일 실시예에 따른 반대편 투사 영상들의 쌍을 예시하기 위한 도면.
도 4는 CT 촬영이 진행되는 동안 촬영 대상이 움직인 경우에 있어서의 본 발명의 일 실시예에 따른 반대편 투사 영상들의 쌍을 예시하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법을 설명하기 위한 흐름도를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따라 제1 움직임 벡터를 결정하는 방식을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따라 제2 움직임 벡터를 결정하는 방식을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 제1 움직임 벡터 및 제2 움직임 벡터를 결정하는 절차를 설명하기 위한 흐름도를 도시한 도면이다.
도 9a는 N/2개의 제1 움직임 벡터의 X축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타낸 도면이다.
도 9b는 N/2개의 제1 움직임 벡터의 Y축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따라 반대편 투사 영상들의 쌍 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하는 절차를 설명하기 위한 흐름도를 도시한 도면이다.
도 11 내지 도 13은 종래 기술에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상과 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상을 나란히 도시한 도면들이다.
1 is a block diagram illustrating an apparatus for reconstructing CT data based on motion compensation according to an embodiment of the present invention.
2 is a view for explaining the principle that projection data is acquired by irradiating an X-ray beam from an X-ray source to an object to be imaged and detecting an X-ray beam transmitted through the object, by an X-ray detector.
3 is a diagram illustrating a pair of opposing projection images according to an exemplary embodiment of the present invention in a case where an object to be imaged does not move during the progress of a CT scan.
4 is a diagram illustrating a pair of opposing projection images according to an exemplary embodiment of the present invention when the object to be imaged moves while the CT image is being taken.
FIG. 5 is a flowchart illustrating a method of reconstructing CT data based on motion compensation according to an embodiment of the present invention. Referring to FIG.
6 is a diagram for explaining a method of determining a first motion vector according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining a method of determining a second motion vector according to an embodiment of the present invention.
FIG. 8 is a flowchart illustrating a procedure for determining a first motion vector and a second motion vector according to an embodiment of the present invention. Referring to FIG.
FIG. 9A is a diagram illustrating X-axis components of N / 2 first motion vectors and a simulation result obtained by performing a flattening filtering on the X-axis components.
FIG. 9B is a diagram illustrating Y-axis components of N / 2 first motion vectors and a simulation result obtained by performing a flattening filtering on the Y-axis components.
FIG. 10 is a flowchart illustrating a procedure for selecting one of the pairs of opposite projection images to perform motion compensation according to an exemplary embodiment of the present invention. Referring to FIG.
FIGS. 11 to 13 are views showing a cross-sectional image reconstructed and reconstructed according to a conventional technique and a cross-sectional image reconstructed and rendered by CT data according to an embodiment of the present invention.

본 발명의 이점들과 특징들 그리고 이들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 실시예들은 단지 본 발명의 개시가 완전하도록 하며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of attaining them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. To fully disclose the scope of the invention to a person skilled in the art, and the invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들어, 단수로 표현된 구성 요소는 문맥 상 명백하게 단수만을 의미하지 않는다면 복수의 구성 요소를 포함하는 개념으로 이해되어야 한다. 또한, 본 발명의 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성이 배제되는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the present invention. For example, an element expressed in singular < Desc / Clms Page number 5 > terms should be understood to include a plurality of elements unless the context clearly dictates a singular value. In addition, in the specification of the present invention, it is to be understood that terms such as "include" or "have" are intended to specify the presence of stated features, integers, steps, operations, components, The use of the term does not exclude the presence or addition of one or more other features, numbers, steps, operations, elements, parts or combinations thereof.

본 명세서에 기재된 실시예에 있어서 '모듈(module)' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어(hardware) 또는 소프트웨어(software)로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(processor)로 구현될 수 있다.Means a functional part that performs at least one function or operation and may be implemented in hardware or software or may be implemented in hardware and software. May be implemented as a combination. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated with at least one module except for 'module' or 'module' which needs to be implemented by specific hardware, and may be implemented by at least one processor .

덧붙여, 다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 발명의 명세서에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, all terms used herein, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the related art and may be interpreted in an ideal or overly formal sense unless explicitly defined in the specification of the present invention It does not.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세히 설명하기로 한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions will not be described in detail if they obscure the subject matter of the present invention.

도 1은 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하기 위한 장치의 구성을 도시한 도면이다.1 is a block diagram illustrating an apparatus for reconstructing CT data based on motion compensation according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 CT 데이터 재구성 장치(100)는 입력 인터페이스(110), 영상 처리부(120), 저장부(130) 및 디스플레이부(140)를 포함할 수 있다. 입력 인터페이스(110)는 콘 빔(cone beam) CT와 같은 CT 촬영 장치(도시되지 않음)에 의해 획득한, 프레임 단위의 CT 투사 영상들을 나타내는 투사 데이터(projection data)를 저장부(130)로 입력하기 위해 사용될 수 있다. 투사 데이터는, 촬영 대상을 사이에 두고 서로 대향하도록 배치된 X선 소스와 X선 검출기를 탑재한 겐트리를 포함하고 X선 소스와 X선 검출기 사이의 한 축인 회전축을 따라 겐트리를 회전시키도록 작동되는 CT 촬영 장치를 이용하여 X선 촬영을 수행함으로써 촬영 대상에 대해 획득된 여러 방향의 투사 데이터일 수 있다. 이 때, 회전축은 촬영 대상의 길이 방향을 따라 고정된 상태일 수 있다.1, the CT data reconstruction apparatus 100 according to an embodiment of the present invention includes an input interface 110, an image processing unit 120, a storage unit 130, and a display unit 140 . The input interface 110 inputs projection data representing CT-projected images on a frame basis, acquired by a CT photographing apparatus (not shown) such as a cone beam CT, to the storage unit 130 Lt; / RTI > The projection data includes a gantry equipped with an X-ray source and an X-ray source arranged so as to face each other with the object to be imaged therebetween, and to rotate the gantry along an axis of rotation which is an axis between the X- It may be projection data of various directions obtained for the object to be imaged by performing X-ray imaging using the CT imaging apparatus to be operated. In this case, the rotation axis may be fixed along the longitudinal direction of the object to be imaged.

도 2에 도시된 바와 같이 X선 소스(222)를 탑재한 CT 촬영 장치의 CT 겐트리(도시되지 않음)가 촬영 대상(S)을 관통하는 고정된 회전축(232)을 중심으로 궤적(237)을 따라 회전하면서 X선 소스(222)로부터 X선 빔이 촬영 대상(S)으로 조사되고 이를 투과한 X선 빔이 X선 검출기(210)에 의해 검출되는데, 여기서 CT 겐트리와 함께 회전하는 X선 소스(222)로부터의 X선 빔이 X선 검출기(210)에 의해 프레임 단위로 검출된 복수의 데이터를 망라하여 투사 데이터라 칭한다. X선 검출기(210)에 의해 검출된 프레임 단위의 복수의 투사 데이터는 복수의 CT 투사 영상에 관한 정보를 포함할 수 있다. 입력 인터페이스(110)는 본 발명의 다양한 실시예들에 따른 영상 분석/처리를 수행하기 위하여 사용자 명령을 입력하기 위한 하드웨어 및 소프트웨어 모듈로 구성될 수 있다. 입력 인터페이스(110)는 필요한 다양한 명령을 영상 처리부(120)로 입력하거나, 디스플레이부(140)에 표시된 영상의 일부 또는 전부를 지시하여 이에 따른 다양한 영상 처리를 수행하기 위해 유리하게 사용될 수 있다. 일 실시예에서, 입력 인터페이스(110)는 컴퓨터의 키보드(keyboard), 키패드(keypad), 터치패드(touchpad), 마우스(mouse) 등을 포함할 수 있으나, 입력 인터페이스의 종류가 이에 제한되는 것은 아니다. 예컨대, 입력 인터페이스(110)는 전술한 입력 장치들을 이용하여 제어 가능한 그래픽 사용자 인터페이스(Graphic User Interface)를 포함할 수도 있다. 디스플레이부(140)는 본 발명의 다양한 실시예에 따라 재구성된 3차원 CT 영상 및/또는 그 단면 영상들을 디스플레이하기 위한 것으로, LCD 디스플레이, LED 디스플레이, AMOLED 디스플레이, CRT 디스플레이 등의 다양한 디스플레이 장치를 포함할 수 있다.A CT gantry (not shown) of the CT photographing apparatus having the X-ray source 222 mounted thereon is moved along a locus 237 about a fixed rotational axis 232 passing through the object S as shown in Fig. The X-ray beam is irradiated from the X-ray source 222 to the imaging object S and the X-ray beam transmitted therethrough is detected by the X-ray detector 210, where X The X-ray beam from the ray source 222 covers a plurality of data detected by the X-ray detector 210 on a frame-by-frame basis, and is referred to as projection data. The plurality of projection data on a frame basis detected by the X-ray detector 210 may include information on a plurality of CT projection images. The input interface 110 may comprise hardware and software modules for inputting user commands to perform image analysis / processing in accordance with various embodiments of the present invention. The input interface 110 may be advantageously used to input various necessary commands to the image processing unit 120 or to indicate some or all of the images displayed on the display unit 140 and to perform various image processing accordingly. The input interface 110 may include a keyboard, a keypad, a touchpad, a mouse, etc. of the computer, but the type of the input interface is not limited thereto . For example, the input interface 110 may include a graphical user interface that can be controlled using the above-described input devices. The display unit 140 includes various display devices such as an LCD display, an LED display, an AMOLED display, and a CRT display for displaying a reconstructed three-dimensional CT image and / or its sectional images according to various embodiments of the present invention can do.

저장부(130)는, CT 투사 영상들을 나타내는 투사 데이터를 저장하기 위해 사용될 수 있다. 영상 처리부(120)는 저장부(130)에 저장된 CT 투사 영상들을 복수의 반대편 투사 영상들의 쌍(pairs of opposite projection images, 330, 340)으로 구성할 수 있다. 반대편 투사 영상들의 쌍(330, 340)은, 도 3에 도시된 바와 같이 그들이 획득된 시점들에서의 X선 검출기(210)의 위치들이 서로 180°만큼 차이가 나게 되는 두 개의 영상일 수 있다. 도 3에서는 설명의 편의상 X선 검출기(210)의 위치에 X선 검출기(210)에 의해 검출되는 투사 데이터에 해당하는 CT 투사 영상의 프레임을 표시하였다. 또한, 이하의 설명에서는 도시된 투사 영상 프레임(들)을 편의상 '투사 영상(들)'이라 지칭하기로 한다. 예컨대, X선 검출기(210)가 0°위치에 있을 때 획득한 투사 영상과 X선 검출기(210)가 180°위치에 있을 때 획득한 투사 영상은 반대편 투사 영상들의 쌍(330, 340)을 구성할 수 있다. 다른 예로서, X선 검출기(210)가 30°위치에 있을 때 획득한 투사 영상과 X선 검출기가 210°위치에 있을 때 획득한 투사 영상도 반대편 투사 영상들의 쌍(330, 340)을 구성할 수 있다. CT 투사 영상들의 총 개수가 N이라면, 반대편 투사 영상들의 쌍(330)은 N/2개 일 수 있다. 저장부(130)는 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함에 따른 중간 결과의 영상 데이터(예컨대, 움직임 보상된 영상들에 대한 데이터), 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함으로써 얻어진 결과 영상 데이터(예컨대, 재구성된 CT 데이터 및/또는 그 단면 영상 데이터), 본 발명의 다양한 실시예들에 따른 영상 처리를 수행하는데 필요한 변수값들(예컨대, 움직임 벡터들)을 저장하기 위해 사용될 수 있다. 저장부(130)는 영상 처리부(120)의 구현에 필요한 소프트웨어/펌웨어 등을 더 저장할 수 있다. 저장부(130)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드(MultiMedia Card: MMC), 카드 타입의 메모리(예를 들어, SD(Secure Digital) 카드 또는 XD(eXtream Digital) 카드 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크 및 광 디스크 중 어느 하나의 저장 매체로 구현될 수 있으나, 당업자라면 저장부(130)의 구현 형태가 이에 한정되는 것이 아님을 알 수 있을 것이다.The storage unit 130 may be used to store projection data representing CT projection images. The image processing unit 120 may configure the CT projection images stored in the storage unit 130 as a plurality of pairs of opposite projection images 330 and 340. The pair of opposite projection images 330 and 340 may be two images, as shown in FIG. 3, where the positions of the X-ray detector 210 at the times they are acquired differ by 180 ° from each other. In FIG. 3, the CT projection image frame corresponding to the projection data detected by the X-ray detector 210 is displayed at the position of the X-ray detector 210 for convenience of explanation. In the following description, the projected image frame (s) will be referred to as 'projected image (s)' for convenience's sake. For example, the projection image obtained when the X-ray detector 210 is at the 0 ° position and the projection image obtained when the X-ray detector 210 is at the 180 ° position constitute the pair of opposite projection images 330 and 340 can do. As another example, the projection image obtained when the X-ray detector 210 is at the 30 [deg.] Position and the projection image acquired when the X-ray detector is at the 210 [deg.] Position constitute the pair of opposite projection images 330 and 340 . If the total number of CT projection images is N, then the pair of opposite projection images 330 may be N / 2. The storage unit 130 stores intermediate resultant image data (e.g., data for motion compensated images) as a result of performing image processing according to various embodiments of the present invention, image processing according to various embodiments of the present invention (E.g., reconstructed CT data and / or its cross-section image data) obtained by performing the image processing (e.g., motion vector analysis) according to various embodiments of the present invention Lt; / RTI > The storage unit 130 may further store software / firmware and the like necessary for implementing the image processing unit 120. The storage unit 130 may be a flash memory type, a hard disk type, a MultiMedia Card (MMC), a card type memory (for example, SD (Secure Digital) card or XD (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) A magnetic disk, a magnetic disk, and an optical disk. However, those skilled in the art will appreciate that the embodiment of the storage unit 130 is not limited thereto.

영상 처리부(120)는 CT 투사 영상들에 대해 전처리 필터링 등 선정된 영상 처리를 수행할 수 있다. 이하의 설명에서는, CT 투사 영상들 또는 영상 처리가 수행된 CT 투사 영상들을 모두 총괄하여 'CT 투사 영상들' 또는 '투사 영상들'이라고 지칭하기로 한다.The image processing unit 120 may perform predetermined image processing such as pre-processing filtering on the CT projection images. In the following description, CT projection images or CT projection images subjected to image processing are collectively referred to as 'CT projection images' or 'projection images'.

CT 투사 영상들의 총 개수가 N이라고 가정하는 경우, 영상 처리부(120)는 N/2개의 반대편 투사 영상들의 쌍(330, 340)의 각각의 어느 하나의 투사 영상에 대해 움직임 보상(motion compensation)을 수행하여 움직임 보상된 투사 영상을 생성하도록 구성될 수 있다. CT 촬영 장치에 의해 촬영이 진행되는 동안 촬영 대상(S)인 환자가 고정된 상태로 움직이지 않았다면, 도 3에 도시된 바와 같이 한 위치에서 획득된 투사 영상(330)과 그 반대편의, 즉 그와 180°회전된 위치에서 획득된 투사 영상(340) 간의 상관도는 최대일 수 있다. 즉, 이 경우의 반대편 투사 영상들의 쌍(330, 340)은 서로간에 상관도(correlation)가 최대인 영상들일 수 있다. 그러나, 도 4에 도시된 바와 같이 CT 촬영 장치에 의해 촬영이 진행되는 동안 촬영 대상(S)이 움직였다면, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상(430)은 그 반대편의, 즉 그와 180°회전된 위치에서 획득된 투사 영상(440)과의 관계에서 상관도가 낮아지게 된다.If it is assumed that the total number of CT projection images is N, the image processing unit 120 performs motion compensation on any one of the N / 2 pairs of projected images 330 and 340 And generate a motion-compensated projection image. If the patient to be photographed S does not move in a fixed state during the photographing by the CT photographing apparatus, the projection image 330 obtained at one position as shown in FIG. 3 and the opposite side thereof, that is, And the projected image 340 obtained at the position rotated 180 ° may be maximum. That is, the pair of projection images 330 and 340 on the opposite sides in this case may be images having a maximum correlation with each other. However, if the imaging object S moves while the imaging operation is being performed by the CT imaging apparatus as shown in FIG. 4, the projection image 430 obtained at the time when the imaging object S moves moves on the opposite side, That is, the projected image 440 obtained at a position rotated by 180 ° with respect to the projection image 440.

따라서 영상 처리부(120)는 저장부(130)에 저장된 CT 투사 영상들을 복수의 반대편 투사 영상들의 쌍(430, 440)으로 구성하고, 각각의 투사 영상들의 쌍 사이의 상관도를 기초로 촬영 대상의 움직임 여부를 감지 및 판단할 수 있다.Accordingly, the image processing unit 120 may be configured such that the CT projection images stored in the storage unit 130 are composed of a plurality of pairs of projection images 430 and 440 opposite to each other, and based on the correlation between pairs of the projection images, It is possible to detect and determine whether or not it is moving.

이러한 촬영 대상(S)의 움직임이 강체 병진 운동(translating rigid motion)이라고 가정할 경우, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상(430)은 그 반대편의 투사 영상(440)을 기초로 움직임 추정을 함으로써 보상될 수 있다. 마찬가지로, 촬영 대상(S)이 움직인 시점에 획득된 투사 영상이 투사 영상(440)인 경우에도 그 반대편의 투사 영상인 투사 영상(430)을 기초로 투사 영상(440)에 대해 움직임 추정을 함으로써 이를 보상할 수 있다. 이하의 설명에서는, 반대편 투사 영상들의 쌍(430, 440)을 이루는 투사 영상(430) 및 투사 영상(440)을 각각 '제1 투사 영상(430)' 및 '제2 투사 영상(440)'이라고 지칭하기로 한다.Assuming that the motion of the object S is a translating rigid motion, the projected image 430 obtained at the time when the object S moves moves on the opposite side of the projected image 440 Lt; / RTI > Similarly, when the projection image obtained at the time when the imaging target S is moved is the projection image 440, motion estimation is performed on the projection image 440 based on the projection image 430, which is the projection image on the opposite side This can be compensated. In the following description, the projection image 430 and the projection image 440 constituting the pair of opposite projection images 430 and 440 are referred to as a first projection image 430 and a second projection image 440, respectively .

영상 처리부(120)는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 제1 투사 영상(430)을 기준으로 하였을 때의 해당 제2 투사 영상(440)에 대한 제1 움직임 벡터(motion vector) 및 해당 제2 투사 영상(440)을 기준으로 하였을 때의 해당 제1 투사 영상(430)에 대한 제2 움직임 벡터를 결정하도록 더 구성될 수 있다. 일 실시예에서, 영상 처리부(120)는 제1 움직임 벡터 및 제2 움직임 벡터를 패치 정합 알고리즘(patch matching algorithm) 또는 블록 정합 알고리즘(block matching algorithm)을 이용하여 결정할 수 있다. 영상 처리부(120)는, 결정된 N/2개의 제1 움직임 벡터에 대해 평탄화 필터링(smoothing filtering)을 수행하고, 결정된 N/2개의 제2 움직임 벡터에 대해 평탄화 필터링을 수행하도록 더 구성될 수 있다.The image processing unit 120 performs a process for each of the N / 2 pairs of projected images 430 and 440 on the corresponding second projected image 440 based on the first projected image 430, 1 motion vector and a second motion vector for the first projection image 430 based on the second projection image 440. [ In one embodiment, the image processing unit 120 may determine the first motion vector and the second motion vector using a patch matching algorithm or a block matching algorithm. The image processing unit 120 may be further configured to perform smoothing filtering on the determined N / 2 first motion vectors and to perform the flattening filtering on the determined N / 2 second motion vectors.

영상 처리부(120)는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여, 해당 제1 움직임 벡터를 이용하여 해당 제2 투사 영상(440)을 보상함으로써 생성한 움직임 보상된 제2 투사 영상 및 해당 제2 움직임 벡터를 이용하여 해당 제1 투사 영상(430)을 보상함으로써 생성한 움직임 보상된 제1 투사 영상 중 어느 하나를 목적한 움직임 보상된 투사 영상으로 선택할 수 있다. 일 실시예에서, 이러한 선택은, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 해당 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과와 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 해당 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과 간의 선명도에 있어서의 차이에 기반할 수 있다. 움직임 보상된 제2 투사 영상을 이용하여 CT 영상을 재구성해 본 결과가 움직임 보상된 제1 투사 영상을 이용하여 CT 영상을 재구성해 본 결과 보다 양호하다면 해당 제2 투사 영상(440)이 촬영 대상(S)의 움직임이 있었을 시점에서 획득한 영상에 해당하는 것으로 추정되고, 따라서 해당 반대편 투사 영상들의 쌍(430, 440) 중에서 해당 제2 투사 영상(440)을 움직임 보상한 움직임 보상된 제2 투사 영상을 최종 CT 재구성에 이용하는 것이 합리적이기 때문이다.The image processing unit 120 performs motion compensation on each of the pair of N / 2 opposite projection images 430 and 440 by compensating the corresponding second projection image 440 using the first motion vector, Compensated first projection image generated by compensating the first projection image 430 using the second projection image and the corresponding second motion vector may be selected as the desired motion-compensated projection image. In one embodiment, this selection may be made by reconstructing the CT data using the CT projection images other than the corresponding second projection image 440 of the motion-compensated second projection image and the N CT projection images, The first projection image and the N CT projection images may be based on the difference in the sharpness between the results of reconstructing the CT data using the CT projection images other than the first projection image 430. If the result of reconstructing the CT image using the motion-compensated second projection image is better than the result of reconstructing the CT image using the motion-compensated first projection image, the second projection image 440 may be reconstructed S compensated motion compensated second projection image 440 of the pair of opposed projected images 430 and 440 is estimated to correspond to the image acquired at the time of the motion of the second projection image 440. Therefore, Lt; RTI ID = 0.0 > CT < / RTI > reconstruction.

영상 처리부(120)는, 종래와 같이 N개의 CT 투사 영상을 이용하여 CT 영상을 재구성하는 대신에 N개의 CT 투사 영상 중 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성하도록 더 구성될 수 있다. CT 데이터를 재구성함에 있어서 움직임 보상된 투사 영상들을 이용함으로써 재구성된 CT 데이터에 기반해 렌더링된 3차원 영상 또는 그 단면 영상들의 화질을 획기적으로 높일 수 있게 된다. CT 데이터의 재구성은, 다 방향의 X선 투사 데이터를 촬영 대상 내부의 각각의 위치로 투영시켜 해당 위치에서의 상대적 X선 감쇄율을 알아 내는, 일반적으로 잘 알려진 '역 투영'(back projection)이라는 CT 재구성 알고리즘을 이용해 수행될 수 있다. 역 투영 알고리즘은 본 기술 분야에 잘 알려진 기술이므로 본 명세서에서는 그 상세한 설명을 피하고자 한다. 참고로, 본 발명의 실시에 적용될 수 있는 CT 재구성 알고리즘이 전술한 알고리즘에 한정되는 것은 아니다.Instead of reconstructing the CT image using the N CT projected images as in the conventional art, the image processor 120 converts N / 2 CT projected images, in which motion compensation is not performed among N CT projected images, and N / And can be further configured to reconstruct CT data using two projection images. It is possible to dramatically increase the image quality of the 3D image or the sectional images rendered based on the reconstructed CT data by using the motion compensated projection images in reconstructing the CT data. The reconstruction of the CT data is accomplished by using a generally known "back projection" CT, which projects the multi-directional X-ray projection data to each position within the object to be imaged and finds the relative X- Can be performed using a reconstruction algorithm. Since the reverse projection algorithm is well known in the art, a detailed description thereof will be avoided herein. For reference, the CT reconstruction algorithm that can be applied to the practice of the present invention is not limited to the above-described algorithm.

도 5는 본 발명의 일 실시예에 따라 움직임 보상에 기반하여 CT 데이터를 재구성하는 방법을 설명하기 위한 흐름도를 도시한 도면이다.FIG. 5 is a flowchart illustrating a method of reconstructing CT data based on motion compensation according to an embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 CT 데이터 재구성 방법은 N개의 CT 투사 영상을 획득하는 단계(S505)로부터 시작된다. N개의 CT 투사 영상은 X선 검출기(210)에 의해 N번 검출된 투사 데이터를 저장부(130)에 저장함으로써 획득될 수 있다. 전술한 바와 같이, 제1 투사 영상(430) 및 제2 투사 영상(440)으로 구성되는 반대편 투사 영상들의 쌍(430, 440)이 N/2개 모여서 N개의 투사 영상이 구성될 수 있다. 단계(S510)에서는, N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각의 어느 하나의 투사 영상에 대해 움직임 보상을 수행하여 움직임 보상된 투사 영상을 생성한다. 이 단계에서는, 도 6 및 도 7에 도시된 바와 같이 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 제1 투사 영상(430)을 기준으로 하였을 때의 해당 제2 투사 영상(440)에 대한 제1 움직임 벡터(d1) 및 해당 제2 투사 영상(440)을 기준으로 하였을 때의 해당 제1 투사 영상(430)에 대한 제2 움직임 벡터(d2)를 결정할 수 있다.The CT data reconstruction method according to an embodiment of the present invention starts from the step S505 of acquiring N CT projected images. The N CT projected images can be obtained by storing the projection data detected N times by the X-ray detector 210 in the storage unit 130. FIG. As described above, the N projected images 430 and 440 constituted by the first projected image 430 and the second projected image 440 may be composed of N / 2 projected images. In step S510, a motion-compensated projection image is generated by performing motion compensation on any one of the N / 2 pairs of projected images 430 and 440. In this step, as shown in FIG. 6 and FIG. 7, for each pair of the N / 2 opposite projection images 430 and 440, the corresponding first projection image 430, The second motion vector d 2 for the first projection image 430 when the first motion vector d 1 for the image 440 and the second projection image 440 are used as a reference have.

이하, 제1 움직임 벡터(d1) 및 제2 움직임 벡터(d2)를 결정하는 절차를 도 6 내지 도 8을 참조하면서 설명하기로 한다. 이하에서 설명되는 단계들은 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 수행될 수 있다.Hereinafter, a procedure for determining the first motion vector d 1 and the second motion vector d 2 will be described with reference to FIGS. 6 to 8. FIG. The steps described below may be performed for each of the N / 2 pairs of opposite projection images 430, 440.

도 8을 참조하면, 본 절차는 제1 투사 영상(430)에서 제1 패치(610)를 설정하는 단계(S805)로부터 시작된다. 일 실시예에서, 제1 패치(610)는 제1 투사 영상(430)의 중앙 부분에서의 작은 블록으로서 설정될 수 있다. 다른 실시예에서, 제1 패치(610)는 제1 투사 영상(430)의 특징을 이루는 부분에서의 작은 블록으로서 설정될 수 있다. 단계(S810)에서는, 제2 투사 영상(440)에서 제1 패치(610)에 대응하는 영역을 둘러싸는 제1 탐색 영역(630)을 설정한다. 제1 탐색 영역(630)의 크기는 제1 패치(610)의 크기 보다는 충분히 크되 영상 처리부(120)의 연산 부하를 과하게 높이지 않을 정도로 제2 투사 영상(440)의 크기 보다는 작도록 적절히 선택될 수 있다. 단계(S815)에서는, 제1 패치(610)에 대응하는 제2 패치(620)를 제1 탐색 영역(630) 내에서 이동시키면서 제1 패치(610)와 제2 패치(620) 간의 유사도가 가장 높게 되는 제2 패치(620)의 위치를 결정한다. 여기서, 유사도를 나타내는 척도로서 상관도(correlation) 및 MSE(mean square error) 중 어느 하나를 채택할 수 있다. 단계(S820)에서는, 제1 패치(610)의 위치와 제2 패치(620)의 위치에 근거하여 제1 움직임 벡터(d1)를 결정한다. 제2 투사 영상(440)이 (x, y)로 좌표 값을 나타내는 XY 평면상에 놓여 있고, 예컨대 제1 패치(610)의 기준 좌표 값이 (300, 400)이고 제2 패치(620)의 기준 좌표 값이 (302, 405)라면 제1 움직임 벡터(d1)는 (2, 5)일 수 있다.Referring to FIG. 8, this procedure starts from step S805 of setting the first patch 610 in the first projection image 430. [ In one embodiment, the first patch 610 may be set as a small block in the central portion of the first projection image 430. [ In another embodiment, the first patch 610 may be set as a small block in a portion that characterizes the first projection image 430. [ In step S810, a first search area 630 surrounding the area corresponding to the first patch 610 in the second projection image 440 is set. The size of the first search area 630 is appropriately selected to be smaller than the size of the second projection image 440 to a degree that is sufficiently larger than the size of the first patch 610 but does not excessively increase the calculation load of the image processing unit 120 . In step S815, the second patch 620 corresponding to the first patch 610 is moved in the first search area 630 while the similarity between the first patch 610 and the second patch 620 is the most similar And determines the position of the second patch 620 which becomes higher. Here, either a correlation or a mean square error (MSE) can be adopted as a measure indicating the degree of similarity. In step S820, the first motion vector d 1 is determined based on the position of the first patch 610 and the position of the second patch 620. When the second projection image 440 is located on the XY plane indicating the coordinate value by (x, y) and the reference coordinate value of the first patch 610 is (300, 400) If the reference coordinate value is (302, 405), the first motion vector d 1 may be (2, 5).

단계(S825)에서는, 제2 투사 영상(440)에서 제3 패치(710)를 설정한다. 일 실시예에서, 제3 패치(710)는 제2 투사 영상(440)의 중앙 부분에서의 작은 블록으로서 설정될 수 있다. 다른 실시예에서, 제3 패치(710)는 제2 투사 영상(440)의 특징을 이루는 부분에서의 작은 블록으로서 설정될 수 있다. 단계(S830)에서는, 제1 투사 영상(430)에서 제3 패치(710)에 대응하는 영역을 둘러싸는 제2 탐색 영역(730)을 설정한다. 제2 탐색 영역(730)의 크기는 제3 패치(710)의 크기 보다는 충분히 크되 영상 처리부(120)의 연산 부하를 과하게 높이지 않을 정도로 제1 투사 영상(430)의 크기 보다는 작도록 적절히 선택될 수 있다. 단계(S835)에서는, 제3 패치(710)에 대응하는 제4 패치(720)를 제2 탐색 영역(730) 내에서 이동시키면서 제3 패치(710)와 제4 패치(720) 간의 유사도가 가장 높게 되는 제4 패치(720)의 위치를 결정한다. 단계(S840)에서는, 제3 패치(710)의 위치와 제4 패치(720)의 위치에 근거하여 제2 움직임 벡터(d2)를 결정한다. 예컨대 제3 패치(710)의 기준 좌표 값이 (302, 405)이고 제4 패치(720)의 기준 좌표 값이 (300, 400)이라면 제2 움직임 벡터(d2)는 (- 2, - 5)일 수 있다.In step S825, the third patch 710 is set in the second projection image 440. [ In one embodiment, the third patch 710 may be set as a small block in the central portion of the second projection image 440. [ In another embodiment, the third patch 710 may be set as a small block in the portion that characterizes the second projection image 440. [ In step S830, a second search area 730 surrounding the area corresponding to the third patch 710 in the first projection image 430 is set. The size of the second search area 730 is appropriately selected to be smaller than the size of the first projected image 430 to a degree that is sufficiently larger than the size of the third patch 710 but does not excessively increase the calculation load of the image processing unit 120 . In step S835, the fourth patch 720 corresponding to the third patch 710 is moved in the second search area 730 while the similarity between the third patch 710 and the fourth patch 720 is the most similar And determines the position of the fourth patch 720 which becomes higher. Step (S840) In the third to determine the second motion vector (d 2) on the basis of the position of the patch 710 and the fourth position patches 720 of. For example, if the reference coordinate value of the third patch 710 is (302, 405) and the reference coordinate value of the fourth patch 720 is (300, 400), the second motion vector d 2 is ).

다시 도 5를 참조하면, 단계(S510)에서는 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 결정된 제1 움직임 벡터(d1) 및 제2 움직임 벡터(d2)에 대해 평탄화 필터링을 수행한다. 촬영 대상(S)이 빠르게 움직이지 않는다고 가정한다면 움직임 벡터의 값이 급격히 변화할 가능성이 극히 낮으므로, 급격한 변동이 있는 움직임 벡터를 해당 투사 영상과 이웃한 투사 영상들에 대한 움직임 벡터들에 의해 평탄화시키기 위함이다. 일 실시예에서, N/2개의 제1 움직임 벡터와 N/2개의 제2 움직임 벡터에 대해 별도로 평탄화 필터링을 수행할 수 있다. 일 실시예에서, 평탄화 필터링은 각 움직임 벡터의 성분 별로 별도로 수행될 수 있다. 도 9a에 N/2개의 제1 움직임 벡터(d1)의 X축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타내었다. 도 9b에는 N/2개의 제1 움직임 벡터(d1)의 Y축 성분들과 이들을 평탄화 필터링한 모의실험 결과를 나타내었다. 도 9a 및 도 9b를 참조하면, 평탄화 필터링에 의해 잘못 추정된 움직임 벡터들의 성분들이 평탄화되는 것을 확인할 수 있다.Referring again to FIG. 5, in step S510, for a first motion vector d 1 and a second motion vector d 2 determined for each of the N / 2 pairs of opposite projection images 430 and 440, Performs flattening filtering. Since it is extremely unlikely that the value of the motion vector will change drastically if it is assumed that the object S does not move rapidly, the motion vector having a sudden change can be flattened by the motion vectors of the projection image and the neighboring projection images . In one embodiment, flatness filtering may be performed separately for N / 2 first motion vectors and N / 2 second motion vectors. In one embodiment, the flattening filtering may be performed separately for each component of the motion vector. FIG. 9A shows the X-axis components of N / 2 first motion vectors d 1 and the results of the simulation in which they are subjected to the flattening filtering. FIG. 9B shows the Y-axis components of N / 2 first motion vectors d 1 and a simulation result obtained by performing the flattening filtering on the Y-axis components. Referring to FIGS. 9A and 9B, it is confirmed that the components of motion vectors erroneously estimated by the flattening filtering are flattened.

단계(S510)에서는 또한 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 해당 쌍(430, 440) 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하여 선택한 투사 영상을 움직임 보상한다. 투사 영상에 대한 움직임 보상은 투사 영상을 해당 움직임 벡터에 따라 수평 및/또는 수직 방향으로 이동시킴으로써 이루어질 수 있다. 일 실시예에서, 어느 하나의 투사 영상의 선택은, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 해당 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과와 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 해당 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 CT 데이터를 재구성한 결과 간의 선명도에 있어서의 차이에 기반할 수 있다. 즉, 움직임 보상된 제2 투사 영상을 이용하여 CT 데이터를 재구성한 결과가 움직임 보상된 제1 투사 영상을 이용하여 CT 데이터를 재구성한 결과 보다 그 선명도가 높다면, 움직임 보상된 제2 투사 영상이 최종 CT 데이터 재구성을 위해 선택된다.In step S510, one of the pair (430, 440) of the N / 2 opposing projection images 430 and 440 is selected to perform motion compensation and the selected projection image is moved Compensate. Motion compensation for the projected image may be performed by moving the projected image horizontally and / or vertically according to the corresponding motion vector. In one embodiment, the selection of any one of the projection images is performed by reconstructing the CT data using the CT projection images other than the corresponding second projection image 440 among the motion-compensated second projection image and the N CT projection images And the difference in the sharpness between the results of reconstructing the CT data using the first projection image and the remaining CT projection images excluding the first projection image 430 among the motion compensated first projection image and the N CT projection images, . That is, if the result of reconstructing the CT data using the motion-compensated second projection image is higher than the result of reconstructing the CT data using the motion-compensated first projection image, And is selected for final CT data reconstruction.

이하, 반대편 투사 영상들의 쌍(430, 440) 중 움직임 보상을 수행할 어느 하나의 투사 영상을 선택하는 절차를 도 10을 참조하면서 설명하기로 한다. 이하에서 설명되는 단계들은 N/2개의 반대편 투사 영상들의 쌍(430, 440)의 각각에 대하여 수행될 수 있다.Hereinafter, a procedure for selecting one of the pair of opposite projection images 430 and 440 to perform motion compensation will be described with reference to FIG. The steps described below may be performed for each of the N / 2 pairs of opposite projection images 430, 440.

도 10을 참조하면, 본 절차는 제1 움직임 벡터(d1)를 이용하여 제2 투사 영상(440)을 움직임 보상하여 움직임 보상된 제2 투사 영상을 생성하는 단계(S1010)로부터 시작된다. 단계(S1020)에서는, 움직임 보상된 제2 투사 영상과 N개의 CT 투사 영상 중 제2 투사 영상(440)을 제외한 나머지 CT 투사 영상들을 이용하여 제1의 단면 영상을 재구성한다. 단계(S1030)에서는, 제2 움직임 벡터(d2)를 이용하여 제1 투사 영상(430)을 움직임 보상하여 움직임 보상된 제1 투사 영상을 생성한다. 단계(S1040)에서는, 움직임 보상된 제1 투사 영상과 N개의 CT 투사 영상 중 제1 투사 영상(430)을 제외한 나머지 CT 투사 영상들을 이용하여 제2의 단면 영상을 재구성한다. 단계(S1050)에서는, 제1의 단면 영상 및 제2의 단면 영상 중 어느 영상이 선명도가 더 높은지를 검사한다. 단계(S1060)에서는, 제1의 단면 영상이 제2의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 움직임 보상된 제2 투사 영상을 움직임 보상된 투사 영상으로 결정한다. 반면, 단계(S1070)에서는, 제2의 단면 영상이 제1의 단면 영상 보다 선명도가 더 높은 것으로 판정되는 경우, 움직임 보상된 제1 투사 영상을 움직임 보상된 투사 영상으로 결정한다.Referring to FIG. 10, the procedure begins with a step S1010 of generating a motion-compensated second projection image by motion-compensating a second projection image 440 using a first motion vector d 1 . In step S1020, the first sectional image is reconstructed using the CT projection images excluding the second projection image 440 out of the motion-compensated second projection image and the N CT projection images. In operation S1030, the first projection image 430 is motion-compensated using the second motion vector d 2 to generate a motion-compensated first projection image. In step S1040, the second sectional image is reconstructed using the CT projection images excluding the first projection image 430 among the motion-compensated first projection image and the N CT projection images. In step S1050, it is checked which one of the first sectional image and the second sectional image is higher in sharpness. In step S1060, when it is determined that the first sectional image is higher in sharpness than the second sectional image, the motion-compensated second projection image is determined as a motion-compensated projected image. On the other hand, in step S1070, if it is determined that the second sectional image is higher in sharpness than the first sectional image, the motion-compensated first projection image is determined as a motion-compensated projection image.

다시 도 5를 참조하면, 단계(S515)에서는, N개의 CT 투사 영상 중 움직임 보상이 수행되지 않은 N/2개의 CT 투사 영상과 움직임 보상된 N/2개의 투사 영상을 이용하여 CT 데이터를 재구성한다. 전술한 바와 같이, CT 데이터를 재구성함에 있어서 움직임 보상된 투사 영상들을 이용함으로써 재구성된 CT 데이터에 기반해 렌더링된 3차원 영상 또는 그 단면 영상들의 화질을 획기적으로 높일 수 있게 된다. 일 실시예에서, 역 투영 알고리즘을 이용해 CT 데이터를 재구성할 수 있다.Referring again to FIG. 5, in step S515, CT data is reconstructed using N / 2 CT projection images and N / 2 motion-compensated projection images in which motion compensation is not performed among N CT projection images . As described above, by using the motion-compensated projection images in reconstructing the CT data, it is possible to dramatically increase the image quality of the 3D image or the sectional images rendered based on the reconstructed CT data. In one embodiment, CT data can be reconstructed using a back projection algorithm.

도 11 내지 도 13은 종래 기술에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상과 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상을 나란히 도시한 도면들이다. 도시된 도면들(화살표로 표시된 부분 참조)로부터 본 발명의 일 실시예에 따라 CT 데이터를 재구성하여 렌더링한 단면 영상이 종래 기술에 따른 단면 영상 보다 선명도에 있어 획기적으로 개선된 것을 확인할 수 있다.FIGS. 11 to 13 are views showing a cross-sectional image reconstructed and reconstructed according to a conventional technique and a cross-sectional image reconstructed and rendered by CT data according to an embodiment of the present invention. It can be seen from the drawings (refer to the part indicated by the arrows) that the sectional image reconstructed and rendered by the CT data according to the embodiment of the present invention is remarkably improved in sharpness than the sectional image according to the related art.

본원에 개시된 실시예들에 있어서, 도시된 구성 요소들의 배치는 발명이 구현되는 환경 또는 요구 사항에 따라 달라질 수 있다. 예컨대, 일부 구성 요소가 생략되거나 몇몇 구성 요소들이 통합되어 하나로 실시될 수 있다. 또한 일부 구성 요소들의 배치 순서 및 연결이 변경될 수 있다.In the embodiments disclosed herein, the arrangement of the components shown may vary depending on the environment or requirements in which the invention is implemented. For example, some components may be omitted or some components may be integrated into one. In addition, the arrangement order and connection of some components may be changed.

이상에서는 본 발명의 다양한 실시예들에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예들에 한정되지 아니하며, 상술한 실시예들은 첨부하는 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변형 실시될 수 있음은 물론이고, 이러한 변형 실시예들이 본 발명의 기술적 사상이나 범위와 별개로 이해되어져서는 아니 될 것이다. 따라서, 본 발명의 기술적 범위는 오직 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention. Accordingly, the technical scope of the present invention should be determined only by the appended claims.

100: CT 데이터 재구성 장치
110: 입력 인터페이스
120: 영상 처리부
130: 저장부
140: 디스플레이부
330, 340: 반대편 투사 영상들의 쌍
430, 440: 반대편 투사 영상들의 쌍
210: X선 검출기
222: X선 소스
232: 회전축
237: 궤적
610: 제1 패치
620: 제2 패치
630: 제1 탐색 영역
710: 제3 패치
720: 제4 패치
730: 제2 탐색 영역
S: 촬영 대상
d1: 제1 움직임 벡터
d2: 제2 움직임 벡터
100: CT data reconstruction device
110: input interface
120:
130:
140:
330, 340: a pair of opposite projection images
430, 440: a pair of opposite projection images
210: X-ray detector
222: X-ray source
232:
237: Trajectory
610: First Patch
620: Second Patch
630: first search area
710: Third Patch
720: Fourth Patch
730: Second search area
S: Shooting target
d 1 : first motion vector
d 2 : second motion vector

Claims (11)

움직임 보상에 기반하여 CT(Computed Tomography) 데이터를 재구성하기 위한 장치로서,
N개의 투사 영상(projection images)을 저장하는 저장부, 및
상기 N개의 투사 영상을 N/2개의 반대편 투사 영상의 쌍(pair of opposite projection images)으로 구성하고 - 상기 N/2개의 반대편 투사 영상의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함함 -, 상기 N/2개의 반대편 투사 영상의 쌍의 각각의 상기 제1 투사 영상과 상기 제2 투사 영상 간의 상관도에 따라 상기 제1 투사 영상 및 상기 제2 투사 영상 중 어느 하나를 움직임 보상하여 CT 데이터를 재구성하도록 구성된 영상 처리부를 포함하되,
상기 영상 처리부는,
상기 제1 투사 영상을 움직임 보상해서 움직임 보상된 제1 투사 영상을 생성하고 상기 움직임 보상된 제1 투사 영상을 포함하는 투사 영상들을 이용하여 제1 단면 영상을 생성하며,
상기 제2 투사 영상을 움직임 보상해서 움직임 보상된 제2 투사 영상을 생성하고 상기 움직임 보상된 제2 투사 영상을 포함하는 투사 영상들을 이용하여 제2 단면 영상을 생성하며,
상기 제1 단면 영상 및 상기 제2 단면 영상 중에서 선명도가 더 높은 단면 영상을 생성하는데 이용된 움직임 보상된 투사 영상을 포함하는 투사 영상들을 이용하여 상기 CT 데이터를 재구성하도록 더 구성되는, CT 데이터 재구성 장치.
An apparatus for reconstructing computed tomography (CT) data based on motion compensation,
A storage unit for storing N projection images, and
Wherein the N projected images comprise N / 2 pairs of opposite projection images, each of the N / 2 pairs of opposite projected images comprises a first projected image and a second projected image Compensates for any one of the first projected image and the second projected image according to a degree of correlation between the first projected image and the second projected image of each of the N / 2 pairs of projected images, And an image processing unit configured to reconstruct CT data,
Wherein the image processing unit comprises:
Compensated motion-compensated first projection image to generate a first sectional image using projection images including the motion-compensated first projection image,
Compensated second projection image by motion-compensating the second projection image to generate a second sectional image using projection images including the motion-compensated second projection image,
Further comprising: reconstructing the CT data using projection images including a motion compensated projection image used to generate a cross-sectional image having a higher definition of the first cross-sectional image and the second cross-sectional image, .
제1항에 있어서,
상기 영상 처리부는, 상기 제1 투사 영상을 기준으로 한 상기 제2 투사 영상에 대한 제1 움직임 벡터(motion vector) 및 상기 제2 투사 영상을 기준으로 한 상기 제1 투사 영상에 대한 제2 움직임 벡터를 결정하도록 더 구성되는, CT 데이터 재구성 장치.
The method according to claim 1,
Wherein the image processing unit includes a first motion vector for the second projection image based on the first projection image and a second motion vector for the first projection image based on the second projection image, The CT data reconstruction device further comprising:
제2항에 있어서,
상기 영상 처리부는, 상기 제1 움직임 벡터를 이용하여 상기 제2 투사 영상을 움직임 보상하고, 상기 제2 움직임 벡터를 이용하여 상기 제1 투사 영상을 움직임 보상하도록 더 구성되는, CT 데이터 재구성 장치.
3. The method of claim 2,
Wherein the image processing unit further performs motion compensation on the second projection image using the first motion vector and motion compensation the first projection image using the second motion vector.
제2항에 있어서,
상기 영상 처리부는,
(i) 상기 제1 투사 영상에서 제1 패치(patch)를 설정하는 동작,
(ii) 상기 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 동작,
(iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 동작,
(iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 제1 움직임 벡터를 결정하는 동작,
(v) 상기 제2 투사 영상에서 제3 패치를 설정하는 동작,
(vi) 상기 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 동작,
(vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 동작, 및
(viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 제2 움직임 벡터를 결정하는 동작
을 수행하도록 더 구성되는, CT 데이터 재구성 장치.
3. The method of claim 2,
Wherein the image processing unit comprises:
(i) setting a first patch in the first projection image,
(ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image,
(iii) an operation of moving the second patch corresponding to the first patch in the first search area while determining the position of the second patch at which the degree of similarity between the first patch and the second patch becomes the highest,
(iv) determining the first motion vector based on the position of the first patch and the position of the second patch,
(v) setting the third patch in the second projection image,
(vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image,
(vii) an operation of moving the fourth patch corresponding to the third patch in the second search area while determining the position of the fourth patch in which the degree of similarity between the third patch and the fourth patch is the highest, and
(viii) determining the second motion vector based on the position of the third patch and the position of the fourth patch
Wherein the CT data reconstruction device further comprises:
삭제delete 삭제delete 움직임 보상에 기반하여 CT 데이터를 재구성하기 위해 컴퓨터 프로세서에 의해 수행되는 방법으로서,
N개의 투사 영상을 획득하는 단계 - 상기 N은 자연수임 -, 및
상기 N개의 투사 영상을 N/2개의 반대편 투사 영상의 쌍으로 구성하고 - 상기 N/2개의 반대편 투사 영상의 쌍의 각각은 제1 투사 영상 및 제2 투사 영상을 포함함 -, 상기 N/2개의 반대편 투사 영상의 쌍의 각각의 상기 제1 투사 영상과 상기 제2 투사 영상 간의 상관도에 따라 상기 제1 투사 영상 및 상기 제2 투사 영상 중 어느 하나를 움직임 보상하여 CT 데이터를 재구성하는 단계를 포함하되,
상기 CT 데이터를 재구성하는 단계는,
상기 제1 투사 영상을 움직임 보상해서 움직임 보상된 제1 투사 영상을 생성하고 상기 움직임 보상된 제1 투사 영상을 포함하는 투사 영상들을 이용하여 제1 단면 영상을 생성하는 단계,
상기 제2 투사 영상을 움직임 보상해서 움직임 보상된 제2 투사 영상을 생성하고 상기 움직임 보상된 제2 투사 영상을 포함하는 투사 영상들을 이용하여 제2 단면 영상을 생성하는 단계, 및
상기 제1 단면 영상 및 상기 제2 단면 영상 중에서 선명도가 더 높은 단면 영상을 생성하는데 이용된 움직임 보상된 투사 영상을 포함하는 투사 영상들을 이용하여 상기 CT 데이터를 재구성하는 단계를 포함하는, CT 데이터 재구성 방법.
A method performed by a computer processor to reconstruct CT data based on motion compensation,
Obtaining N projected images, wherein N is a natural number, and
Wherein each of the N / 2 pairs of opposite projected images comprises a first projected image and a second projected image, the N / 2 second projected image comprises a first projected image and a second projected image, Compensating the CT data by performing motion compensation on any one of the first projection image and the second projection image according to the degree of correlation between the first projection image and the second projection image of the pair of the opposite projection images, Including,
Wherein reconstructing the CT data comprises:
Compensating the first projection image to generate a first projection image and generating a first sectional image using projection images including the motion-compensated first projection image,
Compensating the second projection image to generate a motion compensated second projection image and generating a second sectional image using projection images including the motion compensated second projection image,
Reconstructing the CT data using projection images including a motion compensated projection image used to produce a sectional image having a higher sharpness out of the first sectional image and the second sectional image, Way.
제7항에 있어서,
상기 제2 단면 영상을 생성하는 단계는 상기 제1 투사 영상을 기준으로 한 상기 제2 투사 영상에 대한 제1 움직임 벡터(motion vector)를 결정하는 단계를 포함하고, 상기 제1 단면 영상을 생성하는 단계는 상기 제2 투사 영상을 기준으로 한 상기 제1 투사 영상에 대한 제2 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.
8. The method of claim 7,
Wherein the step of generating the second sectional image includes the step of determining a first motion vector for the second projection image with reference to the first projection image, Wherein the step of determining the second motion vector comprises determining a second motion vector for the first projection image with reference to the second projection image.
제8항에 있어서,
상기 제1 단면 영상을 생성하는 단계는 상기 제2 움직임 벡터를 이용하여 상기 제1 투사 영상을 움직임 보상하는 단계를 더 포함하고, 상기 제2 단면 영상을 생성하는 단계는 상기 제1 움직임 벡터를 이용하여 상기 제2 투사 영상을 움직임 보상하는 단계를 더 포함하는, CT 데이터 재구성 방법.
9. The method of claim 8,
The generating of the first sectional image may further include motion compensating the first projection image using the second motion vector, and the step of generating the second sectional image may include using the first motion vector And performing motion compensation on the second projection image.
제8항에 있어서,
상기 제1 움직임 벡터를 결정하는 단계는,
(i) 상기 제1 투사 영상에서 제1 패치(patch)를 설정하는 단계,
(ii) 상기 제2 투사 영상에서 상기 제1 패치에 대응하는 영역을 둘러싸는 제1 탐색 영역을 설정하는 단계,
(iii) 상기 제1 패치에 대응하는 제2 패치를 상기 제1 탐색 영역 내에서 이동시키면서 상기 제1 패치와 상기 제2 패치 간의 유사도가 가장 높게 되는 상기 제2 패치의 위치를 결정하는 단계, 및
(iv) 상기 제1 패치의 위치와 상기 제2 패치의 위치에 근거하여 상기 제1 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.
9. The method of claim 8,
Wherein determining the first motion vector comprises:
(i) setting a first patch in the first projection image,
(ii) setting a first search area surrounding the area corresponding to the first patch in the second projection image,
(iii) moving the second patch corresponding to the first patch in the first search area and determining the position of the second patch with the highest degree of similarity between the first patch and the second patch, and
(iv) determining the first motion vector based on the position of the first patch and the position of the second patch.
제10항에 있어서,
상기 제2 움직임 벡터를 결정하는 단계는,
(v) 상기 제2 투사 영상에서 제3 패치를 설정하는 단계,
(vi) 상기 제1 투사 영상에서 상기 제3 패치에 대응하는 영역을 둘러싸는 제2 탐색 영역을 설정하는 단계,
(vii) 상기 제3 패치에 대응하는 제4 패치를 상기 제2 탐색 영역 내에서 이동시키면서 상기 제3 패치와 상기 제4 패치 간의 유사도가 가장 높게 되는 상기 제4 패치의 위치를 결정하는 단계, 및
(viii) 상기 제3 패치의 위치와 상기 제4 패치의 위치에 근거하여 상기 제2 움직임 벡터를 결정하는 단계를 포함하는, CT 데이터 재구성 방법.
11. The method of claim 10,
Wherein the step of determining the second motion vector comprises:
(v) setting a third patch in the second projection image,
(vi) setting a second search area surrounding the area corresponding to the third patch in the first projection image,
(vii) moving the fourth patch corresponding to the third patch in the second search area, and determining a position of the fourth patch having the highest degree of similarity between the third patch and the fourth patch; and
(viii) determining the second motion vector based on the position of the third patch and the position of the fourth patch.
KR1020160172635A 2016-07-22 2016-12-16 Apparatus and Method for CT Image Reconstruction Based on Motion Compensation KR101964844B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17180020.4A EP3272288B1 (en) 2016-07-22 2017-07-06 Apparatus and method for ct data reconstruction based on motion compensation
US15/654,868 US10373350B2 (en) 2016-07-22 2017-07-20 Apparatus and method for CT data reconstruction based on motion compensation
CN201710606635.XA CN107644447B (en) 2016-07-22 2017-07-24 Apparatus and method for motion compensation based CT data reconstruction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160093759 2016-07-22
KR1020160093759 2016-07-22

Publications (2)

Publication Number Publication Date
KR20180010942A KR20180010942A (en) 2018-01-31
KR101964844B1 true KR101964844B1 (en) 2019-04-03

Family

ID=61083201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160172635A KR101964844B1 (en) 2016-07-22 2016-12-16 Apparatus and Method for CT Image Reconstruction Based on Motion Compensation

Country Status (2)

Country Link
KR (1) KR101964844B1 (en)
CN (1) CN107644447B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610610B1 (en) * 2021-05-26 2023-12-06 주식회사 바텍 Spiral type CT Imaging Apparatus and Method capable of for detecting object movement

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330961A (en) 2001-03-09 2002-11-19 Hitachi Medical Corp X-ray ct system
JP2007181674A (en) 2005-12-21 2007-07-19 Medison Co Ltd Method of forming image using block matching and motion compensated interpolation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5671263A (en) * 1996-03-13 1997-09-23 Analogic Corporation Motion artifact suppression filter for use in computed tomography systems
US7672490B2 (en) * 2004-02-13 2010-03-02 Koninklijke Philips Electronics N.V. Motion artifacts compensation
US7515678B2 (en) * 2005-11-23 2009-04-07 General Electric Company Method and system for performing CT image reconstruction with motion artifact correction
US20080267455A1 (en) * 2005-12-20 2008-10-30 Koninklijke Philips Electronics N. V. Method for Movement Compensation of Image Data
US7700921B2 (en) * 2006-11-15 2010-04-20 Digirad Corporation Multi-short-scan technique in SPECT imaging
KR101018051B1 (en) * 2008-10-23 2011-03-02 한국과학기술원 Method for reducing metal artifact from X-ray image
ES2899745T3 (en) * 2009-09-16 2022-03-14 4Dmedical Ltd Particle Imaging Velocimetry Suitable for X-Ray Projection Imaging
CN102258383B (en) * 2010-05-25 2013-03-20 株式会社东芝 X ray computer tomography device and image processing method
DE102011083647A1 (en) * 2011-09-28 2013-03-28 Siemens Aktiengesellschaft Motion compensated computer tomography-image data set creating method, involves reconstructing final image data set using movement-compensating reconstruction method based on reconstruction algorithm and movement field
JP6233980B2 (en) * 2013-02-21 2017-11-22 株式会社日立製作所 X-ray CT apparatus and image reconstruction method
WO2015053787A1 (en) * 2013-10-11 2015-04-16 Analogic Corporation Tomosynthesis imaging
KR101582093B1 (en) * 2014-02-21 2016-01-04 삼성전자주식회사 Computer tomography apparatus and method for reconstrucing a computer tomography image thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330961A (en) 2001-03-09 2002-11-19 Hitachi Medical Corp X-ray ct system
JP2007181674A (en) 2005-12-21 2007-07-19 Medison Co Ltd Method of forming image using block matching and motion compensated interpolation

Also Published As

Publication number Publication date
CN107644447A (en) 2018-01-30
CN107644447B (en) 2021-05-11
KR20180010942A (en) 2018-01-31

Similar Documents

Publication Publication Date Title
KR101651845B1 (en) Reconstruction of image data by means of contour data
JP7387270B2 (en) Medical image processing device, learning method, X-ray diagnostic device, medical image processing method, and program
US9533172B2 (en) Image processing based on positional difference among plural perspective images
EP1530162B1 (en) Radiation image processing apparatus, radiation image processing method, program, and computer-readable medium
US10631810B2 (en) Image processing device, radiation imaging system, image processing method, and image processing program
US10631827B2 (en) Method and apparatus for processing medical image
US10032295B2 (en) Tomography apparatus and method of processing tomography image
JP2008307184A (en) Image processing device and image processing program
US10013778B2 (en) Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
KR101964844B1 (en) Apparatus and Method for CT Image Reconstruction Based on Motion Compensation
US8098920B2 (en) Method of extrapolating a grey-level bidimensional image in a radiography device and a radiography device implementing such a method
US20190259187A1 (en) Apparatus for tomosynthesis image reconstruction
EP3272288B1 (en) Apparatus and method for ct data reconstruction based on motion compensation
US20220183583A1 (en) Subject motion measuring apparatus, subject motion measuring method, non-transitory computer readable medium and imaging system
KR20170078180A (en) Method and system for establishing region-of-interest in tomography
KR101799399B1 (en) Image reconstruction method using bi-section search method in DTS
KR102206089B1 (en) X-ray imaging method using x-ray ct imaging apparatus and x-ray ct imaging apparatus
CN111246800A (en) Method and device for changing image magnification
Nakazeko et al. Estimation of patient’s angle from skull radiographs using deep learning
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
WO2023097100A1 (en) X-ray dissectography
JP2023107528A (en) Information processing method, medical image diagnostic apparatus and information processing system
WO2022174355A1 (en) Adaptive dual-energy x-ray imaging using pre-calibrated weighting factors
CN115965741A (en) Control method and device of perspective imaging device, electronic device and storage medium
CN113963056A (en) CT image reconstruction method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant