KR101725891B1 - 단층 영상 장치 및 그에 따른 단층 영상 복원 방법 - Google Patents

단층 영상 장치 및 그에 따른 단층 영상 복원 방법 Download PDF

Info

Publication number
KR101725891B1
KR101725891B1 KR1020150110658A KR20150110658A KR101725891B1 KR 101725891 B1 KR101725891 B1 KR 101725891B1 KR 1020150110658 A KR1020150110658 A KR 1020150110658A KR 20150110658 A KR20150110658 A KR 20150110658A KR 101725891 B1 KR101725891 B1 KR 101725891B1
Authority
KR
South Korea
Prior art keywords
image
motion
partial
target
point
Prior art date
Application number
KR1020150110658A
Other languages
English (en)
Other versions
KR20170017156A (ko
Inventor
나종범
이경용
이덕운
토시히로 리후
김승언
장석환
Original Assignee
삼성전자주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국과학기술원 filed Critical 삼성전자주식회사
Priority to KR1020150110658A priority Critical patent/KR101725891B1/ko
Priority to PCT/KR2016/008535 priority patent/WO2017023105A1/en
Priority to EP16833341.7A priority patent/EP3331447A4/en
Priority to US15/738,741 priority patent/US10937209B2/en
Publication of KR20170017156A publication Critical patent/KR20170017156A/ko
Application granted granted Critical
Publication of KR101725891B1 publication Critical patent/KR101725891B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4291Arrangements for detecting radiation specially adapted for radiation diagnosis the detector being combined with a grid or grating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/421Filtered back projection [FBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

움직이는 대상체를 단층 촬영하는 경우, 대상체의 움직임을 더욱 정확하게 측정할 수 있는 단층 영상 장치 및 그에 따른 단층 영상 복원 방법을 개시한다. 구체적으로, 움직이는 대상체의 시간에 따른 움직임을 나타내는 정보를 획득하고, 획득된 움직임 정보에 근거하여 움직임 보정을 수행하여, 움직임 아티팩트가 감소된 목표 영상을 복원할 수 있다.

Description

단층 영상 장치 및 그에 따른 단층 영상 복원 방법{TOMOGRAPHY IMAGING APPARATUS AND METHOD FOR RECONSTRUCTING A TOMOGRAPHY IMAGE THEREOF}
본원 발명은 단층 영상 장치 및 그에 따른 단층 영상 복원 방법에 관한 것이다.
구체적으로, 움직이는 대상체를 단층 촬영하여 단층 영상을 복원하는 단층 영상 장치 및 그에 따른 단층 영상 복원 방법에 관한 것이다.
의료 영상 장치는 대상체의 내부 구조를 영상으로 획득하기 위한 장비이다. 의료 영상 처리 장치는 비침습 검사 장치로서, 신체 내의 구조적 세부사항, 내부 조직 및 유체의 흐름 등을 촬영 및 처리하여 사용자에게 보여준다. 의사 등의 사용자는 의료 영상 처리 장치에서 출력되는 의료 영상을 이용하여 환자의 건강 상태 및 질병을 진단할 수 있다.
환자에게 엑스레이를 조사하여 대상체를 촬영하기 위한 장치로는 대표적으로 단층 촬영(Tomography) 장치가 있다. 구체적으로, 단층 영상 장치로는 컴퓨터 단층 촬영(CT: computed tomography)장치를 예로 들 수 있다.
의료 영상 처리 장치 중 컴퓨터 단층 촬영(CT) 장치는 대상체에 대한 단면 영상을 제공할 수 있고, 일반적인 엑스레이 장치에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있어서, 질병의 정밀한 진단을 위하여 널리 이용된다. 이하에서는 단층 영상 장치에 의해서 획득된 의료 영상을 단층 영상이라 한다. 구체적으로, 단층 영상 장치에 의해서 획득된 의료 영상을 CT 영상이라 한다.
단층 영상을 획득하기 위해서, 단층 영상 장치는 대상체에 대한 단층 촬영을 수행하여, 로 데이터(raw data)를 획득한다. 그리고, 획득된 로 데이터를 이용하여 단층 영상을 복원(reconstruction)하게 된다. 여기서, 로 데이터는 엑스레이를 대상체로 조사(projection)하여 획득된 프로젝션 데이터(projection data) 또는 프로젝션 데이터의 집합인 사이노그램(sinogram)이 될 수 있다.
예를 들어, CT 영상을 획득하기 위해서는 CT 촬영으로 획득된 로 데이터를 이용하여 영상 재구성 동작을 수행하여야 한다.
구체적으로, 컴퓨터 단층 영상 장치에 포함되는 엑스레이 소스가 대상체를 중심으로 회전하며 CT 촬영을 수행하고, 그에 대응되는 로 데이터를 획득한다. 하나의 단면 CT 영상을 복원하기 위해서는 엑스레이 소스가 반바퀴 이상 또는 한바퀴 이상 회전하며 로 데이터를 획득하여야 한다. 하나의 단면 CT 영상을 복원하는데 필요한 로 데이터를 획득하는데 소요되는 시간을 한주기 시간이라고 하면, 일반적인 CT 촬영 장치에 있어서 한주기 시간은 0.2초 이상이 된다.
CT 촬영의 대상이 되는 대상체가 빠르게 움직이는 경우, 한주기 시간 동안에도 대상체의 움직임이 발생하게 된다. 이러한 대상체의 움직임으로 인하여, CT 영상을 복원(reconstruction)하는데 있어서 움직임 아티팩트(motion artifact)가 발생하게 된다.
또한, 복수개의 단면 CT 영상을 이용하여 3차원 CT 영상을 재구성할 수 있다. 따라서, 3차원 CT 영상을 재구성하는데 있어서 필요한 로 데이터(raw data)를 획득하는 동안에는 대상체의 움직임이 더욱 많이 발생하게 된다.
움직임 아티팩트가 발생하면, 복원된 CT 영상에서 대상체의 경계가 블러링(blurring)되어 표시되거나, 영상이 불명확하게 복원될 수 있다. 따라서, CT 영상 내의 움직임 아티팩트는 CT 영상의 화질을 저하시킨다. 또한, CT 영상의 화질 저하는 의사 등의 사용자가 영상을 판독하여 질병을 진단하는데 있어서, 판독 및 진단의 정확성을 저하시킨다.
따라서, 움직이는 대상체를 CT 촬영하는 경우, 움직임 아티팩트가 최소화된 CT 영상을 복원하는 것이 중요하다.
본원 발명은 움직이는 대상체를 단층 촬영하는 경우, 대상체의 움직임을 더욱 정확하게 측정할 수 있는 단층 영상 장치 및 그에 따른 단층 영상 복원 방법의 제공을 목적으로 한다.
또한, 본원 발명은 복원된 단층 영상 내에 발생할 수 있는 움직임 아티팩트를 효과적으로 감소시킬 수 있는 단층 영상 장치 및 그에 따른 단층 영상 복원 방법의 제공을 목적으로 한다. 그에 따라서, 모션 아티팩트가 감소되어 복원된 단층 영상의 화질을 증가시킬 수 있는 단층 영상 장치 및 그에 따른 단층 영상 복원 방법의 제공을 목적으로 한다.
개시된 실시예에 따른 단층 영상 장치는 움직이는 대상체를 단층 촬영한 데이터를 획득하는 데이터 획득부; 상기 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 상기 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원하는 영상 처리부; 및 상기 복수개의 데이터 쌍에 대응되는 복수개의 상기 부분 영상 쌍에 근거하여 상기 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 상기 대상체의 움직임을 나타내는 움직임 정보를 획득하며, 상기 움직임 정보에 근거하여 목표 시점에서 상기 대상체를 나타내는 목표 영상이 복원되도록 제어하는 제어부를 포함한다.
또한, 상기 복수개의 마주보는 부분 각도 쌍 각각은 180도 미만을 값을 갖는 제1 각도 구간 및 상기 제1 각도 구간과 마주보는 제2 각도 구간을 포함할 수 있다.
또한, 상기 복수개의 부분 영상 쌍 각각은 상기 제1 각도 구간에서 획득된 데이터를 이용하여 복원된 제1 부분 영상 및 상기 제2 각도 구간에서 획득된 데이터를 이용하여 복원된 제2 부분 영상을 포함할 수 있다.
또한, 상기 제어부는 상기 복수개의 부분 영상 쌍에 근거하여, 상기 전체 구간에서 상기 대상체를 형성하는 표면의 움직임을 나타내는 상기 움직임 정보를 획득할 수 있다.
또한, 상기 제어부는 상기 복수개의 부분 영상 쌍에 포함되는 부분 영상들 각각이 상기 전체 구간에 포함되는 소정 시간 시점에서 소정 형태로 수렴되도록, 상기 시간에 따른 상기 대상체의 움직임을 나타내는 상기 움직임 정보를 획득할 수 있다.
또한, 상기 영상 처리부는 상기 대상체를 3차원 상에서 나타내는 3차원의 상기 부분 영상 쌍을 복원할 수 있다.
또한, 상기 움직임 정보는 3차원 공간과 시간 시점을 포함하는 4차원 공간 상에서 상기 대상체의 움직임을 나타내는 정보가 될 수 있다.
또한, 상기 제어부는 상기 움직임 정보에 근거하여, 상기 목표시점에서의 상기 대상체의 움직임량을 예측하고, 상기 예측된 움직임량에 근거하여 상기 목표 영상이 복원되도록 제어할 수 있다.
또한, 상기 제어부는 상기 움직임 정보에 근거하여, 상기 대상체의 일부를 나타내는 복수개의 뷰(view) 별 영상들을 와핑(warping) 시켜 상기 목표 영상을 복원할 수 있다.
또한, 상기 전체 구간은 360도 이상이 될 수 있다.
개시된 실시예에 따른 단층 영상 복원 방법은 움직이는 대상체를 단층 촬영하여 획득된 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 상기 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원하는 단계; 상기 복수개의 데이터 쌍에 대응되는 복수개의 상기 부분 영상 쌍에 근거하여 상기 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 상기 대상체의 움직임을 나타내는 움직임 정보를 획득하는 단계; 및 상기 움직임 정보에 근거하여 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계를 포함할 수 있다.
개시된 실시예에 따른 단층 영상 장치는 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득하는 데이터 획득부; 상기 제1 부분 영상 및 상기 제2 부분 영상을 이용하여 상기 제1 시점과 상기 제2 시점 동안의 상기 대상체의 움직임 량을 측정하고, 상기 움직임 량에 근거하여 설정된 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 영상 처리부; 및 상기 복수개의 모델 각각에 근거하여 복원된 복수개의 상기 목표 영상의 화질을 측정하고, 상기 측정된 화질에 근거하여 상기 복수개의 모델 중 하나를 선택하며, 상기 선택된 모델에 근거하여 상기 목표 시점에서 상기 대상체를 나타내는 최종 목표 영상이 복원되도록 제어하는 제어부를 포함한다.
또한, 상기 복수개의 모델 중 적어도 하나는 상기 제1 시점 및 상기 제2 시점 동안에 일정하지 않은 속도(non-constant velocity)로 움직이는 상기 대상체의 움직임 형태를 나타내는 모델을 포함할 수 있다.
또한, 상기 복수개의 모델은 상기 제1 시점과 상기 제2 시점 간의 움직임 량은 동일하며 상기 제1 시점과 상기 제2 시점 사이 동안의 상기 대상체의 움직임 형태가 서로 다를 수 있다.
또한, 상기 제1 부분 영상은 180도 미만의 값을 갖는 제1 각도 구간에서 획득된 데이터를 이용하여 복원된 영상으로 상기 제1 시점에서 상기 대상체를 나타내는 부분 영상이며, 상기 제2 부분 영상은 180도 미만의 값을 가지며 상기 제1 각도 구간과 마주보는 각도 구간인 상기 제2 각도 구간에서 획득된 데이터를 이용하여 복원된 영상으로, 상기 제2 시점에서 상기 대상체를 나타내는 부분 영상이 될 수 있다.
또한, 상기 제어부는 상기 복수개의 모델 각각에 근거하여 움직임 보정된 상기 복수개의 목표 영상의 화질을 측정하고, 상기 복수개의 목표 영상 중 상기 측정된 화질이 최고가 되는 제1 목표 영상에 대응되는 모델을 선택하며, 상기 선택된 모델에 근거하여 움직임 보정된 상기 최종 목표 영상이 복원되도록 제어할 수 있다.
또한, 상기 제어부는 영상 번짐(image blur) 발생 정도 및 영상의 해상도 중 적어도 하나의 값을 측정하기 위한 영상 품질 메트릭(image quality metric)을 이용하여 상기 화질을 측정할 수 있다.
개시된 실시예에 따른 단층 영상 복원 방법은 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여, 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득하는 단계; 상기 제1 부분 영상 및 제2 부분 영상을 이용하여 상기 제1 시점과 상기 제2 시점 간의 상기 대상체의 움직임 량을 측정하는 단계; 상기 움직임 량에 근거하여 설정된 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계; 상기 복수개의 모델 각각에 근거하여 복원된 복수개의 상기 목표 영상의 화질을 측정하고, 상기 측정된 화질에 근거하여 상기 복수개의 모델 중 하나를 선택하는 단계; 및 상기 선택된 모델에 근거하여 상기 목표 시점에서 상기 대상체를 나타내는 최종 목표 영상을 복원하는 단계를 포함한다.
개시된 실시예에 따른 단층 영상 장치는 움직이는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득하는 데이터 획득부; 상기 제1 영상 및 상기 제2 영상 각각을 복수개의 영역으로 분할하고, 상기 제1 영상과 상기 제2 영상을 이용하여, 상기 복수개의 영역들 각각에 대응되며 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 부분 움직임 모델을 획득하며, 상기 복수개의 영역 각각에 대응되는 복수개의 상기 부분 움직임 모델에 근거하여 상기 복수개의 영역을 포함하는 전체 영역에서 상기 대상체의 움직임을 나타내는 전체 움직임 모델을 획득하는 제어부; 및 상기 전체 움직임 모델에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 영상 처리부를 포함한다.
또한, 상기 제어부는 상기 복수개의 부분 움직임 모델 중 적어도 두 개를 인터폴레이션(interpolation) 하여, 제1 시점과 상기 제2 시점 동안의 상기 전체 영역에서 포함되는 복수개의 복셀들 각각의 움직임을 나타내는 상기 전체 움직임 모델을 획득할 수 있다.
또한, 상기 전체 움직임 모델은 상기 전체 영역에 포함되는 복수개의 복셀들 각각의 공간 변형 움직임(space-variant motion)을 나타내는 정보를 포함할 수 있다.
또한, 상기 제어부는 상기 전체 움직임 모델에 근거하여 상기 목표 시점에 대응되는 목표 영상을 예측하고, 상기 예측된 목표 영상과 상기 단층 촬영에 의해서 획득된 데이터를 이용하여 복원된 상기 목표 영상을 비교한 결과에 근거하여, 상기 전체 움직임 모델을 수정할 수 있다.
또한, 상기 데이터 획득부는 소정 시간 구간 내에서 상기 대상체의 움직임이 최소화되는 두 개의 시점을 상기 상기 제1 시점 및 상기 제2 시점으로 선택할 수 있다.
또한, 개시된 실시예에 따른 단층 영상 복원 방법은 움직이는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득하는 단계; 상기 제1 영상 및 제2 영상 각각을 복수개의 영역으로 분할하고, 상기 제1 영상과 상기 제2 영상을 이용하여, 상기 복수개의 영역들 각각에 대응되며 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 부분 움직임 모델을 획득하는 단계; 상기 복수개의 영역 각각에 대응되는 복수개의 상기 부분 움직임 모델에 근거하여 상기 복수개의 영역을 포함하는 전체 영역에서 상기 대상체의 움직임을 나타내는 전체 움직임 모델을 획득하는 단계; 및 상기 전체 움직임 모델에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계를 포함한다.
도 1은 CT 시스템(100)의 개략도이다.
도 2는 개시된 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
도 3은 통신부의 구성을 도시하는 도면이다.
도 4는 개시된 실시예에 따른 단층 영상 장치를 나타내는 일 블록도이다.
도 5는 개시된 실시예에 따른 단층 영상 장치를 나타내는 다른 블록도이다.
도 6은 단층 촬영에 적용되는 복원 방식을 설명하기 위한 도면이다.
도 7은 개시된 실시예에 따른 단층 영상 장치의 동작을 설명하기 위한 일 도면이다.
도 8은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 일 도면이다.
도 9a는 개시된 실시예에 따른 단층 영상 장치에서 복원되는 부분 영상 쌍을 설명하기 위한 다른 도면이다.
도 9b는 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다.
도 10은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다.
도 11은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다.
도 12는 대상체의 움직임을 나타내는 정보에 근거하여 예측된 대상체의 움직임을 설명하기 위한 도면이다.
도 13은 대상체의 움직임 측정을 설명하기 위한 일 도면이다.
도 14는 목표 영상을 복원하는 동작을 설명하기 위한 다른 도면이다.
도 15는 목표 영상을 복원하기 위해서 이용되는 와핑 동작을 설명하기 위한 일 도면이다.
도 16은 목표 영상을 복원하기 위해서 이용되는 와핑 동작을 설명하기 위한 다른 도면이다.
도 17은 목표 영상을 복원하는 동작을 설명하기 위한 다른 도면이다.
도 18은 개시된 실시예에 따른 단층 영상 장치에서 이용되는 복수개의 모델을 나타내는 도면이다.
도 19는 개시된 실시예에 따른 단층 영상 장치의 동작을 설명하기 위한 다른 도면이다.
도 20은 대상체의 움직임 측정에 이용되는 제1 영상 및 제2 영상의 획득을 설명하기 위한 도면이다.
도 21은 제1 영상 및 제2 영상을 이용한 움직임 측정을 설명하기 위한 일 도면이다.
도 22는 제1 영상 및 제2 영상을 이용한 움직임 측정을 설명하기 위한 다른 도면이다.
도 23은 제1 영상 및 제2 영상의 시점을 설정하기 위한 일 도면이다.
도 24는 제1 영상 및 제2 영상의 시점을 설정하기 위한 다른 도면이다.
도 25는 전체 움직임 모델의 수정을 설명하기 위한 일 도면이다.
도 26은 전체 움직임 모델의 수정을 설명하기 위한 다른 도면이다.
도 27은 개시된 실시예에 따른 단층 영상 복원 방법을 나타내는 일 도면이다.
도 28은 개시된 다른 실시예에 따른 단층 영상 복원 방법을 나타내는 다른 도면이다.
도 29는 개시된 다른 실시예에 따른 단층 영상 복원 방법을 나타내는 다른 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
본 명세서에서 "영상"는 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.
본 명세서에서 "CT(Computed Tomography) 영상"란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.
본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)일수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.
본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
CT 시스템은 대상체에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 X-ray 촬영 기기에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있다.
CT 시스템은, 예를 들어, 2mm 두께 이하의 영상데이터를 초당 수십, 수백 회 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다. 종래에는 대상체의 가로 단면만으로 표현된다는 문제점이 있었지만, 다음과 같은 여러 가지 영상 재구성 기법의 등장에 의하여 극복되었다. 3차원 재구성 영상기법들로는 다음과 같은 기법들이 있다.
- SSD(Shade surface display): 초기 3차원 영상기법으로 일정 HU값을 가지는 복셀들만 나타내도록 하는 기법.
- MIP(maximum intensity projection)/MinIP(minimum intensity projection): 영상을 구성하는 복셀 중에서 가장 높은 또는 낮은 HU값을 가지는 것들만 나타내는 3D 기법.
- VR(volume rendering): 영상을 구성하는 복셀들을 관심영역별로 색 및 투과도를 조절할 수 있는 기법.
- 가상내시경(Virtual endoscopy): VR 또는 SSD 기법으로 재구성한 3차원 영상에서 내시경적 관찰이 가능한 기법.
- MPR(multi planar reformation): 다른 단면 영상으로 재구성하는 영상 기법. 사용자가 원하는 방향으로의 자유자제의 재구성이 가능하다.
- Editing: VR에서 관심부위를 보다 쉽게 관찰하도록 주변 복셀들을 정리하는 여러 가지 기법.
- VOI(voxel of interest): 선택 영역만을 VR로 표현하는 기법.
본 발명의 실시예에 따른 컴퓨터 단층촬영(CT) 시스템(100)은 첨부된 도 1 및 도 2를 참조하여 설명될 수 있다. 본 발명의 실시예에 따른 CT 시스템(100)은 다양한 형태의 장치들을 포함할 수 있다.
도 1은 CT 시스템(100)의 개략도이다. 도 1을 참조하면, CT 시스템(100)은 갠트리(102), 테이블(105), X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.
갠트리(102)는 X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.
대상체(10)는 테이블(105) 상에 위치될 수 있다.
테이블(105)은 CT 촬영 과정에서 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동할 수 있다. 또한, 테이블(105)은 소정의 방향으로 소정의 각도만큼 기울어질 수 있거나(tilting) 또는 회전(rotating)될 수 있다.
또한, 갠트리(102)도 소정의 방향으로 소정의 각도만큼 기울어질 수 있다.
도 2는 개시된 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
본 발명의 실시예에 따른 CT 시스템(100)은 갠트리(102), 테이블(105), 제어부(118), 저장부(124), 영상 처리부(126), 입력부(128), 디스플레이 부(130), 통신부(132)를 포함할 수 있다.
전술한 바와 같이, 대상체(10)는 테이블(105) 상에 위치할 수 있다. 본 발명의 실시예에 따른 테이블(105)은 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동 가능하고, 제어부(118)에 의하여 움직임이 제어될 수 있다.
본 발명의 실시예에 따른 갠트리(102)는 회전 프레임(104), X-ray 생성부(106), X-ray 검출부(108), 회전 구동부(110), 데이터 획득 회로(116), 데이터 송신부(120)을 포함할 수 있다.
본 발명의 실시예에 따른 갠트리(102)는 소정의 회전축(RA; Rotation Axis)에 기초하여 회전 가능한 고리 형태의 회전 프레임(104)을 포함할 수 있다. 또한, 회전 프레임(104)는 디스크의 형태일 수도 있다.
회전 프레임(104)은 소정의 시야 범위(FOV; Field Of View)를 갖도록 각각 대향하여 배치된 X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다. 또한, 회전 프레임(104)은 산란 방지 그리드(anti-scatter grid, 114)를 포함할 수 있다. 산란 방지 그리드(114)는 X-ray 생성부(106)와 X-ray 검출부(108)의 사이에서 위치할 수 있다.
의료용 영상 시스템에 있어서, 검출기(또는 감광성 필름)에 도달하는 X-선 방사선에는, 유용한 영상을 형성하는 감쇠된 주 방사선 (attenuated primary radiation) 뿐만 아니라 영상의 품질을 떨어뜨리는 산란 방사선(scattered radiation) 등이 포함되어 있다. 주 방사선은 대부분 투과시키고 산란 방사선은 감쇠시키기 위해, 환자와 검출기(또는 감광성 필름)와의 사이에 산란 방지 그리드를 위치시킬 수 있다.
예를 들어, 산란 방지 그리드는, 납 박편의 스트립(strips of lead foil)과, 중공이 없는 폴리머 물질(solid polymer material)이나 중공이 없는 폴리머(solid polymer) 및 섬유 합성 물질(fiber composite material) 등의 공간 충전 물질(interspace material)을 교대로 적층한 형태로 구성될 수 있다. 그러나, 산란 방지 그리드의 형태는 반드시 이에 제한되는 것은 아니다.
회전 프레임(104)은 회전 구동부(110)로부터 구동 신호를 수신하고, X-ray 생성부(106)와 X-ray 검출부(108)를 소정의 회전 속도로 회전시킬 수 있다. 회전 프레임(104)은 슬립 링(미도시)을 통하여 접촉 방식으로 회전 구동부(110)로부터 구동 신호, 파워를 수신할 수 있다. 또한, 회전 프레임(104)은 무선 통신을 통하여 회전 구동부(110)로부터 구동 신호, 파워를 수신할 수 있다.
X-ray 생성부(106)는 파워 분배부(PDU; Power Distribution Unit, 미도시)에서 슬립 링(미도시)을 거쳐 고전압 생성부(미도시)를 통하여 전압, 전류를 인가 받아 X선을 생성하여 방출할 수 있다. 고전압 생성부가 소정의 전압(이하에서 튜브 전압으로 지칭함)을 인가할 때, X-ray 생성부(106)는 이러한 소정의 튜브 전압에 상응하게 복수의 에너지 스펙트럼을 갖는 X-ray들을 생성할 수 있다.
X-ray 생성부(106)에 의하여 생성되는 X-ray는, 콜리메이터(collimator, 112)에 의하여 소정의 형태로 방출될 수 있다.
X-ray 검출부(108)는 X-ray 생성부(106)와 마주하여 위치할 수 있다. X-ray 검출부(108)는 복수의 X-ray 검출 소자들을 포함할 수 있다. 단일 엑스선 검출 소자는 단일 채널을 형성할 수 있지만, 반드시 이에 제한되는 것은 아니다.
X-ray 검출부(108)는 X-ray 생성부(106)로부터 생성되고 대상체(10)를 통하여 전송된 엑스선을 감지하고, 감지된 X선의 강도에 상응하게 전기 신호를 생성할 수 있다.
X-ray 검출부(108)는 방사선을 광으로 전환하여 검출하는 간접방식과 방사선을 직접 전하로 변환하여 검출하는 직접방식 검출기를 포함할 수 있다. 간접방식의 X-ray 검출부는 Scintillator를 사용할 수 있다. 또한, 직접방식의 X-ray 검출부는 photon counting detector를 사용할 수 있다. 데이터 획득 회로(DAS; Data Acquisitino System)(116)는 X-ray 검출부(108)와 연결될 수 있다. X-ray 검출부(108)에 의하여 생성된 전기 신호는 DAS(116)에서 수집될 수 있다. X-ray 검출부(108)에 의하여 생성된 전기 신호는 유선 또는 무선으로 DAS(116)에서 수집될 수 있다. 또한, X-ray 검출부(108)에 의하여 생성된 전기 신호는 증폭기(미도시)를 거쳐 아날로그/디지털 컨버터(미도시)로 제공될 수 있다.
슬라이스 두께(slice thickness)나 슬라이스 개수에 따라 X-ray 검출부(108)로부터 수집된 일부 데이터만이 영상 처리부(126)에 제공될 수 있고, 또는 영상 처리부(126)에서 일부 데이터만을 선택할 수 있다.
이러한 디지털 신호는 데이터 송신부(120)를 통하여 영상 처리부(126)로 제공될 수 있다. 이러한 디지털 신호는 데이터 송신부(120)를 통하여 유선 또는 무선으로 영상 처리부(126)로 송신될 수 있다.
본 발명의 실시예에 따른 제어부(118)는 CT 시스템(100)의 각각의 모듈의 동작을 제어할 수 있다. 예를 들어, 제어부(118)는 테이블(105), 회전 구동부(110), 콜리메이터(112), DAS(116), 저장부(124), 영상 처리부(126), 입력부(128), 디스플레이 부(130), 통신부(132) 등의 동작들을 제어할 수 있다.
영상 처리부(126)는 DAS(116)로부터 획득된 데이터(예컨대, 가공 전인 로 데이터(raw data))를 데이터 송신부(120)을 통하여 수신하여, 전처리(pre-processing)하는 과정을 수행할 수 있다.
전처리는, 예를 들면, 채널들 사이의 감도 불균일 정정 프로세스, 신호 세기의 급격한 감소 또는 금속 같은 X선 흡수재로 인한 신호의 유실 정정 프로세스 등을 포함할 수 있다.
영상 처리부(126)의 출력 데이터는 로 데이터(raw data) 또는 프로젝션(projection) 데이터로 지칭될 수 있다. 이러한 프로젝션 데이터는 데이터 획득시의 촬영 조건(예컨대, 튜브 전압, 촬영 각도 등)등과 함께 저장부(124)에 저장될 수 있다.
프로젝션 데이터는 대상체를 통과한 X선의 세기에 상응하는 데이터 값의 집합일 수 있다. 설명의 편의를 위해, 모든 채널들에 대하여 동일한 촬영 각도로 동시에 획득된 프로젝션 데이터의 집합을 프로젝션 데이터 세트로 지칭한다.
저장부(124)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
또한, 영상 처리부(126)는 획득된 프로젝션 데이터 세트를 이용하여 대상체에 대한 단면 영상을 재구성할 수 있다. 이러한 단면 영상은 3차원 영상일 수 있다. 다시 말해서, 영상 처리부(126)는 획득된 프로젝션 데이터 세트에 기초하여 콘 빔 재구성(cone beam reconstruction) 방법 등을 이용하여 대상체에 대한 3차원 영상을 생성할 수 있다.
입력부(128)를 통하여 X선 단층 촬영 조건, 영상 처리 조건 등에 대한 외부 입력이 수신될 수 있다. 예를 들면, X선 단층 촬영 조건은, 복수의 튜브 전압, 복수의 X선들의 에너지 값 설정, 촬영 프로토콜 선택, 영상재구성 방법 선택, FOV 영역 설정, 슬라이스 개수, 슬라이스 두께(slice thickness), 영상 후처리 파라미터 설정 등을 포함할 수 있다. 또한 영상 처리 조건은 영상의 해상도, 영상에 대한 감쇠 계수 설정, 영상의 조합비율 설정 등을 포함할 수 있다.
입력부(128)는 외부로부터 소정의 입력을 인가 받기 위한 디바이스 등을 포함할 수 있다. 예컨대, 입력부(128)는 마이크로폰, 키보드, 마우스, 조이스틱, 터치 패드, 터치팬, 음성, 제스처 인식장치 등을 포함할 수 있다.
디스플레이 부(130)는 영상 처리부(126)에 의해 재구성된 X선 촬영 영상을 디스플레이할 수 있다.
전술한 엘리먼트들 사이의 데이터, 파워 등의 송수신은 유선, 무선 및 광통신 중 적어도 하나를 이용하여 수행될 수 있다.
통신부(132)는 서버(134) 등을 통하여 외부 디바이스, 외부 의료 장치 등과의 통신을 수행할 수 있다. 이와 관련하여서는 도 3을 참조하여 후술한다.
도 3은 통신부의 구성을 도시하는 도면이다.
통신부(132)는, 유선 또는 무선으로 네트워크(301)와 연결되어 외부 서버(134), 의료 장치(136) 또는 휴대용 장치(138) 와의 통신을 수행할 수 있다. 통신부(132)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다.
또한, 통신부(132)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 휴대용 장치 (138) 등과 데이터 통신을 수행할 수 있다.
통신부(132)는 네트워크(301)를 통해 대상체의 진단과 관련된 데이터를 송수신할 수 있다. 또한 통신부(132)는 MRI 장치, X-ray 장치 등 의료 장치(136)에서 획득된 의료 영상 등을 송수신할 수 있다.
나아가, 통신부(132)는 서버(134)로부터 환자의 진단 이력이나 치료 일정 등을 수신하여 환자의 임상적 진단 등에 활용할 수도 있다. 또한, 통신부(132)는 병원 내의 서버(134)나 의료 장치(136)뿐만 아니라, 사용자나 환자의 휴대용 장치(138) 등과 데이터 통신을 수행할 수도 있다.
또한 장비의 이상유무 및 품질 관리현황 정보를 네트워크를 통해 시스템 관리자나 서비스 담당자에게 송신하고 그에 대한 feedback을 수신할 수 있다.
도 1 내지 도 3을 참조하여 설명한 바와 같이, 영상 처리부(126)는 단층 촬영에 의하여 획득된 데이터, 예를 들어, 프로젝션 데이터(projection data), 또는 사이노그램(sonogram)를 이용하여, 단층 영상(Tomography)을 복원할 수 있다.
도 4는 개시된 실시예에 따른 단층 영상 장치를 나타내는 일 블록도이다.
도 4를 참조하면, 단층 영상 장치(400)는 데이터 획득부(410), 영상 처리부(420) 및 제어부(430)를 포함한다.
단층 영상 장치(400)는 도 1 및 도 2에서 설명한 CT 시스템(100) 내에 포함될 수 있다. 또한, 단층 영상 장치(400)는 도 3에서 설명한 의료 장치(136) 또는 휴대용 장치(138) 내에 포함되어, CT 시스템(100)과 연결되어 동작할 수 도 있다. 구체적으로, 단층 영상 장치(400)는 대상체를 투과한 광선을 이용하여 획득된 데이터를 이용하여 영상을 복원하는 모든 의료 영상 장치가 될 수 있다. 이하에서는, 단층 촬영에 의해서 획득된 데이터를 ‘단층 데이터’라 칭할 수 있다. 예를 들어, 단층 데이터는 단층 촬영에 의해서 획득된 프로젝션 데이터, 사이노그램, 및 프로젝션 데이터 또는 사이노그램을 이용하여 복원된 단층 영상 등을 포함할 수 있다.
즉, 단층 영상 장치(400)는 대상체를 투과한 광선을 이용하여 획득된 프로젝션 데이터(projection data)를 이용하여 단층 영상을 복원하는 모든 의료 영상 장치가 될 수 있다. 구체적으로, 단층 영상 장치(400)는 CT(computed Tomography) 장치, OCT(Optical Coherenc Tomography), 또는 PET(positron emission tomography)-CT 장치 등이 될 수 있다. 따라서, 개시된 실시예에 따른 단층 영상 장치(400)에서 획득되는 단층 영상은 CT 영상, OCT 영상, PET 영상 등이 될 수 있다. 이하에서 참조된 도면에서는 단층 영상으로 CT 영상을 예로 들어 첨부하였다. 또한, 단층 영상 장치(400)가 도 1 또는 도 2에서 설명한 CT 시스템(100)에 포함되는 경우, 도 4에 도시된 데이터 획득부(410), 영상 처리부(420) 및 제어부(430)는 각각 도 2의 갠트리(102), 영상 처리부(126) 및 제어부(118)에 포함될 수 있다. 이하에서는, 단층 영상 장치(400)에 있어서, 도 1 및 도 2에서와 중복되는 설명은 생략한다.
데이터 획득부(410)는 단층 촬영에 의해서 획득된 데이터를 획득한다. 즉, 데이터 획득부(410)는 단층 데이터를 획득할 수 있다. 여기서, 데이터 획득부(410)가 획득하는 데이터는, 로 데이터(raw data) 또는 로 데이터를 이용하여 생성된 단층 영상이 될 수 있다. 또한, 로 데이터(raw data)는 방사선, 예를 들어, 엑스선,을 대상체로 조사하여 획득된 프로젝션 데이터(projection data) 또는 프로젝션 데이터의 집합인 사이노그램(sinogram)이 될 수 있다. 또한, 단층 영상은 프로젝션 데이터 또는 사이노그램을 여과 역투영(filtered backprojection)하여 생성한 영상이 될 수 있다.
구체적으로, 소정 위치에서 X-ray 생성부(106)가 대상체로 엑스레이를 방출할 때, X-ray 생성부(106)가 대상체를 바라보는 시점 또는 방향을 뷰(view)고 한다. 프로젝션 데이터는 하나의 뷰에 대응하여 획득한 로 데이터이며, 사이노그램은 복수개의 뷰에 대응되는 복수개의 프로젝션 데이터를 순차적으로 나열하여 획득한 로 데이터를 뜻한다. 예를 들어, X-ray 생성부(106)가 2도 간격으로 이동한 지점에서 대상체로 엑스레이를 방출하며 단층 촬영을 진행할 때, X-ray 생성부(106)가 대상체로 엑스레이를 방출하는 지점을 뷰(view) 라 한다. 예를 들어, 180도 각도 구간 동안에 X-ray 생성부(106)는 90 개의 뷰 각각에서 엑스레이를 방출하며, 그에 따라서 90개의 뷰 각각에 대응되는 90개의 프로젝션 데이터가 획득된다. 180도 각도 구간에 대응되는 사이노그램은 90개의 프로젝션 데이터를 순차적으로 나열하여 획득될 수 있다.
또한, 단층 영상은 대상체를 전체적으로 나타내는 완전한 영상 또는 대상체의 일부만을 나타내는 불완전한 영상이 될 수 있다.
구체적으로, 데이터 획득부(410)는 단층 촬영에 의해서 획득된 데이터를 외부적으로 수신할 수 있으며, 이 경우, 데이터 획득부(410)는 도 1에 도시된 CT 시스템(100)과 같은 단층 촬영 장치로부터 로 데이터 및 단층 영상 중 적어도 하나를 수신할 수 있다. 또는, 데이터 획득부(410)는 단층 촬영에 의해서 획득된 로 데이터를 자체적으로 획득할 수 있으며, 이 경우, 데이터 획득부(410)는 도 2에서 설명한 갠트리(102)에 동일 대응될 수 있다.
제어부(430)는 단층 영상을 복원하기 위한 동작을 전반적으로 제어한다. 구체적으로, 제어부(430)는 시간 시점에 따른 대상체의 움직임 또는 시간에 따른 대상체의 움직임량 중 적어도 하나를 나타내는 정보를 획득하고, 획득된 정보에 근거하여 대상체의 움직임을 보정(motion correction)을 수행하여 목표 영상이 복원되도록 제어할 수 있다.
단층 영상 장치(400)는 단층 데이터를 이용하여 단층 영상을 복원한다. 구체적으로, 단층 영상 장치(400)는 절반 복원(half reconstruction) 방식, 전체 복원(full reconstruction) 방식, 및 부분 각도 복원(PAR: partial angle reconstruction) 방식 중 적어도 하나를 이용하여 단층 영상을 복원할 수 있다. 단층 영상의 복원 방식은 이하에서 도 6을 참조하여 상세히 설명한다.
개시된 실시예에 따르면, 단층 영상 장치(400)는 이하와 같이 동작한다.
데이터 획득부(410)는 움직이는 대상체를 단층 촬영한 데이터를 획득한다. 즉, 데이터 획득부(410)는 단층 데이터를 획득한다.
영상 처리부(420)는 절반 복원(half reconstruction) 방식, 전체 복원(full reconstruction) 방식, 및 부분 각도 복원(PAR: partial angle reconstruction) 방식 중 적어도 하나를 이용하여 단층 영상을 복원한다. 영상 처리부(420)는 절반 복원(half reconstruction) 방식 또는 전체 복원(full reconstruction) 방식을 이용하여 대상체를 완전히 나타내는 완전한 영상을 복원할 수 있으며, 부분 각도 복원(PAR: partial angle reconstruction) 방식을 이용하여 대상체의 일부만을 나타내는 부분 영상을 복원할 수도 있다.
개시된 실시예에서, 영상 처리부(420)는 데이터 획득부(410)에서 획득된 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원한다.
제어부(430)는 복수개의 데이터 쌍에 대응되는 복수개의 부분 영상 쌍에 근거하여 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 대상체의 움직임을 나타내는 움직임 정보를 획득하며, 움직임 정보에 근거하여 목표 시점에서 대상체를 나타내는 목표 영상이 복원되도록 제어한다.
또한, 개시된 실시예에 따르면, 단층 영상 장치(400)는 이하와 같이 동작할 수 있다.
데이터 획득부(410)는 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득할 수 있다.
영상 처리부(420)는 제1 부분 영상 및 제2 부분 영상을 이용하여 제1 시점과 제2 시점 동안의 대상체의 움직임 량을 측정하고, 측정된 움직임 량에 근거하여 설정된 제1 시점과 상기 제2 시점 사이의 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 제1 시점과 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원할 수 있다.
제어부(430)는 복수개의 모델 각각에 근거하여 복원된 복수개의 목표 영상의 화질을 측정하고, 측정된 화질에 근거하여 복수개의 모델 중 하나를 선택하며, 선택된 모델에 근거하여 목표 시점에서 대상체를 나타내는 최종 목표 영상이 복원되도록 제어할 수 있다.
또한, 개시된 실시예에 따르면, 단층 영상 장치(400)는 이하와 같이 동작할 수 있다.
데이터 획득부(410)는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득할 수 있다.
제어부(430)는 제1 영상 및 제2 영상 각각을 복수개의 영역으로 분할하고, 복수개의 영역 각각에서의 제1 영상과 제2 영상을 이용하여 제1 시점과 제2 시점 사이의 대상체의 움직임을 나타내는 부분 움직임 모델을 획득할 수 있다. 그리고, 복수개의 영역 각각에 대응되는 복수개의 부분 움직임 모델에 근거하여 복수개의 영역을 포함하는 전체 영역에서 대상체의 움직임을 나타내는 전체 움직임 모델을 획득할 수 있다.
영상 처리부(420)는 전체 움직임 모델에 근거하여 제1 시점과 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원할 수 있다.
개시된 실시예에 따른 단층 영상 장치(400)의 구체적인 동작은 이하에서 도 5 내지 도 26을 참조하여 상세히 설명한다.
도 5는 개시된 실시예에 따른 단층 영상 장치를 나타내는 다른 블록도이다. 도 5에 있어서, 데이터 획득부(410), 영상 처리부(420) 및 제어부(430)는 각각 도 4에서 설명한 데이터 획득부(410), 영상 처리부(420) 및 제어부(430)와 동일 대응되므로, 도 4에서와 중복되는 설명은 생략한다.
도 5에 도시된 단층 영상 장치(500)는 도 4에 도시된 단층 영상 장치(400)에 비하여, 갠트리(540), 사용자 인터페이스 부(550), 저장부(560), 통신부(570), 및 디스플레이부(580) 중 적어도 하나를 더 포함할 수 있다. 단층 영상 장치(500)에 포함되는 갠트리(540), 사용자 인터페이스 부(550), 저장부(560), 통신부(570), 및 디스플레이부(580)는 각각 도 2에 설명한 CT 시스템(100)의 갠트리(102), 입력부(128), 저장부(124), 통신부(132) 및 디스플레이 부(130)와 그 동작 및 구성이 동일하므로, 도 2에서와 중복되는 설명은 생략한다.
갠트리(540)는 X-ray 생성부(도 2의 106), X-ray 검출부(도 2의 108), 및 데이터 획득 회로(도 2의 116)를 포함한다. 갠트리(540)는 대상체로 엑스레이를 조사하고, 대상체를 투과한 엑스레이를 감지하며, 감지된 엑스레이에 대응되는 로 데이터(raw data)를 생성한다.
구체적으로, X-ray 생성부(106)는 엑스레이(X-ray)를 생성한다. 그리고, X-ray 생성부(106)는 대상체를 중심으로 회전하며, 대상체로 엑스레이를 조사한다. 그러면, X-ray 검출부(108)는 대상체를 통과한 엑스레이를 감지한다. 그리고 데이터 획득 회로(116)는 감지된 엑스레이에 대응되는 로 데이터를 생성한다. 여기서, 로 데이터는 방사선을 대상체로 조사(projection)하여 획득된 프로젝션 데이터(projection data) 또는 프로젝션 데이터의 집합인 사이노그램(sinogram)이 될 수 있다.
단층 영상 장치(500)에서는 단층 영상을 복원하기 위해서 부분 각도 복원(PAR: partial angle reconstruction) 방식, 전체 복원(full reconstruction) 방식 및 절반 복원(half reconstruction) 방식 모두에 이용할 수 있다.
구체적으로, 갠트리(540)는 절반 복원 방식, 전체 복원 방식, 및 부분 각도 복원 방식 중 적어도 하나의 방식으로 단층 촬영을 수행하여 로 데이터를 획득할 수 있다. 데이터 획득부(510)는 갠트리(540) 또는 외부적으로 연결되는 단층 시스템에서 전송되는 로 데이터를 이용하여, 단층 영상을 복원(reconstruction)한다.
디스플레이 부(580)는 소정 화면을 디스플레이한다. 구체적으로, 디스플레이 부(580)는 단층 촬영을 진행하는데 필요한 사용자 인터페이스 화면 또는 복원된 단층 영상 등을 디스플레이 할 수 있다. 구체적으로, 디스플레이 부(580)는 대상체의 움직임을 나타내는 정보, 예를 들어, 움직임 정보, 복수개의 모델, 선택된 모델, 및 전체 움직임 모델 중 적어도 하나를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
또한, 디스플레이 부(580)는 사용자가 소정 데이터를 시각적으로 인식할 수 있는 모든 장치가 될 수 있다. 예를 들어, CRT 디스플레이, LCD 디스플레이, PDP 디스플레이, OLED 디스플레이, FED 디스플레이, LED 디스플레이, VFD 디스플레이, DLP(Digital Light Processing) 디스플레이, 평판 디스플레이(PFD: Flat Panel Display), 3D 디스플레이, 투명 디스플레이 등 일을 포함할 수 있다.
사용자 인터페이스 부(550)는 사용자로부터 소정 명령 또는 데이터를 입력받기 위한 사용자 인터페이스 화면을 생성 및 출력하며, 사용자 인터페이스 화면을 통하여 사용자로부터 소정 명령 또는 데이터를 입력 받는다. 구체적으로, 사용자 인터페이스 부(550)에서 출력되는 사용자 인터페이스 화면은 디스플레이 부(580)로 출력된다. 그러면, 디스플레이 부(580)는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 사용자는 디스플레이 부(580)를 통하여 디스플레이 되는 사용자 인터페이스 화면을 보고, 소정 정보를 인식할 수 있으며, 소정 명령 또는 데이터를 입력할 수 있다.
예를 들어, 사용자 인터페이스 부(550)는 마우스, 키보드, 소정 데이터 입력을 위한 하드 키들을 포함하는 입력 장치, 또는 터치 패드 등을 포함할 수 있다. 예를 들어, 사용자는 사용자 인터페이스 부(550)에 포함되는 마우스, 키보드, 기타 입력 장치, 및 터치 패드 중 적어도 하나를 조작하여, 소정 데이터 또는 명령을 입력할 수 있다.
저장부(560)는 각종 데이터, 및/또는 단층 영상을 복원하는데 필요한 프로그램을 저장할 수 있다. 구체적으로, 저장부(560)는 단층 촬영에 따라서 획득되는 데이터를 저장할 수 있다. 구체적으로, 로 데이터인 프로젝션 데이터 및 사이노그램 중 적어도 하나를 저장할 수 있다. 또한, 저장부(560)는 단층 영상의 복원에 필요한 각종 데이터, 프로그램 등을 저장할 수 있으며, 최종적으로 복원된 단층 영상을 저장할 수 있다. 또한, 저장부(560)는 대상체의 움직임 또는 움직임량을 나타내는 정보를 저장할 수 있다.
또한, 저장부(560)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
통신부(570)는 외부 디바이스, 외부 의료 장치 등과의 통신을 수행할 수 있다. 예를 들어, 통신부(570)는 외부의 단층 시스템, 단층 촬영 장치 또는 서버 등과 연결될 수 있다. 또한, 통신부(570)은 도 3에서 설명한 통신부(132)와 동일 대응될 수 있으므로, 도 3에서와 중복되는 설명은 생략한다.
구체적으로, 통신부(570)는 유선 또는 무선으로 네트워크(도 3의 301)와 연결되어 서버(도 3의 134), 의료 장치(도 3의 136) 또는 휴대용 장치(도 3의 138) 등과 같은 외부 디바이스와의 통신을 수행할 수 있다. 통신부(570)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고받을 수 있다.
또한, 통신부(570)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 외부 디바이스 등과 데이터 통신을 수행할 수 있다.
개시된 실시예에서, 통신부(570)는 네트워크(도 3의 301)를 통해 단층 데이터를 수신할 수 있다. 나아가, 통신부(570)는 서버(도 3의 134)로부터 환자의 진단 이력이나 치료 일정 등을 수신하여 환자의 임상적 진단 등에 활용할 수도 있다. 또한, 통신부(570)는 병원 내의 서버(도 3의 134)나 의료 장치(도 3의 136)뿐만 아니라, 사용자나 환자의 휴대용 장치(도 3의 138) 등과 데이터 통신을 수행할 수도 있다.
전술한 바와 같이, 통신부(570)는 네트워크(도 3의 301)을 통하여 연결되는 서버(도 3의 134) 또는 의료 장치(도 3의 136)로 영상 처리부(520)에서 복원된 단층 영상, 및 제어부(530)에서 획득된 대상체의 움직임을 나타내는 정보 중 적어도 하나를 전송하여, 외부의 병원 등에서 전송된 데이터를 처리, 이용 또는 디스플레이 할 수 있도록 할 수 있다.
이하에서는 도 6 내지 도 26을 참조하여, 개시된 실시예에 따른 단층 영상 장치(400, 500)의 동작에 대하여 상세히 설명한다. 또한, 이하에서는 도 6 내지 도 26을 설명함에 있어서, 개시된 단층 영상 장치(700, 800) 중 도 5에서 설명한 단층 영상 장치(500)를 참조하여 설명한다.
도 6은 단층 촬영에 적용되는 복원 방식을 설명하기 위한 도면이다.
단층 영상 장치(500)는 절반 복원(half reconstruction) 방식, 전체 복원(full reconstruction) 방식, 및 부분 각도 복원(PAR: partial angle reconstruction) 방식 중 적어도 하나를 이용하여 단층 영상을 복원할 수 있다.
단층 영상을 복원하는데 있어서, X-ray 생성부(106)가 반바퀴 이상 한바퀴 미만을 회전하여 획득된 로 데이터를 이용하여 하나의 단층 영상을 복원하는 것을 절반 복원(half reconstruction) 방식이라 하고, X-ray 생성부(106)가 한바퀴 회전하여 획득된 로 데이터를 이용하여 하나의 단층 영상을 복원하는 것을 전체 복원(full reconstruction) 방식이라 한다. 또한, X-ray 생성부(106)가 반바퀴 미만으로 회전하여 획득된 로 데이터를 이용하여 하나의 단층 영상을 복원하는 것을 부분 각도 복원(PAR: partial angle reconstruction) 방식이라 한다. 절반 복원 또는 전체 복원 방식에 의해 복원된 단층 영상은 대상체를 전체적으로 나타내는 완전한 영상(complete image)이나, 부분 각도 복원 방식에 의해 복원된 단층 영상은 대상체를 부분적으로 나타내는 불완전한 영상(incomplete image)이다. 여기서, 절반 복원 방식에 의하여 복원된 불완전한 영상(incomplete image)을 ‘부분 영상(partial image)’ 또는 ‘부분 각도 영상(partial angle image)’라 칭할 수 있다.
도 6을 참조하면, 전체 복원 방식에 있어서, X-ray 생성부(106)는 대상체(601)를 중심으로 한바퀴 이상의 각도 구간(640)을 회전하며 단층 촬영을 수행한다. 그리고, 단층 영상은 각도 구간(640)에서 획득된 데이터를 이용하여 복원된다. 도 6에서는 전체 복원 방식에서는 X-ray 생성부(106)가 360 + a 도 만큼 회전하며 단층 촬영을 수행하는 경우를 예로 들어 도시하였다.
절반 복원 방식에 있어서, X-ray 생성부(106)는 대상체(601)를 중심으로 반바퀴 이상의 각도 구간(620)을 회전하며 단층 촬영을 수행한다. 그리고, 단층 영상은 각도 구간(620)에서 획득된 데이터를 이용하여 복원된다. 도 6에서는 절반 복원 방식에서는 X-ray 생성부(106)가 180 + a 도 만큼 회전하며 단층 촬영을 수행하는 경우를 예로 들어 도시하였다. 여기서, a 도는 0도 이상의 값이 될 수 있으며, 콘 빔(cone beam)을 이용하여 단층 촬영을 수행하는 경우의 팬 각도(fan angle)가 될 수 있을 것이다.
부분 각도 복원 방식에 있어서, X-ray 생성부(106)는 대상체(601)를 중심으로 반바퀴 이하인 180도 미만의 각도 구간(641 또는 645)을 회전하며 단층 촬영을 수행한다. 그리고, 단층 영상은 각도 구간(641 또는 645)에서 획득된 데이터를 이용하여 복원된다. 도 6에서는 부분 각도 복원 방식에서는 X-ray 생성부(106)가 180도 미만의 값을 갖는 a 도만큼 회전하며 단층 촬영을 수행하는 경우를 예로 들어 도시하였다.
또한, 하나의 단층 영상을 복원하기 위해서 필요한 프로젝션 데이터들을 획득하는 각도 구간을 ‘한주기 각도 구간’이라 칭할 수 있다. 전술한 전체 각도 복원 방식에 의해서 단층 영상을 복원할 경우, 한주기 각도 구간은 360 + a 도가 될 수 있다. 또한, 절반 복원 방식에 의해서 단층 영상을 복원할 경우, 한주기 각도 구간은 180 + a 도가 될 수 있다.
이하에서는, 단층 영상을 복원하는데 있어서, 절반 복원 방식이 이용되는 경우를 예로 들어 설명한다. 따라서, 한주기 각도 구간이 180+a 도인 경우를 예로 들어 설명한다.
개시된 실시예에서, 단층 영상 장치(500)는 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍에 근거하여 획득된 대상체의 움직임을 나타내는 움직임 정보에 근거하여, 대상체의 움직임 보정을 수행함으로써, 움직임 아티팩트 또는 움직임에 의한 블러링(blurring)이 감소된 목표 영상을 복원할 수 있다.
도 7은 개시된 실시예에 따른 단층 영상 장치의 동작을 설명하기 위한 일 도면이다.
영상 처리부(520)는 데이터 획득부(510)에서 획득된 단층 데이터를 복수개의 데이터 쌍으로 분할한다.
도 7을 참조하면, 영상 처리부(520)는 X-ray 생성부(126)가 대상체(701)를 중심으로 1회전 이상 회전하며 단층 촬영을 수행하여 획득된 단층 데이터를 전송받을 수 있다. 영상 처리부(520)는 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원한다. 여기서, 부분 영상 쌍이란, 부분 영상 복원 방식(PAR: partial angle reconstructed)에 의해서 복원된 영상 쌍(image pair)을 의미한다. 구체적으로, 데이터 획득부(510)는 다양한 스캔 모드에 따라서 X-ray 생성부(126)가 1회전 이상 회전하여 획득된 단층 데이터를 획득하고, 영상 처리부(520)는 1회전 이상의 각도 구간에서 획득된 단층 데이터를 복수개의 데이터 쌍으로 분할할 수 있다.
여기서, 단층 촬영 시 이용되는 스캔 모드로는 프로스펙티브(prospective) 모드 및 레트로스펙티브(retrospective) 모드를 예로 들 수 있다. 스캔 모드는 촬영 대상이 되는 환자의 심장 박동 주기가 일정한지 또는 일정하지 않은지에 따라서 구별될 수 있다. 또한, 영상 복원에 이용되는 단층 데이터를 획득하는데 있어서 심전도 게이팅(ECG gating)을 이용할 수 있다. 심장의 박동 주기가 일정한 사람의 경우, 프로스펙티브(prospective) 모드를 적용하여 규칙적으로 심전도 신호를 게이팅하고, 게이팅된 심전도 신호에 대응되는 구간의 단층 데이터를 이용하여 단층 영상을 복원할 수 있다. 그러나, 부정맥 환자와 같이 심장의 박동 주기가 일정하지 않은 경우, 심장 박동 주기의 규칙성이 떨어져서, 프로스펙티브 모드에서와 같이 일률적으로 주기 검출을 할 수가 없다. 이러한 경우, 레트로스펙티브(retrospective) 모드에서 불규칙적으로 심전도 신호를 게이팅할 수 있다. 레트로스펙티브 모드는 심전도 신호의 모든 주기에서 또는 연속되는 일정 범위의 주기에서 대상체로 엑스레이를 조사하여 단층 데이터를 획득한 후, 단층 영상 복원을 위한 부분 주기들을 선택하고, 선택된 부분 주기에 대응되는 단층 데이터를 이용하여 단층 영상을 복원할 수 있다.
개시된 실시예의 단층 영상 장치(500)는 레트로스펙티브 모드를 적용해서 360도 이상 스캔하여 획득된 단층 데이터를 복수개의 데이터 쌍으로 분할할 수 있다.
여기서, 복수개의 마주보는 부분 각도 쌍 각각은 180도 미만을 값을 갖는 제1 각도 구간 및 제1 각도 구간과 마주보는 제2 각도 구간을 포함할 수 있다. 구체적으로, 부분 각도 쌍이란 서로 마주보는 각도인 켤레각(conjugate angle)의 관계를 가지는 두 개의 부분 각도를 뜻한다. 켤레각 관계에 있는 두 각도 구간의 각도 차이는 180도가 된다. 예를 들어, 하나의 부분 각도 쌍은 제1 각도 구간인 711 각도 구간과 제2 각도 구간인 712 각도 구간을 포함하며, 제1 각도 구간인 711 각도 구간과 제2 각도 구간인 712 각도 구간은 켤레각의 관계에 있다.
구체적으로, 영상 처리부(520)는 1회전 이상의 각도 구간을 복수개의 마주보는 부분 각도 쌍으로 구분할 수 있다. 도 7에서는 하나의 부분 각도 구간이 45도가 되는 경우를 예로 들어 도시하였다. 도 7을 참조하면, 영상 처리부(520)는 360도의 각도 구간을 8개의 각도 구간으로 구분하여, 4개의 부분 각도 쌍으로 구분할 수 있다. 구체적으로, 360도 각도 구간은 711 각도 구간 및 712 각도 구간을 포함하는 부분 각도 쌍, 721 각도 구간 및 722 각도 구간을 포함하는 부분 각도 쌍, 731 각도 구간 및 732 각도 구간을 포함하는 부분 각도 쌍, 741 각도 구간 및 742 각도 구간을 포함하는 부분 각도 쌍을 포함할 수 있다 .
도 7에서는 대상체(701)가 환자의 복부인 경우를 예로 들어 도시하였으며, 복부의 단면을 xy 평면 상에 위치하는 경우를 예로 들어 도시하였다. 또한, 도 7에서 711각도 구간의 시작 시점인 0도 지점이 y 축과 일치하지 않는 경우를 예로 들어 도시하였으나, 711 각도 구간의 시작 지점이 y 축과 일치할 수도 있다.
또한, 도 7에 있어서, 복수개의 부분 각도 쌍을 포함하는 전체 구간은 360도 인 경우를 예로 들어 도시하였다. 구체적으로, 711 각도 구간 및 712 각도 구간을 포함하는 부분 각도 쌍, 721 각도 구간 및 722 각도 구간을 포함하는 부분 각도 쌍, 731 각도 구간 및 732 각도 구간을 포함하는 부분 각도 쌍, 741 각도 구간 및 742 각도 구간을 포함하는 부분 각도 쌍을 모두 포함하는 전체 구간은 360도 각도 구간이 될 수 있다.
또한, 전체 구간은 도시된 바와 같이 각도 구간이 될 수 있으며, 각도 구간에 대응되는 시간 구간이 될 수도 있을 것이다. 구체적으로, 전체 구간은 X-ray 생성부(106)가 360도 각도 구간을 회전하는 데 소요되는 시간 구간이 될 수 있다. 예를 들어, X-ray 생성부(106)가 360도 회전할 때 2초가 소요되며 X-ray 생성부(106)가 일정한 속도로 회전하는 경우, 전체 구간은 360도 각도 구간이 될 수도 있고, 2초 시간 구간이 될 수도 있다. 이 경우, 전체 구간에 포함되는 0도 각도 지점은 0초 시간 시점에 대응되고, 360도 각도 지점은 2초 시간 시점에 대응되며, 180도 지점은 1초 시간 시점에 대응될 수 있다.
그리고, 영상 처리부(520)는 부분 각도 쌍에 대응되는 부분 영상 쌍을 복원한다. 구체적으로, 영상 처리부(520)에서 복원되는 복수개의 부분 영상 쌍 각각은 제1 각도 구간에서 획득된 데이터를 이용하여 복원된 제1 부분 영상 및 제2 각도 구간에서 획득된 데이터를 이용하여 복원된 제2 부분 영상을 포함할 수 있다.
도 7을 참조하면, 영상 처리부(520)는 제1 각도 구간인 711 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상 및 제2 각도 구간인 712 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상을 포함하는 부분 영상 쌍을 생성할 수 있다. 제1 부분 영상 및 제2 부분 영상을 포함하는 부분 영상 쌍은 이하에서 도 8 및 도 9a를 참조하여 상세히 설명한다.
도 8은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 일 도면이다.
도 8을 참조하면, 영상 처리부(520)는 복수개의 부분 각도 쌍에 대응되는 복수개의 부분 영상 쌍(810, 820, 830, 840)을 획득할 수 있다.
구체적으로, 영상 처리부(520)는 711 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상(811) 및 712 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상(812)을 포함하는 부분 영상 쌍(810)을 생성할 수 있다.
또한, 영상 처리부(520)는 721 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상(821) 및 722 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상(822)을 포함하는 부분 영상 쌍(820)을 생성할 수 있다. 또한, 영상 처리부(520)는 731 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상(831) 및 732 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상(832)을 포함하는 부분 영상 쌍(830)을 생성할 수 있다. 또한, 영상 처리부(520)는 741 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상(841) 및 742 각도 구간에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상(842)을 포함하는 부분 영상 쌍(840)을 생성할 수 있다.
그리고, 제어부(530)는 복수개의 데이터 쌍에 대응되는 복수개의 부분 영상 쌍에 근거하여 시간에 따른 대상체의 움직임을 나타내는 움직임 정보를 획득할 수 있다. 구체적으로, 움직임 정보는 시간 시점에서 대상체를 형성하는 표면(surface)의 움직임을 나타내는 정보가 될 수 있다. 여기서, 움직임은 제1 부분 영상에 포함되는 대상체와 제2 부분 영상 내에 포함되는 대상체 사이의 형태, 크기, 및 위치 중 적어도 하나의 차이가 될 수 있다.
구체적으로, 제어부(530)는 복수개의 부분 각도 쌍에 대응되는 복수개의 부분 영상 쌍 각각을 이용하여, 3차원에서 이미징되는 대상체의 각 시점마다의 움직임을 나타내는 움직임 정보를 획득할 수 있다.
구체적으로, 영상 처리부(520)가 3차원 단층 영상을 복원할 수 있다. 구체적으로, 영상 처리부(520)는 부분 각도 구간에서 획득된 단층 데이터를 이용하여, 대상체를 3차원 공간 상에서 표현하는 3차원의 부분 영상을 생성할 수 있다. 영상 처리부(520)가 획득하는 움직임 정보는 3차원 공간과 시간 시점을 포함하는 4차원 공간 상에서 대상체의 움직임을 나타내는 정보가 되며, 이를 '4차원 움직임(4-dimensional motion) 정보'라 칭할 수 있다.
제어부(530)는 전체 구간에 포함되는 복수개의 부분 각도들 각각에 대응되는 복수개의 부분 영상들에 근거하여, 움직임 정보를 획득할 수 있다. 여기서, 움직임 정보는 전체 구간에서 대상체를 형성하는 표면의 움직임을 나타내는 정보가 될 수 있다. 구체적으로, 움직임 정보는 전체 구간에 포함되는 각 각도 지점 또는 시간 시점에서의 대상체를 형성하는 표면의 움직임을 나타내는 정보가 될 수 있다.
부분 영상 쌍 및 움직임 정보의 획득은 이하에서 도 9a, 도 9b 및 도 10을 참조하여 상세히 설명한다.
도 9a는 개시된 실시예에 따른 단층 영상 장치에서 복원되는 부분 영상 쌍을 설명하기 위한 다른 도면이다. 도 9a에 있어서, 910 각도 구간은 도 6에서의 620 각도 구간에 대응되며, 180+a 도가 될 수 있다. 이하에서는, 하나의 부분 각도 쌍에 포함되는 제1 각도 구간(911) 및 제2 각도 구간(912)는 각각 도 7에서 설명한 부분 각도 쌍에 포함되는 제1 각도 구간(711) 및 제2 각도 구간(712)과 동일 대응되는 경우를 예로 들어 설명한다.
도 9a에서는, 제1 각도 구간(911)에서 획득된 단층 데이터를 이용하여 복원된 제1 부분 영상(932) 및 제2 각도 구간(912)에서 획득된 단층 데이터를 이용하여 복원된 제2 부분 영상(942)이 도시된다. 여기서, 제1 부분 영상(932) 및 제2 부분 영상(942)는 각각 도 8에 도시된 제1 부분 영상(811) 및 제2 부분 영상(812)와 동일 대응된다. 여기서, 제1 부분 영상(932) 및 제2 부분 영상(942)은 대상체를 x, y 및 z 축에 의해 표현되는 3차원 공간에서 이미징한 3차원 단층 영상이 될 수 있다. 또한, 제1 부분 영상(932) 및 제2 부분 영상(942)은 대상체를 x 및 y 축에 의해 표현되는 2차원 공간에서 이미징한 3차원 단층 영상이 될 수도 있을 것이다.
구체적으로, X-ray 생성부(106)는 대상체(901)를 중심으로 회전하며 단층 촬영을 하여, 제1 각도 구간(911)에 해당하는 로 데이터인 프로젝션 데이터 또는 사이노그램 등을 획득할 수 있다. 그리고, 획득된 로 데이터를 이용하여 단층 영상(931)을 복원한다.
여기서, 제1 각도 구간(911)과 제2 각도 구간(912)에서 획득된 로 데이터는 단일 소스 또는 듀얼 소스에서 대상체로 조사된 엑스레이를 감지하여 획득된 데이터가 될 수 있다. 예를 들어, 단일 소스를 이용하여 단층 촬영을 수행한 경우, 단일 소스가 제1 각도 구간(911)과 제2 각도 구간(912)을 이동하여 단층 촬영을 수행할 수 있다. 또 다른 예로, 듀얼 소스를 이용하여 단층 촬영을 수행한 경우, 듀얼 소스에 포함되는 제1 소스 및 제2 소스 중 적어도 하나가 제1 각도 구간(911)과 제2 각도 구간(912) 중 적어도 하나를 이동하여 단층 촬영을 수행할 수 있다. 구체적으로, 제1 소스가 제1 각도 구간(911)을 회전하며 로 데이터를 획득하고, 제2 소스가 제2 각도 구간(912)을 회전하며 로 데이터를 획득할 수 있을 것이다.
또한, 단층 영상을 이용한 단층 영상의 복원에는 다양한 복원 방식이 이용될 수 있다. 예를 들어, 단층 영상 장치(500)에서 단층 영상을 복원하는 방식으로는 여과 역투영법(Filtered Back Projection), 반복재구성법(Iterative method) 등이 이용될 수 있다.
역투영법은 복수개의 방향(view)에서 획득한 프로젝션 데이터를 화소면에 거꾸로 되돌려 합산하여 영상을 복원하는 방법이다. 구체적으로, 역투영법은 복수개의 방향에서의 프로젝션 데이터들을 이용해 실제와 비슷한 영상을 획득할 수 있다. 또한, 복원된 영상 내에 존재하는 아티팩트를 제거하고 영상 화질을 개선하기 위해서 필터링(filtering)을 추가적으로 수행할 수 있다.
여과 역투영법은 역투영법에서 발생할 수 있는 아티팩트 또는 블러링을 제거하기 위해서 역투영법을 개선시킨 방법이다. 여과 역투영법은 역투영을 시행하기 이전에 로 데이터를 필터링하고, 필터링된 로 데이터를 역투영하여 단층 영상을 복원한다.
여과 역투영법(Filtered Back Projection)은 단층 영상 복원에서 일반적으로 가장 널리 이용되며, 구현이 간단하며 영상 복원을 위한 계산량 측면에서도 효과적인 방법이다. 여과 역투영법은 2D 영상으로부터 사이노그램을 획득하는 과정인 라돈(Radon) 변환으로부터 수학적으로 역 변환을 유도한 방법으로, 2D 영상을 3D 영상으로 확장하는 것도 비교적 간단하다. 구체적으로, 여과 역투영법은 고대역 통과 필터(High Pass Filter)의 일종인 Shepp and Logan 필터 등을 이용하여 프로젝션 데이터를 필터링 한 뒤 역투영을 하는 것에 의해서 영상을 복원하는 방법이다.
이하에서는 여과 역투영법(Filtered Back Projection)을 이용하여 단층 영상을 복원하는 경우를 예로 들어 설명한다.
도 9a를 참조하면, 데이터 획득부(510)는 제1 각도 구간(911)에서 획득된 로 데이터를 여과 역투영(Filtered Back Projection)하여 영상(931)을 획득한다. 구체적으로, 제1 각도 구간(911) 및 제2 각도 구간(912)은 180도 미만의 값을 가진다. 그리고, 영상(931) 내의 대상체의 표면(935, 936)을 더욱 명확히 하기 위하여, 영상(931)을 필터링하여 최종적으로 복원된 제1 부분 영상(932)을 획득할 수 있다. 구체적으로, 제1 부분 영상(932)은 부분 각도 복원에 의해서 복원된 불완전한 영상(incomplete image)이 될 수 있다.
영상 처리부(520)는 제1 부분 영상(932)의 복원과 동일한 방식으로 제2 부분 영상(942)를 복원할 수 있다.
개시된 실시예에 따른 단층 영상 장치(500)에서는 제1 부분 영상(932) 및 제2 부분 영상(942)을 획득하는데 있어서, 부분 각도 복원(partial angle reconstruction)을 이용한다. X-ray 생성부(106)는 일정 속도로 회전하며 단층 촬영을 수행하므로, 단층 데이터 획득에서의 각도 값은 시간 값에 비례한다. 즉, 소정 각도 구간의 값이 감소하면, 소정 각도 구간에서 단층 데이터를 획득하는데 소요되는 시간도 감소하게 된다. 따라서, 부분 각도 복원 방식에 있어서, 제1 부분 영상(932) 및 제2 부분 영상(942)을 복원하는데 이용되는 각도 구간이 작아질수록, 시간 해상도를 증가시킬 수 있다. 그러므로, 부분 각도 영상인 제1 부분 영상(932) 및 제2 부분 영상(942)은 시간 해상도가 높은 영상이 되며 움직임 아티팩트가 거의 존재하지 않는 영상으로, 대상체의 일부를 블러링(blurring) 없이 정확하게 나타내는 영상이 될 수 있다.
도 9a에서는 2차원의 단층 영상, 예를 들어, 제1 부분 영상(932) 및 제2 부분 영상(942)을 복원하는 경우를 예로 들어 도시하였다. 3차원 단층 영상 내에서 표면(surface)으로 표현되는 대상체가 2차원 단층 영상에서는 도시된 제1 부분 영상(932) 및 제2 부분 영상(942)에서와 같이 경계(edge)(예를 들어, 935 및 936, 또는 945 및 946)로 표현될 수 있을 것이다.
제1 각도 구간(911)과 제2 각도 구간(912)은 마주보는 켤레각의 관계에 있어서, 제1 각도 구간(911)과 제2 각도 구간(912)에서는 대상체를 향하여 동일 방향으로 엑스레이가 조사되므로, 제1 각도 구간(911)에서와 제2 각도 구간(912)은 동일한 뷰(veiw)를 갖는다. 따라서, 제1 각도 구간(911)에서 획득된 프로젝션 데이터들을 이용하여 복원된 대상체 부위와 제2 각도 구간(921)에서 획득된 프로젝션 데이터들을 이용하여 복원된 대상체 부위가 동일하다.
움직이는 대상체의 경우, 대상체의 동일 부위라 할지라도 서로 다른 시점에서 데이터를 획득하면, 대상체의 움직임으로 인하여 대상체의 위치, 크기 및 형태 중 적어도 하나가 다르다. 즉, 제1 각도 구간(911)에서의 대상체의 상태와 제2 각도 구간(912)에서의 대상체의 상태가 다르다.
전술한 바와 같이, 제1 부분 영상(932) 및 제2 부분 영상(942)은 대상체의 동일 부위를 이미징하므로, 제1 부분 영상(932) 및 제2 부분 영상(942)을 비교하면, 제1 각도 구간(911)과 제2 각도 구간(912) 동안에 발생한 대상체의 움직임을 측정할 수 있다.
도 9b는 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다.
도 9b에 있어서, 도 8에서와 동일한 구성은 동일한 도면 기호로 표기하였다. 즉, 도 7 및 도 9b를 참조하면, 영상 처리부(520)는 부분 각도(711), 부분 각도(721), 부분 각도(731), 부분 각도(741), 부분 각도(712), 부분 각도(722), 부분 각도(732), 및 부분 각도(742) 각각에서 획득된 데이터에 근거하여 부분 영상(811), 부분 영상(821), 부분 영상(831), 부분 영상(841), 부분 영상(812), 부분 영상(822), 부분 영상(832), 및 부분 영상(842)를 복원할 수 있다. 여기서, 도 9b에 도시된 부분 영상은 3차원 이미지 그리드(3D image grid) 내에서 복셀 값에 의해서 표현될 수 있다.
그리고, 제어부(530)는 복수개의 부분 영상 쌍에 포함되는 부분 영상들(811, 821, 831, 841, 812, 822, 832, 842) 각각이 전체 구간에 포함되는 소정 시간 시점에서 소정 형태로 수렴되도록, 시간에 따른 대상체의 움직임을 나타내는 움직임 정보를 획득할 수 있다.
구체적으로, 제어부(530)는 하나의 부분 영상 쌍인 부분 영상(811)과 부분 영상(812) 간의 비교 결과에 근거하여, 부분 각도(711)와 부분 각도(712) 사이에 포함되는 소정 시점인 제1 시점에서 대상체의 움직임 상태를 예측할 수 있다. 그리고, 제어부(530)는 다른 부분 영상 쌍인 부분 영상(821)과 부분 영상(822) 간의 비교 결과에 근거하여, 부분 각도(721)와 부분 각도(722) 사이에 포함되는 소정 시점인 제1 시점에서 대상체의 움직임 상태를 예측할 수 있다. 계속하여, 제어부(530)는 다른 부분 영상 쌍인 부분 영상(831)과 부분 영상(832) 간의 비교 결과에 근거하여, 부분 각도(731)와 부분 각도(732) 사이에 포함되는 소정 시점인 제1 시점에서 대상체의 움직임 상태를 예측할 수 있다. 계속하여, 제어부(530)는 다른 부분 영상 쌍인 부분 영상(841)과 부분 영상(842) 간의 비교 결과에 근거하여, 부분 각도(741)와 부분 각도(742) 사이에 포함되는 소정 시점인 제1 시점에서 대상체의 움직임 상태를 예측할 수 있다.
제어부(530)는 복수개의 부분 영상 쌍 각각을 이용하여 예측된 복수개의 대상체의 움직임 상태를 인터폴레이션(interpolation)하여 제1 시점에서 대상체의 최종 움직임 상태를 예측할 수 있다. 최종 움직임 상태는 제1 시점에서의 대상체의 상태를 나타내는 것으로, 제어부(530)는 최종 움직임 상태를 나타내는 움직임 정보를 획득한다.
도 9b에서는 내부의 작은 원(950)과 외부의 큰 원(955)과 같은 에지로 표현되는 경우를 예로 들어 도시하였다. 또한, 시간에 따라서 대상체의 움직임으로 인하여, 대상체의 상태가 변화하는 경우를 예로 들어 도시하였다. 구체적으로, 시간에 따라서 대상체의 움직임으로 인하여, 대상체의 형태, 크기 및 위치 중 적어도 하나가 변화할 수 있다. 도 9b에서는 대상체의 형태는 원형을 유지하나, 크기가 변화하는 경우를 예로 들어 도시하였다.
예를 들어, 부분 영상(811)과 부분 영상(812)은 서로 마주보는 부분 각도 쌍에 대응되는 부분 영상 쌍이므로, 대상체의 동일 부위를 이미징한다. 구체적으로, 부분 영상(811)은 대상체의 일부 에지들(951, 952, 953, 954)을 나타내고, 부분 영상(812)은 부분 영상(811)에서 나타난 에지들과 동일한 일부 에지들(951, 952, 953, 954)을 이미징한다. 제어부(530)은 부분 영상(811)과 부분 영상(812)이 제1 시점, 예를 들어, 180도 각도 지점에 대응되는 시간 시점,에서 소정 형태로 수렴하도록 하는 대상체의 움직임를 획득할 수 있다.
또한, 부분 영상(821)은 대상체의 일부 에지들(961, 962, 963, 964)을 나타내고, 부분 영상(822)은 부분 영상(821)에서 나타난 에지들과 동일한 일부 에지들(951, 952, 953, 954)을 이미징한다. 제어부(530)은 부분 영상(821)과 부분 영상(822)이 제1 시점, 예를 들어, 180도 각도 지점에 대응되는 시간 시점,에서 소정 형태로 수렴하도록 하는 대상체의 움직임를 획득할 수 있다.
동일한 방식으로, 제어부(530)는 복수개의 부분 영상 쌍들 각각에 포함되는 제1 부분 영상과 제2 부분 영상 각각이 제1 시점에서 소정 형태로 수렴하도록 하는 대상체의 움직임을 획득할 수 있다. 그리고, 제어부(530)는 최종적으로, 복수개의 부분 영상 쌍 각각에 포함되는 부분 영상들이 제1 시점에서 소정 형태로 수렴하도록 하는 대상체의 움직임을 획득할 수 있다. 예를 들어, 제어부(530)는 복수개의 부분 영상 쌍들 각각에 포함되는 부분 영상들에 근거하여, 제1 시점, 예를 들어, 180도 각도 지점에 대응되는 시간 시점,에서의 대상체의 상태가 영상(972)와 같은 상태를 가지는 것으로 예측할 수 있다. 그리고, 예측된 대상체의 상태에 대응되는 움직임 정보를 획득할 수 있다.
또한, 위에서는 설명의 편의상, 제1 시점에서의 대상체의 움직임 상태를 예측하여 움직임 정보를 획득하는 경우를 예로 들어 설명하였으나, 제어부(530)는 전체 구간에 포함되는 복수개의 시점 각각에서 전술한 방식과 동일한 방식으로 대상체의 움직임 상태를 예측하고, 예측된 움직임 상태에 근거하여 움직임 정보를 획득할 수 있을 것이다.
도 10은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다. 도 10에 도시된 그래프에 있어서, x 축은 X-ray 생성부(106)의 회전 각도 값을 나타내며, y 축은 각 회전 각도 값 또는 회전 각도에 대응되는 시점에서의 대상체의 움직임량을 나타낸다. 즉, x 축은 각도 구간으로 표현된 전체 구간을 나타낸다. 그리고, y 축은 시작 시점인 0도 각도 지점을 기준으로 후속되는 시점에서 발생하는 대상체의 움직임 량을 나타낸다.
도 7에서 설명한 바와 같이, 360도를 45도씩 분할하여 8개의 부분 각도 구간을 설정한 경우를 예로 들면, 전체 구간은 360도가 될 수 있으며, 부분 각도 구간은 45도 각도 구간이 될 수 있다. 도 9a 및 도 9b를 참조하여 설명한 바와 같이, 제어부(530)는 복수개의 부분 영상 쌍들에 포함되는 복수개의 부분 영상들에 근거하여, 시간 시점에서 대상체의 움직임 상태를 예측하고, 그에 대응되는 움직임 정보를 획득할 수 있다. 도 10에서는 설명의 편의 상, 움직임 정보가 시간에 따른 대상체의 움직임량을 나타내는 움직임 커브(motion curve)인 그래프(1015)로 표현된 경우를 예로 들어 도시하였다.
그러나, 부분 영상이 3차원 영상인 경우, 움직임 정보는 시간에 따른 대상체의 표면의 변화를 나타내는 움직임 벡터장(MVF: motion vector field)으로 표현될 수도 있다. 구체적으로, 전체 각도 구간인 360도 각도 구간에 포함되는 각각의 시간 시점 마다의 대상체의 움직임을 나타내는 움직임 벡터장(MVF)을 계산하고, 시간 시점에 따른 움직임 벡터장을 움직임 정보로서 획득할 수도 있을 것이다.
움직임 정보가 획득되면, 제어부(530)는 움직임 정보에 근거하여, 목표시점에서의 대상체의 움직임량을 예측하고, 예측된 움직임량에 근거하여 목표 영상이 복원되도록 제어할 수 있다. 예를 들어, 목표 시점을 180도 지점(1031)에 대응되는 시점으로 설정하면, 180도 지점(1031)의 뷰에서 획득된 프로젝션 데이터는 보정하지 않고, 나머지 지점들의 뷰에서 획득된 프로젝션 데이터들 또는 나머지 각도 구간들에서 획득된 프로젝션 데이터들에 의해서 이미징되는 대상체의 표면은 움직임량을 나타내는 그래프(1015)의 180도 지점(1031)에 대응되는 가중치 값(1032)에 근거하여 보정을 한다. 그리고, 보정된 프로젝션 데이터를 이용하여 목표 영상을 복원할 수 있다. 예를 들어, 움직임 정보인 그래프(1015)에 있어서, 0도 내지 360도 각도 구간에 포함되는 복수개의 뷰 각각에서 획득된 복수개의 프로젝션 데이터 또는 복수개의 뷰 각각에서 이미징된 부분 영상을, 목표 지점인 180도 지점(1031)에 대응되는 가중치 값(1032)에 대응되는 움직임에 맞춰 움직임 보정할 수 있다. 그에 따라서, 움직임 보정된 목표 영상을 복원할 수 있다.
움직임 정보에 근거한 목표 영상의 복원은 이하에서 도 12 내지 도 13을 참조하여 상세히 설명한다.
도 10에서는 움직임 정보를 그래프로 도시하였으나, 움직임 정보는 각 뷰(view) 마다 개별적으로 획득될 수도 있을 것이다. 또한, 움직임 정보는 복셀(voxel) 또는 픽셀 별로 개별적으로 획득할 수 있을 것이다. 또한, 움직임 정보 각각은 복셀들의 그룹 또는 픽셀들의 그룹 별로 개별적으로 획득할 수도 있을 것이다.
제어부(630)는 움직임 정보에 근거하여, 목표시점에서의 대상체의 움직임량을 예측하고, 예측된 움직임량에 근거하여 목표 영상이 복원되도록 제어할 수 있다. 목표 영상의 복원은 이하에서 도 12 내지 도 17을 참조하여 상세히 설명한다. 도 11은 개시된 실시예에 따른 단층 영상 장치에서 대상체의 움직임을 나타내는 정보를 획득하는 동작을 설명하기 위한 다른 도면이다. 구체적으로, 도 11의 (a)는 제1 부분 영상과 제2 영상의 비교 동작을 설명하기 위한 도면이다. 도 11의 (b)는 제1 부분 영상과 제2 부분 영상에 포함되는 대상체의 움직임 나타내는 도면이다. 도 10의 (c)는 제1 각도 구간과 제2 각도 구간 사이의 시간 구간에서의 대상체의 움직임을 설명하기 위한 도면이다.
제어부(530)는 제1 부분 영상(1110) 및 제2 부분 영상(1120)에 근거하여, 제1 시점에서의 대상체의 움직임을 예측할 수 있다.
도 11의 (a)를 참조하면, 제1 부분 영상(1110) 및 제2 부분 영상(1120)은 각각 도 9a에서 설명한 제1 부분 영상(932) 및 제2 부분 영상(942)에 동일 대응된다. 다만, 설명의 편의상 제1 부분 영상(1110) 및 제2 부분 영상(1120)이 완전한 영상(complete image)인 경우를 예로 들어 도시하였다.
제1 부분 영상(1110) 및 제2 부분 영상(1120)은 움직이는 대상체를 촬영한 단층 영상을 도식화하였다. 또한, 도 11의 (a)에서는 하나의 영상 내에 포함되는 적어도 하나의 대상체(1111 및 1112, 또는 1121 및 1122)는 도시된 바와 같이 원형 물체로 표현되었다.
구체적으로, 대상체의 움직임을 비교하기 위하여, 제1 부분 영상(1110)에 포함되는 대상체(1111, 1112)와 제2 부분 영상(1120)에 포함되는 대상체(1121, 1122)를 비교한다. 그리고, 비교 결과에 따라서, 비교 영상(1130)에 도시된 바와 같이 제1 각도 구간(1161)과 제2 각도 구간(1162) 사에의 시간 구간(1190) 동안의 대상체의 움직임을 구할 수 있다. 여기서, 제1 각도 구간(1161) 및 제2 각도 구간(1162)은 각각 도 9a에서 설명한 제1 각도 구간(911) 및 제2 각도 구간(912)과 동일 대응된다.
구체적으로, 시간 구간(1190) 동안의 대상체의 움직임을 나타내는 정보는 두 개의 영상인 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 벡터장(Motion Vector Field)에 대응되는 정보로, 시간에 따른 대상체를 형성하는 표면의 움직임 량을 나타내는 정보를 포함할 수 있다.
도 11의 (b)를 참조하면, 두 영상인 제1 부분 영상(1110)과 제2 부분 영상(1120)에 포함되는 대상체의 동일 부위를 나타내는 표면들을 비교하여, 비교된 표면들의 위치 차이 값 및 방향을 나타내는 움직임 벡터(motion vector)를 구할 수 있다. 그리고, 움직임 벡터를 대상체의 움직임 량으로 이용할 수 있다. 여기서, 움직임 벡터들을 포함하며, 대상체의 소정 부위의 움직임 량을 나타내는 정보가 움직임 벡터장(MVF: motion vector field)이 될 수 있다. 즉, 움직임 벡터장(MVF)은 대상체를 형성하는 표면의 움직임 량을 나타낸다.
여기서, 움직임 벡터장은 대상체의 움직임 추출을 위해 획득되는 정보로, 제어부(530)는 비강체정합(non-rigid registration)을 이용하여 대상체의 움직임 량을 측정할 수 있다. 또한, 대상체의 움직임 량은 강체정합(rigid registration), 광학적 플로우(optical flow) 및/또는 특징점 매칭(feature matching) 등의 다양한 움직임 측정 기법을 이용하여 측정할 수 있다.
이하에서는, 움직임 벡터장을 획득하기 위하여 비강체정합(non-rigid registration) 방식을 이용하는 경우를 예로 들어 설명한다.
구체적으로, 제1 부분 영상(1110) 또는 제2 부분 영상(1130)의 이미지 격자(image grid)에서 복수개의 제어 지점(control point)을 설정하고, 각 제어 지점에서 최적의 움직임 벡터를 계산한다. 여기서, 움직임 벡터는 움직임의 방향 및 크기를 포함하는 벡터이다. 그리고, 제어 지점들 각각에서의 움직임 벡터들을 삽입(interpolation)하여, 모든 복셀들에서의 움직임 벡터를 나타내는 움직임 벡터장을 구한다. 예를 들어, 움직임 벡터를 삽입(interpolation)하는 방식으로는 B-spline free form deformation 방식을 사용할 수 있다. 또한, 각 제어 지점에서 최적의 움직임 벡터를 계산하는 방법으로는 최적화 기법을 사용할 수 있다. 구체적으로, 최적화 기법은, 반복적으로 복수개의 제어 지점에서의 움직임 벡터를 갱신하여 움직임 벡터장을 갱신하고, 갱신된 움직임 벡터장을 기반으로 제1 부분 영상(1110) 또는 제2 부분 영상(1120)을 와핑한 후, 와핑된 제1 부분 영상 또는 제2 부분 영상을 와핑 전의 제2 부분 영상(1120) 또는 제1 부분 영상(1110)과 비교하여 유사한 정도가 가장 높을 때, 반복을 종료하여 움직임 벡터를 계산하는 방식이다. 여기서, 유사한 정도는 비교 대상이 되는 두 영상 밝기값의 차분 제곱합(sum of squared difference)의 음수를 사용할 수 있다.
또 다른 방법으로는, 대상체의 표면에서 제어 지점(control point)을 설정하고, 제1 부분 영상(1110) 및 제2 부분 영상(1120)에 있어서, 대상체의 동일 지점을 나타내는 제어 지점들을 비교하여, 움직임 벡터를 구할 수 있다. 구체적으로, 제어 지점(Control point)들끼리 매칭(matching)시켜, 제어 지점들 간의 상대적 차이를 구한다. 그리고, 상대적 차이 값을 현재 제어 지점에서 움직임 벡터(Motion Vector)로 사용할 수 있다. 그리고, 제어 지점들 각각에서의 움직임 벡터들을 삽입(interpolation)하여, 모든 복셀들에서의 움직임 벡터를 나타내는 움직임 벡터장을 구한다. 전술한 예에서와 같이, 움직임 벡터를 삽입(interpolation)하는 방식으로는 B-spline free form deformation 방식을 사용할 수 있다.
도 11의 (c)를 참조하면, 그래프(1170)에 있어서, x 축은 제1 각도 구간(1161)에서부터 제2 각도 구간(1162) 사이의 각도 구간 또는 그에 대응되는 시간 구간을 나타내며, y 축은 대상체의 움직임 량에 대응되는 가중치(W) 값을 나타낸다. 이하에서는, ‘제1 각도 구간(1161)에서부터 제2 각도 구간(1162)을 포함하는 각도 구간 또는 그에 대응되는 시간 구간’을 ‘제1 시간 구간(1190)’이라 칭하겠다.
구체적으로, 그래프(1170)는 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 벡터장(Motion Vector Field)에 대응되는 정보로, 시간 시점에 대응되는 대상체의 움직임량을 나타내는 정보가 될 수 있다. 구체적으로, 그래프(1170)는 각 시간 시점에 대응되는 대상체의 표면의 움직임량을 나타내는 정보가 될 수 있다. 여기서, ‘각 시간 시점’이란 제1 시간 구간(1190)에 포함되는 임의의 시점이 될 수 있다.
제1 시간 구간(1190)의 시작 구간인 제1 각도 구간(1161)에서 획득된 제1 부분 영상(1110)을 기준 영상으로 하여, 제2 각도 구간(1162)에서 획득된 제2 부분 영상(1120)의 움직임 변화량을 측정하면, 제1 부분 영상(1110)의 움직임 량을 0%로, 제2 부분 영상(1120)의 움직임 량을 100% 로 매칭시킬 수 있다. 이하에서는, 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 량인 움직임 벡터장의 값을 가중치(W: weighting value) 값으로 표현하였다. 또한, 움직임 량은 움직임 벡터장에서 모든 움직임 벡터의 절대값의 합이 될 수 있다. 또한, 움직임 량은 가중치 값으로 환산하여 표현될 수 있다.
또한, 도 11의 (c)에 도시된 바와 같이, 대상체의 움직임 량을 나타내는 가중치(W)와 시간의 관계가 간단히 선형성(linear)을 갖는 경우를 예로 들면, 가중치와 시간은 도시된 그래프(1170) 형태를 가질 수 있다. 또는, 제1 정보에 대응되는 그래프(1170)의 형태는 사용자에 의해 임의로 정의 되거나, 대상체를 고려하여 최적화되어 설정될 수도 있다. 예를 들어, 대상체가 심장인 경우, 복원하고자 하는 시점에서 심장의 움직임 상태에 따라 그래프(1170)의 형태는 비선형(non-linear)적인 형태를 가질 수도 있다.
구체적으로, 대상체의 움직임 량과 시간이 선형적인 관계를 가질 때, 데이터 획득부(510)는 영 움직임 벡터장(zero motion vector field)과 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 량을 표현하는 움직임 벡터장을 각각 제1 가중치 및 제2 가중치에 매칭시킬 수 있다. 구체적으로, 영 움직임 벡터장(zero motion vector field)은 제1 시간 구간(1190)의 시작 지점에 대응되며, 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 량을 표현하는 움직임 벡터장은 제1 시간 구간(1190)의 끝 지점에 대응될 수 있다. 도 11의 (c)를 참조하면, 그래프(1170)에 있어서, 영 움직임 벡터장을 나타내는 가중치 0 값은 제1 시간 구간(1190)의 시작 지점(0도) 또는 t=0 시점에 매칭되고, 제1 부분 영상(1110)과 제2 부분 영상(1120) 간의 움직임 량을 표현하는 움직임 벡터장을 나타내는 가중치 1은 제1 시간 구간(1190)의 끝 지점인 180+a 각도 지점 또는 t=end 시점에 된다. 또한, 시간과 가중치가 서로 선형적인 관계를 갖는 경우를 예로 들어 도시하였다.
여기서, 제1 시점(t1)은 제1 부분 영상에 대응되고, 제2 시점(t2)은 제2 부분 영상에 대응된다. 예를 들어, 한주기 각도 구간(1160)에 해당하는 0.2초 중 0초부터 0.03초 구간에서 제1 부분 영상을 복원하기 위한 로 데이터의 획득한다고 하자. 그러면, 제1 시점은 0초부터 0.03초 구간의 중간 시간 0.015초의 시점이 될 수 있다. 즉, 소정 시간 구간에서 획득된 로 데이터를 이용하여 소정 영상을 복원한다고 할 때, 소정 영상에 대응되는 시점은 소정 시간 구간의 중간 시점이 될 수 있다. 또한, 제1 시점(t1)에 대응되는 제1 부분 영상(1110)은 X-ray 생성부(116)가 제1 시점(t1)에 대응되는 위치에서 대상체를 바라봤을 때의 뷰(view)에 대응될 수 있다. 또한, 제2 시점(t2)에 대응되는 제2 부분 영상(1120)은 X-ray 생성부(116)가 제2 시점(t2)에 대응되는 위치에서 대상체를 바라봤을 때의 뷰(view)에 대응될 수 있다.
또한, 제1 정보에 있어서, 가중치 값이 0부터 1 사이의 값을 가질 때, 최소 가중치인 0 은 제1 시간 구간(1190)내에서 대상체의 크기가 가장 작아지는 지점 또는 시점에서의 움직임 량에 대응되고, 최대 가중치 값인 1 은 제1 시간 구간(1190) 내에서 대상체가 가장 커지는 지점 또는 시점에서의 움직임 량에 대응될 수 있다.
또한, 제1 정보에 있어서, 움직임 량과 시간의 관계는 2차식(quadratic)에 의한 관계 또는 통계적 정보에 의해서 모델링 된 관계에 따라서 결정될 수 있다.
예를 들어, 대상체의 움직임 패턴을 통계적으로 모델링할 수 있다. 구체적으로, 대상체가 심장인 경우 심장의 움직임을 통계적으로 모델링하고, 모델링된 심장 움직임에 대응되도록 제1 시간 구간(1190)에서의 그래프(1170)의 형태를 설정할 수 있다.
또한, 대상체의 움직임 패턴을 나타내는 그래프의 형태는 대상체에 따라서 달라질 수 있다. 예를 들어, 대상체가 심장 전체인 경우 그래프의 형태는 심장 전체의 움직임 패턴을 반영할 수 있다. 또한, 대상체가 심장에 포함되는 관상동맥(coronary artery)인 경우, 그래프 형태는 관상 동맥의 움직임 패턴을 반영할 수 있다. 또한, 대상체가 심장에 포함되는 관상 동맥이라 하더라도, 심장 내에서의 관상 동맥의 위치에 따라서 움직임 패턴이 달라질 수 있으며, 관상 동맥의 위치 별로 움직임 정보인 그래프 형태를 다르게 설정할 수 있다. 또한, 대상체가 심장에 포함되는 승모판막(MV: Mitral Valve)인 경우, 그래프 형태는 승모판막의 움직임 패턴을 반영할 수 있다.
또한, 단층 영상을 이미징하고자 하는 대상체의 부분 영역들 별로 움직임 패턴이 다를 수 있다. 이 경우, 부분 영역들 별로 다른 움직임 패턴을 반영하도록, 부분 영역들 별로 움직임 정보를 획득할 수 있다. 그리고, 부분 영역들 별로 다르게 획득된 움직임 정보를 이용하여 부분 영역들 별로 움직임 보정을 수행하여, 대상체 전체를 나타내는 목표 영상을 복원할 수도 있을 것이다. 예를 들어, 대상체가 심장인 경우, 좌심실, 우심실, 좌심방, 및 우심방 각각에서 움직임 패턴이 달라질 수 있다. 이 경우, 좌심실, 우심실, 좌심방, 및 우심방 각각에서 움직임 정보를 개별적으로 획득하며, 좌심실, 우심실, 좌심방, 및 우심방 각각의 부분 영상의 움직임 보정을 수행하고, 움직임 보정된 부분 영상들을 합성하여 심장을 나타내는 목표 영상을 복원할 수 있다.
또한, 대상체의 움직임을 나타내는 그래프(1170)가 제1 부분 영상(1110) 및 제2 부분 영상(1120) 간의 움직임 변화를 더욱 정확하게 반영할 수 있도록, 그래프(1170)를 획득하는데 있어서, 한주기 각도 구간(1160) 전체에서 획득된 로 데이터를 이용하여 제1 각도 구간(1161)과 제2 각도 구간(1162) 사이의 각도 구간에서의 대상체의 움직임 변화를 예측할 수 있다.
예를 들어, 단층 영상 장치(500)는 목표 시점에서 그래프(1170)를 이용하여 복원된 목표 영상을 순방향 프로젝션(forward projection)하여 획득된 예측 프로젝션 데이터(estimated projection data)와 목표 시점에서의 단층 촬영에 의해서 획득된 측정 프로젝션 데이터(measured projection data)를 비교한다. 그리고, 단층 영상 장치(500)는 예측 프로젝션 데이터와 측정 프로젝션 데이터 간의 오차(error)가 작아지도록, 그래프(1170)를 수정할 수 있다. 전술한 바와 같이, 단층 영상 장치(500)는 그래프(1170)가 대상체의 움직임을 정확하게 반영할 수 있도록, 그래프(1170)를 반복적으로 수정할 수 있다.
도 12는 대상체의 움직임을 나타내는 정보에 근거하여 예측된 대상체의 움직임을 설명하기 위한 도면이다.
움직임 정보는 시간에 따른 대상체의 움직임을 나타내는 정보를 포함하므로, 움직임 정보를 알면, 소정 시점에서의 대상체의 움직임에 따른 상태를 예측할 수 있다. 구체적으로, 움직임 정보를 이용하여 전체 구간, 예를 들어, 360도 구간, 에서의 대상체의 상태 변화를 예측할 수 있다. 도 12에서는 설명의 편의 상, a 가 45도 인 경우를 예로 들어, 0 내지 225도 각도 구간에서의 대상체의 상태 변화만을 예로 들어 도시하였다. 예를 들어, 도 10에 도시된 움직임 정보인 그래프(1015)를 참조하면, 대상체(1205)는 일정 속도로 움직여서 시간에 따라서 일정한 속도로 팽창하게 된다. 도 12에 도시된 대상체의 상태 변화는 시간에 따라서 일정한 속도로 팽창하는 경우를 예로 들어 도시하였다. 도 12에 도시된 예시에 있어서, 대상체의 움직임량을 나타내는 정보, 예를 들어, 그래프(1015)는, 선형의 직선 형태를 가질 수 있을 것이다.
예를 들어, 제1 각도 구간(1211)에 대응되는 제1 시점(t11)에서 대상체(1205)는 제1 크기(1220)를 가지는 경우, 제어부(530)는 움직임 정보에 근거하여, 제2 시점(t12)에서의 대상체의 크기는 제1 크기(1220) 보다 제1 변화량(1242) 만큼 변화하는 것으로 예측할 수 있다. 그에 따라서 제2 시점(t12)에서의 대상체의 크기는 제2 크기(1221)를 갖는 것으로 예측할 수 있다.
또한, 제3 시점(t13)에서의 대상체의 크기는 제1 크기(1220) 보다 제2 변화량(1244) 만큼 변화하는 것으로 예측할 수 있으며, 그에 따라서 제3 시점(t13)에서의 대상체의 크기는 제3 크기(1222)를 갖는 것으로 예측할 수 있다. 그리고, 제4 시점(t14)에서의 대상체의 크기는 제1 크기(1220) 보다 제3 변화량(1246) 만큼 변화되는 것으로 예측할 수 있으며, 그에 따라서 제4 시점(t14)에서의 대상체의 크기는 제4 크기(1223)를 갖는 것으로 예측할 수 있다.
또한, 제2 시점(t12), 제3 시점(t13) 및 제4 시점(t14)에서의 대상체의 크기는 제5 크기(1230)를 갖는 대상체를 움직임 정보에 근거하여 축소시킴으로써 예측할 수도 있을 것이다.
구체적으로, 움직임 정보를 이용하여, 전체 구간, 예를 들어, 360도 각도 구간에 대응되는 시간 구간,에 포함되는 목표 시점에서의 대상체의 크기, 형태, 및 위치 중 적어도 하나를 포함하는 대상체의 상태를 예측할 수 있다. 도 12에 도시된 대상체의 움직임 예에서는, 제어부(530)는 움직임 정보를 이용하면, 목표 시점에서의 대상체의 상태 변화량을 예측할 수 있으며, 예측된 상태 변화량에 근거하여 대상체를 와핑(warping) 시켜서 목표 영상을 생성할 수 있다.
여기서, 대상체의 와핑은 대상체의 움직임 보정을 뜻하며, 움직임 정보를 이용하여 목표 시점에서의 대상체의 상태(예를 들어, 크기, 형태 및 위치 중 적어도 하나)를 예측하고, 예측된 상태에 맞춰 대상체의 움직임을 보정하여 목표 영상을 복원하는 것을 뜻한다.
구체적으로, 제어부(530)는 움직임 정보에 근거하여, 목표시점에서의 상기 대상체의 움직임량을 예측하고, 예측된 움직임량에 근거하여 목표 영상이 복원되도록 제어할 수 있다.
구체적으로, 제어부(530)는 움직임 정보에 근거하여, 대상체의 일부를 나타내는 복수개의 뷰(view) 별 영상들을 와핑(warping) 시켜 목표 영상을 복원할 수 있다. 와핑을 이용한 목표 영상의 복원은 이하에서 도 14 내지 도 17을 참조하여 상세히 설명한다.
도 13은 대상체의 움직임 측정을 설명하기 위한 일 도면이다.
도 13에서는 부분 각도 쌍에서 획득된 데이터 쌍을 이용한 제1 부분 영상과 제2 부분 영상 간의 움직임 량의 획득을 상세히 나타내는 도면이다.
도 13을 참조하면, X-ray 생성부(106)가 대상체(1305)를 중심으로 회전하며 획득한 제1 각도 구간(1301)에 해당하는 프로젝션 데이터들을 이용하여 제1 부분 영상(1350)을 획득한다. 제1 부분 영상(1350)에는 제1 물체(1306)에 포함된 표면들(1351, 1352) 및 제2 물체(1307)에 포함된 표면들(1353, 1354)이 나타난다. 또한, X-ray 생성부(106)가 대상체(1805)를 중심으로 회전하며 획득한 제2 각도 구간(1302)에 해당하는 획득된 프로젝션 데이터들을 이용하여 제2 부분 영상(1360)을 획득한다. 제2 부분 영상(1360)에는 제2 물체(1307)에 포함된 표면들(1361, 1632) 및 제2 물체(1307)에 포함된 표면들(1363, 1364)이 나타난다.
한주기 각도 구간내에 포함되는 각 뷰 또는 소정 각도 구간에서 획득된 프로젝션 데이터들은 대상체의 서로 다른 표면 또는 서로 다른 영역을 이미징하는데 기여한다.
제1 부분 영상(1350) 및 제2 부분 영상(1360) 내에는 대상체의 동일 부위에 대한 표면이 표시되므로, 제1 부분 영상(1350) 및 제2 부분 영상(1360)을 영상(1330)에서와 같이 비교하여, 대상체의 움직임을 나타내는 움직임 벡터장(MVF)(1380)을 획득한다. 움직임 벡터장(1380)에는 동일 부위 표면의 이동 방향 및 이동 정도(크기)를 나타내는 벡터(1381, 1382)들이 포함되어, 움직임 벡터장(1380)을 통하여, 제1 시점(T1)에서 제2 시점(T2) 사이의 대상체의 움직임을 나타내는 정보를 획득할 수 있다.
여기서, 제1 부분 영상(1350) 및 제2 부분 영상(1360)은 부분 각도 구간에서 획득된 프로젝션 데이터들을 이용하여 복원된 영상이므로, 시간 해상도가 높으며, 그에 따라서 모션 아티팩트가 최소화된 영상이 될 수 있다. 그에 따라서, 제1 부분 영상(1350) 및 제2 부분 영상(1360)을 비교하면, 대상체의 움직임을 정확하게 반영하는 제1 시점(T1)에서 제2 시점(T2) 사이의 대상체의 움직임을 나타내는 정보, 예를 들어, 그래프(1170),를 획득할 수 있다. 또한, 움직임 정보를 이용하면, 각 시간 시점, 예를 들어, T12 시점, T13 시점 또는 T14 시점에서의 대상체의 상태를 예측할 수 있다. 도 13을 참조하면, T12 시점에서는 대상체(1321)를 갖는 것으로 예측할 수 있으며, T13 시점에서는 대상체(1322)를 갖는 것으로 예측할 수 있으며, T14 시점에서는 대상체(1323)를 갖는 것으로 예측할 수 있을 것이다.
도 14는 목표 영상을 복원하는 동작을 설명하기 위한 다른 도면이다.
도 14에서는 도 12에서 설명한 전체 구간인 360도 구간 중 0 에서 225도 각도 구간에 대응되는 t=0 내지 t=end 구간 내에 포함되는 소정 시점을 목표 시점(T_target)으로 하여, 목표 영상을 복원하는 경우를 예로 들어 도시하였다. 또한, 목표 시점(T_target)은 t=0 내지 t=end 구간의 중간에 대응되는 시점인 경우를 예로 들어 도시하였다. 또한, 도 14에 도시된 움직임 정보(1480)는 도 11에 도시된 움직임 정보인 그래프(1015) 중 전체 구간 360도 중 t=0 내지 t=end에 대응되는 부분에 동일 대응될 수 잇다.
단층 영상 장치(500)는 대상체의 움직임을 나타내는 움직임 정보, 예를 들어, 움직임 정보에 따른 움직임 벡터장,을 이용하여 목표 시점(Ttarget)에서의 목표 영상을 복원할 수 있다.
움직임 정보(1480)를 이용하여, 목표 시점(Ttarget)에서의 대상체의 움직임 정도를 예측할 수 있다. 또는 움직임 정보(1480)를 이용하여, 목표 시점(Ttarget)에서의 대상체의 크기, 형태, 및 위치 중 적어도 하나를 포함하는 상태를 예측할 수도 있다.
도 13에서 전술한 바와 같이, 한주기 각도 구간 내에 포함되는 각 뷰 또는 소정 각도 구간에서 획득된 프로젝션 데이터들은 대상체의 서로 다른 표면 또는 서로 다른 영역을 이미징하는데 기여한다.
단층 영상 장치(500)는 목표 영상을 복원하는데 있어서, 목표 시점(Ttarget)에서 획득된 프로젝션 데이터에 의해 이미징되는 대상체의 표면 부위 또는 대상체의 영역을 제외한, 목표 시점(Ttarget) 이외의 시점에서 획득된 프로젝션 데이터들에 의해 이미징되는 대상체의 표면 부위 또는 대상체의 영역은 움직임 정보를 이용하여 움직임 보정(motion correction)을 수행할 수 있다.
또한, 도 14에서는 절반 복원 방식을 이용하여, 180+a 각도 구간에 해당하는 t=0 내지 t=end 시점에 대응되는 각도 구간에서 획득된 단층 데이터를 이용하여, 목표 영상(1470)을 복원하는 경우를 예로 들어 도시하였다. 또한, 이하에서는, 하나의 단층 영상인 목표 영상(1470)을 복원하기 위해서 필요한 데이터 구간인 180+a 각도 구간을 ‘한주기 각도 구간’이라 칭하겠다.
도 14에서는 설명의 편의 상, 한주기 각도 구간을 5개의 각도 구간(1401, 1402, 1403, 1404, 1405)으로 분할하고, 분할된 각도 구간 각각에서 획득된 프로젝션 데이터들을 역투영한 영상들이 도시된다. 구체적으로, 제1 각도 구간(1401)에서 획득된 프로젝션 데이터들을 역투영하여 부분 영상(1421)을 획득한다. 그리고, 제3 각도 구간(1402)에서 획득된 프로젝션 데이터들을 역투영하여 부분 영상(1431)을 획득한다. 그리고, 제4 각도 구간(1403)에서 획득된 프로젝션 데이터들을 역투영하여 부분 영상(1441)을 획득한다. 그리고, 제5 각도 구간(1404)에서 획득된 프로젝션 데이터들을 역투영하여 부분 영상(1451)을 획득한다. 또한, 그리고, 제2 각도 구간(1405)에서 획득된 프로젝션 데이터들을 역투영하여 부분 영상(1461)을 획득한다.
도 14에 있어서, 제1 각도 구간(1401), 제2 각도 구간(1405), 부분 영상(1421) 및 부분 영상(1461)은 각각 도 9a의 제1 각도 구간(911), 제2 각도 구간(912), 제1 부분 영상(932) 및 제2 부분 영상(942)과 동일 대응될 수 있다.
도 14을 참조하면, 목표 시점(Ttarget)을 t=0 시점과 t=end 시점의 중간 시점으로 설정한 경우가 예시된다. 목표 시점(Ttarget)에 인접한 각도 구간에서 획득된 프로젝션 데이터를 역투영하면 부분 영상(1441)에서와 같이 좌우 방향으로 배열되는 표면들(1442, 11443, 1444, 1445)만이 이미징된다. 부분 영상(1441)에서 이미징되지 않은 표면들은 한주기 각도 구간 중 목표 시점을 포함하는 각도 구간인 제4 각도 구간(1403)을 제외한 각도 구간들에서 획득된 프로젝션 데이터들을 이용하여 이미징한다.
단층 영상 장치(500)는 부분 영상(1441)에서 이미징되지 않은 표면들을 이미징하는데 있어서, 움직임 정보(1480)를 이용하여 블러링이 최소화되도록 움직임 보정을 수행할 수 있다.
구체적으로, 제1 각도 구간(1401)에서 획득된 부분 영상(1421)에 나타나는 표면들 또는 부분 영역들을 움직임 정보(1480)에 따라서 보정한다. 즉, 움직임 정보(1480)를 참조하면, 제1 각도 구간(1401)에서의 움직임 량(W)은 0 이고, 목표 시점(Ttarget)(1481)에서의 대상체의 움직임 량이 W1=0.5라고 하자. 그러면, 제1 각도 구간(1401)에 대응되는 부분 영상(1421) 내 포함되는 대상체를 움직임 량 W=0.5 만큼 와핑(warping)시켜야 목표 시점(Ttarget)에서의 대상체의 표면을 정확하게 획득할 수 있다. 따라서, 전체 움직임량(1423)에 대비하여 시작 시점(t=0)에서 목표 시점(Ttarget)까지 발생한 움직임 량(1424)에 근거하여, 부분 영상(1421)을 움직임 보정(motion correction)하여 보정된 부분 영상(1422)을 생성한다. 여기서, 전체 움직임 량(1424)은 움직임 정보(1480)에서 t=0 내지 t=end 사이에 발생한 움직임 량(W)=1 에 대응되며, 움직임 량(1424)은 ‘제1 각도 구간(1401)에 대응되는 시점인 t=0에서의 움직임 량(W)과 목표 시점(Ttarget)에서의 움직임 량(W1)의 차이 값’에 대응될 수 있다.
나머지 각도 구간들에서도 제1 각도 구간에서와 동일한 방식으로 움직임 보정을 수행한다. 구체적으로, 전체 움직임량(1423)에 대비하여 제3 시점(T12)에서 목표 시점(Ttarget)까지 발생한 움직임 량(1434)에 근거하여, 제3 각도 구간(1402)에서 획득된 프로젝션 데이터들을 역투영한 부분 영상(1431)을 움직임 보정(motion correction)하여 보정된 부분 영상(1422)을 생성한다.
또한, 전체 움직임량(1423)에 대비하여 끝 시점(t=end)에서 목표 시점(Ttarget)까지 발생한 움직임 량(1464)에 근거하여, 제2 각도 구간(1405)에서 획득된 프로젝션 데이터들을 역투영한 부분 영상(1461)을 움직임 보정(motion correction)하여 보정된 부분 영상(1462)을 생성한다. 또한, 전체 움직임량(1423)에 대비하여 제5 시점(T14)에서 목표 시점(Ttarget)까지 발생한 움직임 량(1454)에 근거하여, 제5 각도 구간(1404)에서 획득된 프로젝션 데이터들을 역투영한 부분 영상(1451)을 움직임 보정(motion correction)하여 보정된 부분 영상(1452)을 생성한다.
여기서, 목표 시점(Ttarget)을 기준으로, 목표 시점(Ttarget) 이전 시점에서 획득된 프로젝션 데이터들을 이용한 움직임 보정과 목표 시점(Ttarget) 이후 시점에서 획득된 프로젝션 데이터들을 이용한 움직임 보정은 상호 반대 방향으로 수행될 수 있다. 구체적으로, 움직임 정보(1480)를 참조하면, 목표 시점(Ttarget) 이전 시점에서는 움직임 량(W)이 증가하는 방향(1485)으로 움직임 보정을 수행하고, 목표 시점(Ttarget) 이후 시점에서는 움직임 량(W)이 감소하는 방향(1486)으로 움직임 보정을 수행한다. 따라서, 제1 시점(T1)에서의 전체 움직임 량(1423)의 방향과 제2 시점(T2)에서의 전체 움직임량(1423)을 반대 방향으로 도시하였다.
그리고, 보정된 부분 영상들(1422, 1432, 1452, 1462) 및 목표 시점(Ttarget)을 포함하는 제4 각도 구간(1403)에서 획득된 부분 영상(1441)을 이용하여 목표 시점(Ttarget)에 대응되는 목표 영상을 복원할 수 있다. 여기서, 보정된 부분 영상들(1422, 1432, 1452, 1462)은 목표 시점(Ttarget)에서의 대상체의 움직임 상태를 정확하게 반영하고 있으므로, 전술한 움직임 정보를 이용하여 움직임 보정되어 복원된 목표 영상은 모션 아티팩트가 최소화되어 생성될 수 있다.
도 14에 있어서, 부분 영상을 보정하는 것을 ‘와핑’이라고 칭할 수 있다. 구체적으로, 움직임 정보를 이용하여, 목표 시점에서의 대상체의 크기, 형태, 및/또는 위치 중 적어도 하나를 포함하는 상태를 예측할 수 있다. 그리고, 예측된 상태 변화량에 근거하여 대상체를 와핑(warping) 시켜서 목표 영상을 생성할 수 있다. 구체적으로, 대상체의 와핑은 대상체의 움직임 보정을 뜻하며, 움직임 정보를 이용하여 목표 시점에서의 대상체의 상태(예를 들어, 크기, 형태 및 위치 중 적어도 하나)를 예측하고, 예측된 상태에 맞춰 대상체의 움직임을 보정하여 목표 영상을 복원하는 것을 뜻한다. 이하에서는 도 15 내지 도 17을 참조하여, 와핑 동작을 상세히 설명한다.
도 15는 목표 영상을 복원하기 위해서 이용되는 와핑 동작을 설명하기 위한 일 도면이다.
단층 영상 장치(500)는 목표 영상을 복원하기 위해서, 한주기 각도 구간에 포함되는 복수개의 뷰에서 획득된 필터링된 프로젝션 데이터를 대상체를 나타내는 이미지 도메인(1501) 상으로 뿌려주는 역투영(back-projection)을 수행한다. 이하에서는, 이미지 도메인(1501)에 포함되는 일부 영역(1502)에 대한 역투영을 설명한다. 여기서, ‘영역(1502)’는 도시된 바와 같이 픽셀값들을 포함하는 영상 데이터가 될 수도 있으며, 픽셀값들에 의해서 이미징된 영상 자체가 될 수도 있다. 또한, ‘영역(1502)’은 대상체의 영상화를 위한 이미지 공간 자체가 될 수도 있다. 도 15에 있어서, 영역(1502)이 2차원으로 형성된 경우를 예로 들어 도시하였으나, 영역(1502)은 3차원으로 형성될 수도 있을 것이다.
도 15에서는 한주기 각도 구간 내의 제1 시점(T1)(도 14에 도시된 ‘T1’시점)에서 방향(1511)으로 엑스레이가 조사되어 획득된 필터링된 프로젝션 데이터(1510)를 역투영하는 경우를 예로 들어 설명한다. 여기서, 영역(1502)에 포함되는 영상 데이터들를 ‘역투영된 프로젝션 데이터’라 칭할 수 있다.
도 15를 참조하면, 단층 영상 장치(500)는 대상체를 이미징하기 위한 복수개의 필셀들로 구성되는 이미지 격자(image grid)를 움직임 정보에 근거하여 목표 시점(Ttarget)에서의 대상체의 움직임량에 따라서 와핑(warping)시키고, 와핑된 이미지 격자를 이용하여 목표 영상을 복원할 수 있다.
구체적으로, 도 15를 참조하면, 필터링된 프로젝션 데이터(1510)를 영역(1502)에 포함되는 이미지 격자(image grid)에 뿌려준다. 여기서, 필터링된 프로젝션 데이터(1510)를 이미지 공간인 이미지 격자 상으로 뿌려주는 것을 ‘역투영(back-projection)’이라 한다.
그에 따라서, 영역(1502)에는 도시된 바와 같은 픽셀 값들(1513)이 채워진다. 대상체에서 움직임 발생하지 않았다면, 각 뷰에 따른 필터링된 프로젝션 데이터(1510)를 누적하여 이미지 격자에 뿌려주면서 영상을 이미징하여도, 복원된 목표 영상에 움직임 아티팩트가 발생하지 않았을 것이다. 그러나, 한주기 각도 구간 동안에 대상체에 움직임이 발생하였다면, 복수개의 뷰 각각에서 획득된 복수개의 필터링된 프로젝션 데이터들에서 대상체의 동일 부위를 나타내는 표면들 간에 차이가 발생한다. 그에 따라서, 각 뷰에 따른 필터링된 프로젝션 데이터(1510)를 누적하여 이미지 격자에 뿌려주면서 영상을 이미징할 경우, 복원된 목표 영상에 움직임 아티팩트가 발생하게 된다.
본원의 실시예에서는 움직이는 대상체의 움직임 아티팩트를 최소화하기 위해서, 도 14에서 전술한 바와 같이 움직임 보정을 수행한다. 이하에서, 움직임 보정을 위한 이미지 격자의 와핑을 상세히 설명한다.
움직임 정보는 움직임 벡터장(MVF) 정보에 따라서 획득된 그래프(1015) 또는 전체 각도 구간에서의 움직임 벡터장(MVF)으로 표현될 수 있다. 도 15에서는 움직임 보정에 이용되는 움직임 정보가 대상체의 움직임을 나타내는 움직임 벡터장으로 표현된 경우를 예로 들어 도시하였다.
또한, 제1 시점(T1)에서 획득된 역투영된 프로젝션 데이터의 움직임 보정은 도 14에서 설명한 제1 시점(T1)에서 대상체를 나타내는 부분 영상(1421)의 움직임 보정에 이용된 움직임 량(1424)에 대응되는 움직임 벡터장(MVF)(1520)에 근거하여 수행될 수 있다.
단층 영상 장치(500)는 대상체의 움직임을 나타내는 움직임 정보를 이용하여, 영역(1502)과 동일 부위를 이미징하기 위한 이미지 격자(1530)를 해당 시점인 T1 시점에서 목표 시점까지 발생한 대상체의 움직임 량을 나타내는 움직임 벡터장에 따라서 와핑(warping)한다. 예를 들어, 이미지 격자(1530)에 있어서 좌측 상부 영역은 벡터(1381)에 따라서 와핑될 수 있다.
그에 따라서, 이미지 격자(1530)를 와핑시킨 이미지 격자(1540)가 생성된다. 단층 영상 장치(500)는 와핑된 이미지 격자(1540) 상으로 필터링된 프로젝션 데이터(1510)에 포함되는 픽셀값들을 뿌려준다. 그에 따라서, 영역(1502)에 동일 대응되는 영역(1535)에 도시된 바와 같이 픽셀 값들이 포함되게 된다. 영역(1535)에 있어서, 점선으로 표시되는 사각 이미지 격자(1541)는 와핑이 적용되지 않은 일반적인 이미지 격자를 나타낸다.
계속하여, 단층 영상 장치(500)는 와핑된 이미지 격자(1540)에 따른 픽셀값들을 포함하는 영역(1535)을 다시 사각 이미지 격자(1541)에 따른 픽셀값들을 포함하는 영역(1545)으로 리샘플링(resampling)한다. 구체적으로, 와핑된 이미지 격자(1540)에 따른 픽셀값들을 사각 이미지 픽셀 메트릭스(quadratic image pixel matrix)를 이용해 보간(interpolation)하여, 카테시안 좌표(cartesian coordinate)에 따른 픽셀값들로 변환한다.
이하에서는 와핑된 이미지 격자(1540)에 포함되는 픽셀값들(1542, 1543)을 사각 이미지 격자(1541)에 포함되는 픽셀값(1554)으로 리샘플링 하는 경우를 예로 들어 설명한다. 또한, 와핑된 이미지 격자(1540)에 포함되는 픽셀값들(1542, 1543)은 1547 블록에서 확대하여 도시하였다.
와핑된 이미지 격자(1540) 내의 픽셀(1542)은 신호값 ‘2’를 갖고, 와핑된 이미지 격자(1540) 내의 픽셀(1543)은 신호값 ‘1’을 갖는다. 즉, 픽셀(1542) 전체에 포함되는 영상 신호 값이 2가 되므로, 픽셀(1542) 내의 면적 비율로 신호값 ‘2’가 분산되어 포함된다. 따라서, 픽셀(1542) 전체 면적의 절반에 해당하는 부분 영역(1561)에는 신호값 ‘1’이 포함될 수 있다. 또한, 픽셀(1543) 전체에 포함되는 영상 신호 값이 1이 되므로, 픽셀(1543) 내의 면적 비율로 신호값 ‘1’이 분산되어 포함된다. 따라서, 픽셀(1542) 전체 면적의 절반에 해당하는 부분 영역(1562)에는 신호값 ‘0.5’가 포함될 수 있다. 또한, 부분 영역(1561) 및 부분 영역(1562)을 포함하는 사각 이미지 격자(1541, 2251)에 따른 픽셀(1554)에는 부분 영역(1561)의 신호값 ‘1’ 및 부분 영역(1562)의 신호값 ‘0.5’를 합한 신호값인 ‘1.5’가 포함될 수 있다.
그에 따라서, 리샘플링된 영역(1545)은 사각 이미지 격자(1551)에 따라 픽셀값들이 배치된다. 따라서, 영역(1535)에 포함되는 모든 픽셀값들(을 리샘플링하여, 영역(1545)에 포함되는 픽셀값들(1555)을 생성할 수 있다.
또한, 와핑된 이미지 격자에 따라 배치되는 픽셀값들을 사각 이미지 격자에 따라 배치되는 픽셀값들로 변환하는 방법은 전술한 예시 이외에도 다양한 방법이 적용될 수 있다.
또한, 한주기 각도 구간에 포함되는 복수개의 뷰에 대응되는 모든 역투영된 프로젝션 데이터들 각각에 대하여, 와핑을 이용한 움직임 보정을 수행하는 것으로, 움직임 보정을 수행할 수 있다. 그리고, 움직임 보정된 복수개의 역투영된 프로젝션 데이터들을 누적하여 목표 영상을 복원할 수 있다.
또한, 이미지 격자의 와핑을 통한 움직임 보정은 각 뷰 마다 수행되지 않고, 소정 각도 구간마다, 또는 복수개의 뷰를 그룹핑(grouping)하여 하나의 그룹에 포함되는 복수개의 뷰마다 수행될 수도 있다.
전술한 예에서와 같이, 단층 영상 장치(500)는 움직임 정보에 근거하여 와핑된 이미지 격자를 이용하여 움직임 보정된 영상 데이터(1570)를 생성할 수 있다. 그리고, 각 뷰에 대응되는 움직임 보정된 영상 데이터(예를 들어, 1570)을 이용하여 움직임 보정된 목표 영상을 복원할 수 있다.
도 16은 목표 영상을 복원하기 위해서 이용되는 와핑 동작을 설명하기 위한 다른 도면이다. 도 16에 있어서, 도 15에서와 중복되는 설명은 생략한다.
구체적으로, 단층 영상 장치(500)는 역투영된 영상을 움직임 정보에 따라서 와핑하여, 움직임 보정된 목표 영상을 생성할 수 있다. 구체적으로, 단층 영상 장치(500)는 역투영 과정에서, 단층 촬영으로 획득된 데이터에 대응되는 픽셀을 상기 움직임 정보에 근거하여 와핑시켜 목표 영상을 복원할 수 있다. 구체적으로, 단층 영상 장치(500)는 픽셀을 움직임 벡터장(MVF)에 따라서 목표 시점(Ttarget)에서의 대상체의 움직임량에 따라서 와핑(warping)할 수 있다.
도 16을 참조하면, 필터링된 프로젝션 데이터(1510)를 역투영하여 생성한 영상(또는 영상 데이터)(1630)의 픽셀들을 움직임 벡터장(1381)에 근거하여 와핑한다. 그에 따라서, 영상(1630) 내에 포함되는 픽셀값들(1631)은 움직임 벡터장에 근거하여 목표 시점(Ttarget)에서의 대상체의 움직임에 대응되도록 와핑된 영상(1635)으로 생성된다. 구체적으로, 필터링된 프로젝션 데이터(1611)가 와핑된 영상(1635) 내에서 픽셀값들(1636)에서와 같이 대응되며, 필터링된 프로젝션 데이터(1612)가 와핑된 영상(1635) 내에서 픽셀값들(1637)에서와 같이 대응된다.
그리고, 와핑된 영상(1635)을 도 15에서 설명한 방식으로 리샘플링(resampling)하여 움직임 보정된 영상(1655)을 생성한다. 움직임 보정된 영상(1655) 내에 포함되는 픽셀값들(1656)은 목표 시점(Ttarget)에서의 대상체의 움직임을 정확하게 반영하고 있다. 따라서, 최종적으로 복원되는 목표 영상 내에서 움직임 아티팩트가 최소화될 수 있다.
도 17는 목표 영상을 복원하는 동작을 설명하기 위한 다른 도면이다. 도 17에 있어서, 도 15 및 도 16에서와 중복되는 설명은 생략한다. 단층 영상 장치(500)는 움직임 정보에 근거하여 역투영(back-projection) 과정에서 움직임 보정을 수행할 수 있다. 구체적으로, 단층 영상 장치(500)는 움직임 정보에 근거하여, 대상체를 나타내는 복셀(voxel)의 중심을 와핑하고, 와핑된 복셀 위치를 기준으로 역투영하여 목표 영상을 복원할 수 있다. 여기서, 복셀은 대상체를 이미징하기 위한 가상의 3차원 격자 공간에서 하나의 단위 공간을 나타낸다. 도 17에서는 대상체를 이미징하기 위한 가상의 공간이 3차원 격자 공간인 복셀들 대신에 2차원 격자 공간인 픽셀들로 도시된 경우를 예로 들어 도시하였다.
구체적으로, 단층 영상 장치(500)는 목표 시점(Ttarget)에서 각 시점으로의 움직임 벡터장을 이용하여, 재구성하려는 영상 내의 소정 위치의 픽셀값이 각 시점에서의 움직임의 영향이 있을 때 어떤 디텍터 어레이(detector array) 내의 픽셀로부터 값을 참조해야 하는지를 찾아낼 수 있다. 목표 시점에서 대상체를 나타내는 복셀(voxel)의 관점에서 살펴보면, 목표시점 이외의 다른 시점의 뷰에서 여과된 프로젝션 데이터(filtered projection data)를 복셀에 역투영하기 위해서는 대상체의 움직임을 반영하여 복셀이 해당 시점에 어느 곳으로 이동해야 하는지를 계산하여야 한다. 그리고, 대상체의 움직임을 보상하기 위한 복셀의 이동량은 해당 시점에서 목표 시점으로의 움직임 벡터장의 역방향 움직임 벡터장(inverse motion vector field)을 이용하여 계산할 수 있다. 그리고, 계산된 이동량만큼 복셀의 위치를 옮긴 뒤 디텍터 어레이의 어떤 픽셀값에서 값을 가져와야 하는지를 계산할 수 있다.
구체적으로, 도 17을 참조하면, 단층 영상 장치(500)는 목표 시점(Ttarget)에서의 대상체의 움직임 량을 나타내는 움직임 벡터장(MVF)(1520)을 역변환(field inversion)하여 역변환된 움직임 벡터장(1710)을 생성한다. 그리고, 역변환된 움직임 벡터장(1710)을 이용하여, 역투영된 영상(1720) 내의 각각의 픽셀 의 위치를 이동시킨다.
예를 들어, 역변환된 움직임 벡터장(1710)에 포함되는 움직임 벡터들(1711, 2421, 2422, 2423)에 근거하여, 역투영 영상(1720) 내의 픽셀들의 위치를 각각 이동시킨다. 구체적으로, 벡터(1721) 및 벡터(1722)에 근거하여, 최상단 우측 첫 번째 픽셀을 이동(1731)시킨다. 그리고, 움직임 벡터(1723)에 근거하여, 역투영 영상(1722) 5번 행의 우측 첫 번째 픽셀을 이동(1732) 시킨다. 또한, 역변환된 움직임 벡터장(1710)에서 움직임이 감지되지 않은 영역(1727)의 픽셀 위치는 그대로 둔다.
계속하여, 단층 영상 장치(500)는 이동된 픽셀 위치를 고려하여, 소정 픽셀에서의 픽셀 값이 프로젝션 되었을 때 디텍터 어레이(detector array)의 어느 위치에 대응되는지 계산하여, 해당 위치에서 필터링된 프로젝션 데이터(1510)를 가져와 해당 픽셀(복셀)에 값을 누적시키는 것에 의하여 역투영 영상(1720)을 획득한다.
예를 들어, 역투영 영상(1750)에서 최상단 우측 첫 번째 픽셀(1751)은 이동(1731)된 위치를 고려하면, 픽셀(1751)의 중심은 필터링된 프로젝션 데이터(1510)의 지점(P1)에 있는 픽셀값을 이용하여 획득된다. 지점(P1)은 필터링된 프로젝션 데이터(1510)의 최상단 우측 첫 번째 픽셀(1756)의 중심에 위치하는 것이 아니라, 최상단 우측 두 번째 픽셀(1755) 쪽으로 치우쳐서 위치하므로, 픽셀(1756) 및 픽셀(1755)의 영향을 받게 된다. 그에 따라서, 픽셀(1751)은 픽셀(1756) 값 ‘0’ 및 픽셀(1755) 값 ‘1’에 기인하여, 도시된 바와 같이 픽셀값 ‘0.2’ 값을 가질 수 있다.
또한, 유사하게, 역투영 영상(1750)에서 5번 행의 우측 첫 번째 픽셀2452)은 픽셀의 이동(1732)에 따라서, 도시된 바와 같이 픽셀(1752)의 중심이 인접 픽셀(1757)과 픽셀(1752)의 표면에 위치한다. 따라서, 픽셀(1756) 및 픽셀(1755)로부터 동일 비율로 영향을 받게 된다. 따라서, 픽셀(1751)은 픽셀(1756) 값 ‘0’ 및 픽셀(1755) 값 ‘1’의 중간 값인 픽셀값 ‘0.5’ 값을 가질 수 있다.
전술한 바와 같이, 단층 영상 장치(500)는 도 15 및 도 16에서 설명한 와핑을 이용하지 않고, 역변환된 움직임 벡터장(field inversion MVF)을 이용하여 복셀을 와핑하여 움직임 보정된 역투영 영상을 획득할 수 있다. 그리고, 각 뷰별로 움직임 보정된 역투영 영상에 근거하여, 움직임 보정된 목표 영상(1770)을 획득할 수 있다.
전술한 바와 같이, 개시된 실시예는 전체 각도 구간, 예를 들어, 360도, 를 복수개의 부분 각도 쌍으로 분할하고, 부분 각도 쌍에 대응되는 부분 영상 쌍에 근거하여 시간 시점에서의 대상체의 움직임을 예측하면, 시간 해상도가 높은 복수개의 부분 영상 쌍을 이용하여 대상체의 움직임을 예측하게 되므로, 전체 구간 동안에 발생하는 대상체의 움직임을 정확하게 측정할 수 있다. 따라서, 대상체의 움직임을 정확하게 나타내는, 전체 구간에서의 대상체의 움직임을 나타내는 움직임 정보를 획득할 수 있고, 그에 따라서 전체 구간에 포함되는 각각의 시점에서의 대상체의 움직임을 더욱 정확하게 측정할 수 있다. 그리고, 정확하게 측정된 대상체의 움직임 상태에 근거하여 움직임 보정을 수행함으로써, 움직임 아티팩트를 감소시킬 수 있다. 그에 따라서 고화질의 목표 영상을 복원할 수 있다.
또한, 단층 영상 장치(500)는 이하와 같이 동작할 수 있으며, 이하의 동작은 도 18을 참조하여 상세히 설명한다.
도 18은 개시된 실시예에 따른 단층 영상 장치에서 이용되는 복수개의 모델을 나타내는 도면이다.
데이터 획득부(510)는 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득할 수 있다.
제1 부분 영상 및 제2 부분 영상 각각은 도 9a에서 설명한 제1 부분 영상(932) 및 제2 부분 영상(942)과 동일 대응되므로, 상세한 설명은 생략한다.
영상 처리부(520)는 제1 부분 영상 및 제2 부분 영상을 이용하여 제1 시점과 상기 제2 시점 동안의 상기 대상체의 움직임 량을 측정한다. 제1 부분 영상 및 제2 부분 영상을 이용한 대상체의 움직임 량 측정은 도 11의 (a) 및 (b)에서 설명하였으므로, 상세한 설명은 생략한다. 그리고, 측정된 움직임 량에 근거하여 설정된 제1 시점과 제2 시점 사이의 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 제1 시점과 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원한다.
여기서, 복수개의 모델 각각은 소정 시간인 제1 시점과 제2 시점 사이의 시간 구간 동안에 대상체의 움직임을 나타내는 정보로, 도 11의 (c)에서 상세히 설명한 대상체의 움직임을 나타내는 정보인 그래프(1170)에 대응될 수 있다. 구체적으로, 복수개의 모델들 각각은 시간에 따른 대상체의 움직임량을 나타내는 대상체의 움직임 모델을 뜻하며, 도 11의 (c)에 도시된 그래프(1170)에서와 같이, 시간에 따른 움직임량에 대응되는 가중치 값을 표현하는 그래프로 표현될 수 있다.
다만, 복수개의 모델들은 서로 다른 형태를 가질 수 있다. 구체적으로, 도 11의 (c)에 있어서, 그래프(1170)는 선형적인 형태를 갖는 경우를 예로 들어 도시하였으나, 복수개의 모델 각각을 나타내는 그래프는 다양한 형태를 가질 수 있다.
구체적으로, 복수개의 모델은 제1 시점 및 상기 제2 시점 동안에 일정하지 않은 속도(non-constant velocity)로 움직이는 상기 대상체의 움직임 형태를 나타내는 모델을 적어도 하나 포함할 수 있다.
구체적으로, 복수개의 모델은 제1 시점과 제2 시점 간의 움직임 량은 동일하며 제1 시점과 상기 제2 시점 사이 동안의 대상체의 움직임 형태가 서로 다를 수 있다. 여기서, 복수개의 모델들 모두에서, 제1 시점과 제2 시점 간의 움직임 량은, 제1 부분 영상과 제2 부분 영상 간의 움직임 벡터장에 따른 움직임 량이 된다.
도 18의 (a)를 참조하면, 복수개의 모델들은 도 18의 (a)에 도시된 그래프들과 같은 형태를 가질 수 있다.
도 18의 (a)를 참조하면, 도 11의 (c)에 도시된 그래프(1170)와 동일하게 선형적인 형태를 갖는 그래프(1811)는 일정한 속도로 움직이는 대상체의 움직임 형태를 나타내는 모델이다. 그래프(1811)를 제외한 그래프들, 예를 들어, 그래프(1810)는 90도 각도 지점에 대응되는 시점에서 대상체의 움직임 속도가 변화되는 것을 표현하는 움직임 모델로, 90도 각도 지점 이전에는 대상체가 일정 속도로 상태 변화하다가, 90도 각도 지점 이후에는 대상체가 움직이지 않는 것을 표현한다.
또한, 도 18의 (b)를 참조하면, 복수개의 모델들은 도 18의 (b)에 도시된 그래프들과 같은 형태를 가질 수 있다.
도 18의 (b)를 참조하면, 복수개의 모델들은 서로 다른 움직임 형태를 표현하며, 1850 그래프에서와 같이 45도 각도 지점에서 움직임의 속도가 변화하는 모델, 1851 그래프에서와 같이 45도 각도 지점 및 90도 각도 지점에서 움직임의 속도가 변화하는 모델, 및 1851 그래프에서와 같이 135도 각도 지점에서 움직임의 속도가 변화하는 모델 등을 포함할 수 있다.
도 18의 (a) 및 (b)에서는 설명의 편의 상, 복수개의 모델들이 180도 각도 구간 동안에 움직임량을 표현한 경우를 예로 들어 도시하였다. 그러나, 절반 복원 방식으로 단층 영상을 복원할 경우 복수개의 모델들은 180+a 각도 구간 동안에 대상체의 움직임량을 표현할 것이며, 전체 복원 방식으로 단층 영상을 복원할 경우 복수개의 모델들은 360+a 각도 구간 동안에 대상체의 움직임량을 표현할 것이다.
또한, 복수개의 모델들의 형태는 단층 촬영의 대상이 되는 대상체의 움직임 형태에 근거하여 설정될 수 있다. 예를 들어, 심장을 단층 촬영할 경우, 통계적으로 심장의 움직임 형태로 발생 빈도가 높은 복수개의 움직임 형태들이 반영되도록 복수개의 모델들의 형태를 설정할 수 있다.
또한, 복수개의 모델들의 형태는 사용자가 자체적으로 설정할 수도 있을 것이다. 예를 들어, 사용자는 복수개의 모델들의 형태를 사용자 인터페이스부(550)를 통하여 설정할 수도 있을 것이다.
제어부(530)는 복수개의 모델 각각에 근거하여 복원된 복수개의 목표 영상의 화질을 측정하고, 측정된 화질에 근거하여 복수개의 모델 중 하나를 선택한다. 그리고, 선택된 모델에 근거하여 목표 시점에서 대상체를 나타내는 최종 목표 영상이 복원되도록 제어한다.
구체적으로, 제어부(530)는 복수개의 모델 각각에 근거하여, 움직임 보정을 수행하여 목표 영상을 복원할 수 있다. 모델이 움직임 정보에 대응되며, 움직임 정보에 근거한 움직임 보정은 도 12 내지 도 17을 참조하여 상세히 설명하였으므로, 모델에 근거한 움직임 보정에 대한 구체적인 설명은 생략한다.
제어부(530)는 복수개의 모델 각각을 적용하여 목표 영상을 복원하므로, 단층 영상 장치(500)는 복수개의 모델 각각에 대응되는 복수개의 목표 영상을 획득할 수 있다. 제어부(530)는 복수개의 목표 영상 중 측정된 화질이 최고가 되는 제1 목표 영상에 대응되는 모델을 선택할 수 있다. 그리고, 선택된 모델에 근거하여 움직임 보정된 최종 목표 영상이 복원되도록 제어할 수 있다.
여기서, 영상의 품질은 영상 번짐(image blur) 발생 정도 및 영상의 해상도 중 적어도 하나의 값을 측정하기 위한 영상 품질 메트릭(image quality metric)을 이용하여 측정될 수 있다. 영상 품질 메트릭은 영상의 화질을 결정짓기 위한 정량적인 기준으로, 물리적이거나 심리적인 변수를 사용하여 측정할 수 있다.
예를 들어, 영상 품질 메트릭은 변조 전달 함수(MTF: Modulation Transfer Function)과 같은 물리적인 파라미터 혹은 사용자의 대조 민감도 함수(CSF: Contrast Sensitivity Function)과 같은 심리적인 파라미터로 형성될 수 있다.
또 다른 예로, 히스토그램 기반의 영상 번짐 측정 메트릭을 사용하여, 영상 품질을 측정할 수도 있다. 메트릭을 측정하고자 하는 영역의 히스토그램을 구한 후, 이를 이용하여 엔트로피를 계산하여 해당 영역의 영상 번짐 정도를 측정할 수 있다.
전술한 영상 품질 메트릭은 C. Rohkohl, H. Bruder, K. Stierstorfer, and T. Flohr의 논문인 Improving best-phase image quality in cardiac CT by motion correction with MAM optimization, Med. Phys., vol. 40, no. 3, 2013.에 상세히 설명된다.
이러한 다양한 파라미터인 품질 평가를 위한 척도들을 결합하여 영상의 화질을 결정지을 수 있다.
구체적으로, 제어부(530)는 영상 품질 메트릭에 따라서 복수개의 모델에 대응되는 복수개의 목표 영상 각각에서 화질을 측정하고, 측정된 화질 중 화질이 최고값을 갖는 목표 영상에 대응되는 모델을 선택할 수 있다.
전술한 바와 같이, 복원된 영상의 화질에 근거하여 복수개의 모델 중 하나를 선택하고, 선택된 모델을 이용하여 움직임 보정을 사용하면, 높은 화질을 갖는 목표 영상을 최종적으로 획득할 수 있다.
또한, 단층 영상 장치(500)는 이하와 같이 동작할 수 있으며, 이하의 동작은 도 19 내지 도 26을 참조하여 상세히 설명한다.
데이터 획득부(410)는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득할 수 있다. 제1 영상 및 제2 영상의 획득은 이하에서 도 19 내지 도 20을 참조하여 상세히 설명한다.
제어부(430)는 제1 영상 및 제2 영상 각각을 복수개의 영역으로 분할하고, 복수개의 영역 각각에서의 제1 영상과 제2 영상을 이용하여 제1 시점과 제2 시점 사이의 대상체의 움직임을 나타내는 부분 움직임 모델을 획득할 수 있다. 그리고, 복수개의 영역 각각에 대응되는 복수개의 부분 움직임 모델에 근거하여 복수개의 영역을 포함하는 전체 영역에서 대상체의 움직임을 나타내는 전체 움직임 모델을 획득할 수 있다.
영상 처리부(420)는 전체 움직임 모델에 근거하여 제1 시점과 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원할 수 있다. 대상체의 움직임 정보인 전체 움직임 모델에 근거한 움직임 보정은 도 12 내지 도 17을 참조하여 설명한 움직임 보정과 동일하므로, 상세 설명은 생략한다.
도 19는 개시된 실시예에 따른 단층 영상 장치의 동작을 설명하기 위한 다른 도면이다.
데이터 획득부(510)는 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득한다. 구체적으로, 제1 영상 및 제2 영상은 동일 대상체를 서로 다른 시점에서 단층 촬영하여 획득된 영상이 된다. 개시된 실시예에서는 제1 영상 및 제2 영상을 데이터 획득부(510)가 획득하는 경우를 예로 들어 설명하였으나, 데이터 획득부(510)는 제1 영상 및 제2 영상의 복원에 필요한 단층 데이터만을 획득하고, 획득된 단층 데이터에 근거한 제1 영상 및 제2 영상의 복원은 영상 처리부(520)에서 수행할 수도 있다.
이하에서는 로 데이터로 복수개의 프로젝션 데이터들을 포함하는 사이노그램(sinogram)을 예로 들어 설명하며, 제1 영상 및 제2 영상이 3차원 단층 영상이 경우를 예로 들어 설명한다. 또한, 제1 영상 및 제2 영상은 절반 복원 방식 또는 전체 복원 방식에 의해서 복원된 완전한 영상이 된다.
구체적으로, 사용자가 소정 시간 구간 내에 포함되는 시점에서 대상체에 대한 단층 영상을 복원하고자 하는 경우, 제1 시점은 소정 시간 구간 내의 하한값에 대응될 수 있으며, 제2 시점은 소정 시간 구간의 상한값에 대응될 수 있다. 예를 들어, 사용자가 t1부터 t2 사이의 시간 구간에 포함되는 일 시점에 심장의 단층 영상을 복원하고 싶은 경우, 제1 시점은 t1이 될 수 있으며, 제2 시점은 t2가 될 수 있을 것이다. 또한, t1부터 t2 사이의 시간 구간을 전체 시간 구간이라 하며, 전체 시간 구간은 도시된 P1, P2 또는 P3를 나타낸다. 예를 들어, t1 부터 t2 사이의 시간 구간은 심장의 박동 주기가 될 수 있다.
도 19을 참조하면, 데이터 획득부(510)는 제1 시점(t1)에 대응되는 제1 시간 구간(P11)에서 사이노그램(1921)을 획득하고, 제2 시점(t2)에 대응되는 제2 시간 구간(P12)에서 사이노그램(1922)을 획득할 수 있다. 그리고, 사이노그램(1921)을 이용하여 제1 영상(1950)을 복원하고, 사이노그램(1922)을 이용하여 제2 영상(1960)을 복원할 수 있다. 예를 들어, 제1 시점(t1)은 제1 시간 구간(P11)의 중간 지점이 될 수 있으며, 제2 시점(t2)은 제2 시간 구간(P12)의 중간 지점이 될 수 있다.
도 19에서는 여과 역투영법(Filtered Back Projection)을 이용하여 단층 영상을 복원하는 경우를 예로 들어 설명한다.
구체적으로, 데이터 획득부(510)는 심전도 신호(ECG signal)의 복수개의 주기들에서 제1 영상(1950)을 생성하기 위한 복수개의 제1 시간 구간들(P11, P21, P31)을 게이팅한다. 그리고, 제1 시간 구간들(P11, P21, P31) 각각에서 사이노그램(1921, 1931, 1941)을 획득한다. 그리고, 데이터 획득부(510)는 심전도 신호(ECG signal)의 복수개의 주기들에서 제2 영상(1960)을 생성하기 위한 복수개의 제2 시간 구간들(P12, P22, P32)을 게이팅한다. 그리고, 제2 시간 구간들(P12, P22, P32) 각각에서 사이노그램(1922, 1932, 1942)을 획득한다. 그리고, 데이터 획득부(510)는 사이노그램(1921, 1931, 1941)을 역투영(back-projection)하여 제1 영상(1950)을 복원하고, 사이노그램(1922, 1932, 1942)을 역투영(back-projection)하여 제2 영상(1960)을 복원할 수 있다.
도 19에서는, 제1 영상(1950) 및 제2 영상(1960)을 복원하기 위하여, 복수개의 시간 구간들에서 획득된 사이노그램을 이용하는 경우를 예로 들어 도시하였으나, 제1 영상(1950) 및 제2 영상(1960)은 하나의 시간 구간에 획득된 사이노그램을 이용하여 복원된 영상이 될 수도 있다.
이하에서는, 심전도 게이팅을 이용한 제1 영상(1950) 및 제2 영상(1960)의 복원을 이하에서 도 20을 참조하여 상세히 설명한다.
도 20은 대상체의 움직임 측정에 이용되는 제1 영상 및 제2 영상의 획득을 설명하기 위한 도면이다.
도 20은 제1 영상 및 제2 영상 복원을 설명하기 위한 도면이다. 구체적으로, 도 20의 (a)는 제1 영상(2020)의 생성 동작을 설명하기 위한 도면이다. 그리고, 도 20의 (b)는 제2 영상(2050)의 생성 동작을 설명하기 위한 도면이다. 도 20에 있어서, 제1 영상(2020) 및 제2 영상(2050) 각각은 도 19에서 설명한 제1 영상(1950) 및 제2 영상(1960)에 동일 대응된다.
도 20에서는 제1 영상(2020) 및 제2 영상(2050)이 심장을 부피감 있게 표현하는 3차원 단층 영상인 경우를 예로 들어 도시하였다. 또한, 복원되는 3차원 단층 영상은 새지털 뷰(sagittal view), 코로날 뷰(coronal view), 트랜스엑슈얼 뷰(transaxial view) 등에 따른 다양한 뷰를 나타내도록 복원될 수 있다. 또한, 단층 영상 장치(500)가 복원하는 제1 영상 및 제2 영상은 2차원 단층 영상이 될 수도 있다.
도 20의 (a)를 참조하면, 데이터 획득부(510)는 심전도 신호(2000)를 게이팅하여, 심장의 움직임이 최소화되는 복수개의 시간 구간들(P11, P21, P31, P41, P51)을 추출한다. 그리고, 추출된 복수개의 시간 구간들(P11, P21, P31, P41, P51)에서 획득된 사이노그램을 이용하여 복수개의 부분 영상들(2021, 2022, 2023, 2024, 2025)을 복원한다. 도 20의 (a) 에 있어서, P11, P21, 및 P31 구간 각각은 도 10의 P11, P21, 및 P31 구간과 동일 대응된다.
구체적으로, 데이터 획득부(510)는 P11에서 획득된 사이노그램을 이용하여 제1 영상 구간(2021)을 복원하고, P21에서 획득된 사이노그램을 이용하여 제2 영상 구간(2022)을 복원하고, P31에서 획득된 사이노그램을 이용하여 제3 영상 구간(2023)을 복원한다. 그리고, P41에서 획득된 사이노그램을 이용하여 제4 영상 구간(2024)을 복원하고, P51에서 획득된 사이노그램을 이용하여 제5 영상 구간(2025)을 복원한다.
그리고, 복원된 복수개의 영상 구간들(2021. 2022, 2023, 2024, 2025)을 합성하여 제1 영상(2020)을 복원할 수 있다.
도 20의 (b)를 참조하면, 데이터 획득부(510)는 심전도 신호(2000)를 게이팅하여, 심장의 움직임이 최소화되는 복수개의 시간 구간들(P12, P22, P32, P42, P52)을 추출한다. 그리고, 추출된 복수개의 시간 구간들(P12, P22, P32, P42, P52)에서 획득된 사이노그램을 이용하여 복수개의 부분 영상들(2051, 2052, 2053, 2054, 2055)을 복원한다. 도 20의 (b) 에 있어서, P12, P22, 및 P32 구간 각각은 도 10의 P12, P22, 및 P32 구간과 동일 대응된다.
구체적으로, 데이터 획득부(510)는 P12에서 획득된 사이노그램을 이용하여 제1 영상 구간(2051)을 복원하고, P22에서 획득된 사이노그램을 이용하여 제2 영상 구간(2052)을 복원하고, P32에서 획득된 사이노그램을 이용하여 제3 영상 구간(2053)을 복원한다. 그리고, P42에서 획득된 사이노그램을 이용하여 제4 영상 구간(2054)을 복원하고, P52에서 획득된 사이노그램을 이용하여 제5 영상 구간(2055)을 복원한다.
그리고, 복원된 복수개의 영상 구간들(2051, 2052, 2053, 2054, 2055)을 합성하여 제2 영상(2050)을 복원할 수 있다.
도 19 및 도 20에서 설명한 제1 영상 및 제2 영상은 움직임 보정이 수행되기 이전에 1차적으로 복원된 단층 영상으로 ‘초기 영상(initial image)’이라 칭할 수 있다.
제1 영상(2020)은 제1 시점(t1)에서의 대상체를 나타내는 영상이 되며, 제1 시간 구간에서 획득된 프로젝션 데이터들을 이용하여 복원된 영상이 될 수 있다. 또한, 제2 영상(2050)은 제2 시점(t2)에서의 대상체를 나타내는 영상이 되며, 제2 시간 구간에서 획득된 프로젝션 데이터들을 이용하여 복원된 영상이 될 수 있다.
제어부(530)는 제2 영상 및 제2 영상 각각을 복수개의 영역으로 분할한다. 영역 분할은 도 21을 참조하여 상세히 설명한다.
도 21은 제1 영상 및 제2 영상을 이용한 움직임 측정을 설명하기 위한 일 도면이다.
도 21을 참조하면, 제1 영상(2110) 및 제2 영상(2120)은 각각 도 19의 제1 영상(1950) 및 제2 영상(1960)에 동일 대응된다. 제어부(530)는 제1 영상(2110) 및 제2 영상(2120) 각각을 도시된 바와 같이 복수개의 영역들로 분할한다. 여기서, 분할되는 영역의 개수는 복원되는 단층 영상의 목표 화질, 단층 영상 장치(500)의 성능 등을 고려하여 자체적으로 결정될 수 있다. 또는 분할되는 영역의 개수는 사용자가 사용자 인터페이스부(550)를 통하여 설정할 수 있다.
그리고, 제어부(530)는 제1 영상(2110) 및 제2 영상(2120)의 분할 영역 별로 대상체의 움직임을 나타내는 부분 움직임 모델을 획득한다. 구체적으로, 제어부(530)는 제1 영상(2110) 및 제2 영상(2120)을 비교하여 제1 영상(2110) 및 제2 영상(2120) 간의 움직임, 예를 들어, 움직임 벡터장,을 구한 후, 분할 영역 별로 움직임 정보를 획득할 수 있다.
여기서, 부분 움직임 모델은 분할 영역에서의 시간에 따른 대상체의 움직임을 나타내는 정보로, 이하에서 도 22를 참조하여 상세히 설명한다.
도 22는 제1 영상 및 제2 영상을 이용한 움직임 측정을 설명하기 위한 다른 도면이다.
구체적으로, 도 22의 (a)는 제1 영상(2210)과 제2 영상(2220)의 비교 동작을 설명하기 위한 도면이다. 도 22의 (b)는 제1 영상(2210)과 제2 영상(2220)간의 움직임 량을 나타내는 도면이다. 도 22의 (c)는 부분 움직임 모델을 설명하기 위한 도면이다.
이하에서는 ‘제1 영역 내의 분할 영역(예를 들어, 도 21의 2130)’을 ‘제1 분할 영상’이라 칭하고, ‘제2 영역 내의 분할 영역(예를 들어, 도 21의 2150)’을 ‘제2 분할 영상’이라 칭하겠다.
제1 영상(2210)은 제1 시점(t1)에서의 대상체를 나타내는 영상이 되며, 제1 시간 구간(2261)에서 획득된 프로젝션 데이터들을 이용하여 복원된 영상이 될 수 있다. 또한, 제2 영상(2220)은 제2 시점(t2)에서의 대상체를 나타내는 영상이 되며, 제2 시간 구간(2262)에서 획득된 프로젝션 데이터들을 이용하여 복원된 영상이 될 수 있다.
도 22의 (a)에 있어서, 제1 영상(2210) 및 제2 영상(2220)은 각각 도 21의 제1 영상(2110) 및 제2 영상(2120) 에 동일 대응된다.
이하에서는, 제1 영상(2210) 및 제2 영상(2220)이 2차원 영상인 경우로, 대상체의 표면이 영상 내에서 경계로 도시된 경우를 예로 들어 설명한다.
도 22의 (a)를 참조하면, 제1 영상(2210) 및 제2 영상(2220)은 움직이는 대상체를 촬영한 단층 영상을 도식화하였다. 또한, 도 22의 (a)에서는 하나의 영상 내에 포함되는 적어도 하나의 대상체(2211 및 2212, 또는 2221 및 2222)는 도시된 바와 같이 원형 물체로 표현되었다.
구체적으로, 대상체의 움직임량을 비교하기 위하여, 제1 영상(2210)에 포함되는 대상체(2211, 2212)와 제2 상(2220)에 포함되는 대상체(2221, 2222)를 비교한다. 그리고, 비교 결과에 따라서, 비교 영상(2230)에 도시된 바와 같이 대상체의 움직임 량을 구할 수 있다.
서로 다른 두 영상을 비교하여 대상체의 움직임량을 구하는 것은, 도 11의 (a) 및 (b)에서 설명한 바와 동일하므로, 상세 설명은 생략한다.
도 22의 (c)에서는, 제1 영상(2210)과 제2 영상(2220)을 이용하여, 분할된 부분 영역에서의 시간에 따른 대상체의 움직임을 나타내는 부분 움직임 정보를 그래프(2270) 형태로 도시하였다. 또한, 그래프(2270)에서는 시간 구간(2260) 동안의 대상체의 움직임 량을0 내지 1 값으로 정량화하여 표현하였다. 이하에서는 도 22의 (c)에 도시된 그래프(2270)와 같이 표현된 부분 움직임 모델에 있어서, 대상체의 움직임 량에 대응되는 Y축의 값을 ‘가중치 값’이라 한다. 또한, 도 22의 (c)에 도시된 대상체의 움직임량을 나타내는 정보인 부분 움직임 모델은 도 10의 (c)에서 도시한 그래프와 대응되므로, 도 11의 (c)에서와 중복되는 설명은 생략한다.
도 22의 (b)에서 측정된 제1 시점과 제2 시점 간에 발생한 대상체의 움직임량에 근거하여, 도 22의 (c)에 도시된 바와 같이 제1 시간 구간(2261)을 시작으로 하여 제2 시간 구간(2262)를 끝으로 하는 전체 시간 구간(2260)에서 시간에 따른 대상체의 움직임량을 나타내는 부분 움직임 모델을 획득할 수 있다.
또한, 도 22의 (c)에 도시된 바와 같이, 부분 움직임 모델에 있어서 가중치 값과 시간은 선형성(linear)을 가질 수 있다.
또한, 부분 움직임 모델에 있어서 가중치 값과 시간의 관계를 나타내는 그래프의 형태는 대상체의 움직이 패턴에 대응되는 형태를 가질 수 있다. 예를 들어, 전체 시간 구간(2260)이 비교적 긴 경우, 예를 들어, 전체 시간 구간(2260)이 1-2 초 값을 가지는 경우, 부분 움직임 모델에서 가중치 값과 시간의 관계는 2차식(quadratic)에 의한 관계 또는 통계적 정보에 의해서 모델링 된 관계에 따라서 결정될 수 있다.
예를 들어, 대상체의 움직임 패턴을 통계적으로 모델링할 수 있다. 구체적으로, 대상체가 심장인 경우 심장의 움직임을 통계적으로 모델링하고, 모델링된 심장 움직임에 대응되도록 부분 움직임 모델에서 부분 움직임 모델(2270)의 형태를 설정할 수 있다.
또한, 부분 움직임 모델에 있어서, 가중치 값과 시간의 관계를 나타내는 그래프의 형태는 초기 설정된 형태를 가질 수 있다. 또한, 부분 움직임 모델에 있어서, 가중치 값과 시간의 관계를 나타내는 그래프의 형태는 사용자 인터페이스 부(650)를 통하여 사용자가 그래프의 형태를 설정할 수도 있다.
또한, 부분 움직임 모델에 있어서, 대상체의 움직임 패턴을 나타내는 그래프(2270)의 형태는 대상체의 부위에 따라서 달라질 수 있다. 예를 들어, 대상체가 심장 전체인 경우 부분 움직임 모델에 있어서 그래프의 형태는 대응되는 영역에 포함되는 심장 부분의 움직임을 반영할 수 있다.
부분 움직임 모델은 분할된 복수개의 영역들 각각에 대하여 획득될 수 있다. 예를 들어, 도 21에 도시된 제1 영상(2110) 및 제2 영상(2120)이 각각 도시된 바와 같이 18개의 영역으로 분할된 경우, 18개의 분할 영역에 대응되는 18개의 부분 움직임 모델을 획득할 수 있다.
단층 영상을 이미징 하고자 하는 대상체는 대상체에 포함되는 부분 영역들 별로 움직임 패턴이 다를 수 있다. 이 경우, 부분 영역들 별로 다른 움직임 패턴을 반영하도록, 부분 영역들 별로 부분 움직임 모델을 획득할 수 있다. 그리고, 부분 영역들 별로 다르게 획득된 부분 움직임 모델들에 근거하여 목표 영상의 움직임 보정을 수행할 수 있을 것이다.
예를 들어, 대상체가 심장인 경우, 좌심실, 우심실, 좌심방, 우심방, 및 관상동맥 각각에서 움직임 패턴이 달라질 수 있다. 이 경우, 좌심실, 우심실, 좌심방, 우심방, 및 관상동맥 각각에서 부분 움직임 모델을 개별적으로 획득하며, 좌심실, 우심실, 좌심방, 우심방, 및 관상동맥 각각의 부분 영상의 움직임 보정을 수행하고, 움직임 보정된 부분 영상들을 합성하여 심장을 나타내는 목표 영상을 복원할 수 있다.
구체적으로, 제어부(530)는 복수개의 분할 영역들 각각에 대응되는 복수개의 부분 움직임 모델들을 획득하고, 부분 움직임 모델들에 근거하여 대상체의 전체적인 움직임을 나타내는 전체 움직임 모델을 획득할 수 있다. 구체적으로, 복수개의 부분 움직임 모델 중 적어도 두 개를 인터폴레이션(interpolation) 하여, 제1 시점과 상기 제2 시점 동안의 전체 영역에서 포함되는 복수개의 복셀들 각각의 움직임을 나타내는 전체 움직임 모델을 획득할 수 있다.
일 부분 영역에서 발생한 움직임은 인접한 다른 부분 영역들에 영향을 줄 수 있다. 따라서, 부분 움직임 모델들을 결합하여 전체 움직임 모델을 생성하는데 있어서, 일 부분 영역의 움직임과 인접하는 다른 부분 영역들의 움직임 상호간을 인터폴레이션하여, 전체 움직임 모델을 생성할 수 있다.
예를 들어, 부분 움직임 모델들 상호간을 인터폴레이션하여 전체 움직임 모델을 하는데 있어서, 제어부(530)는 부분 영역들 별로 적어도 하나의 제어 지점(control point)을 설정하고, 설정된 일 제어지점에서의 움직임을 상기 일 제어지점에 인접한 적어도 하나의 제어 지점의 움직임과 인터폴레이션할 수 있다.
도 21을 참조하면, 분할 영역 내의 중심 픽셀에 제어 지점(control point)(2141, 2142, 2143, 2144, 2145, 2146, 2147, 2148)를 설정한 경우를 예로 들어 도시하였다. 영상의 중심부에 위치하는 분할 영역에 포함되는 제어 지점(2141)과 대응되는 제어지점(2167) 간의 움직임과, 제어 지점(2141)에 인접한 분할 영역들에 포함하는 제어 지점들(2142, 2143, 2144, 2145, 2146, 2147, 2148)과 제어 지점(2167)에 인접한 분할 영역들에 포함하는 제어 지점들(2162, 2163, 2174, 2185, 2196, 2161, 2168) 간의 움직임을 인터폴레이션하여, 전체 움직임 모델을 획득할 수 있다.
또한, 전체 움직임 모델은 제1 영상 및 제2 영상에 포함되는 복셀들 각각에 대한 움직임 정보를 포함할 수 있다. 즉, 전체 움직임 모델은 복셀들 각각에 대하여 시간에 따른 움직임을 나타내는 정보를 포함할 수 있다.
또한, 제어부(530)는 전술한 방식과 다른 방식으로 전체 움직임 모델을 획득할 수도 있다. 구체적으로, 제어부(530)는 제1 영상(2110)과 제2 영상(2120) 간의 영상 비교를 통하여, 제1 영상(2110)과 제2 영상(2120)간의 움직임 벡터장을 구할 수 있다. 제1 영상(2110)과 제2 영상(2120)간의 움직임 벡터장은 제1 시점과 제2 시점을 포함하는 전체 시간 구간에서의 대상체의 움직임을 나타내는 정보로, 전체 움직임 모델이 될 수 있다.
여기서, 제1 영상(2110)과 제2 영상(2120)간의 움직임 벡터장을 나타내는 전체 움직임 모델을 ‘초기 움직임 모델’이라 칭할 수 있다. 그리고, 도 22에서 설명한 분할 영역 별로 대상체의 움직임을 나타내는 부분 움직임 모델에 근거하여, 초기 움직임 모델을 수정할 수 있다. 구체적으로, 분할 영역에서의 움직임이 정확히 반영되도록, 부분 움직임 모델에 근거하여 초기 움직임 모델을 수정하고, 수정된 초기 움직임 모델을 전체 움직임 모델로 획득할 수 있을 것이다.
또한, 초기 움직임 모델 또는 부분 움직임 모델을 획득하는데 있어서, 제1 영상(2110) 및 제2 영상(2120)의 움직임 아티팩트 또는 블러링이 최소화되어야, 제1 영상(2110) 및 제2 영상(2120) 간의 정확한 움직임 측정이 가능하다. 따라서, 제1 영상(2110) 및 제2 영상(2120)의 움직임 아티팩트 또는 블러링을 감소시키기 위해서, 대상체의 움직임이 최소화되는 시점을 제1 시점 및 제2 시점으로 선택할 수 있다. 이하에서는, 도 23 및 도 24를 참조하여, 단층 영상 장치(500)의 제1 시점 및 제2 시점의 선택 동작을 상세히 설명한다.
도 23은 제1 영상 및 제2 영상의 시점을 설정하기 위한 일 도면이다.
단층 영상 장치(500)는 소정 시간 구간 내에서 대상체의 움직임이 최소화되는 두 개의 시점을 제1 시점(t1) 및 제2 시점(t2)으로 선택할 수 있다. 여기서, 소정 시간 구간은 심전도 신호의 R 피크(R peak)에서 후속하는 R 피크(R peak) 사이의 구간인 R-R 구간이 될 수 있다. 단층 영상 장치(500)는 소정 시간 구간 내에서 제2 시간 간격(예를 들어, t11 시점과 t12 시점 간의 시간 간격)마다 영상을 재구성하며, 일 시점에서 재구성된 영상과 일 시점에 인접한 다른 시점에서 재구성된 영상 간의 차이를 측정하고, 측정된 차이에 근거하여 대상체의 움직임이 최소화되는 두 개의 시점을 제1 시점 및 제2 시점으로 선택할 수 있다.
도 23의 (a)을 참조하면, 단층 영상 장치(500)는 심전도 신호(2310)에서 일정 시간 간격으로 대응되는 영상을 복원한다. 예를 들어, t11 시점에 대응되는 시간 구간에서 게이팅된 사이노그램을 이용하여 단층 영상(2321)을 복원하고, t12 시점에 대응되는 시간 구간에서 게이팅된 사이노그램을 이용하여 단층 영상(2322)을 복원한다. 그리고, t(n-2) 시점에 대응되는 시간 구간에서 게이팅된 사이노그램을 이용하여 단층 영상(2323)을 복원하고, t(n-1) 시점에 대응되는 시간 구간에서 게이팅된 사이노그램을 이용하여 단층 영상(2324)을 복원한다.
그리고, 도 23의 (b)를 참조하면, 단층 영상 장치(500)는 인접한 두 개의 시점들(i, i+1)에 대응되는 두 개의 영상들(2341, 2342)을 비교하여, 차이값(2343)을 생성한다. 그리고, 시간 대비 차이값(2343)을 나타내는 그래프(2350)를 생성한다.
도 23의 (c)를 참조하면, 그래프(2350)에 있어서, x 축은 시간을 나타내고, y 축은 차이값(2343)에 대응되는 값을 나타낼 수 있다.
단층 영상 장치(500)는 전술한 그래프(2350)에서 y 축의 값이 최소가 되는 구간인 2361 구간 및 262 구간을 획득하고, 2361 구간 및 2362 구간에 각각 대응되는 시점을 제1 시점(t1) 및 제2 시점(t2)으로 선택할 수 있다. 인접한 두 시점에 대응되는 두 영상간의 차이가 가장 작다는 것은 인접한 두 시점 사이에 대상체의 움직임이 가장 작게 발생한 것을 의미하므로, y 축의 값이 최소가 되는 구간인 2361 구간 및 2362 구간에서 대상체의 움직임이 가장 최소화된다. 그에 따라서, 단층 영상 장치(500)는 심장의 움직임이 가장 정적이면서 안정적인 시간 구간을 획득할 수 있다.
도 24는 제1 영상 및 제2 영상의 시점을 설정하기 위한 다른 도면이다.
도 24의 (a)를 참조하면, 단층 영상 장치(500)는 소정 시간 구간 내에서 제2 시간 간격마다 프로젝션 데이터를 획득하며, 일 시점에 대응되는 시간 구간에서 획득된 프로젝션 데이터와 일 시점에 인접한 다른 시점에서 획득된 프로젝션 데이터 간의 차이를 측정한다. 그리고, 측정된 차이에 근거하여 대상체의 움직임이 최소화되는 두 개의 시점을 제1 시점 및 제2 시점으로 선택할 수 있다.
도 24의 (a)를 참조하면, 하나의 R-R 주기를 나타내는 카디악 주기(cardiac phase)를 100%로 표현하고, 이를 50등분하여, 하나의 간격을 2%로 표현하였다.
단층 영상 장치(500)는 하나의 간격인 2%의 시간 간격마다 프로젝션 데이터를 획득한다. 그리고, 일 시점에 대응되는 시간 구간에서 획득된 프로젝션 데이터를 누적한 사이노그램(2411)과 일 시점에 인접한 다른 시점에 대응되는 시간 구간에서 획득된 프로젝션 데이터를 누적한 사이노그램(2412) 간의 차이 값(2413)을 측정한다. 예를 들어, 사이노그램(2411)은 -2% 내지 0%의 간격 동안 획득된 사이노그램이 될 수 있으며, 사이노그램(2412)는 0% 내지 2%의 간격 동안 획득된 사이노그램이 될 수 있다. 그리고, 측정된 차이 값(2413)을 나타내는 그래프(2430)를 생성한다.
도 24의 (b)를 참조하면, 그래프(2430)의 x 축은 R-R 주기를 나타내는 카디악 주기(cardiac phase)이며, y 축은 차이 값(2413)에 대응되는 값을 나타낸다.
단층 영상 장치(500)는 전술한 그래프(2430)에서 차이값인 y 축의 값이 최소가 되는 시점인 2451 시점 및 2452 시점을 획득하고, 2451 시점 및 2452 시점에 각각 대응되는 시점을 제1 시점(t1) 및 제2 시점(t2)으로 선택할 수 있다. 그에 따라서, 단층 영상 장치(500)는 심장의 움직임이 가장 정적이면서 안정적인 시간 구간을 획득할 수 있다.
도 23 및 도 24에서 예시된 바와 같이, 대상체의 움직임이 최소화되는 제1 시점(t1) 및 제2 시점(t2)이 선택되고, 제1 시점(t1) 내지 제2 시점(t2) 사이의 시간 구간을 전체 시간 구간(2260)으로 설정할 수 있다.
또한, 단층 영상 장치(500)는 전체 움직임 모델의 정확도가 높아지도록, 전체 움직임 모델을 수정할 수 있다.
구체적으로, 제어부(530)는 전체 움직임 모델에 근거하여 목표 시점에 대응되는 목표 영상을 예측, 예측된 목표 영상과 단층 촬영에 의해서 획득된 데이터를 이용하여 복원된 목표 영상을 비교한 결과에 근거하여, 전체 움직임 모델을 수정할 수 있다.
도 22의 (c)를 참조하면, 단층 영상 장치(500)는 전체 시간 구간(2260) 내에서 제1 시점(t1)과 제2 시점(t2) 이외의 다른 시점인 제3 시점(t3)에서, 전체 움직임 모델을 이용하여 예측된 데이터와 제3 시점(t3)에 대응되는 실제 측정된 데이터(measured data)를 비교하고, 비교된 차이값이 작아지도록 전체 움직임 모델을 수정할 수 있다. 구체적으로, 단층 영상 장치(500)는 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간을 규직적인 시간 간격 또는 불규칙적인 시간 간격마다 이동하면서, 이동된 시점에서 전체 움직임 모델의 수정 동작을 수행할 수 있다.
구체적으로, 단층 영상 장치(500)는 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간을 n 등분하고, 제1 시점(t1) 및 제2 시점(t2) 중 적어도 하나를 기준으로 n 등분된 제1 시간 간격씩 이동하면서, 이동된 시점에서 전체 움직임 모델의 수정 동작을 수행할 수 있다. 구체적으로, 단층 영상 장치(500)는 제1 시점(t1)에서 제2 시점(t2)으로 제1 시간 간격만큼 이동하며, 이동된 시점을 제3 시점(t3)으로 하여, 제3 시점(t3)에서 전체 움직임 모델을 수정할 수 있다. 또한, 단층 영상 장치(500)는 제2 시점(t2)에서 제1 시점(t1)으로 제1 시간 간격만큼 이동하며, 이동된 시점을 제3 시점(t3)으로 하여, 제3 시점(t3)에서 전체 움직임 모델을 수정할 수 있다.
예를 들어, 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간을 n 등분하면 하나의 시간 간격은 (t2-t1)/n 이 된다. 따라서, 제1 시점(t1)을 기준으로 하나의 시간 간격만큼 이동한 시점(t1+(1/n)*(t2-t1))에서 전체 움직임 모델의 수정 동작을 수행하고, 다시 하나의 시간 간격만큼 이동한 시점(t1+(2/n)*(t2-t1))에서 전체 움직임 모델의 수정 동작을 수행할 수 있다. 전술한 바와 같이, 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간에 포함되는 n 등분된 시간 간격들 각각에서 전체 움직임 모델 수정 동작을 반복적으로 수행할 수 있다.
또한, 제2 시점(t2)을 기준으로 하나의 시간 간격만큼 이동한 시점(t2-(1/n)*(t2-t1))에서 전체 움직임 모델의 수정 동작을 수행하고, 다시 하나의 시간 간격만큼 이동한 시점(t2-(2/n)*(t2-t1))에서 전체 움직임 모델의 수정 동작을 수행할 수 있다. 전술한 바와 같이, 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간에 포함되는 n 등분된 시간 간격들 각각에서 전체 움직임 모델 수정 동작을 반복적으로 수행할 수 있다.
또한, 단층 영상 장치(500)는 제1 시점(t1)에서 제2 시점(t2)으로 제1 시간 간격만큼 이동하며, 이동된 시점을 제3 시점(t3)으로 하여, 제3 시점(t3)에서 전체 움직임 모델을 수정하여 전체 움직임 모델을 업데이트할 수 있다. 그리고, 단층 영상 장치(500)는 제2 시점(t2)에서 제1 시점(t1)방향으로, 제2 시점(t2)으로부터 제1 시간 간격만큼 이동하며, 이동된 시점을 제3 시점(t3)으로 하여, 제3 시점(t3)에서 전체 움직임 모델을 수정하여 전체 움직임 모델을 업데이트할 수 있다. 그리고, 단층 영상 장치(500)는 업데이트된 두 전체 움직임 모델에 근거하여, 최종적으로 전체 움직임 모델을 생성할 수 있다. 구체적으로, 업데이트된 두 전체 움직임 모델을 평균하여 최종적으로 전체 움직임 모델을 생성할 수 있다.
이하에서는, 제1 시점(t1)과 제2 시점(t2) 사이의 시간 구간 중 제3 시점(t3)에서 전체 움직임 모델의 수정 동작을 수행하는 경우를 예로 들어 설명한다.
도 25는 전체 움직임 모델의 수정을 설명하기 위한 일 도면이다.
도 25를 참조하면, 2510 그래프는 수정 전의 전체 움직임 모델을 나타내며, 2520 그래프는 수정 후의 전체 움직임 모델을 나타낸다. 또한, 전체 시간 구간(P)에 대응하여 시간에 따라서 획득된 사이노그램(2530)이 도시된다. 사이노그램(2530)은 전체 시간 구간 동안(P)에 단층 촬영을 통하여 획득된 사이노그램을 나타낸다. 즉, 사이노그램(2530)은 단층 촬영 시 감지된 엑스레이를 변환하여 획득된 데이터를 나타내는 것으로, 측정된(measured) 데이터 값이다. 사이노그램(2530)은 전체 시간 구간 동안 레트로스펙티브 모드 또는 프로스펙티브 모드로 단층촬영을 진행하여 획득할 수 있다. 또한, 각 모드에서 사이노그램(2530)은 나선형 스캔 방식 또는 축상 스캔 방식에 따라 단층 촬영을 진행하여 획득할 수 있다.
또한, 제3 시점(t3)에 대응되는 영상을 복원하기 위해서 필요한 사이노그램은 제3 시점(t3)에 대응되는 시간 구간 동안에 획득된 사이노그램(2532)이 될 수 있다. 예를 들어, 리비닝된 평행 빔을 이용하여 프로젝션 데이터를 획득하는 경우, 제3 시점(t3)에 대응되는 영상을 복원하기 위해서는 제3 시점(t3)을 포함하여 180+추가 각도에 해당하는 각도 구간에 대응되는 시간 구간 동안(P3)에 획득된 사이노그램이 필요하다. 또한, 복수개의 X-ray 생성부(106)를 포함하는 멀티 디텍터 시스템에서 사이노그램을 획득할 경우, 제3 시점(t3)에 대응되는 시간 구간 동안에 복수개의 X-ray 생성부에 각각 대응되는 복수개의 사이노그램이 획득될 수도 있을 것이다.
단층 영상 장치(500)는 전체 움직임 모델을 이용하여 획득한 예측 제3 영상(2550)을 순방향 투영(forward projection)하여 획득한 예측 사이노그램(2551)과 제3 시점(t3)에서 획득된 측정 사이노그램(2561)을 비교하고, 예측 사이노그램(2551)과 측정 사이노그램(2561)의 차이가 작아지도록 전체 움직임 모델을 수정할 수 있다. 구체적으로, 예측 사이노그램(2551)이 측정 사이노그램(2561)과 동일한 값을 가지도록, 전체 움직임 모델을 수정할 수 있다.
예를 들어, 제3 시점(t3)에서 보정전의 전체 움직임 모델(2510)에서 y 축 값을 증가시킬 때, 측정 사이노그램(2532, 2561)과 예측 사이노그램(2551) 간의 차이가 작아진다면, 전체 움직임 모델에서 t3 시점의 가중치 값을 W1에서 W1C 로 증가시킬 수 있다.
또한, 동일한 방식으로, 제3 시점(t3)에서 소정 시간 간격만큼 이동한 제4 시점(t4)에서 전체 움직임 모델(2510)의 가중치 값을 수정하고, 제4 시점(t4)에서 소정 시간 간격만큼 이동한 제5 시점(t5)에서 전체 움직임 모델(2510)의 가중치 값을 수정할 수 있다.
전술한 바와 같이, 소정 시점에서의 측정 사이노그램과 예측 사이노그램을 비교하고, 비교 결과 산출된 차이값에 근거하여 전체 움직임 모델을 수정하면, 전체 시간 구간에서 전체 움직임 모델을 수정하여 수정된 전체 움직임 모델(2520)를 생성할 수 있다. 수정된 전체 움직임 모델(2520)는 대상체의 움직임 패턴을 더욱 정확하게 반영한다. 따라서, 수정된 전체 움직임 모델(2520)에 근거하여 제3 시점에서의 대상체의 상태를 정확히 반영하도록 움직임 보정을 수행하면, 제3 시점에 대응되는 영상을 정확하게 복원할 수 있다. 구체적으로, 수정된 전체 움직임 모델(2520)에 근거하여, 제3 시점에 대응되는 영상을 복원하기 위해서 획득된 로 데이터, 또는 획득된 로 데이터를 역투영하여 획득된 영상을 와핑시켜서, 제3 시점에 대응되는 영상을 복원하면, 소정 시점에 대응되는 영상을 용이하고 정확하게 복원할 수 있다.
도 26은 전체 움직임 모델의 수정을 설명하기 위한 다른 도면이다.
또한, 단층 영상 장치(500)는 제3 시점(t3)에서 획득된 측정 데이터를 역투영(back-projection) 하여 생성된 측정 영상과 예측 영상을 비교하고, 예측 영상과 측정 영상의 차이가 작아지도록 전체 움직임 모델을 수정할 수 있다.
도 26을 참조하면, 2610 그래프는 수정 전의 전체 움직임 모델을 나타내며, 2620 그래프는 수정 후의 전체 움직임 모델을 나타낸다. 또한, 전체 시간 구간에서 획득된 사이노그램(2630)이 도시된다. 사이노그램(2630)은 전체 시간 구간에 대응 동안에 단층 촬영을 통하여 획득된 사이노그램을 나타낸다. 즉, 사이노그램(2630)은 단층 촬영을 통하여 측정된(measured) 데이터 값이다. 또한, 제3 시점(t3)에 대응되는 영상을 복원하기 위해서 필요한 사이노그램은 구체적으로 2651 에서와 같이 나타날 수 있다.
도 26을 참조하면, 단층 영상 장치(500)는 제2 시점에서 획득된 사이노그램(2651)을 역투영하여 생성된 측정 영상(2652)과, 수정 전의 전체 움직임 모델(2610)를 이용하여 제1 영상 및 제2 영상 중 적어도 하나를 와핑하여 생성된 예측 영상(2660)을 비교한다. 예측 영상과 측정 영상의 차이가 작아지도록 전체 움직임 모델을 수정할 수 있다.
예를 들어, 제3 시점(t3)에서 보정전의 전체 움직임 모델(2610)에서 y 축 값을 증가시킬 때, 측정 영상(2652)과 예측 영상(2660) 간의 차이가 작아진다면, 전체 움직임 모델에서 t3 시점의 가중치 값을 W1에서 W1C 로 증가시킬 수 있다.
또한, 동일한 방식으로, 제3 시점(t3)에서 소정 시간 간격만큼 이동한 제4 시점(t4)에서 전체 움직임 모델(2610)의 가중치 값을 수정하고, 제4 시점(t4)에서 소정 시간 간격만큼 이동한 제5 시점(t5)에서 전체 움직임 모델(2610)의 가중치 값을 수정할 수 있다.
여기서, 수정된 전체 움직임 모델을 이용하여 복원하고자 하는 제3 영상에 대응되는 제3 시점(t3)은 도 16 및 도 17에서 설명한 바와 같이 제1 시점(t1) 및 제2 시점(t2) 중 적어도 하나를 기준으로 소정 간격만큼 이동한 시점이 될 수 있다. 또한, 제3 시점(t3)은 사용자 인터페이스 부(550)를 통하여 설정될 수도 있다. 구체적으로, 디스플레이부(580)는 제1 시점(t1) 내지 제2 시점(t2) 사이에서 제3 시점(t3)을 선택하기 위한 사용자 인터페이스 화면(미도시)을 디스플레이할 수 있다. 그러면, 사용자는 사용자 인터페이스부(550)를 통하여 제3 시점(t3)을 선택할 수 있다.
전술한 바와 같이, 수정된 전체 움직임 모델(2620)는 대상체의 움직임 패턴을 더욱 정확하게 반영한다. 따라서, 도 25에서와 동일하게, 수정된 전체 움직임 모델(2620)에 근거하여 제3 시점에서의 대상체의 상태를 정확히 반영하도록 움직임 보정을 수행하면, 제3 시점에 대응되는 영상을 정확하게 복원할 수 있다.
도 27은 개시된 실시예에 따른 단층 영상 복원 방법을 나타내는 일 도면이다.
개시된 실시예에 따른 단층 영상 복원 방법(2700)의 도 1 내지 도 17을 참조하여 설명한 단층 영상 장치(500)의 동작 구성과 동일하다. 따라서, 단층 영상 복원 방법(2700)을 설명하는데 있어서, 도 1 내지 도 17과 중복되는 설명은 생략한다.
도 27을 참조하면, 단층 영상 복원 방법(2700)은 움직이는 대상체를 단층 촬영하여 획득된 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할한다. 그리고, 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원한다(2701 단계). 2701 단계의 동작은 도 7 및 도 8에서 상세히 설명하였으므로, 관련 설명은 생략한다.
복수개의 데이터 쌍에 대응되는 복수개의 상기 부분 영상 쌍에 근거하여, 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 대상체의 움직임을 나타내는 움직임 정보를 획득한다(2720 단계). 2720 단계의 동작은 제어부(530)에서 수행될 수 있다. 움직임 정보의 획득은 도 11에서 상세히 설명하였으므로, 관련 설명은 생략한다.
움직임 정보에 근거하여 목표 시점에서 대상체를 나타내는 목표 영상을 복원한다(2730 단계). 2730 단계의 동작은 영상 처리부(520)에서 수행될 수 있다. 움직임 보정을 수행하여 목표 영상을 복원하는 동작은 도 12 내지 도 17을 참조하여 상세히 설명하였으므로, 관련 설명은 생략한다.
도 28은 개시된 다른 실시예에 따른 단층 영상 복원 방법을 나타내는 다른 도면이다.
개시된 실시예에 따른 단층 영상 복원 방법(2800)의 도 18을 참조하여 설명한 단층 영상 장치(500)의 동작 구성과 동일하다. 따라서, 단층 영상 복원 방법(2800)을 설명하는데 있어서, 도 18과 중복되는 설명은 생략한다.
도 28을 참조하면, 단층 영상 복원 방법(2800)은 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여, 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득한다(2810 단계). 2810 단계의 동작은 도 7 및 도 8에서 상세히 설명하였으므로, 관련 설명은 생략한다.
제1 부분 영상 및 제2 부분 영상을 이용하여, 제1 시점과 제2 시점 간의 대상체의 움직임 량을 측정한다(2820 단계). 2820 단계의 동작은 제어부(530)에서 수행될 수 있으며, 도 9a 및 도 10에서 상세히 설명하였으므로, 관련 설명은 생략한다.
움직임 량에 근거하여 설정된 제1 시점과 제2 시점 사이의 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원한다(2830 단계). 2830 단계의 동작은 영상 처리부(520)에서 수행될 수 있다. 또한, 복수개의 모델은 도 18에서 상세히 설명하였으므로, 관련 설명은 생략한다.
복수개의 모델 각각에 근거하여 복원된 복수개의 목표 영상의 화질을 측정하고, 측정된 화질에 근거하여 복수개의 모델 중 하나를 선택한다(2830 단계). 2830 단계의 동작은 제어부(530)에서 수행될 수 있다.
그리고, 선택된 모델에 근거하여 목표 시점에서 상기 대상체를 나타내는 최종 목표 영상을 복원한다(2840 단계). 2840 단계의 동작은 영상 처리부(520)에서 수행될 수 있다.
도 29는 개시된 다른 실시예에 따른 단층 영상 복원 방법을 나타내는 다른 도면이다.
개시된 실시예에 따른 단층 영상 복원 방법(2900)의 도 19 내지 도 26을 참조하여 설명한 단층 영상 장치(500)의 동작 구성과 동일하다. 따라서, 단층 영상 복원 방법(2800)을 설명하는데 있어서, 도 19 내지 도 26에서와 중복되는 설명은 생략한다.
도 28을 참조하면, 단층 영상 복원 방법(2800)은 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득한다(2910 단계). 2910 단계의 동작은 데이터 획득부(510)에서 수행될 수 있으며, 도 19 및 도 20에서 상세히 설명하였으므로, 관련 설명은 생략한다.
제1 영상 및 제2 영상 각각을 복수개의 영역으로 분할하고, 제1 영상과 상기 제2 영상을 이용하여, 복수개의 영역 각각에서 제1 시점과 제2 시점 사이의 대상체의 움직임을 나타내는 부분 움직임 모델을 획득한다(2920 단계). 2920 단계의 동작은 제어부(530)에서 수행될 수 있으며, 도 21 및 도 22에서 상세히 설명하였으므로, 관련 설명은 생략한다.
복수개의 영역 각각에 대응되는 복수개의 부분 움직임 모델에 근거하여 복수개의 영역을 포함하는 전체 영역에서 대상체의 움직임을 나타내는 전체 움직임 모델을 획득한다(2930 단계). 2920 단계의 동작은 제어부(530)에서 수행될 수 있다.
전체 움직임 모델에 근거하여 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 대상체를 나타내는 목표 영상을 복원한다(2940 단계). 2940 단계의 동작은 영상 처리부(520)에서 수행될 수 있다.
전술한 바와 같이, 개시된 실시예에 따른 단층 영상 장치 및 그에 따른 단층 영상 복원 방법은 대상체의 움직임 측정에서의 정확도를 높이고, 그에 따른 움직임 보정을 수행함으로써, 복원된 목표 영상의 화질을 증가시킬 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 시스템
102: 갠트리
104: 회전 프레임
105: 테이블
106: X-ray 생성부
108: X-ray 검출부
110: 회전 구동부
112: 콜리메이터
114: 산란 방지 그리드
118: 제어부
120: 데이터 송신부
124: 저장부
126: 영상 처리부
128: 입력부
130: 디스플레이부
132: 통신부
134: 서버
136: 의료 장치
400: 단층 영상 장치
410: 데이터 획득부
420: 영상 처리부
430: 제어부
500: 단층 영상 장치
510: 데이터 획득부
520: 영상 처리부
530: 제어부
540: 갠트리
550: 사용자 인터페이스 부
560: 저장부
570: 통신부
580: 디스플레이 부

Claims (24)

  1. 움직이는 대상체를 단층 촬영한 데이터를 획득하는 데이터 획득부;
    상기 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 상기 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원하고,
    상기 복수개의 데이터 쌍에 대응되는 복수개의 상기 부분 영상 쌍에 근거하여 상기 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 상기 대상체의 움직임을 나타내는 움직임 정보를 획득하며, 상기 움직임 정보에 근거하여 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 적어도 하나의 프로세서를 포함하는 것을 특징으로 하는 단층 영상 장치.
  2. 제1항에 있어서, 상기 복수개의 마주보는 부분 각도 쌍 각각은
    180도 미만을 값을 갖는 제1 각도 구간 및 상기 제1 각도 구간과 마주보는 제2 각도 구간을 포함하는 것을 특징으로 하는 단층 영상 장치.
  3. 제2항에 있어서, 상기 복수개의 부분 영상 쌍 각각은
    상기 제1 각도 구간에서 획득된 데이터를 이용하여 복원된 제1 부분 영상 및 상기 제2 각도 구간에서 획득된 데이터를 이용하여 복원된 제2 부분 영상을 포함하는 것을 특징으로 하는 단층 영상 장치.
  4. 제3항에 있어서, 상기 적어도 하나의 프로세서는
    상기 복수개의 부분 영상 쌍에 근거하여, 상기 전체 구간에서 상기 대상체를 형성하는 표면의 움직임을 나타내는 상기 움직임 정보를 획득하는 것을 특징으로 하는 단층 영상 장치.
  5. 제1항에 있어서, 상기 적어도 하나의 프로세서는
    상기 복수개의 부분 영상 쌍에 포함되는 부분 영상들 각각이 상기 전체 구간에 포함되는 소정 시간 시점에서 소정 형태로 수렴되도록, 상기 시간에 따른 상기 대상체의 움직임을 나타내는 상기 움직임 정보를 획득하는 것을 특징으로 단층 영상 장치.
  6. 제1항에 있어서, 상기 적어도 하나의 프로세서는
    상기 대상체를 3차원 공간 상에서 나타내는 3차원의 상기 부분 영상 쌍을 복원하는 것을 특징으로 하는 단층 영상 장치.
  7. 제6항에 있어서, 상기 움직임 정보는
    3차원 공간과 시간 시점을 포함하는 4차원 공간 상에서 상기 대상체의 움직임을 나타내는 정보인 것을 특징으로 하는 단층 영상 장치.
  8. 제1항에 있어서, 상기 적어도 하나의 프로세서는
    상기 움직임 정보에 근거하여, 상기 목표시점에서의 상기 대상체의 움직임량을 예측하고, 상기 예측된 움직임량에 근거하여 상기 목표 영상을 복원하는 것을 특징으로 하는 단층 영상 장치.
  9. 제8항에 있어서, 상기 적어도 하나의 프로세서는
    상기 움직임 정보에 근거하여, 상기 대상체의 일부를 나타내는 복수개의 뷰(view) 별 영상들을 와핑(warping) 시켜 상기 목표 영상을 복원하는 것을 특징으로 하는 단층 영상 장치.
  10. 제1항에 있어서, 상기 전체 구간은
    360도 이상이 되는 것을 특징으로 하는 단층 영상 장치.
  11. 적어도 하나의 프로세서를 포함하는 단층 영상 장치에 의해 수행되는 단층 영상 복원 방법에 있어서,
    움직이는 대상체를 단층 촬영하여 획득된 데이터를 복수개의 마주보는 부분 각도 쌍에 대응되는 복수개의 데이터 쌍으로 분할하고, 상기 복수개의 데이터 쌍 각각을 이용하여 부분 영상 쌍(partial image pair)을 복원하는 단계;
    상기 복수개의 데이터 쌍에 대응되는 복수개의 상기 부분 영상 쌍에 근거하여 상기 복수개의 마주보는 부분 각도 쌍을 포함하는 전체 구간에서 상기 대상체의 움직임을 나타내는 움직임 정보를 획득하는 단계; 및
    상기 움직임 정보에 근거하여 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계를 포함하는 것을 특징으로 하는 단층 영상 복원 방법.
  12. 움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득하고,
    상기 제1 부분 영상 및 상기 제2 부분 영상을 이용하여 상기 제1 시점과 상기 제2 시점 동안의 상기 대상체의 움직임 량을 측정하고, 상기 움직임 량에 근거하여 설정된 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하고,
    상기 복수개의 모델 각각에 근거하여 복원된 복수개의 상기 목표 영상의 화질을 측정하고, 상기 측정된 화질에 근거하여 상기 복수개의 모델 중 하나를 선택하며, 상기 선택된 모델에 근거하여 상기 목표 시점에서 상기 대상체를 나타내는 최종 목표 영상을 복원하는 적어도 하나의 프로세서; 및
    상기 복원된 최종 목표 영상을 저장하는 저장부를 포함하는 것을 특징으로 하는 단층 영상 장치.
  13. 제12항에 있어서, 상기 복수개의 모델 중 적어도 하나는
    상기 제1 시점 및 상기 제2 시점 동안에 일정하지 않은 속도(non-constant velocity)로 움직이는 상기 대상체의 움직임 형태를 나타내는 모델을 포함하는 것을 특징으로 하는 단층 영상 장치.
  14. 제12항에 있어서, 상기 복수개의 모델은
    상기 제1 시점과 상기 제2 시점 간의 움직임 량은 동일하며 상기 제1 시점과 상기 제2 시점 사이 동안의 상기 대상체의 움직임 형태가 서로 다른 것을 특징으로 하는 단층 영상 장치.
  15. 제12항에 있어서,
    상기 제1 부분 영상은
    180도 미만의 값을 갖는 제1 각도 구간에서 획득된 데이터를 이용하여 복원된 영상으로 상기 제1 시점에서 상기 대상체를 나타내는 부분 영상이며,
    상기 제2 부분 영상은
    180도 미만의 값을 가지며 상기 제1 각도 구간과 마주보는 각도 구간인 상기 제2 각도 구간에서 획득된 데이터를 이용하여 복원된 영상으로, 상기 제2 시점에서 상기 대상체를 나타내는 부분 영상인 것을 특징으로 하는 단층 영상 장치.
  16. 제12항에 있어서, 상기 적어도 하나의 프로세서는
    상기 복수개의 모델 각각에 근거하여 움직임 보정된 상기 복수개의 목표 영상의 화질을 측정하고, 상기 복수개의 목표 영상 중 상기 측정된 화질이 최고가 되는 제1 목표 영상에 대응되는 모델을 선택하며, 상기 선택된 모델에 근거하여 움직임 보정된 상기 최종 목표 영상을 복원하는 것을 특징으로 하는 단층 영상 장치.
  17. 제12항에 있어서, 상기 적어도 하나의 프로세서는
    영상 번짐(image blur) 발생 정도 및 영상의 해상도 중 적어도 하나의 값을 측정하기 위한 영상 품질 메트릭(image quality metric)을 이용하여 상기 화질을 측정하는 것을 특징으로 하는 단층 영상 장치.
  18. 적어도 하나의 프로세서를 포함하는 단층 영상 장치에 의해 수행되는 단층 영상 복원 방법에 있어서,
    움직이는 대상체를 단층 촬영하여 서로 마주보는 제1 각도 구간 및 제2 각도 구간에서 획득된 데이터를 이용하여, 제1 시점 및 제2 시점에 각각 대응되는 제1 부분 영상 및 제2 부분 영상을 획득하는 단계;
    상기 제1 부분 영상 및 제2 부분 영상을 이용하여 상기 제1 시점과 상기 제2 시점 간의 상기 대상체의 움직임 량을 측정하는 단계;
    상기 움직임 량에 근거하여 설정된 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 복수개의 모델 각각에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계;
    상기 복수개의 모델 각각에 근거하여 복원된 복수개의 상기 목표 영상의 화질을 측정하고, 상기 측정된 화질에 근거하여 상기 복수개의 모델 중 하나를 선택하는 단계; 및
    상기 선택된 모델에 근거하여 상기 목표 시점에서 상기 대상체를 나타내는 최종 목표 영상을 복원하는 단계를 포함하는 것을 특징으로 하는 단층 영상 복원 방법.
  19. 움직이는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득하고,
    상기 제1 영상 및 상기 제2 영상 각각을 복수개의 영역으로 분할하고, 상기 제1 영상과 상기 제2 영상을 이용하여, 상기 복수개의 영역들 각각에 대응되며 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 부분 움직임 모델을 획득하며, 상기 복수개의 영역 각각에 대응되는 복수개의 상기 부분 움직임 모델에 근거하여 상기 복수개의 영역을 포함하는 전체 영역에서 상기 대상체의 움직임을 나타내는 전체 움직임 모델을 획득하고,
    상기 전체 움직임 모델에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 적어도 하나의 프로세서; 및
    상기 복원된 목표 영상을 저장하는 저장부를 포함하는 것을 특징으로 하는 단층 영상 장치.
  20. 제19항에 있어서, 상기 적어도 하나의 프로세서는
    상기 복수개의 부분 움직임 모델 중 적어도 두 개를 인터폴레이션(interpolation) 하여, 제1 시점과 상기 제2 시점 동안의 상기 전체 영역에서 포함되는 복수개의 복셀들 각각의 움직임을 나타내는 상기 전체 움직임 모델을 획득하는 것을 특징으로 하는 단층 영상 장치.
  21. 제20항에 있어서, 상기 전체 움직임 모델은
    상기 전체 영역에 포함되는 복수개의 복셀들 각각의 공간 변형 움직임(space-variant motion)을 나타내는 정보를 포함하는 것을 특징으로 하는 단층 영상 장치.
  22. 제20항에 있어서, 상기 적어도 하나의 프로세서는
    상기 전체 움직임 모델에 근거하여 상기 목표 시점에 대응되는 목표 영상을 예측하고, 상기 예측된 목표 영상과 상기 단층 촬영에 의해서 획득된 데이터를 이용하여 복원된 상기 목표 영상을 비교한 결과에 근거하여, 상기 전체 움직임 모델을 수정하는 것을 특징으로 하는 단층 영상 장치.
  23. 제20항에 있어서, 상기 적어도 하나의 프로세서는
    소정 시간 구간 내에서 상기 대상체의 움직임이 최소화되는 두 개의 시점을 상기 상기 제1 시점 및 상기 제2 시점으로 선택하는 것을 특징으로 하는 단층 영상 장치.
  24. 적어도 하나의 프로세서를 포함하는 단층 영상 장치에 의해 수행되는 단층 영상 복원 방법에 있어서,
    움직이는 대상체를 단층 촬영하여 제1 시점에 대응되는 제1 영상을 획득하고 제2 시점에 대응되는 제2 영상을 획득하는 단계;
    상기 제1 영상 및 제2 영상 각각을 복수개의 영역으로 분할하고, 상기 제1 영상과 상기 제2 영상을 이용하여, 상기 복수개의 영역들 각각에 대응되며 상기 제1 시점과 상기 제2 시점 사이의 상기 대상체의 움직임을 나타내는 부분 움직임 모델을 획득하는 단계;
    상기 복수개의 영역 각각에 대응되는 복수개의 상기 부분 움직임 모델에 근거하여 상기 복수개의 영역을 포함하는 전체 영역에서 상기 대상체의 움직임을 나타내는 전체 움직임 모델을 획득하는 단계; 및
    상기 전체 움직임 모델에 근거하여 상기 제1 시점과 상기 제2 시점 사이에 존재하는 목표 시점에서 상기 대상체를 나타내는 목표 영상을 복원하는 단계를 포함하는 것을 특징으로 하는 단층 영상 복원 방법.
KR1020150110658A 2015-08-05 2015-08-05 단층 영상 장치 및 그에 따른 단층 영상 복원 방법 KR101725891B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150110658A KR101725891B1 (ko) 2015-08-05 2015-08-05 단층 영상 장치 및 그에 따른 단층 영상 복원 방법
PCT/KR2016/008535 WO2017023105A1 (en) 2015-08-05 2016-08-03 Tomography imaging apparatus and method of reconstructing tomography image
EP16833341.7A EP3331447A4 (en) 2015-08-05 2016-08-03 Tomography imaging apparatus and method of reconstructing tomography image
US15/738,741 US10937209B2 (en) 2015-08-05 2016-08-03 Tomography imaging apparatus and method of reconstructing tomography image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150110658A KR101725891B1 (ko) 2015-08-05 2015-08-05 단층 영상 장치 및 그에 따른 단층 영상 복원 방법

Publications (2)

Publication Number Publication Date
KR20170017156A KR20170017156A (ko) 2017-02-15
KR101725891B1 true KR101725891B1 (ko) 2017-04-11

Family

ID=57943367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150110658A KR101725891B1 (ko) 2015-08-05 2015-08-05 단층 영상 장치 및 그에 따른 단층 영상 복원 방법

Country Status (4)

Country Link
US (1) US10937209B2 (ko)
EP (1) EP3331447A4 (ko)
KR (1) KR101725891B1 (ko)
WO (1) WO2017023105A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140072108A1 (en) * 2010-07-16 2014-03-13 David P. Rohler Methods and apparatus for extended low contrast detectability for radiographic imaging systems
JP2017208604A (ja) * 2016-05-16 2017-11-24 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、プログラム
KR20180041007A (ko) 2016-10-13 2018-04-23 삼성전자주식회사 의료 영상 처리 장치 및 방법
US11432737B2 (en) * 2017-03-17 2022-09-06 The Regents Of The University Of California Systems and methods for real-time motion prediction in dynamic imaging
US10402972B2 (en) * 2017-08-04 2019-09-03 Varian Medical Systems International Ag Methods and systems for radiation dose estimation
EP3618001A1 (en) * 2018-08-30 2020-03-04 Koninklijke Philips N.V. Efficient motion-compensation in cone beam computed tomography based on data consistency
US11170542B1 (en) * 2018-10-10 2021-11-09 Lickenbrock Technologies, LLC Beam hardening and scatter removal
US10679385B1 (en) * 2018-12-17 2020-06-09 General Electric Company System and method for statistical iterative reconstruction and material decomposition
CN110335326A (zh) * 2019-07-02 2019-10-15 上海联影医疗科技有限公司 一种重建数据的确定方法、装置、医疗影像设备及介质
US20230059132A1 (en) * 2019-09-26 2023-02-23 The General Hospital Corporation System and method for deep learning for inverse problems without training data
US11806184B2 (en) 2020-04-13 2023-11-07 Delta Electronics, Inc. Method for gating in tomographic imaging system
US11694374B2 (en) * 2020-04-13 2023-07-04 Delta Electronics, Inc. Method for gating in tomographic imaging system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010227171A (ja) 2009-03-26 2010-10-14 Fujifilm Corp 放射線ct装置、画像処理装置および画像処理方法
WO2013124777A1 (en) 2012-02-22 2013-08-29 Koninklijke Philips N.V. Method and system for reducing localized artifacts in imaging data

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535570B2 (en) 1999-06-17 2003-03-18 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Her Majesty's Canadian Government Method for tracing organ motion and removing artifacts for computed tomography imaging systems
US6904118B2 (en) 2002-07-23 2005-06-07 General Electric Company Method and apparatus for generating a density map using dual-energy CT
US6873677B2 (en) * 2003-04-18 2005-03-29 Leon Kaufman Method and device for improving time resolution of an imaging device
JP2007521906A (ja) 2004-02-13 2007-08-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動きアーチファクトの補償
CN1926578B (zh) 2004-03-02 2010-12-29 皇家飞利浦电子股份有限公司 运动补偿
US7907764B2 (en) 2004-08-09 2011-03-15 Hirochika Matsuoka Apparatus, program and method for motion analysis in internal body
JP4356841B2 (ja) * 2004-08-09 2009-11-04 弘親 松岡 生体内部動作解析処理装置、生体内部動作解析処理プログラムおよび生体内部動作解析処理方法
EP1958155A2 (en) 2005-11-24 2008-08-20 Philips Intellectual Property & Standards GmbH Motion compensated ct reconstruction of high contrast objects
EP1965703B1 (en) 2005-12-20 2017-06-07 Philips Intellectual Property & Standards GmbH Reconstruction unit for reconstructing a fine reproduction of at least a part of an object
US8229187B2 (en) * 2007-04-11 2012-07-24 General Electric Company Respiratory motion extraction from tomographic projection and image data
JP5430203B2 (ja) 2009-03-31 2014-02-26 キヤノン株式会社 画像処理装置、画像処理方法
US8654119B2 (en) * 2009-08-17 2014-02-18 Mistretta Medical, Llc System and method for four dimensional angiography and fluoroscopy
US8761478B2 (en) * 2009-12-15 2014-06-24 General Electric Company System and method for tomographic data acquisition and image reconstruction
US8224056B2 (en) 2009-12-15 2012-07-17 General Electronic Company Method for computed tomography motion estimation and compensation
DE102010024684B8 (de) * 2010-06-23 2019-08-22 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion von Bilddaten eines bewegten Untersuchungsobjektes, Steuer- und Recheneinheit, Computertomographiesystem und Computerprogramm
FR2965651B1 (fr) * 2010-10-01 2012-09-28 Gen Electric Reconstruction tomographique d'un objet en mouvement
US8270561B2 (en) 2010-10-13 2012-09-18 Kabushiki Kaisha Toshiba Motion weighting in computed tomography (CT) with cone angle
US8811707B2 (en) * 2011-08-25 2014-08-19 General Electric Company System and method for distributed processing of tomographic images
US9001960B2 (en) * 2012-01-04 2015-04-07 General Electric Company Method and apparatus for reducing noise-related imaging artifacts
CN104427939B (zh) 2012-07-05 2018-04-24 皇家飞利浦有限公司 用于多通道x射线成像的图像流的时间对准和信噪比增强
KR20140126815A (ko) * 2013-04-22 2014-11-03 삼성전자주식회사 호흡 주기 동안 체내 장기의 변화를 추적하는 방법, 장치 및 시스템.
BR112016017331A2 (pt) * 2014-01-29 2017-08-08 Koninklijke Philips Nv Método, segmentador da estrutura de interesse em movimento, e mídia de armazenamento legível por computador
KR101582093B1 (ko) 2014-02-21 2016-01-04 삼성전자주식회사 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
KR20150099375A (ko) 2014-02-21 2015-08-31 삼성전자주식회사 컴퓨터 단층 촬영 장치 및 그에 따른 ct 영상 복원 방법
US9576391B2 (en) 2014-02-21 2017-02-21 Samsung Electronics Co., Ltd. Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
US9959631B2 (en) * 2014-02-21 2018-05-01 Samsung Electronics Co., Ltd. Tomography apparatus and method for reconstructing tomography image thereof
US10685452B2 (en) * 2015-06-30 2020-06-16 Koninklijke Philips N.V. Registration apparatus for registering images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010227171A (ja) 2009-03-26 2010-10-14 Fujifilm Corp 放射線ct装置、画像処理装置および画像処理方法
WO2013124777A1 (en) 2012-02-22 2013-08-29 Koninklijke Philips N.V. Method and system for reducing localized artifacts in imaging data

Also Published As

Publication number Publication date
KR20170017156A (ko) 2017-02-15
EP3331447A1 (en) 2018-06-13
US10937209B2 (en) 2021-03-02
US20180182135A1 (en) 2018-06-28
WO2017023105A1 (en) 2017-02-09
EP3331447A4 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
US10748293B2 (en) Tomography apparatus and method for reconstructing tomography image thereof
KR101725891B1 (ko) 단층 영상 장치 및 그에 따른 단층 영상 복원 방법
KR101636041B1 (ko) 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
US9576391B2 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
KR101582093B1 (ko) 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
KR101728046B1 (ko) 단층 영상 복원 장치 및 그에 따른 단층 영상 복원 방법
EP3264985B1 (en) Tomography imaging apparatus and method of reconstructing tomography image
US10213179B2 (en) Tomography apparatus and method of reconstructing tomography image
KR101775556B1 (ko) 단층 촬영 장치 및 그에 따른 단층 영상 처리 방법
KR101665513B1 (ko) 컴퓨터 단층 촬영 장치 및 그에 따른 ct 영상 복원 방법
US10512437B2 (en) Tomography apparatus and method of reconstructing tomography image thereof
KR20150095140A (ko) 컴퓨터 단층 촬영 장치 및 그에 따른 ct 영상 복원 방법
KR20170105876A (ko) 단층 촬영 장치 및 그에 따른 단층 영상 재구성 방법
US10013778B2 (en) Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
KR102273022B1 (ko) 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
KR20160140189A (ko) 단층 촬영 장치 및 그에 따른 단층 촬영 방법
KR20170030308A (ko) 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant