KR20140062374A - 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 - Google Patents
움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 Download PDFInfo
- Publication number
- KR20140062374A KR20140062374A KR1020120129095A KR20120129095A KR20140062374A KR 20140062374 A KR20140062374 A KR 20140062374A KR 1020120129095 A KR1020120129095 A KR 1020120129095A KR 20120129095 A KR20120129095 A KR 20120129095A KR 20140062374 A KR20140062374 A KR 20140062374A
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- states
- data
- region
- interest
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
영상을 생성하는 장치는 피사체의 해부학적 정보를 포함하는 이미지데이터를 획득하는 이미지데이터 획득부, 이미지데이터에서 관심영역을 결정하는 관심영역 결정부, 피사체로부터 획득된 데이터들로부터, 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성하는 사이노그램 생성부, 제1 사이노그램들로부터 복수의 상태들 각각에 대한 피사체의 특징값을 추출하는 추출부, 및 복수의 상태들 각각에 대한 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정하는 움직임 정보 추정부;를 포함한다.
Description
움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치가 개시된다.
피사체에 주입된 방사성 동위원소에 의하여 방출되는 감마선을 이용하여 피사체에 대한 진단영상을 획득하거나, 또는, 피사체에 X선 등과 같은 방사선을 조사함에 따라 피사체로부터 흡수된 방사선의 양에 기초하여 피사체에 대한 진단영상을 획득할 수 있다. 이때, 피사체에 대한 진단영상을 생성하기 위한 데이터를 획득하는 동안 피사체의 움직임이 발생할 수 있다.
피사체의 움직임 정보를 정확하게 추정하기 위한 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치가 개시된다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기 기술적 과제를 해결하기 위한 영상을 생성하는 장치는 피사체의 해부학적 정보를 포함하는 이미지데이터를 획득하는 이미지데이터 획득부; 상기 이미지데이터에서 상기 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하는 관심영역 결정부; 상기 피사체로부터 제1 시간 동안 획득됨에 따라 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하는 사이노그램 생성부; 상기 제1 사이노그램들로부터 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 추출하는 추출부; 및 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 움직임 정보 추정부;를 포함한다.
상기 다른 기술적 과제를 해결하기 위한 영상생성장치는 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터를 제1 시간 동안 검출하는 검출기; 및 피사체의 해부학적 정보를 포함하는 이미지데이터에서 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하고, 상기 검출기에서 검출된 데이터들로부터 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하고, 제1 사이노그램들로부터 추출된 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정하고, 상기 추정된 움직임 정보를 참조하여 게이트된 영상(gated image)을 생성하는 메인 시스템;을 포함한다.
상기 또 다른 기술적 과제를 해결하기 위한 움직임 정보를 추정하는 방법은 피사체의 해부학적 정보를 포함하는 이미지데이터를 획득하는 단계; 상기 이미지데이터에서 상기 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하는 단계; 상기 피사체로부터 제1 시간 동안 획득됨에 따라 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하는 단계; 상기 제1 사이노그램들로부터 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 추출하는 단계; 및 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 단계;를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위한 움직임 정보를 추정하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기된 바에 따르면, 피사체의 움직임 정보를 정확하게 추정할 수 있다.
도 1은 영상생성장치의 일 예를 도시한 도면이다.
도 2는 움직임 정보 추정장치의 일 예를 도시한 도면이다.
도 3은 도 2의 사이노그램 생성부의 일 예를 도시한 도면이다.
도 4는 피사체의 움직임에 따른 복수의 상태들에 대한 피사체의 특징값의 합산값의 패턴의 일 예를 도시한 도면이다.
도 5는 관심영역의 복수의 상태들의 일 예를 도시한 도면이다.
도 6은 도 2의 사이노그램 생성부에서 제1 사이노그램들을 생성하는 과정의 일 예를 나타낸 도면이다.
도 7은 움직임 정보를 추정하는 방법을 나타낸 흐름도이다.
도 2는 움직임 정보 추정장치의 일 예를 도시한 도면이다.
도 3은 도 2의 사이노그램 생성부의 일 예를 도시한 도면이다.
도 4는 피사체의 움직임에 따른 복수의 상태들에 대한 피사체의 특징값의 합산값의 패턴의 일 예를 도시한 도면이다.
도 5는 관심영역의 복수의 상태들의 일 예를 도시한 도면이다.
도 6은 도 2의 사이노그램 생성부에서 제1 사이노그램들을 생성하는 과정의 일 예를 나타낸 도면이다.
도 7은 움직임 정보를 추정하는 방법을 나타낸 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 영상생성장치(100)의 일 예를 도시한 도면이다. 도 1을 참조하면, 영상생성장치(100)는 검출기(110), 메인 시스템(120), 입력장치(130), 출력장치(140), 통신 인터페이스(150) 및 저장장치(160)을 포함할 수 있다.
도 1에 도시된 영상생성장치(100)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
영상생성장치(100)는 피사체로부터 획득된 데이터로부터 영상을 생성할 수 있다. 예를 들어, 영상은 피사체에 대한 정보를 포함하는 의료영상, 진단영상 등을 포함할 수 있다. 또한, 영상생성장치(100)는 양전자 단층촬영(Positron Emission Tomography: PET) 장치, 컴퓨터 단층촬영(Computed Tomography: CT) 장치, 양전자방출 단층촬영(PET-CT 또는 PET/CT) 장치, 단일광자 단층촬영(Single Photon Emission Computed Tomography: SPECT) 장치, 또는 SPECT/CT 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.
검출기(110)는 피사체로부터 측정데이터를 검출한다. 예를 들면, 검출기(110)는 피사체를 통과한 방사선을 검출하거나, 또는 피사체로부터 방출되는 감마선을 검출할 수 있다.
영상생성장치(100)가 양전자 단층촬영 장치인 경우를 예로 들면, 추적자(tracer)가 피사체에 주입되고, 추적자로부터 방출(emitting)되는 양전자(positron)가 전자(electron)와 결합한 후 소멸됨에 따라 두 개의 감마선(Gamma rays)이 생성된다. 이때, 방출되는 두 개의 감마선 각각은 약 511keV의 에너지를 가질 수 있고, 또한, 방출되는 두 개의 감마선 간은 약 180°의 각도를 가질 수 있다. 이러한 경우, 추적자는 방사성 동위원소, 방사성 추적자, 방사성 동위원소 추적자가 될 수 있다.
이에 따라, 검출기(110)는 두 개의 감마선을 획득하거나, 또는 두 개의 감마선의 정보를 포함하는 LOR(Line-Of-Response) 데이터를 획득한다. 예를 들어, LOR 데이터는 두 개의 감마선이 검출기(110)로 입사하는 각도, 감마선이 방출되는 지점으로부터 검출기(110)까지의 거리, 두 개의 감마선이 검출된 시간 등의 정보를 포함할 수 있다. 또한, 두 개의 감마선이 검출기(110)로 입사하는 각도는 피사체로부터 획득된 데이터의 투사각이 될 수 있고, 감마선이 방출되는 지점으로부터 검출기(110)까지의 거리는 피사체로부터 획득된 데이터의 변위가 될 수 있다. 다만, 검출기(110)는 감마선을 획득하는 동작만을 수행하고, LOR 데이터를 획득하는 동작은 메인 시스템(120)에서 수행될 수도 있다.
검출기(110)는 소정의 시간 동안 피사체로부터 측정데이터를 검출하기에, 측정데이터에는 피사체의 움직임에 따른 복수의 상태들이 포함될 수 있다. 구체적으로, 피사체는 인체, 또는 인체의 장기, 기관, 조직 등을 나타내는 경우. 피사체에는 인체의 호흡에 따른 호흡 움직임(respiratory motion), 인체의 심장박동에 따른 움직임 등과 같은 주기적인 움직임이 발생하게 된다. 이에 따라, 검출기(110)에서 소정의 시간 동안 검출된 측정데이터에는 피사체의 움직임에 따라 다양한 상태를 가지는 피사체에 대한 정보가 포함될 수 있다.
메인 시스템(120)은 피사체로부터 검출된 측정데이터로부터 영상을 생성한다. 본 실시예에 따른 메인 시스템(120)은 피사체로부터 검출된 측정데이터에 포함된 피사체의 움직임 정보를 추정하고, 추정된 움직임 정보를 참조하여 게이트된 영상(gated image)을 생성할 수 있다. 이때, 메인 시스템(120)은 움직임 정보를 추정함에 있어서, 피사체의 해부학적 정보를 포함하는 이미지데이터에서 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하고, 검출기(110)에서 검출된 데이터들로부터 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하고, 제1 사이노그램들로부터 추출된 복수의 상태들 각각에 대한 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정할 수 있다.
입력장치(130)는 사용자로부터 입력정보를 획득하고, 출력장치(140)는 출력정보를 표시한다. 도 1에서는 입력장치(130) 및 출력장치(140)가 서로 별개의 장치로 도시되어 있으나, 이에 한정되지 않고, 입력장치(130) 및 출력장치(140)는 하나의 장치로 통합될 수 있다. 예를 들어, 입력장치(130)는 마우스, 키보드 등을 포함할 수 있고, 출력장치(140)는 모니터 등을 포함할 수 있고, 입력장치(130) 및 출력장치(140)가 하나의 장치로 통합됨에 따라 입력장치(130) 및 출력장치(140)는 터치패드의 형태로 구현될 수 있다.
통신 인터페이스(150)는 의료영상 시스템(100)의 외부에 존재하는 장치(미도시)와 데이터를 송수신한다. 예를 들어, 통신 인터페이스(150)는 유/무선 네트워크 및 유선 직렬통신 등을 이용하여 데이터를 송수신할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나, 이에 한정되지 않고 정보를 송수신할 수 있는 다른 종류의 네트워크가 될 수도 있다.
저장장치(160)는 의료영상 시스템(100)의 동작 중에 발생하는 데이터 및 의료영상 시스템(100)의 동작을 수행하기 위한 데이터를 저장한다. 예를 들어, 저장장치(160)는 통상적인 저장매체가 될 수 있다.
도 2는 움직임 정보 추정장치(200)의 일 예를 도시한 도면이다. 도 2를 참조하면, 움직임 정보 추정장치(200)는 이미지데이터 획득부(210), 관심영역 결정부(220), 사이노그램 생성부(230), 추출부(240) 및 움직임 정보 추정부(250)를 포함할 수 있다.
도 2에 도시된 움직임 정보 추정장치(200)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 도 2에 도시된 움직임 정보 추정장치(200) 및 움직임 정보 추정장치(200)에 포함된 엘리먼트들 각각은 하나 또는 복수 개의 프로세서(processor)들에 해당할 수 있다.
또한, 도 2의 움직임 정보 추정장치(200)는 도 1에 도시된 영상생성장치(100)의 메인 시스템(120)에 포함되어 동작될 수 있다. 이에 따라, 메인 시스템(120)은 움직임 정보 추정장치(200), 보정부(122) 및 영상 생성부(124)를 포함할 수 있다.
움직임 정보 추정장치(200)는 피사체로부터 획득된 데이터에 포함된 피사체의 움직임 정보를 추정한다. 예를 들어, 피사체의 움직임 정보는 피사체의 호흡 주기(respiratory phase)가 될 수 있으나, 이에 한정되지 않는다.
이미지데이터 획득부(210)는 피사체의 해부학적 정보를 포함하는 이미지데이터를 획득한다. 예를 들어, 피사체의 해부학적 정보를 포함하는 이미지데이터는 피사체를 촬영한 컴퓨터 단층촬영 영상 또는 자기공명영상(Magnetic Resonance Image)에 대응하는 이미지데이터가 될 수 있으나, 이에 한정되지 않는다.
이에 따라, 이미지데이터 획득부(210)는 움직임 정보 추정장치(200)의 외부로부터 컴퓨터 단층촬영 영상 또는 자기공명영상에 대응하는 이미지데이터를 획득할 수 있으나, 이에 한정되지 않고, 이미지데이터 획득부(210)는 피사체에 대한 컴퓨터 단층촬영 영상 또는 자기공명영상을 촬영하기 위한 컴퓨터 단층촬영 영상 촬영 장치 또는 자기공명영상 촬영 장치를 포함할 수도 있다.
관심영역 결정부(220)는 이미지데이터 획득부(210)에서 획득된 이미지데이터에서 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정한다. 이때, 관심영역은 병변세포, 병변조직 또는 간의 적어도 일부 중 적어도 어느 하나를 포함하도록 x축, y축 및 z축 각각에 대하여 정의되는 3차원 영역이 될 수 있다.
피사체의 움직임이 호흡 움직임인 경우를 예로 들면, 관심영역은 피사체의 호흡 움직임에 의한 횡격막의 움직임에 따라 움직임이 발생하고, 횡격막과 인접한 세포, 조직 또는 장기(organ)의 적어도 일부를 포함할 수 있다. 피사체의 호흡 움직임에 의하여 횡격막은 수축되거나 이완된다. 이와 같은 횡격막의 움직임에 따라, 횡격막과 인접한 세포, 조직 또는 장기에도 움직임이 발생하게 된다.
횡격막과 인접한 곳에 위치하더라도, 리지드(rigid)한 특성을 가지는 뼈, 장기 등은 피사체의 호흡 움직임에 따른 움직임이 상대적으로 작게 발생하게 된다. 이에 따라, 본 실시예에 따른 관심영역은 횡격막과 인접한 세포, 조직 또는 장기 중 횡격막의 움직임에 따라 상대적으로 많은 움직임이 발생하는 세포, 조직 또는 장기의 적어도 일부가 될 수 있다.
또한, 움직임 정보 추정장치(200)가 양전자 단층촬영 장치에 포함되는 경우를 예로 들면, 관심영역은 횡격막과 인접한 세포들, 조직들 또는 장기들 중, 소정의 크기 이상의 영역 내에서, 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양이 가장 많은 세포, 조직 또는 장기의 적어도 일부를 포함할 수 있다. 피사체에 대한 영상에서, 방출되는 데이터의 양이 많은 영역은 방출되는 데이터의 양이 적은 영역보다 상대적으로 더 높은 콘트라스트(contrast)를 가질 수 있다. 따라서, 피사체에 대한 영상에서, 방출되는 데이터의 양이 많은 영역은 방출되는 데이터의 양이 적은 영역보다 상대적으로 식별이 용이하게 된다.
추적자가 포도당 유사물질(Fludeoxyglucose (18F): FDG)인 경우를 예로 들면, 횡격막에서 방출되는 데이터의 양보다 횡격막과 인접한 간, 병변세포 또는 병변조직에서 방출되는 데이터의 양이 더 많다. 따라서, 본 실시예에 따른 관심영역은 횡격막과 인접한 세포들, 조직들 또는 장기들 중 소정의 크기 이상의 영역 내에서 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양이 가장 많은 세포, 조직 또는 장기의 적어도 일부를 포함할 수 있다. 이때, 소정의 크기는 움직임 정보를 추정하기 위하여 필요한 최소의 영역을 나타낼 수 있다. 본 실시예에 따른 소정의 크기는 사용환경에 따라 자동으로 결정되거나, 또는 사용자로부터 입력된 입력정보를 참조하여 결정될 수 있다.
이에 따라, 본 실시예에 따른 관심영역은 병변세포, 병변조직 또는 간의 적어도 일부 중 적어도 어느 하나를 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 관심영역을 결정하는 상기와 같은 작업은 관심영역 결정부(220)에서 이미지데이터를 분석하여 자동으로 수행할 수 있으나, 이에 한정되지 않고, 관심영역 결정부(220)는 움직임 정보 추정장치(200)의 사용자로부터 입력된 입력정보를 참조하여 수동으로 관심영역을 결정할 수도 있다. 이때, 움직임 정보 추정장치(200)의 사용자는 도 1에 도시된 출력장치(140)에 표시되는 이미지데이터를 조회하며, 입력장치(130)를 이용하여 관심영역에 대응하는 영역을 선택할 수 있고, 관심영역 결정부(220)는 사용자로부터 입력된 입력정보를 참조하여 관심영역을 결정할 수 있다.
사이노그램 생성부(230)는 피사체로부터 제1 시간 동안 획득됨에 따라 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성한다. 예를 들어, 사이노그램 생성부(230)에서 생성된 제1 사이노그램들 각각은 피사체의 관심영역의 복수의 상태들 각각에 대응하는 데이터가 투사각(projection angle) 및 변위(displacement)에 따라 배열된 형태로 나타날 수 있으나, 이에 한정되지 않는다.
본 실시예에 따른 피사체의 움직임이 호흡 움직임인 경우를 예로 들면, 한 번의 호흡주기 내에서 호흡 움직임이 발생함에 따른 피사체의 상태들은 매 호흡주기에서 일응 유사하게 반복된다. 따라서, 피사체의 움직임에 따른 복수의 상태들은 한 번의 호흡주기 내에서 소정의 시간 간격에 따른 복수의 시간들 각각에서의 피사체의 상태를 나타낸다. 또한, 본 실시예에 따른 복수의 상태들 각각은 위상(phase)에 대응될 수 있다.
사이노그램 생성부(230)는 관심영역의 복수의 상태들의 제1 방향에 대응하는 제11 사이노그램들을 생성하고, 관심영역의 제2 방향 및 제3 방향에 대응하는 제12 사이노그램을 생성하고, 제11 사이노그램들로부터 제12 사이노그램에 대응하는 영역을 추출하고, 추출된 결과를 이용하여 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성할 수 있다. 이하에서, 사이노그램 생성부(230)에 관하여 도 3을 참조하여 예를 들어 설명한다.
도 3은 도 2의 사이노그램 생성부(230)의 일 예를 도시한 도면이다. 도 3을 참조하면, 사이노그램 생성부(230)는 제11 사이노그램 생성부(232), 제12 사이노그램 생성부(234) 및 제1 사이노그램 생성부(236)을 포함한다.
제11 사이노그램 생성부(232)는 이미지데이터로부터 획득된 관심영역의 제1 방향에 대한 위치정보를 참조하여, 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터 관심영역의 복수의 상태들의 제1 방향에 대응하는 제11 사이노그램들을 생성할 수 있다.
구체적으로, 제11 사이노그램 생성부(232)는 이미지데이터로부터 관심영역의 제1 방향에 대한 위치정보를 획득한다. 이때, 이미지데이터는 이미지데이터 획득부(210)로부터 획득된 컴퓨터 단층촬영 영상 또는 자기공명영상에 대응하는 이미지데이터가 될 수 있기에, 이미지데이터는 피사체에 대한 해부학적 정보를 포함할 수 있다. 따라서, 제11 사이노그램 생성부(232)는 이미지데이터를 구성하는 픽셀들 각각의 픽셀값을 참조하여 자동으로 관심영역의 제1 방향에 대한 위치정보를 획득하거나, 또는, 움직임 정보 추정장치(200)의 사용자로부터 입력된 정보를 고려하여 수동으로 관심영역의 제1 방향에 대한 위치정보를 획득할 수 있다. 관심영역은 컨트라스트가 상대적으로 높은 영역에 해당하기에, 관심영역의 제1 방향에 대한 위치정보는 제11 사이노그램 생성부(232)에서 자동으로 획득될 수 있다. 또는, 관심영역의 제1 방향에 대한 위치정보는 사용자가 출력장치(미도시)를 이용하여 이미지데이터를 조회하면서 입력장치(미도시)를 이용하여 제1 방향에 대한 위치정보를 입력한 입력정보를 참조하여 수동으로 획득될 수 있다.
예를 들어, 관심영역의 제1 방향에 대한 위치정보는 관심영역의 z축에 대한 위치정보를 나타낼 수 있다. 좀 더 구체적으로, 관심영역의 제1 방향에 대한 위치정보는 관심영역의 최 외곽 지점들 중 z축에 대한 양단 지점들의 좌표정보를 나타낼 수 있다.
이미지데이터가 컴퓨터 단층촬영 영상에 대한 3차원 이미지데이터이고 이미지데이터가 z축 방향으로 1번부터 100번까지의 2차원 슬라이스들의 스택(stack)의 형태로 존재하는 경우를 가정한다. 이때, 관심영역이 간인 경우, z축 방향으로 50번부터 75번까지의 슬라이스들에 간이 나타날 것이라고 예측되는 경우, 관심영역의 제1 방향에 대한 위치정보는 z축 방향으로 50번부터 75번까지의 슬라이스들에 대한 z축 방향의 위치정보를 나타낼 수 있다. z축 방향으로 50번부터 75번까지의 슬라이스들에 간이 나타날 것이라고 예측되는 경우라 함은, 이미지데이터의 55번부터 70번까지의 슬라이스들에 실질적으로 간이 나타나더라도, 피사체의 움직임에 따른 간의 움직임을 고려하여, z축 방향으로 50번부터 75번까지의 슬라이스들에 간이 나타날 것이라고 예측된 경우를 나타낸다.
또한, 제11 사이노그램 생성부(232)는 관심영역의 제1 방향에 대한 위치정보를 참조하여, 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터 관심영역의 복수의 상태들의 제1 방향에 대응하는 제11 사이노그램들을 생성할 수 있다. 이때, 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들은 피사체로부터 제1 시간 동안 획득된 데이터가 될 수 있고, 예를 들면, 양전자 단층촬영 데이터 또는 컴퓨터 단층촬영 데이터가 될 수 있다.
복수의 상태들이 제1 상태 내지 제3 상태를 포함하는 경우를 예로 들면, 제11 사이노그램 생성부(232)는 관심영역의 3개의 상태들에 대응하는 3개의 제11 사이노그램들을 생성할 수 있다. 구체적으로, 피사체의 움직임에 따른 제1 상태 내지 제3 상태들 각각이 포함된 데이터들로부터 관심영역의 제1 상태 내지 제3 상태들 각각의 제1 방향에 대응하는 제11 사이노그램들을 생성할 수 있다.
예를 들면, 제11 사이노그램 생성부(232)는 피사체가 제1 상태인 경우에 대한 데이터로부터 관심영역의 제1 상태의 제1 방향에 대응하는 제11 사이노그램을 생성할 수 있고, 피사체가 제2 상태인 경우에 대한 데이터로부터 관심영역의 제2 상태의 제1 방향에 대응하는 제11 사이노그램을 생성할 수 있고, 피사체가 제3 상태에 해당하는 경우에 대한 데이터로부터 관심영역의 제3 상태의 제1 방향에 대응하는 제11 사이노그램을 생성할 수 있다. 이때, 피사체가 제1 상태 내지 제3 상태 각각인 경우에 대한 데이터는 피사체로부터 방출된 데이터가 소정의 시간 간격에 대하여 검출된 경우를 나타낼 수 있다.
구체적으로, 제11 사이노그램 생성부(232)는 피사체로부터 제1 시간 동안 획득된 데이터들을 제2 시간 간격으로 정렬한 제1 데이터들을 획득하고, 제1 데이터들 중 관심영역의 복수의 상태들의 제1 방향에 대한 위치정보에 대응하는 제2 데이터들을 추출하고, 제2 데이터들을 상기 복수의 상태들 각각에 대하여 합성하여 관심영역의 복수의 상태들에 대응하는 제11 사이노그램들을 생성할 수 있다.
부연하면, 제11 사이노그램 생성부(232)는 피사체로부터 제1 시간 동안 획득된 데이터들 중 제2 시간 간격으로 정렬한 제1 데이터들을 획득하기 위하여, 시간에 대한 데이터 비닝(data binning) 기법을 이용할 수 있다. 예를 들어, 피사체로부터 제1 시간 동안 획득된 데이터는 리스트 모드 데이터(list mode data) 또는 이벤트 바이 이벤트(event by event) 데이터가 될 수 있으나, 이에 한정되지 않고 프레임 모드 데이터가 될 수도 있다. 또한, 제2 시간은 피사체의 움직임에 따른 블러(blur)가 발생하지 않을 정도의 짧은 시간이 될 수 있으나, 이에 한정되지 않는다.
즉, 피사체로부터 제1 시간 동안 획득된 리스트 모드 데이터는 이벤트의 발생 시점을 기준으로 획득된 데이터를 나타낸다. 예를 들어, 리스트 모드 데이터는 검출기(미도시)의 1번 검출기 및 3번 검출기가 1초에 반응하였음을 나타내는 정보, 검출기(미도시)의 2번 검출기 및 5번 검출기가 2.4초에 반응하였음을 나타내는 정보 등과 같은 형태의 정보를 제1 시간 동안 획득한 것을 나타낸다. 이러한 리스트 모드 데이터에 대하여 제2 시간 간격으로 데이터 비닝 작업을 수행하는 경우, 제2 시간 간격이 1초라고 하면, 제1 데이터들은 0초 이상 1초 미만에 획득된 데이터, 1초 이상 2초 미만에 획득된 데이터 등과 같은 형태로 정렬될 수 있다.
이에 따라, 피사체의 움직임에 따른 복수의 상태들을 포함하는 피사체로부터 획득된 데이터에 대하여 제2 시간 간격으로 데이터 비닝 작업을 수행한 결과에 따라 제1 데이터들을 획득할 수 있고, 제1 데이터들은 제2 시간 간격에 따른 복수의 상태들 각각에 대한 데이터들로 구별될 수 있다.
또한, 제11 사이노그램 생성부(232)는 제1 데이터들 중 상기 관심영역의 복수의 상태들의 제1 방향에 대한 위치정보에 대응하는 제2 데이터들을 추출한다. 예를 들면, 제11 사이노그램 생성부(232)는 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 데이터들 중 관심영역의 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 방향에 대한 위치정보에 대응하는 제2 데이터들을 추출한다. 이때, 제1 데이터들 및 제2 데이터들은 피사체로부터 획득된 데이터의 형태로 존재하거나, 또는, 사이노그램의 형태로 존재할 수도 있다.
이미지데이터는 하나의 상태에 대한 피사체의 해부학적 정보만을 제공하기에 관심영역의 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 방향에 대한 위치정보는 모두 동일하다. 그럼에도, 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 데이터들이 서로 다르기에, 관심영역의 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 방향에 대한 위치정보에 대응하는 제2 데이터들도 서로 다르게 된다.
또한, 제11 사이노그램 생성부(232)는 제2 데이터들을 상기 복수의 상태들 각각에 대하여 합성하여, 관심영역의 복수의 상태들에 대응하는 제11 사이노그램들을 생성할 수 있다. 예를 들어, 제11 사이노그램 생성부(232)는 제2 데이터들을 복수의 상태들 각각에 대하여 합성하기 위하여, 제2 데이터들을 복수의 상태들 각각에 대하여 z축 방향으로 합산(summation) 또는 압축(compression)할 수 있다. 이는, z축 방향에 대한 리비닝(rebinning) 작업이 될 수 있으나, 이에 한정되지 않는다. 이에 따라, 제11 사이노그램 생성부(232)는 관심영역의 복수의 상태들의 제1 방향에 대한 제11 사이노그램들을 생성할 수 있다.
관심영역의 제1 방향에 대한 위치정보가 z축 방향으로 50번부터 75번까지의 슬라이스들에 대한 z축 방향의 위치정보인 경우를 예로 들면, 제11 사이노그램 생성부(232)는 복수의 상태들 각각에 대한 제2 데이터들에 대한 z축 방향으로의 합성작업을 수행한다. 즉, 복수의 상태들 각각에 대한 제2 데이터들이 2차원 사이노그램들이 z축 방향으로 스택된 형태로 존재한다고 가정하면, 제11 사이노그램 생성부(232)는 제1 상태에 대한 제2 데이터들에 대응하는 2차원 사이노그램들 중 z축 방향으로 50번부터 75번까지의 슬라이스들에 대한 z축 방향의 위치정보에 대응하는 2차원 사이노그램들을 합성하여, 관심영역의 제1 상태에 대응하는 제11 사이노그램을 생성할 수 있다. 이러한 방식으로, 제11 사이노그램 생성부(232)는 복수의 상태들 각각에 대한 제2 데이터들에 대응하는 2차원 사이노그램들 중 z축 방향으로 50번부터 75번까지의 슬라이스들에 대한 z축 방향의 위치정보에 대응하는 2차원 사이노그램들을 합성하여, 관심영역의 복수의 상태들 각각에 대응하는 제11 사이노그램을 생성할 수 있다.
이와 같이, 제11 사이노그램 생성부(232)는 관심영역에 대응하는 z축 방향에 대한 위치정보를 고려하여 z축 방향에 대한 압축과정을 수행함에 따라, 관심영역의 복수의 상태들 각각에 대한 2차원 사이노그램에 해당하는 제11 사이노그램들을 생성할 수 있다.
제12 사이노그램 생성부(234)는 이미지데이터 획득부(210)로부터 획득된 이미지데이터에서 관심영역을, 복수의 투영방향들에 대하여, 제2 방향 및 제3 방향에 의하여 정의되는 평면으로 투영시킨 투영데이터들을 이용하여, 관심영역의 제2 방향 및 제3 방향에 대응하는 제12 사이노그램을 생성한다. 이때, 제2 방향 및 제3 방향에 의하여 정의되는 평면은 x축 및 y축에 의하여 정의되는 xy 평면이 될 수 있다.
예를 들어, 제12 사이노그램 생성부(234)는 이미지데이터에서 관심영역을 1, 그 외 영역을 0으로 설정한 후, 데이터 처리작업을 통하여, 관심영역을 복수의 투영방향들에 대하여 xy 평면으로 투영시킨 결과와 같은 투영데이터들을 획득할 수 있고, 투영데이터들을 이용하여 제12 사이노그램을 생성할 수 있다. 이에 따라, 제12 사이노그램 생성부(234)는 관심영역의 제2 방향 및 제3 방향에 대한 제12 사이노그램을 생성할 수 있다.
제1 사이노그램 생성부(236)는 제11 사이노그램들 각각으로부터 제12 사이노그램에 대응하는 영역을 추출하여, 제1 사이노그램을 생성할 수 있다. 예를 들어, 제1 사이노그램 생성부(236)는 제12 사이노그램을 이용하여, 제11 사이노그램들 각각에 대한 마스킹 작업을 수행함에 따라, 제1 사이노그램들을 생성할 수 있다.
예를 들어, 제1 사이노그램 생성부(236)는 제1 상태, 제2 상태, 제3 상태 각각에 대한 제11 사이노그램으로부터 제12 사이노그램에 대응하는 영역을 추출하여, 제1 상태, 제2 상태, 제3 상태 각각에 대한 제1 사이노그램을 생성할 수 있다.
따라서, 사이노그램 생성부(230)는 제11 사이노그램 생성부(232), 제12 사이노그램 생성부(234) 및 제1 사이노그램 생성부(236)를 이용하여, 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성할 수 있다.
다시 도 2를 참조하면, 추출부(240)는 제1 사이노그램들로부터 복수의 상태들 각각에 대한 피사체의 특징(feature)값을 추출한다. 이때, 제1 사이노그램들은 피사체의 관심영역에 대응하는 부분을 나타내기에, 피사체의 특징값은 피사체의 관심영역의 특징값이 될 수 있다.
예를 들면, 피사체의 특징값은 피사체의 움직임에 따른 복수의 상태들에 따라 변화하는 피사체의 특성을 나타내는 값이 될 수 있다. 움직임 정보 추정장치(200)가 양전자 단층촬영 장치에 포함되는 경우를 예로 들면, 본 실시예에 따른 특징값은 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양 또는 엑티비티(activity)를 포함할 수 있다. 또한, 피사체의 특징값은 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양 또는 엑티비티에 한정되지 않고, 복수의 상태들 각각에 대한 제1 사이노그램의 그레디언트값들, 복수의 상태들 각각에 대한 제1 사이노그램의 각 픽셀의 픽셀값들, 또는 복수의 상태들 각각에 대한 제1 사이노그램에 나타난 사이노그램의 형태정보를 나타내는 값들을 포함할 수 있다. 이때, 그레디언트값은 각 사이노그램을 구성하는 픽셀들 각각의 픽셀값과, 각각의 픽셀과 인접한 픽셀의 픽셀값의 차이값을 나타낼 수 있다.
움직임 정보 추정부(250)는 추출부(240)에서 추출된 복수의 상태들 각각에 대한 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정한다. 예를 들면, 움직임 정보 추정부(250)는 복수의 상태들 각각에 대한 피사체의 특징값의 합산값의 패턴을 참조하여, 피사체에 대한 움직임 정보를 추정할 수 있다. 이하에서, 피사체에 대한 움직임 정보의 추정에 관하여 도 4를 참조하여 예를 들어 설명한다.
도 4는 피사체의 움직임에 따른 복수의 상태들에 대한 피사체의 특징값의 합산값의 패턴의 일 예를 도시한 도면이다. 도 4를 참조하면, 그래프(41)는 복수의 상태에 대한 피사체의 특징값의 합산값의 패턴을 나타낸다. 특징값이 액티비티인 경우를 예로 들면, 그래프(41)는 복수의 상태들 각각에서 액티비티의 합을 나타낼 수 있다. 이때, 복수의 상태들 각각은 피사체로부터 방출되는 데이터가 검출기(미도시)에서 검출된 시간이 될 수 있다. 따라서, 그래프(41)의 x축은 시간으로 표시되어 있으나, 이에 한정되지 않고, x축은 복수의 상태들을 나타내는 위상(phase)이 될 수도 있다. 또한, y축은 복수의 상태들 각각에 대한 액티비티의 합의 상대적인 변화를 나타내기 위하여, 액티비티의 합을 0 이상 1 이하의 값으로 변환한 값이 될 수 있다.
피사체의 움직임 정보가 호흡 주기인 경우를 예로 들면, 움직임 정보 추정부(250)는 그래프(41)의 주기를 참조하여 호흡 주기를 추정할 수 있다. 또는, 움직임 정보 추정부(250)는 그래프(41)에서 피사체의 특징값의 합산값이 동일한 지점들(411, 412, 413)의 시간정보(421, 422, 423)를 참조하여, 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 시간정보를 획득함에 따라 피사체의 움직임 정보를 추정할 수 있다.
이에 따라, 움직임 정보 추정장치(200)는 피사체의 움직임에 따른 피사체의 복수의 상태들 각각에 대한 시간정보를 획득할 수 있다. 예를 들어, 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보는 게이팅 정보(gating information)가 될 수 있고, 움직임 정보 추정장치(200)에서 수행되는 움직임 정보를 추정하는 작업은 게이팅 작업이 될 수 있다.
이처럼, 움직임 정보 추정장치(200)는 피사체에 접촉 또는 비접촉된 별도의 외부장치 없이 피사체의 움직임 정보를 추정할 수 있고, 또한, 움직임 정보 추정장치(200)는 피사체에 대한 이미지데이터 및 피사체로부터 획득된 데이터에 기초하여 피사체의 움직임 정보를 추정하기에 추정된 움직임 정보의 정확도가 향상될 수 있다.
다시 도 2를 참조하면, 보정부(122)는 움직임 정보 추정부(250)에서 추정된 움직임 정보에 따른 보정작업을 수행한다. 보정부(122)는 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 이용하여, 움직임 보정(motion correction)작업을 수행할 수 있다. 즉, 보정부(122)는 피사체의 복수의 상태들 중 어느 하나의 상태를 기준으로 다른 상태에 대한 데이터 또는 영상의 오차를 산출하고, 상기 다른 상태에 대한 데이터 또는 영상에서 산출된 오차를 보정할 수 있다.
예를 들어, 보정부(122)는 피사체로부터 획득된 데이터에 대하여 보정작업을 수행하거나, 피사체로부터 획득된 데이터로부터 생성된 사이노그램에 대하여 보정작업을 수행하거나, 영상 생성부(124)에서 생성된 영상에 대하여 보정작업을 수행하거나, 또는, 영상생성장치(100)의 시스템 매트릭스(system matrix)에 움직임 정보를 반영하여 보정작업을 수행할 수 있다.
영상 생성부(124)는 움직임 정보 추정부(122)에서 추정된 움직임 정보를 참조하여 피사체에 대한 영상을 생성한다. 이때, 영상 생성부(124)에서 생성된 영상은 게이트된 영상이 될 수 있다.
예를 들어, 영상 생성부(124)는 피사체로부터 획득된 데이터를 이용하여 사이노그램을 생성하고, 생성된 사이노그램을 복원하여 피사체에 대한 영상을 생성할 수 있다. 다른 예를 들면, 영상 생성부(124)는 보정부(122)에서 보정작업이 수행된 결과를 이용하여 피사체에 대한 영상을 생성한다.
이에 따라, 영상 생성부(124)는 피사체의 움직임에 따른 모션 블러(motion blur)가 제거된 고해상도의 영상을 생성할 수 있다.
도 5는 관심영역의 복수의 상태들의 일 예를 도시한 도면이다. 도 5를 참조하면, 피사체의 움직임에 따라 움직임이 발생하는 관심영역의 복수의 상태들(51, 52, 53)이 도시되어 있다.
관심영역(511, 521, 531)이 간의 일부인 경우를 예로 들면, 제1 상태(51)의 간(512, 513)을 포함하는 제1 관심영역(511), 제2 상태(52)의 간(522, 523)을 포함하는 제2 관심영역(512), 제3 상태(53)의 간(532, 533)을 포함하는 제3 관심영역(513)이 각각 도시되어 있다. 간에는 피사체의 호흡 움직임에 따른 움직임이 발생하기에, 복수의 상태들(51, 52, 53) 각각에서의 제1 관심영역(511), 제2 관심영역(512) 및 제3 관심영역(513)에서도 간의 움직임이 나타난다. 피사체의 움직임에 따른 간의 움직임에 의하여, 제1 관심영역(512)은 간의 일부(513)를 가장 크게 나타내고, 제3 관심영역(513)은 간의 일부(533)를 가장 작게 나타내고 있다.
그러하기에, 도 2의 움직임 정보 추정부(250)에서 복수의 상태들(51, 52, 53) 각각에 대한 피사체의 관심영역에 대한 특징값의 합산값의 패턴을 참조하여 피사체에 대한 움직임 정보를 추정할 수 있다. 특징값이 액티비티인 경우를 예로 들면, 제1 관심영역(511), 제2 관심영역(512) 및 제3 관심영역(513) 각각에서 나타나는 간의 크기가 서로 상이하기에, 복수의 상태들(51, 52, 53) 각각에 대한 피사체의 특징값의 합산값의 패턴을 참조하여 피사체에 대한 움직임 정보를 추정할 수 있다.
따라서, 관심영역은 피사체의 움직임에 따른 움직임이 많이 발생하는 간의 일부가 될 수 있고, 본 실시예에 따른 관심영역은 이에 한정되지 않고, 피사체의 움직임에 따른 움직임이 많이 발생하는 병변세포, 병변조직 또는 다른 장기들을 포함할 수 있다.
도 6은 도 2의 사이노그램 생성부(230)에서 제1 사이노그램들을 생성하는 과정의 일 예를 나타낸 도면이다. 도 6을 참조하면, 피사체의 움직임에 따른 제1 상태(61), 제2 상태(62) 및 제3 상태(63)가 각각 도시되어 있다. 이때, 제1 상태(61), 제2 상태(62) 및 제3 상태(63) 각각은 동일한 시간 간격(611, 621, 631)을 가질 수 있다. 예를 들면, 동일한 시간 간격(611, 621, 631)은 도 3의 제11 사이노그램 생성부(232)에서 데이터 비닝 작업을 수행하는 제2 시간 간격이 될 수 있다.
도 3 및 도 6을 참조하면, 제11 사이노그램 생성부(232)는 피사체로부터 제1 시간 동안 획득된 데이터들을 동일한 시간 간격(611, 621, 631)으로 정렬한 제1 데이터들(612, 622, 623)을 획득하고, 제1 데이터들(612, 622, 623) 중 관심영역의 복수의 상태들(61, 62, 63)의 제1 방향에 대한 위치정보(6121, 6122, 6221, 6222, 6321, 6322)에 대응하는 제2 데이터들(613, 623, 633)을 추출한다. 이때, 관심영역의 복수의 상태들(61, 62, 63)의 제1 방향에 대한 위치정보(6121, 6122, 6221, 6222, 6321, 6322)는 모두 동일한 값이 될 수 있다.
또한, 제11 사이노그램 생성부(232)는 제2 데이터들(613, 623, 633)을 복수의 상태들(61, 62, 63) 각각에 대하여 합성하여, 관심영역의 복수의 상태들(61, 62, 63)의 제1 방향에 대응하는 제11 사이노그램들(614, 624, 634)을 생성한다,
제12 사이노그램 생성부(234)는 이미지데이터로부터 관심영역의 제2 방향 및 제3 방향에 대응하는 제12 사이노그램(620)을 생성하고, 제1 사이노그램 생성부(236)는 제11 사이노그램들(614, 624, 634) 및 제12 사이노그램(620)을 이용하여 관심영역의 복수의 상태들(61, 62, 63)에 대응하는 제1 사이노그램들(615, 625, 635)을 생성한다.
또한, 추출부(240)는 제1 사이노그램들(615, 625, 635)로부터 복수의 상태들(61, 62, 63) 각각에 대한 피사체의 관심영역의 특징값을 추출하고, 움직임 정보 추정부(250)는 복수의 상태들(61, 62, 63) 각각에 대한 피사체의 관심영역의 특징값을 참조하여 피사체에 대한 움직임 정보를 추정한다. 예를 들어, 움직임 정보 추정부(250)는 복수의 상태들(61, 62, 63) 각각에 대한 특징값의 합산값의 패턴을 참조하여 피사체에 대한 움직임 정보를 추정할 수 있다.
도 7은 움직임 정보를 추정하는 방법을 나타낸 흐름도이다. 도 7을 참조하면, 움직임 정보를 추정하는 방법은 도 1 및 도 2에 도시된 영상생성장치(100) 및 움직임 정보 추정장치(200)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 및 도 2에 도시된 영상생성장치(100) 및 움직임 정보 추정장치(200)에 관하여 이상에서 기술된 내용은 도 7의 도 7에도 적용됨을 알 수 있다.
701 단계에서 이미지데이터 획득부(210)는 피사체의 해부학적 정보를 포함하는 이미지데이터를 획득한다.
702 단계에서 관심영역 결정부(220)는 이미지데이터에서 피사체의 움직임에 따라 움직임이 발생하는 관심영역을 결정한다.
703 단계에서 사이노그램 생성부(230)는 피사체로부터 제1 시간 동안 획득됨에 따라 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성한다.
704 단계에서 추출부(240)는 제1 사이노그램들로부터 복수의 상태들 각각에 대한 피사체의 특징값을 추출한다.
705 단계에서 움직임 정보 추정부(250)는 복수의 상태들 각각에 대한 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정한다. 이때, 피사체의 특징값은 피사체의 관심영역의 특징값이 될 수 있다.
이에 따라, 피사체의 움직임 정보를 정확하게 추정할 수 있고, 추정된 움직임 정보를 이용하여 피사체의 호흡 주기 또는 호흡 위상을 획득하거나, 또는, 추정된 움직임 정보를 이용하여 피사체에 대한 게이트된 영상 또는 모션 블러가 제거된 영상을 생성할 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등), PC 인터페이스(PC Interface)(예를 들면, PCI, PCI-express, Wifi 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 ... 영상생성장치
110 ... 검출기
120 ... 메인 시스템
130 ... 입력장치
140 ... 출력장치
150 ... 통신 인터페이스
160 ... 저장장치
110 ... 검출기
120 ... 메인 시스템
130 ... 입력장치
140 ... 출력장치
150 ... 통신 인터페이스
160 ... 저장장치
Claims (20)
- 영상을 생성하는 장치에 있어서,
피사체의 해부학적 정보를 포함하는 이미지데이터를 획득하는 이미지데이터 획득부;
상기 이미지데이터에서 상기 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하는 관심영역 결정부;
상기 피사체로부터 제1 시간 동안 획득됨에 따라 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하는 사이노그램 생성부;
상기 제1 사이노그램들로부터 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 추출하는 추출부; 및
상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 움직임 정보 추정부;를 포함하는 장치. - 제 1 항에 있어서,
상기 관심영역은 상기 피사체의 호흡 움직임에 의한 횡격막의 움직임에 따라 움직임이 발생하고, 상기 횡격막과 인접한 세포, 조직 또는 장기(organ)의 적어도 일부를 포함하는 것을 특징으로 하는 장치. - 제 2 항에 있어서,
상기 관심영역은 상기 횡격막과 인접한 세포들, 조직들 또는 장기들 중, 소정의 크기 이상의 영역 내에서, 상기 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양이 가장 많은 세포, 조직 또는 장기의 적어도 일부를 포함하는 것을 특징으로 하는 장치. - 제 1 항에 있어서,
상기 관심영역 결정부는 상기 관심영역을 자동으로 결정하거나, 또는 상기 장치의 사용자로부터 입력된 입력정보를 참조하여 수동으로 결정하고,
상기 관심영역은 병변세포, 병변조직 또는 간의 일부 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 장치. - 제 1 항에 있어서,
상기 제1 사이노그램 생성부는
상기 이미지데이터로부터 획득된 상기 관심영역의 제1 방향에 대한 위치정보를 참조하여, 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터 상기 관심영역의 복수의 상태들의 제1 방향에 대응하는 제11 사이노그램들을 생성하는 제11 사이노그램 생성부;
상기 이미지데이터에서 상기 관심영역을, 복수의 투영방향들에 대하여, 제2 방향 및 제3 방향에 의하여 정의되는 평면으로 투영시킨 투영데이터들을 이용하여, 상기 관심영역의 제2 방향 및 제3 방향에 대응하는 제12 사이노그램을 생성하는 제12 사이노그램 생성부; 및
상기 제11 사이노그램들로부터 상기 제12 사이노그램에 대응하는 영역을 추출하고, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성하는 제1 사이노그램 생성부;를 포함하는 장치. - 제 5 항에 있어서,
상기 제11 사이노그램 생성부는 상기 피사체로부터 상기 제1 시간 동안 획득된 데이터들을 제2 시간 간격으로 정렬한 제1 데이터들을 획득하고, 상기 제1 데이터들 중 상기 관심영역의 복수의 상태들의 제1 방향에 대한 위치정보에 대응하는 제2 데이터들을 추출하고, 상기 제2 데이터들을 상기 복수의 상태들 각각에 대하여 합성하여, 상기 관심영역의 복수의 상태들에 대응하는 제11 사이노그램들을 생성하는 장치. - 제 6 항에 있어서,
상기 제11 사이노그램 생성부는 시간에 대한 데이터 비닝(data binning) 기법을 이용하여 상기 제1 데이터들을 획득하는 것을 특징으로 하는 장치. - 제 1 항에 있어서,
상기 피사체의 특징값은 상기 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양을 포함하는 것을 특징으로 하는 장치. - 제 1 항에 있어서,
상기 움직임 정보 추정부는 상기 복수의 상태들 각각에 대한 상기 특징값의 합산값의 패턴을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 장치. - 제 1 항에 있어서,
상기 추정된 움직임 정보를 참조하여 상기 피사체에 대한 영상을 생성하는 영상 생성부;를 더 포함하는 장치. - 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터를 제1 시간 동안 검출하는 검출기; 및
피사체의 해부학적 정보를 포함하는 이미지데이터에서 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하고, 상기 검출기에서 검출된 데이터들로부터 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하고, 제1 사이노그램들로부터 추출된 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 피사체에 대한 움직임 정보를 추정하고, 상기 추정된 움직임 정보를 참조하여 게이트된 영상(gated image)을 생성하는 메인 시스템;을 포함하는 영상생성장치. - 움직임 정보를 추정하는 방법에 있어서,
피사체의 해부학적 정보를 포함하는 이미지데이터를 획득하는 단계;
상기 이미지데이터에서 상기 피사체의 움직임에 따라 움직임이 발생하는 관심영역(Region of Interest: ROI)을 결정하는 단계;
상기 피사체로부터 제1 시간 동안 획득됨에 따라 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램(sinogram)들을 생성하는 단계;
상기 제1 사이노그램들로부터 상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 추출하는 단계; 및
상기 복수의 상태들 각각에 대한 상기 피사체의 특징값을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 단계;를 포함하는 방법. - 제 12 항에 있어서,
상기 관심영역은 상기 피사체의 호흡 움직임에 의한 횡격막의 움직임에 따라 움직임이 발생하고, 상기 횡격막과 인접한 세포, 조직 또는 장기(organ)의 적어도 일부를 포함하는 것을 특징으로 하는 방법. - 제 12 항에 있어서,
상기 관심영역은 상기 횡격막과 인접한 세포들, 조직들 또는 장기들 중, 소정의 크기 이상의 영역 내에서, 상기 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양이 가장 많은 세포, 조직 또는 장기의 적어도 일부를 포함하고, 상기 관심영역은 상기 방법을 수행하는 장치에 의하여 자동으로 결정되거나, 또는 상기 방법을 수행하는 장치의 사용자로부터 입력된 입력정보를 참조하여 수동으로 결정되는 것을 특징으로 하는 방법. - 제 12 항에 있어서,
상기 제1 사이노그램들을 생성하는 단계는
상기 이미지데이터로부터 획득된 상기 관심영역의 제1 방향에 대한 위치정보를 참조하여, 상기 피사체의 움직임에 따른 복수의 상태들이 포함된 데이터들로부터 상기 관심영역의 복수의 상태들의 제1 방향에 대응하는 제11 사이노그램들을 생성하는 단계;
상기 이미지데이터에서 상기 관심영역을, 복수의 투영방향들에 대하여, 제2 방향 및 제3 방향에 의하여 정의되는 평면으로 투영시킨 투영데이터들을 이용하여, 상기 관심영역의 제2 방향 및 제3 방향에 대응하는 제12 사이노그램을 생성하는 단계; 및
상기 제11 사이노그램들 각각으로부터 상기 제12 사이노그램에 대응하는 영역을 추출하여, 상기 관심영역의 복수의 상태들에 대응하는 제1 사이노그램들을 생성하는 단계;를 포함하는 방법. - 제 15 항에 있어서,
상기 제11 사이노그램들을 생성하는 단계는
상기 피사체로부터 상기 제1 시간 동안 획득된 데이터들을 제2 시간 간격으로 정렬한 제1 데이터들을 획득하는 단계;
상기 제1 데이터들 중 상기 관심영역의 복수의 상태들의 제1 방향에 대한 위치정보에 대응하는 제2 데이터들을 추출하는 단계; 및
상기 제2 데이터들을 상기 복수의 상태들 각각에 대하여 합성하여, 상기 관심영역의 복수의 상태들에 대응하는 제11 사이노그램들을 생성하는 단계;를 포함하는 방법. - 제 16 항에 있어서,
상기 제1 데이터들을 획득하는 단계는 시간에 대한 데이터 비닝(data binning) 기법을 이용하는 것을 특징으로 하는 방법. - 제 12 항에 있어서,
상기 피사체의 특징값은 상기 피사체에 주입된 추적자에 의하여 방출되는 데이터의 양을 포함하는 것을 특징으로 하는 방법. - 제 12 항에 있어서,
상기 피사체에 대한 움직임 정보를 추정하는 방법은 상기 복수의 상태들 각각에 대한 상기 특징값의 합산값의 패턴을 참조하여, 상기 피사체에 대한 움직임 정보를 추정하는 방법 - 제 12 항 내지 제 19 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120129095A KR20140062374A (ko) | 2012-11-14 | 2012-11-14 | 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 |
US14/055,297 US20140133707A1 (en) | 2012-11-14 | 2013-10-16 | Motion information estimation method and image generation apparatus using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120129095A KR20140062374A (ko) | 2012-11-14 | 2012-11-14 | 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140062374A true KR20140062374A (ko) | 2014-05-23 |
Family
ID=50681727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120129095A KR20140062374A (ko) | 2012-11-14 | 2012-11-14 | 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140133707A1 (ko) |
KR (1) | KR20140062374A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160045662A (ko) * | 2016-04-15 | 2016-04-27 | 연세대학교 산학협력단 | 의료 영상 장치 및 그의 영상 보정 방법 |
US10032295B2 (en) | 2015-04-06 | 2018-07-24 | Samsung Electronics Co., Ltd. | Tomography apparatus and method of processing tomography image |
WO2021177584A1 (ko) * | 2020-03-02 | 2021-09-10 | 재단법인대구경북과학기술원 | 인공신경망을 이용한 심근 세포 모니터링 방법 및 그 장치 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103381095A (zh) * | 2012-05-03 | 2013-11-06 | 三星电子株式会社 | 用于产生正电子发射断层扫描图像的设备和方法 |
US9613436B1 (en) * | 2013-12-23 | 2017-04-04 | Sensing Electromagnetic Plus Corp. | Optimization methods for feature detection |
US10282871B2 (en) | 2017-07-10 | 2019-05-07 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for pet image reconstruction |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1952306A4 (en) * | 2005-10-18 | 2013-02-27 | Icad Inc | AUTOMATED METHODS FOR SELECTING VOXELS AND IMPLEMENTING A PHARMACOKINETIC AND PARAMETRIC ANALYSIS FOR DYNAMIC CONTRAST IMPROVED MRI AND CT |
JP4342588B2 (ja) * | 2008-03-07 | 2009-10-14 | アロカ株式会社 | X線ct装置、および、その制御プログラム |
US8184887B2 (en) * | 2008-08-29 | 2012-05-22 | General Electric Company | System and method for image reconstruction |
-
2012
- 2012-11-14 KR KR1020120129095A patent/KR20140062374A/ko not_active Application Discontinuation
-
2013
- 2013-10-16 US US14/055,297 patent/US20140133707A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10032295B2 (en) | 2015-04-06 | 2018-07-24 | Samsung Electronics Co., Ltd. | Tomography apparatus and method of processing tomography image |
KR20160045662A (ko) * | 2016-04-15 | 2016-04-27 | 연세대학교 산학협력단 | 의료 영상 장치 및 그의 영상 보정 방법 |
WO2021177584A1 (ko) * | 2020-03-02 | 2021-09-10 | 재단법인대구경북과학기술원 | 인공신경망을 이용한 심근 세포 모니터링 방법 및 그 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20140133707A1 (en) | 2014-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109009200B (zh) | 用于正电子发射断层成像图像重建的系统和方法 | |
CN103533892B (zh) | 运动补偿成像 | |
EP2367153B1 (en) | System and method for tomographic data acquisition and image reconstruction | |
RU2471204C2 (ru) | Локальная позитронная эмиссионная томография | |
JP4855931B2 (ja) | 動き補償再構成技法 | |
EP2389661B1 (en) | Nuclear image reconstruction | |
JP2009528139A (ja) | リストモードデータに基づく局所動き補償 | |
JP2014517277A (ja) | リストモードダイナミックイメージ再構成 | |
CN110536640B (zh) | 从pet列表数据中的呼吸运动信号的噪声鲁棒的实时提取 | |
KR20140062374A (ko) | 움직임 정보를 추정하는 방법 및 이를 이용하여 영상을 생성하는 장치 | |
CN102933142B (zh) | 基于幅度/斜率的运动时相映射 | |
CN104114091B (zh) | 空间校正核图像重建 | |
JP2020511665A (ja) | データ駆動型呼吸性体動推定方法 | |
Bertolli et al. | Sign determination methods for the respiratory signal in data-driven PET gating | |
CN102622743A (zh) | 用于比较3d和2d图像数据的方法和设备 | |
US9245325B2 (en) | Method and apparatus for generating image | |
US20040167387A1 (en) | Methods and apparatus for improving image quality | |
US11495346B2 (en) | External device-enabled imaging support | |
US11317875B2 (en) | Reconstruction of flow data | |
KR20140086627A (ko) | 영상 생성 방법 및 장치 | |
KR102616736B1 (ko) | Pet 이미징에서의 자동화된 모션 보정 | |
Wang et al. | Motion correction strategies for enhancing whole-body PET imaging | |
Abascal et al. | Sparse reconstruction methods in X-ray CT | |
WO2010134013A1 (en) | Interactive image registration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |