KR20140042461A - 영상을 생성하는 방법 및 장치 - Google Patents

영상을 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR20140042461A
KR20140042461A KR1020120109257A KR20120109257A KR20140042461A KR 20140042461 A KR20140042461 A KR 20140042461A KR 1020120109257 A KR1020120109257 A KR 1020120109257A KR 20120109257 A KR20120109257 A KR 20120109257A KR 20140042461 A KR20140042461 A KR 20140042461A
Authority
KR
South Korea
Prior art keywords
sinogram
subject
roi
motion information
sinograms
Prior art date
Application number
KR1020120109257A
Other languages
English (en)
Inventor
박병관
송태용
이재목
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120109257A priority Critical patent/KR20140042461A/ko
Priority to US13/904,522 priority patent/US9245325B2/en
Publication of KR20140042461A publication Critical patent/KR20140042461A/ko

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)

Abstract

영상을 생성하는 방법에 따르면, 제1 사이노그램을 생성하고, 제1 사이노그램을 이용하여 피사체의 관심영역을 결정하고, 제2 사이노그램으로부터 관심영역에 대응하는 제3 사이노그램들을 추출하고, 제3 사이노그램들을 이용하여 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하고, 움직임 정보에 따른 보정작업을 수행한다.

Description

영상을 생성하는 방법 및 장치{Method and apparatus to correct motion}
영상을 생성하는 방법 및 장치가 개시된다.
피사체에 주입된 방사성 동위원소에 의하여 방출되는 감마선을 이용하여 피사체에 대한 진단영상을 획득하거나, 또는, 피사체에 X선 등과 같은 방사선을 조사함에 따라 피사체로부터 흡수된 방사선의 양에 기초하여 피사체에 대한 진단영상을 획득할 수 있다. 이처럼, 피사체에 대한 진단영상을 획득하는 동안 발생하는 피사체의 움직임으로 인하여 진단영상에는 노이즈가 존재할 수 있다.
피사체의 움직임에 따른 노이즈를 효율적으로 제거하기 위한 영상을 생성하는 방법 및 장치가 개시된다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기 기술적 과제를 해결하기 위한 영상생성방법은 피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램(sinogram)을 생성하는 단계; 상기 제1 사이노그램을 이용하여, 상기 피사체의 관심영역(Region Of Interest: ROI)을 결정하는 단계; 상기 피사체로부터 획득된 데이터를 이용하여 생성된 상기 피사체의 복수의 상태들에 대한 제2 사이노그램으로부터, 상기 관심영역에 대응하는 제3 사이노그램들을 추출하는 단계; 상기 제3 사이노그램들을 이용하여 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 단계; 및 상기 움직임 정보에 따른 보정작업을 수행하는 단계;를 포함한다.
상기 다른 기술적 과제를 해결하기 위한 진단영상 생성방법은 피사체로부터 게이트된 이미지(gated image)를 획득하는 단계; 상기 획득된 게이트된 이미지로부터 상기 피사체의 관심영역을 결정하는 단계; 상기 관심영역에 대응하는 복수의 사이노그램들을 이용하여, 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 단계; 상기 움직임 정보에 따른 보정작업을 수행하는 단계; 및 상기 보정작업이 수행된 진단영상을 생성하는 단계;를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위하여 영상생성방법 및 진단영상 생성방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기 또 다른 기술적 과제를 해결하기 위한 영상생성장치는 피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램 및 상기 피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들에 대한 제2 사이노그램을 생성하는 사이노그램 생성부; 상기 제1 사이노그램을 이용하여, 상기 피사체의 관심영역을 결정하는 관심영역 결정부; 상기 제2 사이노그램으로부터 상기 관심영역에 대응하는 제3 사이노그램들을 추출하는 사이노그램 추출부; 상기 제3 사이노그램들을 이용하여 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 움직임 정보 추정부; 및 상기 움직임 정보에 따른 보정작업을 수행하는 보정부;를 포함한다.
상기된 바에 따르면, 피사체의 움직임에 따른 노이즈를 효율적으로 제거하기 위한 움직임 보정작업을 수행할 수 있다.
도 1은 움직임 보정장치의 일 실시예를 도시한 도면이다.
도 2는 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 나타내는 신호의 일 예를 도시한 도면이다.
도 3은 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정하는 방법의 일 예를 도시한 도면이다.
도 4는 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정하는 방법의 일 예를 도시한 도면이다.
도 5는 움직임 보정장치의 다른 실시예를 도시한 도면이다.
도 6은 움직임을 보정하는 방법을 나타낸 흐름도이다.
도 7은 영상생성장치의 일 예를 도시한 도면이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 움직임 보정(correction)장치(100)의 일 실시예를 도시한 도면이다. 도 1을 참조하면, 움직임 보정장치(100)는 사이노그램(sinogram) 생성부(110), 관심영역 결정부(120), 사이노그램 추출부(130), 움직임 정보 추정부(140) 및 보정부(150)를 포함한다.
도 1에 도시된 보정장치(100)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 도 1에 도시된 보정장치(100) 및 보정장치(100)에 포함된 엘리먼트들 각각은 하나 또는 복수 개의 프로세서(processor)들에 해당할 수 있다. 또한, 도 1의 움직임 보정(correction)장치(100)는 영상생성장치에 포함되어 동작될 수 있다.
보정장치(100)는 피사체의 움직임에 의하여 발생하는 잡음, 예를 들면, 동잡음을 제거하기 위한 보정작업을 수행할 수 있다. 또한, 보정장치(100)는 피사체의 움직임에 따른 모션 블러(motion blur)가 제거된 영상을 생성하기 위한 보정작업을 수행할 수 있다. 본 실시예에 따른 피사체는 인체, 또는 인체의 장기, 기관, 조직 등을 포함할 수 있다. 예를 들면, 피사체는 간, 폐, 심장 등이 될 수 있으나, 이에 한정되지 않는다. 피사체가 인체의 장기인 경우, 피사체에는 인체의 호흡에 따른 호흡 움직임(respiratory motion), 인체의 심장박동에 따른 움직임 등과 같은 주기적인 움직임이 발생하게 된다. 따라서, 보정장치(100)는 피사체에 발생되는 움직임에 의하여 발생되는 잡음을 제거하기 위한 보정작업을 수행한다.
예를 들면, 보정장치(100)는 양전자 단층촬영(Positron Emission Tomography: PET), 컴퓨터 단층촬영(Computed Tomography: CT), 양전자방출 단층촬영(PET-CT 또는 PET/CT), 단일광자 단층촬영(Single Photon Emission Computed Tomography: SPECT), SPECT/CT 등에 의하여 발생하는 데이터를 보정하기 위한 장치일 수 있으나, 이에 한정되지 않고, 사이노그램을 이용하여 영상을 생성하는 모든 방법에 따른 데이터를 보정하기 위한 장치가 될 수 있다.
사이노그램 생성부(110)는 피사체로부터 획득된 데이터로부터 사이노그램(sinogram)을 생성한다. 예를 들어, 사이노그램 생성부(110)는 복수의 투사(projection)방향들에 따라 피사체로부터 획득된 투사데이터를 투사방향들 각각에 따라 순차적으로 배열하여, 사이노그램을 생성할 수 있다. 이처럼, 사이노그램 생성부(110)는 피사체로부터 획득된 측정데이터를 투사각(projection angle) 및 변위(displacement)에 따른 데이터로 변환하여, 사이노그램을 생성할 수 있다.
보정장치(100)가 양전자 단층촬영에 의하여 발생하는 데이터를 보정하기 위한 장치인 경우를 예로 들면, 추적자(tracer)가 피사체에 주입되고, 추적자로부터 방출(emitting)되는 양전자(positron)가 전자(electron)와 결합한 후 소멸됨에 따라 두 개의 감마선(Gamma rays)이 생성된다. 예를 들어, 방출되는 두 개의 감마선 각각은 약 511keV의 에너지를 가질 수 있고, 또한, 방출되는 두 개의 감마선 간은 약 180°의 각도를 가질 수 있다. 이때, 추적자는 방사성 동위원소, 방사성 추적자, 방사성 동위원소 추적자가 될 수 있다.
이에 따라, 사이노그램 생성부(110)는 두 개의 감마선을 획득하거나, 또는 두 개의 감마선의 정보를 포함하는 LOR(Line-Of-Response) 데이터를 획득한다. 예를 들어, LOR 데이터는 두 개의 감마선이 검출기(미도시)로 입사하는 각도, 감마선이 방출되는 지점으로부터 검출기까지의 거리, 두 개의 감마선이 검출된 시간 등의 정보를 포함할 수 있다. 이때, 두 개의 감마선이 검출기로 입사하는 각도는 피사체로부터 획득된 측정데이터의 투사각이 될 수 있고, 감마선이 방출되는 지점으로부터 검출기까지의 거리는 피사체로부터 획득된 측정데이터의 변위가 될 수 있다. 이처럼, 사이노그램 생성부(110)는 피사체로부터 두 개의 감마선 또는 LOR 데이터와 같은 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터로부터 사이노그램을 생성한다.
예를 들어, 사이노그램 생성부(110)는 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램 및/또는 피사체의 복수의 상태들에 대한 제2 사이노그램을 생성한다. 이때, 제1 사이노그램은 게이트된 사이노그램(gated sinogram)이 될 수 있고, 제2 사이노그램은 전체(full) 사이노그램이 될 수 있다.
피사체의 호흡 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램이 생성되는 경우, 한 번의 호흡주기 내에서 호흡 움직임이 발생함에 따른 피사체의 상태들은 매 호흡주기에서 일응 유사하게 반복된다. 따라서, 피사체의 움직임에 따른 복수의 상태들은 한 번의 호흡주기 내에서 소정의 시간 간격에 따른 복수의 시간들 각각에서의 피사체의 상태를 나타낸다. 피사체의 호흡 주기가 약 1cycle/5sec라고 하면, 피사체의 상태는 1초, 6초, 11초 등에서 일응 유사하고, 2초, 7초, 12초 등에서 일응 유사하게 된다. 소정의 시간 간격이 1초 라고 하면, 피사체의 움직임에 따른 복수의 상태들은 한 번의 호흡주기인 5초 내에서 1초 간격에 따른 1초, 2초, 3초, 4초 및 5초에서의 피사체의 상태들을 포함할 수 있으나, 이에 한정되지 않는다.
사이노그램 생성부(110)는 피사체로부터 획득된 데이터로부터 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램을 생성한다. 예를 들어, 사이노그램 생성부(110)는 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 시간정보를 획득하고, 획득된 시간정보에 대응하는 데이터로부터 제1 사이노그램을 생성할 수 있다.
이때, 어느 하나의 상태에 대한 시간정보는 피사체에 접촉 또는 비접촉된 장치에 의하여 획득되거나, 또는, 피사체로부터 획득된 데이터로부터 획득될 수 있다. 본 실시예에 따른 피사체의 복수의 상태들 각각에 대한 시간정보는 게이팅 정보(gating information)가 될 수 있으나, 이에 한정되지 않는다.
예를 들면, 피사체에 접촉 또는 비접촉된 장치에 의하여 시간정보를 획득하는 경우, 사이노그램 생성부(110)는 ECG 정보 또는 IR Tracker를 이용할 수도 있다. 또는, 사이노그램 생성부(110)는 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 나타내는 신호를 획득하고, 피사체로부터 획득된 데이터 중 상기 신호가 소정의 위상을 가지는 시간에 대응하는 데이터로부터 제1 사이노그램을 생성한다. 이에 관하여, 이하 도 2에서 예를 들어 설명한다.
다른 예를 들면, 외부장치를 사용하지 않고 피사체로부터 획득된 데이터로부터 시간정보를 획득하는 경우, 사이노그램 생성부(110)는 소정의 시간 간격에 따른 복수의 시간들에 대응하는 사이노그램을 생성하고, 생성된 사이노그램들 중 유사도가 높은 소정 개수의 사이노그램들을 이용하여 제1 사이노그램을 생성한다. 이때, 복수의 사이노그램들 중 유사도가 높은 사이노그램들은 피사체의 움직임에 따른 복수의 상태들 중 동일한 상태에 대한 사이노그램을 나타낸다. 따라서, 복수의 사이노그램들 중 유사도가 높은 소정 개수의 사이노그램들을 추출하여 하나의 사이노그램으로 합성하거나, 또는 복수의 사이노그램들 중 유사도가 높은 사이노그램들로부터 획득된 시간정보에 대응하는 피사체로부터 획득된 데이터를 이용하여 제1 사이노그램이 생성될 수 있다.
부연하면, 사이노그램 생성부(110)는 피사체로부터 획득된 데이터에 대하여 N초 간격으로 획득된 데이터 각각에 대한 사이노그램을 생성할 수 있다. N이 1인 경우를 예로 들면, 사이노그램 생성부(110)는 피사체로부터 1초에 획득된 데이터에 대한 사이노그램, 2초에 획득된 데이터에 대한 사이노그램 등과 같이, 1초 간격으로 복수의 시간들에 대응하는 사이노그램들을 생성한다.
또한, 사이노그램 생성부(110)는 매초 간격으로 생성된 복수의 사이노그램들을 서로 비교하여, 유사도가 높은 사이노그램들을 추출한다. 호흡 주기가 약 1cycle/5sec인 경우를 예로 들면, 5초 간격으로 획득된 데이터에 대한 사이노그램들의 유사도가 높을 수 있다.
이에 따라, 사이노그램 생성부(110)는 유사도가 높은 소정 개수의 사이노그램들을 추출하여 하나의 사이노그램으로 합성함에 따라 제1 사이노그램을 생성할 수 있다.
또는, 사이노그램 생성부(110)는 유사도가 높은 소정 개수의 사이노그램들 각각으로부터 시간정보를 획득하고, 피사체로부터 획득된 데이터 중 상기 획득된 시간정보에 대응하는 데이터를 이용하여 제1 사이노그램을 생성할 수 있다. 예를 들어, 유사도가 높은 3개의 사이노그램들 각각이 1초, 6초 및 12초로부터 획득된 데이터에 대한 사이노그램들인 경우, 유사도가 높은 소정 개수의 사이노그램들 각각으로부터 획득되는 시간정보는 1초, 6초 및 12초가 될 수 있다.
이처럼, 사이노그램 생성부(110)에서 피사체에 접촉 또는 비접촉되는 다른 장치를 사용하지 않고, 피사체로부터 획득되는 데이터를 이용하여 피사체의 복수의 상태들에 대한 시간정보를 획득하기에, 다른 장치로부터 획득되는 시간정보가 피사체의 정보와 정확히 일치하지 않는 경우를 방지할 수 있다.
관심영역 결정부(120)는 제1 사이노그램을 이용하여 피사체의 관심영역(Region of Interest: ROI)을 결정한다. 예를 들어, 관심영역은 피사체에 포함된 병변을 나타낼 수 있으나, 이에 한정되지 않는다. 예를 들면, 관심영역 결정부(120)는 제1 사이노그램으로부터 복원된 제1 이미지로부터 관심영역을 결정한다. 이때, 관심영역은 보정장치(100)를 사용하는 의료전문가에 의하여 수동으로 결정되거나, 또는, 보정장치(100)에 의하여 자동으로 결정될 수 있다.
관심영역 결정부(120)는 제1 사이노그램으로부터 복원된 제1 이미지를 조회(view)하는 사용자로부터 입력되는 선택정보를 참조하여 관심영역을 결정할 수 있다. 이때, 사용자는 사용자 인터페이스부(미도시)에 표시된 제1 이미지의 소정 영역을 사용자 인터페이스부의 일 예인 마우스를 이용하여 드래그하는 방법 등을 이용하여 관심영역을 결정할 수 있다.
또한, 관심영역 결정부(120)는 제1 사이노그램으로부터 복원된 제1 이미지를 구성하는 픽셀들의 이미지 값들(image values)을 참조하여 관심영역을 자동으로 결정할 수 있다. 예를 들어, 관심영역 결정부(120)는 제1 이미지를 구성하는 픽셀들 중 소정의 임계값 이상의 이미지 값을 가지는 픽셀들을 관심영역으로 결정할 수 있다. 또는, 관심영역 결정부(120)는 제1 이미지를 구성하는 픽셀들 중 소정의 임계값 이상의 이미지 값을 가지는 픽셀들이 소정 개수 이상 연속하여 나타내는 경우, 해당 픽셀들을 관심영역으로 결정할 수 있다.
이처럼, 관심영역 결정부(120)는 피사체의 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램만을 이용하여 피사체의 관심영역을 결정하기에, 관심영역에 병변 외의 다른 조직들이 포함되지 않도록 함에 따라 관심영역의 정확도가 향상될 수 있다.
사이노그램 추출부(130)는 제2 사이노그램으로부터 관심영역에 대응하는 제3 사이노그램들을 추출한다. 예를 들어, 사이노그램 추출부(130)는 관심영역에 대응하는 부분의 로우 데이터, 예를 들면, LOR 데이터를 산출하고, 산출된 LOR 데이터에 기초하여 제3 사이노그램들을 추출한다. 또는, 사이노그램 추출부(130)는 제2 사이노그램에서 관심영역에 대응하는 부분에 대한 마스킹(masking)작업을 수행하고, 마스킹 작업을 수행한 결과에 따른 제3 사이노그램들을 추출한다.
이때, 제3 사이노그램들은 피사체의 움직임에 따른 복수의 상태들 각각에 대한 2차원 사이노그램들의 스택(stack)을 나타낸다. 제3 사이노그램들의 일 실시예는 도 4에 도시되어 있다.
움직임 정보 추정부(140)는 제3 사이노그램들을 이용하여, 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정한다. 예를 들면, 움직임 정보 추정부(140)는 제3 사이노그램들 중 피사체의 서로 다른 상태에 대응하는 사이노그램들 간을 비교하여 움직임 정보를 추정한다.
본 실시예에 따른 관심영역은 병변을 포함하고, 병변의 크기는 작고 리지드(rigid)한 경향이 있기에, 병변 주변의 다른 조직들에 비하여 움직임에 따른 변형(deformation)의 영향이 크지 않을 수 있다. 따라서, 움직임 정보 추정부(140)에서 관심영역에 대응하는 제3 사이노그램들만을 이용하여 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하기에, 피사체 전체에 대한 움직임 정보를 추정하는 경우보다 연산량이 감소되고 추정의 정확도가 향상될 수 있다.
또한, 제3 사이노그램들은 피사체의 복수의 상태들 각각에 대한 사이노그램들을 포함한다. 이처럼, 게이트된 제1 사이노그램을 이용하여 관심영역을 결정한 후, 복수의 상태들 전체를 고려한 사이노그램들을 이용하여 관심영역의 움직임 정도를 추정하기에, 게이트된 사이노그램 또는 게이트된 이미지로부터 움직임 정보를 추정하는 경우에 비하여 추정의 정확도가 향상될 수 있다.
피사체의 관심영역이 이미지 공간(image space)의 x축, y축 및 z축으로 정의되는 소정의 영역으로 결정된 경우, 움직임 정보 추정부(140)는 관심영역이 x축 방향 및 y축 방향으로 움직인 정도를 나타내는 제1 움직임 정보 및 관심영역이 z축 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정할 수 있다. 이때, x축, y축 및 z축은 하나의 실시예에 해당할 뿐이기에, 움직임 정보 추정부(140)는 이에 한정되지 않고, x축, y축 및 z축의 순서가 변경되거나, 다른 좌표 시스템에 따른 제1 방향, 제2 방향 및 제3 방향에 대한 움직임 정보를 추정할 수도 있다.
제1 움직임 정보를 추정하는 경우, 움직임 정보 추정부(140)는 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하고 제3 방향에 대한 제1 좌표 값을 가지는 제11 사이노그램과 피사체의 움직임에 따른 복수의 상태들 중 제2 상태에 대응하고 제3 방향에 대한 제1 좌표 값을 가지는 제12 사이노그램을 비교하여, 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정한다. 이에 대하여, 도 3에서 예를 들어 설명한다.
제2 움직임 정보를 추정하는 경우, 움직임 정보 추정부(140)는 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하는 복수의 사이노그램들 중 어느 하나인 제21 사이노그램과 피사체의 움직임에 따른 복수의 상태들 중 상기 제1 상태가 아닌 다른 상태들에 대응하는 복수의 사이노그램들 중 제21 사이노그램과 가장 유사한 제22 사이노그램을 비교하여, 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정한다. 이에 대하여, 도 4에서 예를 들어 설명한다.
보정부(150)는 움직임 정보에 따른 보정작업을 수행한다. 이때, 피사체의 복수의 상태들 각각에 대한 움직임 정보가 추정되면, 보정부(150)는 피사체의 움직임에 따른 복수의 상태들 각각에 대한 보정작업을 수행할 수 있다. 피사체의 움직임에 따른 복수의 상태들 중 제1 상태를 기준으로 하여 보정작업을 수행하는 경우, 보정부(150)는 제1 상태인 피사체를 기준으로 제2 상태의 피사체에 대한 움직임 정보를 반영하고, 제1 상태인 피사체를 기준으로 제3 상태의 피사체에 대한 움직임 정보를 반영하고, 이와 같은 방식으로 복수의 상태들 각각에 대한 보정작업을 수행할 수 있다. 이와 같은 보정부(150)의 보정작업에 따라, 기준상태, 예를 들어, 제1 상태인 피사체에 대하여 움직임에 따른 노이즈가 제거된 진단영상이 생성될 수 있다.
예를 들면, 보정부(150)는 움직임 정보를 이용하여 제2 사이노그램을 보정할 수 있다. 보정부(150)는 제2 사이노그램에 대하여 움직임 정보에 따른 레지스트레이션(registration) 작업을 수행할 수 있다. 이에 따라, 보정된 사이노그램은 보정부(150)의 보정작업의 수행에 따른 데이터를 이용하여 사이노그램 생성부(110)에서 생성되거나, 또는, 보정부(150)에서 제2 사이노그램을 보정함에 따라 보정부(150)에서 생성될 수도 있다.
다른 예를 들면, 보정부(150)는 제2 사이노그램으로부터 복원된 제2 이미지를 보정할 수 있다. 또 다른 예를 들면, 보정부(150)는 보정장치(100)의 시스템 매트릭스(system matrix)에 움직임 정보를 반영하여 보정작업을 수행할 수 있다. 이때, 시스템 매트릭스는 보정장치(100)에서 제2 사이노그램을 피사체에 대한 이미지로 복원하기 위하여 사용하는 PSF(Point Spread Function)을 나타낼 수 있으나, 이에 한정되지 않는다.
이에 따라, 보정장치(100)는 복원된 이미지가 아닌 로우 데이터(raw data), 예를 들면, 사이노그램을 이용하여 움직임 정보를 추정하기에 연산작업을 간소화 시킬 수 있고, 피사체의 전체 영역이 아닌 관심영역을 이용하여 움직임 정보를 추정하기에 추정의 정확도를 향상시킬 수 있다.
도 2는 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 나타내는 신호의 일 예를 도시한 도면이다. 도 2는 피사체의 호흡 움직임을 예로 들어 설명하나, 본 실시예는 이에 한정되지 않는다.
도 2를 참조하면, 피사체의 복수의 상태들 각각에 대한 시간정보를 나타내는 신호(21)가 도시되어 있다. 신호(21)는 피사체와 접촉 또는 비접촉된 장치로부터 획득될 수 있다.
피사체의 움직임에 따른 복수의 상태들은 신호(21)의 위상(phase)에 대응된다. 예를 들면, 피사체의 움직임에 따른 제1 상태가 첫 번째 주기에서 제1 지점(221)으로 정의된 경우, 제1 지점(221)과 동일한 위상을 가지는 두 번째 주기에서의 제2 지점(222) 및 세 번째 주기에서 제3 지점(223)도 제1 상태에 대응한다. 또한, 피사체의 움직임에 따른 제2 상태에 대응하는 지점들(231 및 232)이 각 주기별로 존재할 수 있다. 이와 같은 방식으로, 피사체의 움직임에 따른 복수의 상태들 각각에 대응하는 지점들이 각 주기별로 존재할 수 있다.
도 1 내지 도 2를 참조하면, 사이노그램 생성부(110)는 피사체로부터 획득된 데이터 중 신호(21)가 소정의 위상을 가지는 시간에 대응하는 데이터로부터 제1 사이노그램을 생성한다. 사이노그램 생성부(110)가 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대한 제1 사이노그램을 생성하는 경우, 사이노그램 생성부(110)는 피사체로부터 획득된 데이터 중 제1 지점(221)에 대응하는 제1 시간 t1, 제2 지점(222)에 대응하는 제2 시간 t2 및 제3 지점(223)에 대응하는 제3 시간 t3에 대응하는 데이터로부터 제1 사이노그램을 생성한다. 예를 들어, 제1 시간 t1에 대응하는 데이터는 제1 시간 t1에 피사체로부터 검출된 데이터를 나타낸다. 이때, 제1 시간 t1과 제2 시간 t2 사이의 시간 간격과 제2 시간 t2와 제3 시간 t3 사이의 시간 간격은 신호(21)의 주기와 일응 유사하게 된다.
이처럼, 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 나타내는 신호(21)로부터 데이터 획득을 타이밍 정보가 획득될 수 있고, 사이노그램 생성부(110)는 획득된 타이밍 정보에 대응하는 데이터를 이용하여 제1 사이노그램을 생성할 수 있다.
다만, 본 실시예는 이에 한정되지 않고, 사이노그램 생성부(110)는 피사체의 복수의 상태들에 대한 제2 사이노그램으로부터 상기 획득된 타이밍 정보에 대응하는 제1 사이노그램을 추출하는 방식으로, 제1 사이노그램을 생성할 수도 있다.
이에 따라, 제1 사이노그램은 피사체가 동일한 상태일 때의 데이터를 이용하여 생성되었기에, 제1 사이노그램에 의하여 복원된 제1 이미지에는 모션 블러가 존재하지 않게 되기에, 관심영역 결정의 정확도를 향상시킬 수 있다.
도 3은 관심영역이 x축 방향 및 y축 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정하는 방법의 일 예를 도시한 도면이다. 도 3을 참조하면, 이미지 공간(image space)(31) 및 사이노그램(34)이 도시되어 있다.
도 3을 참조하면, 검출기(32)는 피사체의 어느 한 지점에 존재하는 제1 영역(33)으로부터 측정데이터를 획득한다. 이때, 측정데이터는 피사체를 통과한 방사선, 예를 들면, X선이 될 수 있으나, 이에 한정되지 않고, 양전자와 전자가 결합된 후 소멸함에 따라 방출되는 감마선이 될 수도 있다. 또한, 제1 영역(33)은 병변을 포함하는 관심영역이 될 수 있으나, 이에 한정되지 않는다.
측정데이터가 피사체를 통과한 방사선인 경우, 0°의 투사각을 가지는 방사선이 피사체로 조사된 경우 피사체에서 흡수되는 방사선의 양을 나타내는 제1 그래프(311), 90°의 투사각을 가지는 방사선이 피사체로 조사된 경우 피사체에서 흡수되는 방사선의 양을 나타내는 제2 그래프(312) 및 θ°의 투사각을 가지는 방사선이 피사체로 조사된 경우 피사체에서 흡수되는 방사선의 양을 나타내는 제3 그래프(313)가 도시되어 있다.
제1 내지 제3 그래프(311 내지 313)를 참조하면, 피사체의 제1 영역(33)에 대응하는 부분은 피사체의 다른 영역보다 방사선의 흡수 양이 많음을 알 수 있다. 따라서, 제1 그래프(311)에서 제1 그래프(311)의 제1 영역(33)에 대응하는 부분과 x축 간의 거리는 제1 영역(33)의 y 좌표 값을 나타낼 수 있고, 제2 그래프(312)에서 제2 그래프(312)의 제1 영역(33)에 대응하는 부분과 y축 간의 거리는 제1 영역(33)의 x 좌표 값을 나타낼 수 있다.
사이노그램(34)은 투사각들 각각에 대하여 획득된 그래프의 높이를 중심축(35)을 기준으로 대응하는 위치에 명암을 써서 시각화한 것을 나타낸다. 예를 들면, 피사체에서 흡수된 방사선의 양이 많을수록, 그래프의 높이가 높게 나타남에 따라, 사이노그램(34)이 더 밝은 명암을 가지게 된다.
사이노그램(34)을 참조하면, 사이노그램(34)에 0°의 투사각에 대응하여 생성된 제1 라인(341), 90°의 투사각에 대응하여 생성된 제2 라인(342) 및 θ°의 투사각에 대응하여 생성된 제3 라인(343)이 도시되어 있다. 이때, 제1 영역(33)의 x 좌표 값은 제2 라인(342)의 가장 밝은 지점과 중심축(35) 간의 거리를 나타내고, 제1 영역(33)의 y 좌표 값은 제1 라인(341)의 가장 밝은 지점과 중심축(35) 간의 거리를 나타낸다.
병변을 포함하는 관심영역은 사이노그램(34)에서 가장 밝은 부분을 나타낼 것이기에, 움직임 정보 추정부(140)는 사이노그램(34)의 0°의 투사각에 대응하는 데이터 및 90°의 투사각에 대응하는 데이터의 분석을 통하여 관심영역의 위치정보를 획득할 수 있다.
도 1과 관련하여 설명한 바와 같이, 움직임 정보 추정부(140)는 제11 사이노그램과 제12 사이노그램을 비교하여, 제1 움직임 정보를 추정할 수 있다.
예를 들면, 움직임 정보 추정부(140)는 관심영역에 대응하는 제3 사이노그램들 중 피사체의 움직임에 따른 복수의 상태들 중 제1 상태 및 제2 상태에 대응하는 복수의 사이노그램들을 추출한다. 제1 상태에 대응하는 복수의 사이노그램들 각각은 서로 다른 z 좌표 값을 가지고, 제2 상태에 대응하는 복수의 사이노그램들 각각은 서로 다른 z 좌표 값을 가진다.
움직임 정보 추정부(140)는 제1 상태에 대응하는 복수의 사이노그램들 중 제1 z 좌표 값을 가지는 제11 사이노그램을 추출하고, 제2 상태에 대응하는 복수의 사이노그램들 중 제1 z 좌표 값을 가지는 제12 사이노그램을 추출한다. 이에 따라, 움직임 정보 추정부(140)는 제11 사이노그램과 제12 사이노그램을 비교하여, 제1 움직임 정보를 추정할 수 있다.
예를 들어, 움직임 정보 추정부(140)는 제11 사이노그램으로부터 제11 위치정보를 획득하고, 제12 사이노그램으로부터 제12 위치정보를 획득하고, 제11 위치정보 및 제12 위치정보의 비교결과에 따라, 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정한다.
이때, 제11 위치정보는 제11 사이노그램에 대하여 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 제1 투사각과 90°의 차이를 가지는 제2 투사각에 대응하는 지점들 중 가장 밝은 지점을 이용하여 획득될 수 있다. 구체적으로, 제11 위치정보는 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 제11 사이노그램의 중심축 간의 거리 및 제2 투사각에 대응하는 지점들 중 가장 밝은 지점과 제11 사이노그램의 중심축 간의 거리를 포함할 수 있다.
또한, 제12 위치정보는 제12 사이노그램에 대하여, 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 제1 투사각과 90°의 차이를 가지는 제2 투사각에 대응하는 지점들 중 가장 밝은 지점을 이용하여 획득될 수 있다. 구체적으로, 제12 위치정보는 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 제12 사이노그램의 중심축 간의 거리 및 제2 투사각에 대응하는 지점들 중 가장 밝은 지점과 제12 사이노그램의 중심축 간의 거리가 될 수 있다.
예를 들어, 제1 투사각이 90°이고, 제2 투사각이 0°이면, 제11 위치정보는 피사체가 제1 상태인 경우 관심영역에 대한 x축 좌표 값 및 y축 좌표 값이 될 수 있고, 제12 위치정보는 피사체가 제2 상태인 경우 관심영역에 대한 x축 좌표 값 및 y축 좌표 값이 될 수 있다.
이때, 제1 투사각 및 제2 투사각 각각이 x축에 대응하는 각도(예를 들면, 90°) 및 y축에 대응하는 각도(예를 들면, 0°)에 해당하지 않는 경우, 움직임 정보 추정부(140)는 회전변환 작업을 수행하여, 위치정보를 획득할 수도 있다. 제1 투사각이 (θ±90)°이고 제2 투사각이 θ°인 경우, x축 좌표 값에 해당하는 제11 위치정보는 (θ±90)°에 대응하는 지점들 중 가장 밝은 지점과 사이노그램의 중심축 간의 거리에 -θ°만큼의 회전변환이 수행된 값이 될 수 있고, 제12 위치정보는 θ°에 대응하는 지점들 중 가장 밝은 지점과 사이노그램의 중심축 간의 거리에 -θ°만큼의 회전변환이 수행된 값이 될 수 있다.
이에 따라, 움직임 정보 추정부(140)는 제11 위치정보 및 제12 위치정보의 비교결과에 따라, 관심영역이 x축 방향 및 y축 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정할 수 있다.
또한, 움직임 정보 추정부(140)는 획득된 관심영역의 위치정보에 대한 정확성을 향상시키기 위하여, 추가적인 작업을 수행할 수 있다.
예를 들면, 움직임 정보 추정부(140)는 90°의 차이를 가지는 복수의 투사각들의 쌍들을 이용하여, 제11 사이노그램으로부터 관심영역에 대한 위치정보들을 획득하고, 상기 획득된 위치정보들을 이용하여 제11 위치정보를 획득할 수 있다.
구체적으로, 복수의 투사각들의 쌍이 2개인 경우를 예로 들면, 제1 투사각들의 쌍은 제1 투사각이 135°, 제2 투사각이 45°인 경우가 될 수 있고, 제2 투사각들의 쌍은 제1 투사각이 90°, 제2 투사각이 0°인 경우가 될 수 있다. 이러한 경우, 움직임 정보 추정부(140)는 제1 투사각들의 쌍을 이용하여 획득된 위치정보, 제2 투사각들의 쌍을 이용하여 획득된 위치정보들을 이용하여 제11 위치정보를 획득할 수 있다. 예를 들면, 움직임 정보 추정부(140)는 제1 투사각들의 쌍을 이용하여 획득된 위치정보 및 제2 투사각들의 쌍을 이용하여 획득된 위치정보들의 평균을 산출하여 제11 위치정보를 획득할 수 있다.
또한, 움직임 정보 추정부(140)는 이와 같은 방식으로 제12 위치정보도 획득할 수 있다.
이에 따라, 움직임 정보 추정부(140)는 복수의 데이터들을 이용하여 제11 위치정보를 추정하기에 위치정보의 정확성을 더욱 향상시킬 수 있다.
도 4는 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정하는 방법의 일 예를 도시한 도면이다. 도 4를 참조하면, 관심영역에 대응하는 제3 사이노그램들이 도시되어 있다.
이때, 제3 사이노그램들은 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하는 사이노그램들(410), 제2 상태에 대응하는 사이노그램들(420), ... , 제6 상태에 대응하는 사이노그램들(460)이 각각 도시되어 있다.
또한, 제1 상태에 대응하는 사이노그램들(410)은 서로 다른 제3 방향에 대한 좌표 값을 가지는 사이노그램들을 포함한다. 제3 방향이 z축인 경우를 예로 들면, 제1 상태에 대응하는 사이노그램들(410)은 제1 z 좌표 값을 가지는 사이노그램(4101), 제2 z 좌표 값을 가지는 사이노그램(4102), ... , 제5 z 좌표 값을 가지는 사이노그램(4105), ... , 제15 z 좌표 값을 가지는 사이노그램(115) 및 제16 z 좌표 값을 가지는 사이노그램(4116)을 포함한다. 이와 같은 방식으로 복수의 상태들 각각에 대응하여 16개의 사이노그램들이 존재한다.
움직임 정보 추정부(140)는 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하는 사이노그램들(410) 중 어느 하나인 제21 사이노그램과 피사체의 움직임에 따른 복수의 상태들 중 제1 상태가 아닌 다른 상태들에 대응하는 사이노그램들(420 내지 460) 중 제21 사이노그램과 가장 유사한 제22 사이노그램을 비교하여, 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정한다. 이때, 움직임 정보 추정부(140)는 제21 사이노그램의 제3 방향에 대한 좌표 값과 제22 사이노그램의 제3 방향에 대한 좌표 값을 비교하여 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정한다.
예를 들면, 움직임 정보 추정부(140)는 제1 상태에 대응하는 사이노그램들(410) 중 어느 하나인 제21 사이노그램(4115)과 제2 내지 제6 상태에 대응하는 사이노그램들(420 내지 460)들 중 가장 유사한 제22 사이노그램(4507)을 비교하여, 관심영역이 z축 방향으로 움직임 정도를 나타내는 제2 움직임 정보를 추정한다. 이러한 경우, 제2 움직임 정보는 제21 사이노그램(4115)과 제22 사이노그램(4507)의 z축 좌표 값의 차가 될 수 있다.
이에 한정되지 않고, 움직임 정보 추정부(140)는 제1 상태에 대응하는 사이노그램들(410) 중 어느 하나인 제21 사이노그램(4115)과 제2 상태에 대응하는 사이노그램들(420)들 중 가장 유사한 제22 사이노그램(4512)을 비교하여, 관심영역이 z축 방향으로 움직임 정도를 나타내는 제2 움직임 정보를 추정한다. 이러한 경우, 제2 움직임 정보는 제21 사이노그램(4115)과 제22 사이노그램(4512)의 z축 좌표 값의 차가 될 수 있다.
이에 따라, 피사체의 움직임에 따른 복수의 상태들에 따라 관심영역이 z축 방향으로 이동한 정도를 나타내는 움직임 정보를 정확하게 추정할 수 있다.
도 5는 움직임 보정장치(100)의 다른 실시예를 도시한 도면이다. 도 5를 참조하면, 움직임 보정장치(100)는 검출기(105), 사이노그램 생성부(110), 복원부(112), 사용자 인터페이스부(114), 관심영역 결정부(120), 사이노그램 추출부(130), 움직임 정보 추정부(140) 및 보정부(150)로 구성된다.
도 5에 도시된 움직임 보정장치(100)는 도 1에 도시된 움직임 보정장치(100)의 일 예에 해당한다. 따라서, 도 1에서 움직임 보정장치(100)와 관련하여 기재된 설명은 도 5의 움직임 보정장치(100)에도 적용이 가능하기에, 중복되는 설명은 생략한다. 또한, 움직임 보정장치(100)는 도 5에 도시된 유닛들에 의하여 한정되지 않는다.
검출기(105)는 피사체로부터 측정데이터를 검출한다. 예를 들면, 검출기(105)는 피사체를 통과한 방사선을 검출하거나, 또는 피사체로부터 방출되는 감마선을 검출할 수 있다.
사이노그램 생성부(110)는 피사체로부터 검출된 측정데이터를 이용하여, 사이노그램을 생성한다. 예를 들면, 사이노그램 생성부(110)는 제1 사이노그램 및/또는 제2 사이노그램을 생성한다.
이때, 사이노그램 생성부(110)는 제1 사이노그램을 생성함에 있어서, 외부장치(200)로부터 획득되는 피사체의 복수의 상태들에 대한 시간정보를 나타내는 신호를 획득할 수 있다. 이때, 외부장치(200)는 피사체에 접촉되는 장치 및 비접촉되는 장치를 포함할 수 있다. 예를 들어, 피사체에 접촉되어 피사체의 상태들에 대한 시간정보를 획득하는 장치는 압력센서, 온도센서 등을 포함할 수 있고, 피사체에 비접촉되어 피사체의 상태들에 대한 시간정보를 획득하는 장치는 레이저 변위센서, 광학식추적장치 등을 포함할 수 있다.
다만, 사이노그램 생성부(110)에서 외부장치(200)로부터 데이터를 획득함이 없이 피사체의 복수의 상태들에 대한 시간정보를 획득하는 경우, 외부장치(200)는 마련되지 않을 수 있다.
복원부(112)는 사이노그램 생성부(110)에서 생성된 사이노그램을 복원하여, 복원 이미지를 생성한다. 예를 들면, 복원부(112)는 제1 사이노그램을 복원한 제1 이미지, 제2 사이노그램을 복원한 제2 이미지, 및/또는 보정작업이 수행된 결과에 따른 보정된 이미지를 생성한다.
사용자 인터페이스부(114)는 사용자로부터 입력정보를 획득하고 출력정보를 표시한다. 예를 들어, 사용자 인터페이스부(114)는 제1 이미지, 제2 이미지 및/또는 보정된 이미지를 표시하고, 사용자로부터 관심영역을 선택하는 선택정보를 입력받는다.
본 실시예에 따른 사용자 인터페이스부(114)는 보정장치(100)에 마련된 디스플레이 패널, 마우스, 키보드, 터치 화면, 모니터, 스피커 등의 입출력 장치 및 이들을 구동하기 위한 소프트웨어 모듈을 모두 포함할 수 있다.
관심영역 결정부(120)는 제1 사이노그램을 이용하여, 피사체의 관심영역을 결정하고, 사이노그램 추출부(130)는 제3 사이노그램으로부터 관심영역에 대응하는 제3 사이노그램들을 추출하고, 움직임 정보 추정부(140)는 제3 사이노그램들을 이용하여 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하고, 보정부(150)는 움직임 정보에 따른 보정작업을 수행한다.
이에 따라, 본 실시예에 따른 움직임 보정장치(100)는 피사체로부터 게이트된 이미지(gated image)를 획득하고, 게이트된 이미지로부터 피사체의 관심영역을 결정하고, 관심영역에 대응하는 복수의 사이노그램들을 이용하여 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하고, 움직임 정보에 따른 보정작업을 수행하고, 보정작업이 수행된 진단영상을 생성할 수 있다. 이때, 게이트된 이미지는 제1 사이노그램으로부터 복원된 제1 이미지가 될 수 있고, 진단영상은 보정된 이미지가 될 수 있다.
도 6은 움직임을 보정하는 방법을 나타낸 흐름도이다. 도 6을 참조하면, 움직임을 보정하는 방법은 도 1 및 도 5에 도시된 움직임 보정장치(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 및 도 5에 도시된 움직임 보정장치(100)에 관하여 이상에서 기술된 내용은 도 8의 중심선을 보정하는 방법에도 적용됨을 알 수 있다. 도 6의 움직임을 보정하는 방법은 움직임 보정을 이용하여 영상을 생성하는 영상생성방법에도 적용될 수 있다.
601 단계에서 사이노그램 생성부(110)는 피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램을 생성한다.
602 단계에서 관심영역 결정부(120)는 상기 601 단계에서 생성된 제1 사이노그램을 이용하여, 피사체의 관심영역을 결정한다.
603 단계에서 사이노그램 추출부(130)는 피사체로부터 획득된 데이터를 이용하여 생성된 피사체의 복수의 상태들에 대한 제2 사이노그램으로부터 상기 602 단계에서 결정된 관심영역에 대응하는 제3 사이노그램들을 추출한다.
604 단계에서 움직임 정보 추정부(140)는 603 단계에서 추출된 제3 사이노그램들을 이용하여 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정한다.
605 단계에서 보정부(150)는 604 단계에서 추정된 움직임 정보에 따른 보정작업을 수행한다.
본 실시예에 따른 움직임 보정장치(100) 및 움직임 보정방법에 따르면, 움직임에 의한 잡음을 효율적으로 제거함에 따라 SNR(Signal to Noise Ratio)이 높은 양전자 단층촬영 진단영상, 컴퓨터 단층촬영 진단영상, 양전자방출 단층촬영 진단영상, 단일광자 단층촬영 진단영상, SPECT/CT 진단영상을 생성할 수 있다. 또한, 피사체에 대한 전체 진단영상을 복원하기 전 사이노그램을 이용하여 움직임을 보정하기에 시간을 단축할 수 있고, 관심영역에 대한 사이노그램을 추출하여 움직임을 보정하기에 정확도가 향상될 수 있다.
도 7은 영상생성장치(700)의 일 실시예를 도시한 도면이다. 도 7을 참조하면, 영상생성장치(700)는 움직임 보정장치(100) 및 저장장치(720)를 포함할 수 있고, 움직임 보정장치(100)는 검출기(105), 사용자 입력장치(1141), 출력장치(1142) 및 메인 시스템(710)을 포함할 수 있다.
도 7에 도시된 영상생성장치(700)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 7에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
또한, 도 7에 도시된 움직임 보정장치(100)는 도 1 및 도 5에 도시된 움직임 보정장치(100)의 일 예에 해당한다. 따라서, 도 1 및 도 5에서 움직임 보정장치(100)와 관련하여 기재된 설명은 도 7의 움직임 보정장치(100)에도 적용이 가능하기에, 중복되는 설명은 생략한다. 또한, 움직임 보정장치(100)는 도 7에 도시된 유닛들에 의하여 한정되지 않는다.
영상생성장치(700)는 피사체로부터 획득된 데이터에 대하여 움직임 보정장치(100)를 이용한 움직임 보정작업을 수행함에 따라, 노이즈가 제거된 고해상도의 영상을 생성할 수 있다. 예를 들어, 영상은 피사체에 대한 정보를 포함하는 의료영상, 진단영상 등을 포함할 수 있다. 또한, 영상생성장치(700)는 양전자 단층촬영장치, 컴퓨터 단층촬영장치, 양전자방출 단층촬영장치, 단일광자 단층촬영장치, SPECT/CT 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.
검출기(105)는 피사체로부터 측정데이터를 검출한다. 예를 들면, 검출기(105)는 피사체를 통과한 방사선을 검출하거나, 또는 피사체로부터 방출되는 감마선을 검출할 수 있다.
사용자 입력장치(1141) 및 출력장치(1142)는 도 5의 사용자 인터페이스부(114)의 일 예가 될 수 있다. 예를 들어, 사용자 입력장치(1141)는 사용자로부터 관심영역을 선택하는 선택정보를 획득하고, 출력장치(1142)는 제1 이미지, 제2 이미지 및/또는 보정된 이미지를 표시한다. 도 7에서는 사용자 입력장치(1141) 및 출력장치(1142)가 서로 별개의 장치로 도시되어 있으나, 이에 한정되지 않고, 사용자 입력장치(1141) 및 출력장치(1142)는 하나의 장치로 통합될 수 있다.
메인 시스템(710)은 검출기(105)로부터 획득된 데이터에 대한 보정작업을 수행한다. 예를 들어, 메인 시스템(710)은 도 1에 도시된 사이노그램(sinogram) 생성부(110), 관심영역 결정부(120), 사이노그램 추출부(130), 움직임 정보 추정부(140) 및 보정부(150)를 포함하거나, 또는, 도 5에 도시된 복원부(112)를 포함할 수 있다.
저장장치(720)는 의료영상 시스템(700)의 동작 중에 발생하는 데이터 및 의료영상 시스템(700)의 동작을 수행하기 위한 데이터를 저장한다. 예를 들어, 저장장치(720)는 통상적인 저장매체가 될 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등), PC 인터페이스(PC Interface)(예를 들면, PCI, PCI-express, Wifi 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 ... 움직임 보정장치
110 ... 사이노그램 생성부
120 ... 관심영역 결정부
130 ... 사이노그램 추출부
140 ... 움직임 정보 추정부
150 ... 보정부

Claims (20)

  1. 영상생성방법에 있어서,
    피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램(sinogram)을 생성하는 단계;
    상기 제1 사이노그램을 이용하여, 상기 피사체의 관심영역(Region Of Interest: ROI)을 결정하는 단계;
    상기 피사체로부터 획득된 데이터를 이용하여 생성된 상기 피사체의 복수의 상태들에 대한 제2 사이노그램으로부터, 상기 관심영역에 대응하는 제3 사이노그램들을 추출하는 단계;
    상기 제3 사이노그램들을 이용하여 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 단계; 및
    상기 움직임 정보에 따른 보정작업을 수행하는 단계;를 포함하는 영상생성방법.
  2. 제 1 항에 있어서,
    상기 움직임 정보를 추정하는 단계는 상기 제3 사이노그램들 중 상기 피사체의 서로 다른 상태에 대응하는 사이노그램들 간을 비교하여 움직임 정보를 추정하는 영상생성방법.
  3. 제 1 항에 있어서,
    상기 움직임 정보를 추정하는 단계는 상기 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하고 제3 방향에 대한 제1 좌표 값을 가지는 제11 사이노그램과 상기 피사체의 움직임에 따른 복수의 상태들 중 제2 상태에 대응하고 상기 제1 좌표 값을 가지는 제12 사이노그램을 비교하여, 상기 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정하는 영상생성방법.
  4. 제 3 항에 있어서, 상기 움직임 정보를 추정하는 단계는
    상기 제11 사이노그램에 대하여, 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 상기 제1 투사각과 90°의 차이를 가지는 제2 투사각에 대응하는 지점들 중 가장 밝은 지점을 이용하여, 상기 제11 사이노그램으로부터 상기 관심영역에 대한 제11 위치정보를 획득하는 단계;
    상기 제12 사이노그램에 대하여, 상기 제1 투사각에 대응하는 지점들 중 가장 밝은 지점과 상기 제2 투사각에 대응하는 지점들 중 가장 밝은 지점을 이용하여, 상기 제12 사이노그램으로부터 상기 관심영역에 대한 제12 위치정보를 획득하는 단계; 및
    상기 획득된 제11 위치정보 및 상기 획득된 제12 위치정보의 비교결과에 따라, 상기 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정하는 영상생성방법.
  5. 제 4 항에 있어서,
    상기 제11 위치정보를 획득하는 단계는 90°의 차이를 가지는 복수의 투사각들의 쌍들을 이용하여, 상기 제11 사이노그램으로부터 상기 관심영역에 대한 위치정보들을 획득하고, 상기 획득된 위치정보들을 이용하여 상기 제11 위치정보를 획득하고,
    상기 제12 위치정보를 획득하는 단계는 90°의 차이를 가지는 복수의 투사각들의 쌍들을 이용하여, 상기 제12 사이노그램에 대하여 상기 관심영역에 대한 위치정보들을 획득하고, 상기 획득된 위치정보들을 이용하여 상기 제12 위치정보를 획득하는 영상생성방법.
  6. 제 1 항에 있어서,
    상기 움직임 정보를 추정하는 단계는 상기 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하는 복수의 사이노그램들 중 어느 하나인 제21 사이노그램과 상기 피사체의 움직임에 따른 복수의 상태들 중 상기 제1 상태가 아닌 다른 상태들에 대응하는 복수의 사이노그램들 중 상기 제21 사이노그램과 가장 유사한 제22 사이노그램을 비교하여, 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정하는 영상생성방법.
  7. 제 6 항에 있어서,
    상기 움직임 정보를 추정하는 단계는 상기 제21 사이노그램의 제3 방향에 대한 좌표 값과 상기 제22 사이노그램의 제3 방향에 대한 좌표 값을 비교하여 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정하는 영상생성방법.
  8. 제 1 항에 있어서,
    상기 관심영역을 결정하는 단계는 상기 제1 사이노그램으로부터 복원된 제1 이미지로부터 상기 관심영역을 결정하는 영상생성방법.
  9. 제 8 항에 있어서,
    상기 관심영역을 결정하는 단계는 상기 제1 이미지를 조회(view)하는 사용자로부터 입력되는 선택정보를 참조하여 상기 관심영역을 결정하는 영상생성방법.
  10. 제 8 항에 있어서,
    상기 관심영역을 결정하는 단계는 상기 제1 이미지를 구성하는 픽셀들의 이미지 값들(image values)을 참조하여 상기 관심영역을 자동으로 결정하는 영상생성방법.
  11. 제 1 항에 있어서,
    상기 제3 사이노그램들은 상기 피사체의 움직임에 따른 복수의 상태들 각각에 대한 2차원 사이노그램들의 스택(stack)인 것을 특징으로 하는 영상생성방법.
  12. 제 1 항에 있어서,
    상기 제1 사이노그램을 생성하는 단계는 상기 피사체의 움직임에 따른 복수의 상태들 각각에 대한 시간정보를 나타내는 신호를 획득하고, 상기 피사체로부터 획득된 데이터 중 상기 신호가 소정의 위상을 가지는 시간에 대응하는 데이터로부터 상기 제1 사이노그램을 생성하는 영상생성방법.
  13. 제 1 항에 있어서,
    상기 제1 사이노그램을 생성하는 단계는 소정의 시간 간격에 따른 복수의 시간들에 대응하는 사이노그램들을 생성하고, 생성된 사이노그램들 중 유사도가 높은 소정 개수의 사이노그램들을 이용하여 상기 제1 사이노그램을 생성하는 영상생성방법.
  14. 피사체로부터 게이트된 이미지(gated image)를 획득하는 단계;
    상기 획득된 게이트된 이미지로부터 상기 피사체의 관심영역을 결정하는 단계;
    상기 관심영역에 대응하는 복수의 사이노그램들을 이용하여, 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 단계;
    상기 움직임 정보에 따른 보정작업을 수행하는 단계; 및
    상기 보정작업이 수행된 진단영상을 생성하는 단계;를 포함하는 진단영상 생성방법.
  15. 제 1 항 내지 제 14 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체.
  16. 영상생성장치에 있어서,
    피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들 중 어느 하나의 상태에 대한 제1 사이노그램 및 상기 피사체로부터 획득된 데이터로부터 상기 피사체의 움직임에 따른 복수의 상태들에 대한 제2 사이노그램을 생성하는 사이노그램 생성부;
    상기 제1 사이노그램을 이용하여, 상기 피사체의 관심영역을 결정하는 관심영역 결정부;
    상기 제2 사이노그램으로부터 상기 관심영역에 대응하는 제3 사이노그램들을 추출하는 사이노그램 추출부;
    상기 제3 사이노그램들을 이용하여 상기 관심영역의 움직임 정도를 나타내는 움직임 정보를 추정하는 움직임 정보 추정부; 및
    상기 움직임 정보에 따른 보정작업을 수행하는 보정부;를 포함하는 영상생성장치.
  17. 제 16 항에 있어서,
    상기 움직임 정보 추정부는 상기 제3 사이노그램들 중 상기 피사체의 서로 다른 상태에 대응하는 사이노그램들 간을 비교하여 움직임 정보를 추정하는 영상생성장치.
  18. 제 16 항에 있어서,
    상기 움직임 정보 추정부는 상기 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하고 제3 방향에 대한 제1 좌표 값을 가지는 제11 사이노그램과 상기 피사체의 움직임에 따른 복수의 상태들 중 제2 상태에 대응하고 상기 제1 좌표 값을 가지는 제12 사이노그램을 비교하여, 상기 관심영역이 제1 방향 및 제2 방향으로 움직인 정도를 나타내는 제1 움직임 정보를 추정하는 영상생성장치.
  19. 제 16 항에 있어서,
    상기 움직임 정보 추정부는 상기 피사체의 움직임에 따른 복수의 상태들 중 제1 상태에 대응하는 복수의 사이노그램들 중 어느 하나인 제21 사이노그램과 상기 피사체의 움직임에 따른 복수의 상태들 중 상기 제1 상태가 아닌 다른 상태들에 대응하는 복수의 사이노그램들 중 상기 제21 사이노그램과 가장 유사한 제22 사이노그램을 비교하여, 관심영역이 제3 방향으로 움직인 정도를 나타내는 제2 움직임 정보를 추정하는 영상생성장치.
  20. 제 16 항에 있어서,
    상기 관심영역 결정부는 상기 제1 사이노그램으로부터 복원된 제1 이미지로부터 상기 관심영역을 결정하는 영상생성장치.
KR1020120109257A 2012-09-28 2012-09-28 영상을 생성하는 방법 및 장치 KR20140042461A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120109257A KR20140042461A (ko) 2012-09-28 2012-09-28 영상을 생성하는 방법 및 장치
US13/904,522 US9245325B2 (en) 2012-09-28 2013-05-29 Method and apparatus for generating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120109257A KR20140042461A (ko) 2012-09-28 2012-09-28 영상을 생성하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20140042461A true KR20140042461A (ko) 2014-04-07

Family

ID=50385258

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120109257A KR20140042461A (ko) 2012-09-28 2012-09-28 영상을 생성하는 방법 및 장치

Country Status (2)

Country Link
US (1) US9245325B2 (ko)
KR (1) KR20140042461A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160025846A (ko) * 2014-08-28 2016-03-09 연세대학교 산학협력단 토모그래피 장치 및 그의 기하 보정 방법
KR20160045662A (ko) * 2016-04-15 2016-04-27 연세대학교 산학협력단 의료 영상 장치 및 그의 영상 보정 방법
US10013778B2 (en) 2015-04-09 2018-07-03 Samsung Electronics Co., Ltd. Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
KR20200139491A (ko) * 2019-06-04 2020-12-14 사회복지법인 삼성생명공익재단 의료영상 처리 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111542827B (zh) 2017-12-29 2021-09-28 上海联影医疗科技股份有限公司 一种患者定位的系统和方法
CN116777901A (zh) 2017-12-29 2023-09-19 上海联影医疗科技股份有限公司 一种用于医学成像中的生成对象的三维模型的系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415049B1 (en) * 1998-04-20 2002-07-02 Konica Corporation Apparatus for detecting and processing a radiation image
JP2001037750A (ja) 1999-08-03 2001-02-13 Toshiba Iyo System Engineering Kk バイプレーンx線診断装置
JP4536212B2 (ja) 2000-05-24 2010-09-01 浜松ホトニクス株式会社 Pet装置
JP2002058665A (ja) 2000-06-09 2002-02-26 Ge Yokogawa Medical Systems Ltd X線テレビ装置
US7023951B2 (en) * 2003-12-09 2006-04-04 General Electric Company Method and apparatus for reduction of artifacts in computed tomography images
JP5254810B2 (ja) 2006-02-28 2013-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リストモードデータに基づく局所動き補償
US7831097B2 (en) 2006-03-16 2010-11-09 Siemens Medical Solutions Usa, Inc. System and method for image reconstruction
DE102007020879A1 (de) 2006-05-10 2009-04-02 Gachon University Of Medicine & Science Industry-Academic Cooperation Foundation Verfahren und Vorrichtung für die äußerst schnelle Symmetrie- und SIMD- gestützte Projektion/Rückprojektion für die 3D-PET-Bildrekonstruktion
US7705314B2 (en) 2006-06-06 2010-04-27 General Electric Company Method and apparatus for PET time of flight generation of compression sinogram and image reconstruction
KR100763808B1 (ko) 2006-08-17 2007-10-05 한국과학기술원 자기공명영상 생성방법, 장치 및 그 방법이 기록된컴퓨터로 읽을 수 있는 기록매체
US8816959B2 (en) * 2007-04-03 2014-08-26 General Electric Company Method and apparatus for obtaining and/or analyzing anatomical images
US8908953B2 (en) * 2007-06-11 2014-12-09 Koninklijke Philips N.V. Imaging system and imaging method for imaging a region of interest
US8538101B2 (en) 2007-08-10 2013-09-17 Michael Felsberg Image reconstruction
JP4342588B2 (ja) * 2008-03-07 2009-10-14 アロカ株式会社 X線ct装置、および、その制御プログラム
US8184887B2 (en) * 2008-08-29 2012-05-22 General Electric Company System and method for image reconstruction
KR101065838B1 (ko) 2009-10-13 2011-09-19 (주)제노레이 사이노그램 복원 장치 및 방법
KR101364904B1 (ko) 2009-10-26 2014-02-27 울산대학교 산학협력단 4차원 영상합성법의 재구성 장치 및 방법
US8768027B2 (en) 2010-02-23 2014-07-01 Carestream Health, Inc. Method and system for cone beam computed tomography high density object artifact reduction
KR101128566B1 (ko) 2010-05-11 2012-03-23 한국과학기술원 Gpu를 이용한 양전자 방출 단층 촬영 영상에서의 감마선 산란 추정 방법 및 장치
KR101082629B1 (ko) 2010-05-11 2011-11-10 한국과학기술원 Gpu를 이용한 양전자 방출 단층 촬영 영상 병렬 복원 방법 및 장치
KR101118549B1 (ko) 2010-06-15 2012-02-22 연세대학교 산학협력단 의료용 융합영상 획득장치 및 획득방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160025846A (ko) * 2014-08-28 2016-03-09 연세대학교 산학협력단 토모그래피 장치 및 그의 기하 보정 방법
US10013778B2 (en) 2015-04-09 2018-07-03 Samsung Electronics Co., Ltd. Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
KR20160045662A (ko) * 2016-04-15 2016-04-27 연세대학교 산학협력단 의료 영상 장치 및 그의 영상 보정 방법
KR20200139491A (ko) * 2019-06-04 2020-12-14 사회복지법인 삼성생명공익재단 의료영상 처리 방법

Also Published As

Publication number Publication date
US20140093134A1 (en) 2014-04-03
US9245325B2 (en) 2016-01-26

Similar Documents

Publication Publication Date Title
CN109009200B (zh) 用于正电子发射断层成像图像重建的系统和方法
EP2706917B1 (en) Motion compensated imaging
US8600132B2 (en) Method and apparatus for motion correcting medical images
JP5254810B2 (ja) リストモードデータに基づく局所動き補償
EP2399238B1 (en) Functional imaging
EP2724319B1 (en) Respiratory motion determination apparatus
US20110142315A1 (en) System and method for tomographic data acquisition and image reconstruction
US8658979B2 (en) Nuclear image reconstruction
WO2011061644A1 (en) Motion correction in radiation therapy
JP2014508282A (ja) ゲート信号を持つリストモードpetデータにおいて運動を検出し補正する方法及び装置
US20110082368A1 (en) Reconstruction of dynamical cardiac spect for measuring tracer uptake and redistribution
KR20140042461A (ko) 영상을 생성하는 방법 및 장치
CN110536640B (zh) 从pet列表数据中的呼吸运动信号的噪声鲁棒的实时提取
US10255684B2 (en) Motion correction for PET medical imaging based on tracking of annihilation photons
US20190336079A1 (en) Respiratory Motion Estimation in Projection Domain in Nuclear Medical Imaging
RU2596982C2 (ru) Проверка и определение местоположения сердца в эмиссионных изображениях
US20140133707A1 (en) Motion information estimation method and image generation apparatus using the same
KR20140086627A (ko) 영상 생성 방법 및 장치
EP3300664B1 (en) Reconstruction of flow data
CN110458779B (zh) 对呼吸或心脏的pet图像进行衰减校正的校正信息获取方法
Mohammadi et al. Motion in nuclear cardiology imaging: types, artifacts, detection and correction techniques
KR102616736B1 (ko) Pet 이미징에서의 자동화된 모션 보정
CN114867414A (zh) 用于提供患者的感兴趣区域的核图像的装置、系统、方法和计算机程序

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid