KR20130124135A - Apparatus and method for generating positron emission tomography image - Google Patents

Apparatus and method for generating positron emission tomography image Download PDF

Info

Publication number
KR20130124135A
KR20130124135A KR1020120115025A KR20120115025A KR20130124135A KR 20130124135 A KR20130124135 A KR 20130124135A KR 1020120115025 A KR1020120115025 A KR 1020120115025A KR 20120115025 A KR20120115025 A KR 20120115025A KR 20130124135 A KR20130124135 A KR 20130124135A
Authority
KR
South Korea
Prior art keywords
unit
signals
group
unit signals
signal
Prior art date
Application number
KR1020120115025A
Other languages
Korean (ko)
Inventor
박병관
이재목
송태용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN2013101022215A priority Critical patent/CN103381095A/en
Priority to US13/874,811 priority patent/US20130294670A1/en
Priority to JP2013097070A priority patent/JP2013234999A/en
Priority to EP20130166436 priority patent/EP2660779A3/en
Publication of KR20130124135A publication Critical patent/KR20130124135A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine (AREA)

Abstract

A method and apparatus generate an image in positron emission tomography (PET). An image generating method comprises the steps of: detecting signals emitted from tracers introduced into a target; dividing the detected signals into sections at predetermined intervals, and generating unit signals for each of the sections by accumulating signals within the section with respect to each of the sections; classifying the unit signals into a plurality of groups based on the characteristics of each of the unit signals; and generating a medical image for the target from the unit signals classified into the groups. [Reference numerals] (20) Computer;(210) Unit signal generating unit;(220) Classifying unit;(230) Movement estimating unit;(240) Image generating unit;(AA) Detected signal;(BB,QQ) Image;(CC) Detected signal;(DD) Unit signal #1;(EE) Unit signal #2;(FF) Unit signal #3;(GG) Unit signal #N;(HH) Group #1;(II) Standard;(JJ) Conversion factor #1;(KK) Group #2;(LL) Motion information #2;(MM) Conversion factor #2;(NN) Group #M;(OO) Motion information #M;(PP) Conversion factor #M

Description

양전자 방출 단층 촬영에서의 영상 생성 방법 및 장치{Apparatus and method for generating Positron Emission Tomography image}Apparatus and method for generating Positron Emission Tomography image}

양전자 방출 단층 촬영에서의 영상 생성 방법 및 장치에 관한 것이다.A method and apparatus for generating images in positron emission tomography.

환자를 진단하기 위해 인체 내부의 정보를 영상으로 획득하는 의료용 영상 기기는 질병 진단에 필요한 정보를 제공한다. 현재 병원에서 사용 또는 개발되고 있는 의료용 영상 촬영 방법은 크게 해부학적 영상과 생리학적 영상을 얻는 방법으로 나누어진다. 첫째로, 인체의 상세한 해부학적 영상을 높은 해상도로 제공하는 촬영기술의 예로는 MRI(Magnetic Resonance Imaging) 또는 CT(Computed Tomography)가 있다. 이들은 인체의 단면에 대한 2차원 영상, 또는 여러 장의 2차원 영상을 이용하여 3차원 영상을 높은 해상도로 생성하여 인체 내 장기들의 정확한 위치와 형태를 나타낸다. 둘째로, 생리학적 영상 촬영 기술의 예로는 인체 내의 신진 대사 과정을 촬영하여 대사의 이상 유무의 진단에 기여하는 양전자 방출 단층 촬영(PET, Positron emission tomography)가 대표적이다.Medical imaging devices that acquire images of the inside of the human body to diagnose patients provide information necessary for diagnosis of diseases. The medical imaging methods currently being used or developed in hospitals are largely divided into methods of obtaining anatomical images and physiological images. First, MRI (Magnetic Resonance Imaging) or CT (Computed Tomography) are examples of imaging techniques that provide detailed anatomical images of the human body at high resolution. These two-dimensional images of a human body, or a plurality of two-dimensional images using three-dimensional images with high resolution to produce the exact position and shape of the organs in the body. Second, examples of physiological imaging techniques include positron emission tomography (PET), which captures the metabolic processes in the body and contributes to the diagnosis of metabolic abnormalities.

양전자 방출 단층 촬영은 양전자를 방출하는 특수 방사성 추적자를 인체 대사에 참여하는 성분의 형태로 생성하고, 이 추적자를 정맥주사나 흡입의 방법으로 인체에 주입하고, 이 추적자에서 방출되는 양전자가 전자와 결합할 때 서로 반대 방향으로 방출되는 511keV의 두 개의 감마선을 외부 기기를 이용하여 검출함으로써 추적자의 위치를 추적하고, 이들의 분포 형태와 시간에 따른 분포 양상의 변화를 관찰하는 촬영 기술이다.Positron emission tomography (CT) produces a special radioactive tracer that emits a positron in the form of a component that participates in human metabolism. The tracer is injected into the human body by intravenous injection or inhalation, and the positron emitted by this tracer is combined with electrons , Which are emitted in the opposite direction to each other, are detected by using an external device to observe the position of the tracer and to observe the distribution pattern and the change of the distribution pattern with time.

일반적으로 대상체에 주입된 추적자로부터 방출된 감마선은 분산이나 감쇠 등의 영향으로 실제 방출된 양보다 훨씬 적은 양만이 신호 검출 장치에 도달하게 된다. 따라서 영상을 생성하기에 충분한 검출 양을 확보하기 위해서는 수 분 단위의 상대적으로 긴 검출 시간이 요구된다. 하지만 사람의 장기는 호흡, 심장박동 등에 의해 비교적 짧은 주기의 움직임을 수반하기 때문에, 수 분 단위의 영상 획득시간 동안 대상체를 촬영하게 되면 대상체의 움직임이 영상에 반영되어 흐릿하게 번진 채로 기록된다. 이렇게 촬영 장치와 피사체 간의 상대적인 움직임에 의해 발생하는 이미지의 흐림 혹은 번짐 현상을 동잡음이라고 한다. 이러한 동잡음은 양전자 방출 단층 촬영의 해상도를 저하시키는 주된 원인이 된다.
In general, the gamma rays emitted from the tracer injected into the object may reach the signal detection device in a much smaller amount than the amount actually emitted due to the influence of dispersion or attenuation. Therefore, a relatively long detection time of several minutes is required to secure a sufficient detection amount to generate an image. However, since human organs are accompanied by relatively short periods of movement due to breathing, heartbeat, etc., when the object is photographed for several minutes of image acquisition time, the movement of the object is reflected on the image and is blurred and recorded. The blurring or blurring of the image caused by the relative movement between the photographing apparatus and the subject is called dynamic noise. Such noise is a major cause of lowering the resolution of positron emission tomography.

양전자 방출 단층 촬영에 있어서, 검출된 데이터를 정확하게 분류하고 높은 해상도의 정지 영상을 생성하는 영상 생성 방법 및 장치를 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 실시예가 이루고자하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.In positron emission tomography, there is provided an image generating method and apparatus for accurately classifying detected data and generating still images of high resolution. The present invention also provides a computer-readable recording medium on which a program for causing the computer to execute the method is provided. The technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and further technical problems can be inferred from the following embodiments.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 영상 생성 방법은 대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 단계, 상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단계, 상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 단계 및 상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of generating an image, the method comprising: detecting signals emitted from a tracker injected into an object, dividing the detected signals into sections at predetermined intervals, Accumulating the signals in the section to generate a unit signal for each section, classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals, and from the unit signals classified into the groups. The method may include generating a medical image of the object.

본 발명의 다른 측면에 따른 영상 생성 방법은 상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 단계를 더 포함할 수 있고, 상기 분류하는 단계는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류할 수 있다. The image generating method according to another aspect of the present invention may further include generating a two-dimensional sinogram for each section by using each unit signal, and the classifying may include the sinograms. The sinograms may be classified into a plurality of groups based on respective characteristics.

본 발명의 또 다른 측면에 따라 상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성일 수 있다.According to another aspect of the present invention, the characteristic may be a characteristic of a gradient representing a two-dimensional gradient of the sinogram.

본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to yet another aspect of the present disclosure, the classifying may include calculating a feature value representing the characteristic of each unit signal, and classifying the unit signals into a plurality of groups based on the calculated feature value.

본 발명의 또 다른 측면에 따라 상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출될 수 있다.According to another aspect of the present invention, the feature value may be calculated from a correlation value representing the similarity between the respective unit signals.

본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 할당하는 단계를 더 포함할 수 있고, 상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classifying may include determining a maximum value and a minimum value among the feature values, and allocating a group to each interval by dividing the maximum value and the minimum value into a predetermined number of intervals. The unit signal may be further classified into a group allocated to a section including a feature value of each unit signal.

본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단계를 더 포함할 수 있고, 나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.The classifying according to another aspect of the present invention may further include arranging the unit signals according to a result of comparing the feature values, and classifying the unit signals into a plurality of groups based on the listed order. Can be classified.

본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류할 수 있다.According to another aspect of the present invention, the classifying may be classified using a k-means clustering algorithm.

본 발명의 또 다른 측면에 따라 상기 생성하는 단계는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to another aspect of the present invention, the generating may generate an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups is matched. .

본 발명의 또 다른 측면에 따른 영상 생성 방법은 상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 단계를 더 포함할 수 있고, 상기 생성하는 단계는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to still another aspect of the present invention, there is provided a method of generating an image, the method comprising: estimating motion information of the tracker from the position of the tracker indicated by one of the groups as a reference, to the position of the tracker indicated by each group; The generating may include generating the image of the object from the unit signals by aligning the unit signals based on the motion information.

본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information may be estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.

본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group. Can be.

본 발명의 또 다른 측면에 따라 상기된 영상 생성 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.According to still another aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing the above-described image generating method on a computer.

본 발명의 또 다른 측면에 따른 영상 생성 장치는 대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 신호 검출부, 상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단위신호 생성부, 상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 분류부 및 상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 영상 생성부를 포함할 수 있다. In accordance with another aspect of the present invention, an image generating apparatus includes a signal detector configured to detect signals emitted from a tracker injected into an object, dividing the detected signals into sections of a predetermined interval, and for each of the sections, a signal within the section. A unit signal generator for accumulating the signals and generating unit signals for each of the sections, a classifier for classifying the unit signals into a plurality of groups based on characteristics of the unit signals, and a unit signal classified into the groups. The image generating unit may generate a medical image of the object.

본 발명의 또 다른 측면에 따른 영상 생성 장치는 상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 시노그램 생성부를 더 포함할 수 있고, 상기 분류부는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류할 수 있다.The image generating apparatus according to another aspect of the present invention may further include a sinogram generator for generating a two-dimensional sinogram for each section by using the respective unit signals, and the classification unit may include the sinogram. The sinograms may be classified into a plurality of groups based on their respective characteristics.

본 발명의 또 다른 측면에 따라 상기 분류부는 상기 각 단위신호의 특성을 나타내는 특징값을 산출할 수 있고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classification unit may calculate a feature value representing the characteristic of each unit signal, and classify the unit signals into a plurality of groups based on the calculated feature value.

본 발명의 또 다른 측면에 따라 상기 분류부는 상기 특징값들 중 최고값과 최저값을 결정할 수 있고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 설정할 수 있다.According to another aspect of the present invention, the classification unit may determine the highest value and the lowest value of the feature values, and set a group for each period by dividing the maximum value and the minimum value into a predetermined number of sections.

본 발명의 또 다른 측면에 따라 상기 분류부는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단위신호 나열부를 더 포함할 수 있고, 나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classifying unit may further include a unit signal arranging unit for arranging each unit signal according to a result of comparing the feature values, and the unit signals may be divided into a plurality of groups based on the listed order. Can be classified.

본 발명의 또 다른 측면에 따라 상기 분류부는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류할 수 있다.According to another aspect of the present invention, the classification unit may be classified using a k-means clustering algorithm.

본 발명의 또 다른 측면에 따라 상기 영상 생성부는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to another aspect of the present invention, the image generator may generate an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups is matched.

본 발명의 또 다른 측면에 따른 영상 생성 장치는 상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 움직임 추정부를 더 포함할 수 있고, 상기 영상 생성부는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.An image generating apparatus according to another aspect of the present invention is a motion estimation for estimating the motion information of the tracker from the position of the tracker represented by one of the groups as a reference among the groups from the position of the tracker represented by each group The image generating unit may generate an image of the object from the unit signals by aligning the unit signals based on the motion information.

본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information may be estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.

본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정될 수 있다.
According to another aspect of the present invention, the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group. Can be.

영상 정렬 방법을 이용하여 PET 의료 영상을 생성함에 있어서 외부 장치에 의존하지 않고 검출된 데이터를 분류한 후, 분류된 데이터를 정렬하여 영상을 생성함으로써, 데이터를 정확하게 분류할 수 있고, 높은 해상도의 정지 영상을 생성할 수 있다.In generating PET medical images using the image alignment method, the detected data are classified without relying on an external device, and then the classified data are sorted to generate an image, thereby accurately classifying the data and maintaining a high resolution. An image can be generated.

도 1은 본 발명의 일 실시예에 따른 영상 생성 장치를 나타낸 것이다.
도 2는 도 1에 도시된 컴퓨터의 구성도와 컴퓨터의 동작에 따른 데이터의 흐름을 나타낸 것이다.
도 3은 LOR 데이터의 예를 나타낸 것이다.
도 4는 LOR 데이터를 시노그램으로 나타내는 예를 나타낸 것이다.
도 5는 단위신호를 복수 개의 그룹으로 분류하는 예를 나타낸 것이다.
도 6은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 다른 예를 나타낸 것이다.
도 7은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 또 다른 예를 나타낸 것이다.
도 8은 일 실시예에 따른 영상 보정 방법의 흐름도이다.
1 shows an image generating apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating the configuration of the computer illustrated in FIG. 1 and a flow of data according to the operation of the computer.
3 shows an example of LOR data.
4 shows an example in which LOR data is represented by a sinogram.
5 shows an example of classifying a unit signal into a plurality of groups.
6 shows another example of classifying a unit signal into a plurality of groups according to the feature value of the unit signal.
FIG. 7 illustrates another example of classifying a unit signal into a plurality of groups according to feature values of the unit signal.
8 is a flowchart of an image correction method, according to an exemplary embodiment.

이하에서는 도면을 참조하여 실시예들을 상세히 설명한다. 본 실시예들의 특징을 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. In order to clearly describe the features of the embodiments, detailed descriptions of matters well known to those skilled in the art will be omitted.

도 1은 일 실시예에 따른 영상 생성 장치를 나타낸 것으로서, 환자의 신체 단면에 대한 영상을 생성하는 전체적인 시스템을 도시하였다. 도 1을 참조하면, 영상 생성 장치는 신호 검출부(10), 컴퓨터(20), 디스플레이 장치(30) 및 사용자 입력장치(40)을 포함한다.FIG. 1 illustrates an image generating apparatus according to an embodiment, and illustrates an overall system for generating an image of a patient's body section. Referring to FIG. 1, the image generating apparatus includes a signal detector 10, a computer 20, a display device 30, and a user input device 40.

신호 검출부(10)는 대상체에 주입된 추적자로부터 방출되는 신호를 검출한다. 대상체는 동물이나 사람 등의 생물체가 될 수 있다. 대상체가 사람인 경우의 예를 들어 설명하면, 시술자는 양전자를 방출하는 특수 방사성 추적자(tracer)를 인체 대사에 참여하는 성분의 형태로 생성하고, 이 추적자를 정맥주사나 흡입의 방법으로 인체에 주입한다. 주입된 추적자는 양전자를 방출하고, 방출된 양전자가 전자와 결합하면 서로 반대 방향으로 511keV의 두 개의 감마선 쌍이 방출된다. 신호 검출부(10)는 이러한 감마선을 검출하고, 검출한 감마선에 대한 데이터를 LOR(line of response)의 형태로 컴퓨터(20)에 전송한다. 여기서, 양전자는 방사선의 한 종류로서, C-11, N-13, O-15, F-18 등의 방사성 동위원소에서 방출된다. 위와 같은 원소들을 이용하여 생성된, 생체를 구성하는 물질을 주입함으로써, 특수 방사성 추적자를 생성할 수 있다. 가장 흔히 이용되는 추적자로는 F-18-FDG 라는 포도당 유사물질이 있으며, 이를 주사하면 몸 안에서 암과 같이 포도당 대사가 집중되는 부위에 추적자가 집중된다. 추적자가 집중된 부위에서는 양전자가 집중적으로 방사된다.The signal detector 10 detects a signal emitted from the tracker injected into the object. The subject may be an organism such as an animal or a human. For example, when the subject is a human, the operator creates a special radiotracer that emits a positron in the form of a component that participates in human metabolism, and injects the tracer into the human body by intravenous injection or inhalation. . The injected tracer emits a positron, and when the emitted positron combines with the electron, two gamma ray pairs of 511keV are emitted in opposite directions. The signal detection unit 10 detects such gamma rays and transmits data on the detected gamma rays to the computer 20 in the form of a line of response (LOR). Here, a positron is a kind of radiation and is emitted from radioisotopes such as C-11, N-13, O-15, and F-18. By injecting a substance constituting the living body, generated using the above elements, a special radiotracer can be generated. The most commonly used tracer is a glucose-like substance called F-18-FDG, which injects the tracer in the body where glucose metabolism is concentrated, such as cancer. In areas where the tracer is concentrated, positrons are concentrated.

LOR는 공간 내에서 직선의 위치를 나타내는 데이터 형식으로, 도 3은 LOR 데이터의 예를 나타낸 것이다. 도 3을 참조하면, 스캐너(31) 내의 검출공간에 위치하는 추적자(32)로부터 방출된 양전자와 전자의 반응은 180도 방향으로 두 개의 감마선을 방출하고, 두 개의 감마선은 하나의 직선 상에 놓이게 된다. 도 3은 그러한 직선(33, 34)이 두 개 검출된 경우, 즉 양전자와 전자의 반응이 두 개 검출된 경우를 나타낸 것이다. 직선 33을 참조하면, 스캐너(31) 내의 원점을 기준으로 직선 33에 수직이 되는 수선을 그렸을 때, 수선까지의 거리는 r1, 수선까지의 각도는 θ1이기에, 직선 33에 대한 LOR은 (r1, θ1)로 표현될 수 있다. 마찬가지로 직선 34를 참조하면, 스캐너(31) 내의 원점을 기준으로 직선 34에 수직이 되는 수선을 내렸을 때, 수선까지의 거리는 r2, 수선까지의 각도는 θ2이기에, 직선 34에 대한 LOR은 (r2, θ2)로 표현될 수 있다. 이와 같이, 두 개 이상의 LOR 데이터를 획득하면 추적자의 위치는 LOR 데이터들의 교점으로 결정될 수 있다. 그러하기에, 신호 검출부(10)는 검출한 감마선에 대한 LOR을 컴퓨터(20)에 전송하고, 컴퓨터(20)는 최종적으로 그러한 LOR로부터 추적자의 위치를 결정하여 영상을 생성한다.LOR is a data format indicating the position of a straight line in space, and FIG. 3 shows an example of LOR data. Referring to FIG. 3, the reaction between the positron and the electron emitted from the tracer 32 located in the detection space in the scanner 31 emits two gamma rays in the 180 degree direction, and the two gamma rays are placed on one straight line. do. 3 shows a case where two such straight lines 33 and 34 are detected, that is, two reactions of a positron and an electron are detected. Referring to the straight line 33, when the waterline perpendicular to the straight line 33 is drawn from the origin of the scanner 31, the distance to the waterline is r1 and the angle to the waterline is θ1, so the LOR for the straight line 33 is (r1, θ1). Can be expressed as Similarly, referring to the straight line 34, when the waterline perpendicular to the straight line 34 is lowered based on the origin in the scanner 31, the distance to the waterline is r2 and the angle to the waterline is θ2, so the LOR for the straight line 34 is (r2, θ2). As such, when two or more pieces of LOR data are acquired, the position of the tracker may be determined as an intersection point of the LOR data. Therefore, the signal detector 10 transmits the LOR for the detected gamma rays to the computer 20, and the computer 20 finally determines the position of the tracker from such LOR to generate an image.

다시 도 1을 참조하면, 컴퓨터(20)는 신호 검출부(10)로부터 획득한 데이터를 이용하여 대상체에 대한 영상을 생성한다. 디스플레이 장치(30)는 컴퓨터(20)로부터 생성된 영상을 디스플레이 패널에 표시한다. 사용자는 사용자 입력장치(40)를 이용하여 컴퓨터(20)의 동작 시작 및 종료를 명령하는 등, 컴퓨터(20)의 동작에 필요한 정보들을 입력할 수 있다. 다만, 컴퓨터(20)는 필요한 정보를 사용자 입력장치(40)가 아닌 저장 장치로부터 획득할 수도 있다. Referring back to FIG. 1, the computer 20 generates an image of an object by using data obtained from the signal detector 10. The display device 30 displays an image generated from the computer 20 on the display panel. The user may input information necessary for the operation of the computer 20, such as commanding to start and end the operation of the computer 20 by using the user input device 40. However, the computer 20 may obtain necessary information from a storage device other than the user input device 40.

도 2는 도 1에 도시된 컴퓨터의 구성도와 컴퓨터의 동작에 따른 데이터의 흐름을 나타낸 것이다. 도 2를 참조하면, 컴퓨터(20)는 단위신호 생성부(210), 분류부(220), 움직임 추정부(230) 및 영상 생성부(240)를 포함한다. 도 2의 우측에는 각 유닛의 동작에 따른 데이터의 흐름을 나타내었다. FIG. 2 is a diagram illustrating the configuration of the computer illustrated in FIG. 1 and a flow of data according to the operation of the computer. Referring to FIG. 2, the computer 20 includes a unit signal generator 210, a classifier 220, a motion estimator 230, and an image generator 240. 2 shows the flow of data according to the operation of each unit.

도 2의 단위신호 생성부(210)는 신호 검출부(10)에 의해 검출된 신호를 획득하고, 획득한 신호를 소정 간격의 구간들로 나누고, 나누어진 구간들 각각에 대하여 구간 내의 신호를 누적하여 단위신호를 생성한다. 예를 들어 설명하면, 신호 검출부(10)에 의해 검출된 신호는 검출된 시간 순으로 나열된 후, 소정 시간 간격으로 나누어질 수 있고, 이에 따라 각 단위신호는 소정 시간 구간 내의 신호를 누적함으로써 생성될 수 있다. 생성된 단위신호들 역시 시간 순으로 나열될 수 있다.The unit signal generator 210 of FIG. 2 obtains a signal detected by the signal detector 10, divides the obtained signal into sections of predetermined intervals, and accumulates signals within sections for each of the divided sections. Generate unit signals. For example, the signals detected by the signal detector 10 may be listed in the order of detected time, and then divided into predetermined time intervals. Accordingly, each unit signal may be generated by accumulating signals within a predetermined time interval. Can be. The generated unit signals may also be arranged in chronological order.

도 2의 우측 데이터 흐름을 참조하면, 단위신호 생성부(210)의 우측에는 단위신호 #1부터 단위신호 #N까지 총 N개의 시간 순으로 나열된 단위신호가 도시되어 있다.Referring to the right data flow of FIG. 2, on the right side of the unit signal generation unit 210, unit signals arranged in total N times from unit signal # 1 to unit signal #N are illustrated.

신호 검출부(10)에 의해 LOR 신호가 검출되는 경우, 하나의 LOR로는 추적자의 위치를 결정할 수 없으며, 두 개 이상이더라도 그 양이 적은 경우에는 결정되는 추적자의 위치의 신뢰도가 떨어진다. 따라서, LOR 데이터들의 교점을 추적자의 위치로 결정할 수 있을 정도로 충분한 양의 데이터가 누적될 수 있도록 단위신호 생성부(210)는 구간을 이루는 소정 간격을 결정할 수 있다. 그러나, 간격이 넓어질수록 추적자의 움직임 때문에 정확한 추적자의 위치 결정이 어려워질 수 있으다. 그러므로, 소정 간격은 대상체의 움직임의 정도, 움직임의 주기, 스캐너가 LOR을 검출하는 시간 간격 등을 고려하여 결정해야 할 것이다. 이러한 구간은 짧은 시간으로써 예를 들어, 1초 이하의 시간이 될 수 있으나, 이에 한정하지 않는다. 이 때, 소정 간격 동안의 신호를 누적하여 생성된 단위신호는 노이즈를 포함할 수 있기 때문에, 노이즈의 영향을 최소화하기 위하여 히스토그램 클리핑이 적용될 수 있다. 히스토그램 클리핑은, 히스토그램으로 표현된 신호의 최소값과 최대값을 정하고, 신호의 값들을 최소값에서 최대값 사이의 값으로 제한하는 방법이다. 이에 따라 최소값 미만인 값은 최소값으로 제한되고, 최대값을 초과하는 값은 최대값으로 제한된다.  When the LOR signal is detected by the signal detector 10, one LOR cannot determine the position of the tracker, and even if two or more are small, the reliability of the determined position of the tracker is low. Accordingly, the unit signal generator 210 may determine a predetermined interval forming a section so that a sufficient amount of data can be accumulated to determine the intersection point of the LOR data as the tracker's position. However, the wider the interval, the more difficult it is to locate the correct tracker because of the tracker's movement. Therefore, the predetermined interval should be determined in consideration of the degree of movement of the object, the period of the movement, the time interval at which the scanner detects the LOR, and the like. Such a section may be a short time, for example, 1 second or less, but is not limited thereto. In this case, since the unit signal generated by accumulating the signals during the predetermined interval may include noise, histogram clipping may be applied to minimize the influence of the noise. Histogram clipping is a method of determining the minimum and maximum values of a signal represented by a histogram and limiting the values of the signal to values between the minimum and maximum values. Accordingly, values below the minimum value are limited to the minimum value, and values above the maximum value are limited to the maximum value.

위와 같이 생성된 단위신호는 여러 개의 LOR로 구성되는데, 이러한 LOR을 누적하는 방법으로써 시노그램 그래프가 사용될 수 있다. LOR 데이터를 시노그램으로 나타내는 방법을 구체적으로 설명하기 위해서 이하에서는 도 4를 참고하여 설명한다.The unit signal generated as described above is composed of several LORs, and a sinogram graph may be used as a method of accumulating such LORs. In order to specifically describe a method of representing LOR data in a sinogram, the following description will be made with reference to FIG. 4.

도 4는 LOR 데이터를 시노그램으로 나타내는 예를 나타낸 것이다. 투영 정보는 가로 축은 r, 세로 축은 θ를 나타내는 시노그램 그래프 형식으로 표현될 수 있다. 앞서 설명한 LOR 형식의 데이터 역시 r,θ를 변수로 하기에, LOR을 시노그램 상에 나타낼 수 있다. (r,θ)의 값을 갖는 LOR데이터는 시노그램 그래프에서 (r ,θ)의 좌표에 대응된다. 그래프 40은, 스캐너(31)의 검출공간 내의 추적자(32)로부터 방출되는 여러 개의 감마선에 대한 LOR을 시노그램에 나타낸 것이다. 스캐너(31)의 검출공간 내에서 추적자(32)의 위치 좌표 한 점은 도 4의 그래프에서의 하나의 곡선(41)에 대응된다. 따라서 복수 개의 추적자가 서로 다른 좌표에 존재하는 경우, 그러한 추적자들로부터 검출한 신호에 대한 시노그램은 여러 개의 곡선으로 나타날 것이다.4 shows an example in which LOR data is represented by a sinogram. The projection information may be expressed in a sinogram graph format in which the horizontal axis is r and the vertical axis is θ. The LOR data described above may also represent LOR on the sinogram since r and θ are variables. LOR data having a value of (r, θ) corresponds to a coordinate of (r, θ) in the sinogram graph. Graph 40 shows the LOR for several gamma rays emitted from the tracer 32 in the detection space of the scanner 31 in the sinogram. The position coordinate point of the tracer 32 in the detection space of the scanner 31 corresponds to one curve 41 in the graph of Fig. Thus, if multiple tracers are in different coordinates, the synogram for the signal detected from such tracers will appear as multiple curves.

이에 따라, 단위신호 생성부(210)는 각 단위신호에 포함된 LOR을 누적하여 시노그램의 형태로 단위신호를 생성할 수 있다. 부연 설명하면, 단위신호 생성부(210)는 각 단위신호마다 해당하는 시노그램을 생성할 수 있으며, 각각의 시노그램은 추적자(32)를 포함하는 대상체의 움직임에 따라 서로 비슷하거나 동일한 형태일수도 있고, 서로 상이할 수도 있다. Accordingly, the unit signal generator 210 may accumulate LORs included in each unit signal to generate the unit signal in the form of a sinogram. In detail, the unit signal generator 210 may generate a sinogram corresponding to each unit signal, and each sinogram may be similar or identical to each other according to the movement of the object including the tracker 32. It may be different from each other.

다시 도 2를 참조하면, 분류부(220)는 단위신호 생성부(210)에 의해 생성된 단위신호들 각각의 특성에 기초하여 단위신호들을 복수 개의 그룹으로 분류한다. 도 2 우측의 데이터 흐름을 참조하면, 분류부(220)의 우측에는 그룹#1부터 그룹#M까지 총 M개의 그룹이 도시되어 있다. 여기서 M은 단위신호의 총 개수인 N보다 작은 수로써, 일반적으로 5이상의 값이 사용될 수 있으나, 이에 한정되지 않는다. 이러한 M의 값은 컴퓨터의 연산 성능이나, 요구되는 최종 영상의 해상도 등에 따라 달리 설정될 수 있다.Referring again to FIG. 2, the classifier 220 classifies the unit signals into a plurality of groups based on characteristics of each of the unit signals generated by the unit signal generator 210. Referring to the data flow on the right side of FIG. 2, a total of M groups from the group # 1 to the group #M are illustrated on the right side of the classification unit 220. Here, M is a number smaller than N, which is the total number of unit signals, and in general, a value of 5 or more may be used, but is not limited thereto. The value of M may be set differently depending on the computational performance of the computer or the resolution of the final image required.

각 단위신호에 나타난 추적자의 위치는 대상체의 움직임에 따라 서로 다를 수 있다. 이러한 단위신호들을 모두 합하여 하나의 정지 영상을 생성하기 위해서는 각 단위신호가 나타내는 추적자의 위치가 일치되도록 각 단위신호를 정렬해줄 필요가 있는데, 각 단위신호의 경우, 신호대잡음비가 낮으므로 각 단위신호를 정렬하는 것이 어려울 수 있다. 이에, 신호대잡음비를 향상하기 위하여 복수 개의 단위신호를 하나로 합할 수 있다. 예를 들어, 각 단위신호의 특징값을 추출하고, 추출된 특징값이 유사한 단위신호들을 하나로 합하는 개념을 도입할 수 있다. 단위신호가 누적될수록 신호대잡음비가 향상되므로, 보다 정확한 정렬이 가능하다.The position of the tracker shown in each unit signal may be different according to the movement of the object. In order to generate a single still image by adding all of these unit signals, it is necessary to align each unit signal so that the position of the tracker indicated by each unit signal is matched. For each unit signal, since the signal to noise ratio is low, Sorting can be difficult. Thus, in order to improve the signal-to-noise ratio, a plurality of unit signals may be combined into one. For example, a concept of extracting feature values of each unit signal and adding unit signals having similar feature values to each other may be introduced. As the unit signals accumulate, the signal-to-noise ratio improves, thus enabling more accurate alignment.

또한, 단위신호를 누적하면, 단위신호의 정렬에 필요한 연산 시간이 단축되는 장점도 있다. 모든 단위신호를 각각 정렬하려면 연산이 오래 걸리는 문제가 있다. 예를 들어, N개의 단위신호를 정렬하는 경우, 하나의 단위신호를 기준으로 하여 총 N-1번의 연산이 요구된다. 반면, 같은 위치에 해당하는 단위신호들끼리 하나의 그룹으로 묶고, 그러한 그룹들을 서로 정렬하는 연산을 수행하면, 총 연산 시간을 단축할 수 있다. 예를 들어, M개의 그룹을 정렬하는 경우, 하나의 그룹을 기준으로 하여 총 M-1번의 연산만이 요구된다. 여기서 M은 단위신호의 총 개수인 N보다 작은 수로써, 각 단위신호를 정렬할 때에 비해 각 그룹을 정렬하는 경우의 연산 시간이 단축된다. In addition, when the unit signals are accumulated, an operation time required for aligning the unit signals is shortened. There is a problem that it takes a long time to align all the unit signals individually. For example, when N unit signals are aligned, a total of N-1 operations are required based on one unit signal. On the other hand, if the unit signals corresponding to the same position are grouped into one group and the groups are aligned with each other, the total operation time can be shortened. For example, when sorting M groups, only M-1 operations are required based on one group. Here, M is a number smaller than N, which is the total number of unit signals, and the computation time for aligning each group is shortened as compared with aligning each unit signal.

도 5는 분류부(220)가 단위신호를 복수 개의 그룹으로 분류하는 일 예를 나타낸 것이다.5 illustrates an example in which the classifier 220 classifies a unit signal into a plurality of groups.

도 5의 그래프 50은 각 단위신호를 검출시간 순서로 나열하였을 때, 각 단위신호가 나타내는 추적자의 위치 변화를 나타낸 것이다. 도 5에 도시된 바와 같이, 분류부(220)는 스캐너(31)의 검출공간 내에서의 추적자의 위치 1에 해당하는 단위신호 51, 52, 53, 54, 55를 그룹 1로 분류하고, 추적자의 위치 2에 해당하는 단위신호 56, 57, 58, 59, 60을 그룹 2로 분류하는 방법으로, 동일한 위치를 나타내는 단위신호들을 같은 그룹으로 분류할 수 있다. 이와 같이 추적자의 위치가 1과 2 사이에서 교번적으로 나타나는 이유는, 장기의 주기적인 움직임에 동반하여 그러한 장기에 주입된 추적자가 함께 움직일 수 있기 때문이다. M개의 위치에 대하여 단위신호를 분류하는 경우, 분류부(220)는 총 M개의 그룹을 생성할 수 있다.Graph 50 of FIG. 5 shows the change in position of the tracker indicated by each unit signal when the unit signals are arranged in the order of detection time. As shown in FIG. 5, the classifier 220 classifies the unit signals 51, 52, 53, 54, and 55 corresponding to the position 1 of the tracker in the detection space of the scanner 31 into a group 1, and the tracker. The unit signals 56, 57, 58, 59, and 60 corresponding to the position 2 may be classified into group 2, and the unit signals indicating the same position may be classified into the same group. The reason why the position of the tracer alternates between 1 and 2 is that the tracer injected into the organ can move together with the periodic movement of the organ. When classifying unit signals for M positions, the classifier 220 may generate a total of M groups.

분류부(220)는 단위신호를 분석한 결과에 기초하여, 동일한 위치를 나타내는 단위신호들을 하나의 그룹으로 묶음에 따라 단위신호들을 복수 개의 그룹으로 분류한다. 단위신호가 시노그램으로 표현되어 있는 경우의 예를 들면, 단위신호가 나타내는 추적자의 위치는 시노그램의 곡선에 대응되기에, 분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 각 시노그램이 유사한 정도에 따라 단위신호들을 추적자의 위치별로 분류할 수 있다.The classifying unit 220 classifies the unit signals into a plurality of groups based on a result of analyzing the unit signals and grouping the unit signals indicating the same position into one group. For example, in the case where the unit signal is represented by a sinogram, the position of the tracker indicated by the unit signal corresponds to the curve of the sinogram, and the classifying unit 220 may determine the angle based on the characteristics of the sinogram of each unit signal. The unit signals may be classified by the position of the tracker according to the degree of similarity of the sinogram.

이와 같은 분류 방법은 생성되는 총 그룹의 개수를 줄이는 장점이 있다. 예를 들어 대상체의 움직임 주기 내에서 서로 다른 위상에 해당하더라도 추적자의 위치는 동일할 수 있다. 이하에서 ‘위상 정보’란 각 데이터의 검출시간이 대상체의 움직임 주기 내에서 어느 위상에 해당하는가의 정보를 의미하는 용어로서 사용된다.Such a classification method has an advantage of reducing the total number of generated groups. For example, the position of the tracker may be the same even if they correspond to different phases within the movement period of the object. Hereinafter, 'phase information' is used as a term meaning information of which phase a detection time of each data corresponds to within a movement period of an object.

도 5를 참조하면, 위상 정보를 포함하여 분류하는 방법을 사용하면 단위신호 51, 53, 55가 서로 동일한 위상에 해당하여 하나의 그룹으로 분류되고, 단위신호 52, 54가 서로 동일한 위상에 해당하여 또 다른 그룹으로 분류될 것이다. 하지만 분류부(220)가 전술한 바와 같이 주기 내의 위상 정보와 관계없이 단위신호 자체의 특성에 기초하여 단위신호를 분류하면, 동일한 추적자의 위치를 나타내는 51, 52, 53, 54, 55는 모두 하나의 그룹으로 분류 될 수 있다. (단위신호 51, 53, 55와 단위신호 52, 54는 서로 위상이 다름에도 불구하고) 이에 따라, 분류부(220)에 의해 생성되는 총 그룹의 개수가 줄어들고, 결과적으로 움직임 추정부(230) 및 영상 생성부(240)의 연산 회수가 줄어들 수 있다.Referring to FIG. 5, when the classification method including phase information is used, the unit signals 51, 53, and 55 correspond to the same phase, and the unit signals 52 and 54 correspond to the same phase. It will be classified into another group. However, if the classifier 220 classifies the unit signal based on the characteristics of the unit signal itself regardless of the phase information in the period as described above, 51, 52, 53, 54, 55 indicating the position of the same tracker are all one. Can be classified into groups. Accordingly, although the unit signals 51, 53, 55 and the unit signals 52, 54 are out of phase with each other, the total number of groups generated by the classifying unit 220 is reduced, and as a result, the motion estimating unit 230 is performed. And the number of operations of the image generator 240 may be reduced.

분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 각 시노그램이 유사한 정도를 결정하기 위하여 시노그램의 특징값을 산출할 수 있다. 예를 들어 분류부(220)는 각 단위신호의 시노그램의 특징값을 산출하고, 시노그램의 특징값이 유사한 단위신호들을 같은 그룹으로 묶어 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 시노그램은 2차원 그래프로 표현되기 때문에 시노그램의 특징값으로는, 2차원 그래프의 유사도를 결정할 수 있는 다양한 특징값들이 사용될 수 있다. The classifier 220 may calculate a characteristic value of the sinogram in order to determine a degree to which each sinogram is similar based on the characteristics of the sinogram of each unit signal. For example, the classifier 220 may calculate a feature value of a sinogram of each unit signal, classify unit signals having similar feature values of the sinogram into a group, and classify the unit signals into a plurality of groups. Since the sinogram is represented by a 2D graph, various feature values for determining the similarity of the 2D graph may be used as the feature value of the sinogram.

특징 값으로 분류부(220)는 각 단위신호의 시노그램의 관련성을 나타내는 코릴레이션을 사용할 수 있다. 이에 따라 분류부(220)는 산출된 단위신호들 간의 코릴레이션 값이 작은, 즉 관련성이 높은 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 또 다른 예를 들면, 분류부(220)는 각 단위신호의 시노그램에 특정 2차원 필터를 적용한 결과를 특징값으로 산출하고, 특징값이 유사한 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 이러한 필터의 예로는 가버 필터(Gabor filter) 등이 사용될 수 있다. 그 외에도 다양한 2차원 필터가 적용될 수 있다.As the feature value, the classifying unit 220 may use a correlation indicating the correlation of the sinogram of each unit signal. Accordingly, the classifying unit 220 may classify the unit signals into a plurality of groups by grouping unit signals having a small correlation value between the calculated unit signals, that is, highly related units, into the same group. As another example, the classifying unit 220 calculates a result of applying a specific two-dimensional filter to a sinogram of each unit signal as a feature value, groupes unit signals having similar feature values into the same group, and collects a plurality of unit signals. Can be divided into groups. An example of such a filter may be a Gabor filter or the like. In addition, various two-dimensional filters may be applied.

또 다른 예를 들면, 분류부(220)는 시노그램의 2차원 기울기를 나타내는 2차원 미분영상인 그라디언트(gradient)를 생성하고, 그라디언트의 특징값을 산출하고, 그라디언트의 특징값이 유사한 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 그 외에도 영상의 특징값을 산출하는 다양한 방법들이 적용될 수 있다. As another example, the classifying unit 220 generates a gradient, which is a two-dimensional differential image representing a two-dimensional gradient of a sinogram, calculates a feature value of the gradient, and unit signals having a similar feature value of the gradient. The unit signals may be grouped into the same group to classify the unit signals into a plurality of groups. In addition, various methods of calculating feature values of an image may be applied.

위와 같이 산출된 특징값이 유사한 단위신호들끼리 분류하는 방법으로는 시노그램 특징값의 차이가 소정의 임계값 이하인 단위신호들을 동일한 그룹으로 묶어 단위신호들을 복수 개의 그룹으로 분류하는 방법을 사용할 수도 있고, 또는 그 외의 다양한 데이터 군집화 알고리즘을 사용할 수 있을 것이다.As a method of classifying unit signals having similar feature values calculated as described above, a unit signal may be classified into a plurality of groups by grouping unit signals having a difference in sinogram feature value equal to or less than a predetermined threshold value into the same group. Various data clustering algorithms may be used.

예를 들어, 주어진 데이터를 k개의 그룹으로 빠르게 효과적으로 군집화할 수 있는 k-평균 군집화 알고리즘을 사용할 수 있다. 부연하여 설명하면, 분류부(220)는 각 단위신호의 시노그램의 특징값을 산출하고, k-평균 군집화(k-means clustering) 알고리즘에 의해 단위신호들을 군집화함으로써 복수 개의 그룹으로 분류할 수 있다.For example, a k-means clustering algorithm can be used that can quickly and effectively cluster given data into k groups. In detail, the classifying unit 220 may classify the unit signals into a plurality of groups by calculating the characteristic values of the sinogram of each unit signal and clustering the unit signals by a k-means clustering algorithm. .

이 외에 가우시안 믹스쳐 모델(Gaussian mixture model) 분석 방법, PCA(Principal Components Analysis) 분류 방법, LDA(linear discriminant classification) 분류 방법 등의 다양한 분류 알고리즘이 사용될 수 있다. In addition, various classification algorithms such as Gaussian mixture model analysis, Principal Components Analysis (PCA) classification method, and linear discriminant classification (LDA) classification method may be used.

또는, 분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 단위신호를 분류하기 위해 GVF(gradient vector flow) SNAKE 알고리즘을 활용할 수 있다. SNAKE 알고리즘은 영상에서의 엣지를 검출하는 알고리즘이며, GVF SNAKE 알고리즘은 일종의 SNAKE 알고리즘으로, 영상 내에서의 엣지의 기울기 벡터의 분포로부터 엣지를 검출하는 알고리즘으로, 일종의 SNAKE 알고리즘이다. GVF SNAKE 알고리즘을 이용하여 검출된 엣지로부터 영상의 특성이 추출될 수 있다. 이러한 GVF SNAKE 알고리즘을 2차원 그래프인 시노그램에 적용하면, 분류부(220)는 GVF SNAKE 알고리즘을 이용하여 생성된 각 단위신호의 시노그램의 특성에 기초하여 단위신호를 분류할 수 있다. GVF SNAKE 알고리즘은 낮은 신호대잡음비의 시노그램에서도 좋은 처리 성능을 가지며, 사인함수 모양의 시노그램에 적용하기에 적절하다. Alternatively, the classifier 220 may use a gradient vector flow (GVF) SNAKE algorithm to classify the unit signals based on the characteristics of the sinogram of each unit signal. The SNAKE algorithm is an algorithm for detecting edges in an image, and the GVF SNAKE algorithm is a kind of SNAKE algorithm. An SNAKE algorithm is an algorithm for detecting an edge from a distribution of the slope vector of the edge in the image. The characteristic of the image may be extracted from the detected edge using the GVF SNAKE algorithm. When the GVF SNAKE algorithm is applied to a sinogram that is a two-dimensional graph, the classification unit 220 may classify the unit signal based on the characteristics of the sinogram of each unit signal generated using the GVF SNAKE algorithm. The GVF SNAKE algorithm has good processing performance even at low signal-to-noise ratio sinograms and is suitable for application to sinusoidal sinograms.

도 6은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 다른 예를 나타낸 것이다. 도 6을 참조하면, 분류부(220)는 특징값의 최저값과 최고값을 획득하고, 최저값과 최고값 사이를 M개의 구간으로 나누어, 각 구간에 해당하는 특징값을 갖는 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 총 M개의 그룹으로 분류할 수 있다. 6 shows another example of classifying a unit signal into a plurality of groups according to the feature value of the unit signal. Referring to FIG. 6, the classifier 220 obtains a minimum value and a maximum value of a feature value, divides the minimum value and the maximum value into M sections, and outputs the same group of unit signals having a feature value corresponding to each section. Unit signals may be classified into a total of M groups.

도 7은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 또 다른 예를 나타낸 것이다. 도 7을 참조하면, 분류부(220)는 특징값의 크기 순서에 따라 각 단위신호를 나열하고, 나열된 순서대로 N/M개의 단위신호를 하나의 그룹으로 묶어, 단위신호들을 총 M개의 그룹으로 분류할 수 있다.FIG. 7 illustrates another example of classifying a unit signal into a plurality of groups according to feature values of the unit signal. Referring to FIG. 7, the classifying unit 220 lists each unit signal in the order of the magnitude of the feature values, bundles the N / M unit signals into one group in the listed order, and unites the unit signals into a total of M groups. Can be classified.

다시 도 2로 돌아오면, 도 2의 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들로부터 그룹들 각각에 대한 추적자의 움직임 정보를 추정한다. 예를 들어, 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들 중 기준이 되는 하나의 그룹이 나타내는 추적자의 위치로부터, 각 그룹이 나타내는 추적자의 위치로의 추적자의 움직임 정보를 추정한다. 이러한 움직임 정보는, 대상체의 움직임에 동반되는 추적자의 위치 변화에 대한 정보를 반영할 수 있다. 예를 들어 대상체의 움직임에 의해 각 그룹이 나타내는 추적자의 위치가 다른 경우, 각 그룹의 움직임 정보는 그룹 #1이 나타내는 추적자의 위치를 기준(reference)으로, 추적자의 위치가 이동한 거리와 방향을 의미하는 것으로써 사용될 수 있다. 이러한 움직임 추정은 외부장치 (예. 모션센서)등의 도움 없이 그룹으로 분류된 단위신호들의 분석만으로 계산될 수 있다. 이에 따라, 움직임 추정부(230)는 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 움직임 정보를 추정할 수 있다.2, the motion estimator 230 of FIG. 2 estimates tracker motion information for each of the groups from the groups generated by the classifier 220. For example, the motion estimator 230 may track the motion of the tracker from the position of the tracker indicated by one group, which is a reference among the groups generated by the classification unit 220, to the position of the tracker indicated by each group. Estimate Such motion information may reflect information about a change in the position of the tracker accompanying the movement of the object. For example, if the position of the tracker indicated by each group is different according to the movement of the object, the motion information of each group is based on the position of the tracker indicated by group # 1, and indicates the distance and direction the tracker's position is moved. Can be used as meaning. Such motion estimation can be calculated only by analyzing unit signals classified into groups without the help of external devices (eg, motion sensors). Accordingly, the motion estimator 230 may estimate motion information according to a result of comparing unit signals allocated to one group as a reference and unit signals allocated to each group.

각 그룹이 나타내는 추적자의 위치는 시노그램으로부터 알 수 있으며, 이에 따라 움직임 추정부(230)는 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추적자의 위치 변화를 추정하고, 이로부터 움직임 정보를 추정할 수 있다. The position of the tracker indicated by each group can be known from the sinogram, and accordingly, the motion estimator 230 accumulates the sinogram that accumulates unit signals assigned to one group as a reference and unit signals assigned to each group. According to the result of comparing the accumulated sinograms, the change of the position of the tracker may be estimated, and motion information may be estimated therefrom.

움직임 추정부(230)는 M개의 그룹들 중 그룹 #1을 기준(reference)으로 정하고, 그룹 #1로부터 각 그룹으로의 움직임 정보를 추정할 수 있다. 이와 같이 영상 내에서의 대상체의 움직임 정보를 추정하는 방법으로는 좌표 내에서 물체 또는 센서의 이동벡터 분포를 추정하는 옵티컬 플로우(Optical Flow), 또는 영상의 엣지(윤곽)를 검출하는 스네이크 알고리즘(SNAKE algorithm) 등의 기술이 사용될 수 있으며, 그 외에도 영상 내에서의 움직임 정보를 추정(motion estimation)하기 위한 다양한 방법들이 적용될 수 있다.The motion estimator 230 may determine group # 1 of the M groups as a reference and estimate motion information from the group # 1 to each group. As such a method of estimating motion information of an object in an image, an optical flow for estimating a distribution of a motion vector of an object or a sensor in coordinates, or a snake algorithm for detecting an edge of the image (SNAKE) A technique such as an algorithm) can be used, and various methods for motion estimation in motion can be applied.

도 2의 우측을 참고하면, 움직임 정보 #2는 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #2가 나타내는 추적자의 위치로의 변화를 의미하며, 도면에 도시되지는 않았으나 그룹 #3에 대응되는 움직임 정보 #3은 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #3이 나타내는 추적자의 위치로의 변화를 의미한다. 마찬가지로 움직임 정보 #M은 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #M이 나타내는 추적자의 위치로의 변화를 의미한다.Referring to the right side of FIG. 2, the motion information # 2 means a change from the position of the tracker indicated by the group # 1, which is a reference, to the position of the tracker indicated by the group # 2, and although not shown in the drawing, The corresponding motion information # 3 means a change from the tracker's position indicated by the group # 1 to the tracker's position indicated by the group # 3. Similarly, the motion information #M means a change from the tracker's position indicated by the group # 1 to the tracker's position indicated by the group #M.

이하에서는 추적자의 움직임 정보를 3차원 공간 상에서 추정하는 방법의 예를 설명한다.Hereinafter, an example of a method of estimating the motion information of the tracker in three-dimensional space will be described.

스캐너(31) 내의 검출공간이 3차원인 경우, 2차원 평면(x-y 평면)상에서 신호를 획득하는 단계를 z축(스캐너가 원통형인 경우 스캐너의 축 방향)상의 서로 다른 z값에 대하여 실시함에 따라, 추적자의 위치를 3차원 공간에 나타낼 수 있다. 이를 위하여 신호 검출부(10)는 2차원 평면(x-y평면) 상에서 신호를 획득하는 단계를 z축 방향으로 이동하면서 서로 다른 z값에 대하여 반복 실시할 수도 있을 것이고, 또는 신호 검출부(10)는 서로 다른 z값에 대하여 2차원 평면(x-y평면)상의 신호를 동시에 획득할 수도 있을 것이다.When the detection space in the scanner 31 is three-dimensional, the step of acquiring a signal on a two-dimensional plane (xy plane) is performed with respect to different z values on the z-axis (in the axial direction of the scanner when the scanner is cylindrical). The position of the tracker can be represented in three-dimensional space. To this end, the signal detector 10 may repeat the step of acquiring a signal on a two-dimensional plane (xy plane) with respect to different z values while moving in the z-axis direction, or the signal detector 10 may be different from each other. A signal on a two-dimensional plane (xy plane) may be simultaneously acquired for the z value.

이에 따르면, 단위신호 생성부(210)는 위와 같이 획득된 신호를 누적하여 N개의 단위신호를 생성하고, 분류부(220)는 각 단위신호가 나타내는 3차원 공간상에서의 추적자의 위치가 동일 또는 유사한 단위신호들을 같은 그룹으로 묶어, N개의 단위신호들을 M개의 그룹으로 분류할 수 있다. 움직임 추정부(230)는 각 그룹들로부터, 그룹들 각각에 대한 추적자의 3차원 상의 움직임 정보를 추정할 수 있다.According to this, the unit signal generator 210 accumulates the signals obtained as described above, and generates N unit signals, and the classifier 220 generates the same or similar trackers in the three-dimensional space represented by the unit signals. The unit signals may be grouped into the same group, and the N unit signals may be classified into the M groups. The motion estimator 230 may estimate motion information of the tracker for each of the groups from each of the groups.

예를 들어, 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들 중 기준이 되는 하나의 그룹이 나타내는 추적자의 3차원 위치로부터, 나머지 그룹들 각각이 나타내는 추적자의 3차원 위치로의 추적자의 3차원 상의 움직임 정보를 추정할 수 있다.For example, the motion estimator 230 is a three-dimensional position of the tracker represented by each of the remaining groups from the tracker's three-dimensional position represented by one of the groups generated by the classifier 220 as a reference It is possible to estimate the motion information of the tracker on the road in three dimensions.

그룹 #1을 기준으로, 그룹 #1이 나타내는 추적자의 3차원 위치로부터 그룹 #2가 나타내는 추적자의 3차원 위치로의 변화를 의미하는 움직임 정보 #2를 추정하는 방법의 예를 들면, 움직임 추정부(230)는 추적자의 3차원 상 움직임 중, z축 방향에 해당하는 움직임을 먼저 추정한 후, x-y평면(또는 z평면) 방향에 해당하는 움직임을 추정할 수 있다. 각 그룹의 움직임 정보는 3차원 벡터로 표현될 수 있을 것이다.As an example of a method of estimating motion information # 2, which means a change from the tracker's three-dimensional position indicated by group # 1 to the tracker's three-dimensional position indicated by group # 2, based on the group # 1, the motion estimation unit In operation 230, the motion corresponding to the z-axis direction of the tracker's three-dimensional motion may be estimated first, and then the motion corresponding to the xy plane (or z plane) direction may be estimated. The motion information of each group may be represented by a three-dimensional vector.

예를 들어, 기준이 되는 그룹 #1에서의 z축의 값이 상수 k인 평면과, 그룹 #2에서의 z축의 값이 상수 k+a (a>0)인 평면에서의 추적자의 위치가 동일한 경우 움직임 추정부(230)는 움직임 정보 #2를 추정함에 있어서, 추적자가 z축 상에서 양의 방향으로 움직였음을 알 수 있다. 이와 같은 방법으로, 움직임 추정부(230)는 움직임 정보 #2의 z축 방향 움직임 벡터의 방향을 결정하고, a의 크기로부터 z축 방향 움직임 벡터의 크기를 결정함으로써, 움직임 정보 #2의 z축 방향 움직임 정보를 추정할 수 있다. 그러나 이는 z축 방향의 움직임 정보 #2를 추정하는 하나의 예시일 뿐이며 이에 한정되는 것은 아니다.For example, if the position of the tracer is the same in the plane whose z-axis value is constant k in the reference group # 1 and the plane whose z-axis value in the group # 2 is constant k + a (a> 0) In estimating the motion information # 2, the motion estimator 230 may recognize that the tracker has moved in the positive direction on the z-axis. In this way, the motion estimation unit 230 determines the direction of the z-axis motion vector of the motion information # 2, and determines the magnitude of the z-axis motion vector from the size of a, thereby determining the z-axis of the motion information # 2. Directional motion information can be estimated. However, this is only one example of estimating motion information # 2 in the z-axis direction, but is not limited thereto.

움직임 정보 #2의 Z축 방향 움직임 정보가 추정되면, 움직임 추정부(230)는 움직임 정보 #2의 z평면 상의 움직임 정보를 추정할 수 있다. 이를 위하여 움직임 추정부(230)는 대표가 되는 어느 하나의 z평면 상에서의 추적자의 움직임 정보를 추정함으로써 이를 추적자의 x-y방향 움직임으로 추정할 수 있다. 또는, 움직임 추정부(230)는 복수 개의 z평면 상에서의 추적자의 움직임 정보를 추정하고, 이로부터 추적자의 x-y방향 움직임 정보를 추정할 수도 있다. When the Z-axis motion information of the motion information # 2 is estimated, the motion estimator 230 may estimate motion information on the z plane of the motion information # 2. To this end, the motion estimator 230 estimates the tracker's motion information on any one z plane as a representative and estimates the tracker's motion in the x-y direction. Alternatively, the motion estimator 230 may estimate motion information of the tracker on the plurality of z planes, and may estimate motion information of the tracker in x-y direction.

움직임 추정부(230)가 스캐너(31)의 검출 공간 상에서의 복수 개의 z평면들 각각에 대하여 x-y방향의 추적자의 움직임 정보를 추정하는 경우의 예를 들면 다음과 같다. z=1에 해당하는 z평면을 제1 평면이라 하면, 움직임 정보 #2를 추정하는 경우 움직임 추정부(230)는 기준이 되는 그룹 #1의 제1 평면이 나타내는 추적자의 위치로부터 그룹 #2의 제1 평면이 나타내는 추적자의 위치로의 변화를 추정함으로써 그룹 #1로부터 그룹 #2로의 제1 평면 상의 추적자의 움직임 정보를 추정할 수 있다. For example, the motion estimation unit 230 estimates the motion information of the tracker in the x-y direction with respect to each of the plurality of z planes in the detection space of the scanner 31. When the z plane corresponding to z = 1 is the first plane, when estimating the motion information # 2, the motion estimation unit 230 determines the group # 2 from the position of the tracker indicated by the first plane of the group # 1 as the reference. By estimating the change in the tracker's position indicated by the first plane, the motion information of the tracker on the first plane from the group # 1 to the group # 2 can be estimated.

유사한 방법으로 z=2에 해당하는 제2 평면 상에서의 추적자의 움직임 정보를 추정할 수 있다. 이러한 방법을 각각의 z평면에 대하여 반복 실시함에 따라 움직임 추정부(230)는 복수개의 z평면 상에서의 추적자의 움직임 정보를 각각의 z평면에 대하여 추정할 수 있다. 이에 따라, 움직임 추정부(230)는 복수 개의 z평면 상에서의 추적자의 움직임 정보로부터 움직임 정보 #2의 x-y방향 움직임 정보를 추정할 수 있다.Similarly, the motion information of the tracker on the second plane corresponding to z = 2 may be estimated. As the method is repeated for each z plane, the motion estimator 230 may estimate motion information of the tracker on the plurality of z planes for each z plane. Accordingly, the motion estimator 230 may estimate motion information of the motion information # 2 in the x-y direction from the motion information of the tracker on the plurality of z planes.

움직임 추정부(230)는 추정된 추적자의 x-y방향 움직임 정보와, 전술한 방법에 따라 추정된 추적자의 z축 방향의 움직임 정보를 결합하여, 추적자의 움직임 정보 #2를 생성할 수 있다. 이와 같은 방법을 각각의 그룹에 대하여 실시함에 따라 움직임 추정부(230)는 M개의 그룹에 대하여 움직임 정보 #2 내지 움직임 정보 #M을 생성할 수 있다.The motion estimation unit 230 may generate the tracker's motion information # 2 by combining the estimated tracker's x-y direction motion information with the tracker's estimated z-axis direction information according to the above-described method. As the method is performed for each group, the motion estimator 230 may generate motion information # 2 to motion information #M for M groups.

움직임 추정부(230)가 2차원 평면 상에서의 움직임 정보를 추정하는 방법의 예로는, 전술한 바와 같이 좌표 내에서 물체 또는 센서의 이동벡터 분포를 추정하는 옵티컬 플로우(Optical Flow), 또는 영상의 엣지를 검출하는 스네이크 알고리즘(SNAKE algorithm) 등의 기술이 사용될 수 있으며, 그 외에도 영상 내에서의 움직임 정보를 추정(motion estimation)하기 위한 다양한 방법들이 적용될 수 있다.An example of a method of estimating the motion information on the two-dimensional plane by the motion estimator 230 is an optical flow for estimating a distribution of a motion vector of an object or a sensor in coordinates as described above, or an edge of an image. Techniques such as a Snake algorithm for detecting the signal may be used, and various methods for motion estimation in the image may be applied.

움직임 추정부(230)는 2차원 평면 상에서의 움직임 정보를 추정하기 위하여 각 평면에 대한 시노그램의 히스토그램 분포를 이용할 수도 있다. 예를 들어, 움직임 추정부(230)는 움직임 정보 #2의 x-y평면 상의 움직임 정보를 추정하기 위하여 그룹 #1의 제1 평면에 대한 2차원 시노그램과 그룹 #2의 제1 평면에 대한 2차원 시노그램 각각을 히스토그램 분포로 표현할 수 있다. 히스토그램 분포는 시노그램의 특성을 나타내는 방법의 예이므로, 움직임 추정부(230)가 z축 방향의 움직임 정보를 추정하는 데에도 적용될 수 있으며, 그 뿐 아니라 분류부(220) 역시 단위신호의 시노그램의 히스토그램 분포를 이용하여 히스토그램 분포가 유사한 단위신호들끼리 분류할 수 있을 것이다. 2차원 영상 또는 2차원 그래프를 히스토그램 분포로 표현하는 방법은 본 실시예가 속하는 분야에서 통상의 지식을 가진 자라면 알 수 있다 . The motion estimator 230 may use the histogram distribution of the sinogram for each plane to estimate the motion information on the 2D plane. For example, the motion estimator 230 estimates the motion information on the xy plane of the motion information # 2 and the two-dimensional sinogram for the first plane of the group # 1 and the two-dimensional plane for the first plane of the group # 2. Each sinogram can be represented by a histogram distribution. Since the histogram distribution is an example of a method of representing the characteristics of the sinogram, the motion estimator 230 may be applied to estimating the motion information in the z-axis direction. In addition, the classifier 220 may also use the sinogram of the unit signal. By using the histogram distribution of, unit signals having similar histogram distribution may be classified. A method of representing a two-dimensional image or a two-dimensional graph as a histogram distribution can be understood by those skilled in the art.

위와 같이, 움직임 추정부(230)는 시노그램의 히스토그램 분포를 이용해 각 그룹의 z축방향 움직임 정보를 먼저 추정하고, 그 후 xy평면상 움직임 정보를 추정할 수 있다. As described above, the motion estimation unit 230 may first estimate the z-axis motion information of each group by using the histogram distribution of the sinogram, and then estimate the motion information on the xy plane.

영상 생성부(240)는 분류부(220)에 의해 복수 개의 그룹으로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성할 수 있다. 예를 들어, 영상 생성부(240)는 움직임 추정부(230)에 의해 추정된 각 그룹의 움직임 정보에 기초하여 그룹들에 포함된 단위신호들을 정렬함으로써 단위신호들로부터 대상체에 대한 의료 영상을 생성할 수 있다.The image generator 240 may generate a medical image of the object from the unit signals classified into a plurality of groups by the classifier 220. For example, the image generator 240 generates a medical image of the object from the unit signals by aligning the unit signals included in the groups based on the motion information of each group estimated by the motion estimator 230. can do.

예를 들어, 영상 생성부(240)는 분류부(220)에 의해 생성된 M개의 그룹들 각각에 대하여 움직임 추정부(230)에서 추정된 움직임 정보에 기초하여, 각 그룹들로부터 정지 영상을 생성한다. 이를 위하여, 영상 생성부(240)는 각 그룹에 대하여 각 그룹의 움직임 정보를 포함하는 변환 인자를 생성할 수 있고, 그러한 변환 인자는 영상 생성 과정에서 변수로써 사용될 수 있다. 이와 같은 각 그룹의 변환인자를 도 2의 영상 생성부(240)의 우측에 나타내었다. For example, the image generator 240 generates a still image from each group based on the motion information estimated by the motion estimator 230 for each of the M groups generated by the classifier 220. do. To this end, the image generator 240 may generate a conversion factor including motion information of each group for each group, and the conversion factor may be used as a variable in the image generation process. Such conversion factors of each group are shown on the right side of the image generator 240 of FIG. 2.

영상 생성부(240)는 움직임 정보를 반영하여 반복적 복원 (iterative reconstruction)을 수행하는 방법으로 영상을 생성할 수 있다. 예를 들어, 영상 생성 알고리즘의 변수로써 각 그룹의 움직임 정보를 포함하는 변환 인자를 사용하여, 각 그룹에서의 추적자의 위치가, 기준이 되는 그룹#1에서의 추적자에 위치와 일치되도록 각 그룹의 단위신호들을 정렬함에 따라 최종적으로 모든 단위신호들을 변환하여 정지 영상을 생성할 수 있다. The image generator 240 may generate an image by performing an iterative reconstruction by reflecting the motion information. For example, using a conversion factor including motion information of each group as a variable of the image generation algorithm, the position of the tracker in each group is matched to the position of the tracker in group # 1, which is the reference. As the unit signals are aligned, all unit signals may be finally converted to generate a still image.

반복적 복원이란, 전달 함수를 알고 있고 출력 신호를 알고 있을 때, 입력 신호를 추정하는 알고리즘의 예이다. 즉, 입력신호의 초기값을 소정의 값으로 설정한 후, 입력 신호에 전달 함수를 적용하여 출력되는 출력 신호가 원하는 출력 신호가 될 때까지, 입력 신호를 변경하면서 반복적으로 연산을 수행하는 방법이다. Iterative reconstruction is an example of an algorithm that estimates the input signal when the transfer function is known and the output signal is known. That is, after the initial value of the input signal is set to a predetermined value, a transfer function is applied to the input signal, and the operation is repeatedly performed while changing the input signal until the output signal becomes a desired output signal. .

양전자 방출 단층 촬영의 경우의 예를 들면, 신호 검출부(10)로부터 획득한 LOR 신호가 입력 신호일 수 있고, 이로부터 생성되는 영상이 출력 신호일 수 있다. 이에 따라, LOR 신호로부터 영상을 재구성(reconstruction)하는 시스템 행렬이 변환 인자가 될 수 있다. 영상 생성부(240)는 서로 다른 추적자의 위치를 나타내는 복수 개의 그룹 신호로부터 동시에 하나의 정지영상을 재구성하기 위하여, 각 그룹마다 변환 인자를 가질 수 있다. 이 때, 영상 생성부(240)는 각 그룹의 변환인자에 각 그룹의 움직임 정보를 반영함으로써, 영상을 재구성하는 과정에서 각 그룹이 나타내는 추적자의 위치가 정렬되게 하고, 이로써 최종적으로 정지 영상을 생성할 수 있다.For example, in the case of positron emission tomography, an LOR signal obtained from the signal detector 10 may be an input signal, and an image generated therefrom may be an output signal. Accordingly, a system matrix for reconstructing an image from the LOR signal may be a conversion factor. The image generator 240 may have a conversion factor for each group in order to reconstruct one still image simultaneously from a plurality of group signals representing positions of different trackers. At this time, the image generating unit 240 reflects the motion information of each group to the conversion factors of each group, so that the position of the tracker represented by each group is aligned in the process of reconstructing the image, thereby finally generating a still image. can do.

예를 들어 움직임 추정부(230)에 의해 그룹 #1이 기준 그룹으로 설정된 경우에는, 영상 생성부(240)는 그룹 #2로 분류된 단위신호들을 영상으로 재구성변환할 때, 변환인자 #2를 영상 생성 알고리즘의 변수로 사용할 수 있고, 마찬가지로 그룹 #M으로 분류된 단위신호들을 대상체에 대한 영상으로 변환재구성할 때, 변환인자 #M을 영상 생성 알고리즘의 변수로 사용할 수 있다. 각 변환인자는 각 그룹의 움직임 정보를 포함하고 있기에, 영상 생성부(240)는 M개의 그룹에 포함된 모든 단위신호들로부터 동잡음이 없는 정지영상을 생성할 수 있다.For example, when the group # 1 is set as the reference group by the motion estimation unit 230, the image generator 240 converts the transform factor # 2 when reconstructing the unit signals classified into the group # 2 into an image. It can be used as a variable of an image generating algorithm, and when transforming and reconstructing unit signals classified into group #M into an image for an object, the transform factor #M can be used as a variable of the image generating algorithm. Since each transform factor includes motion information of each group, the image generator 240 may generate a still image having no noise from all unit signals included in the M groups.

도 8은 일 실시예에 따른 영상 보정 방법의 흐름도이다. 도 8에 도시된 바와 같이 영상 보정 장치는 대상체에 주입된 추적자로부터 방출되는 신호를 검출(81)하고, 검출된 신호로부터 단위신호를 생성(82)하고, 단위신호들을 복수 개의 그룹으로 분류(83)하고, 각 그룹의 움직임 정보를 추정(84)하고, 그룹을 정렬하여함으로써 영상을 생성(85)한다.8 is a flowchart of an image correction method, according to an exemplary embodiment. As illustrated in FIG. 8, the image correction apparatus detects a signal emitted from a tracer injected into an object (81), generates a unit signal from the detected signal (82), and classifies the unit signals into a plurality of groups (83). The motion information of each group is estimated (84) and the groups are aligned to generate an image (85).

81단계에서 신호 검출 장치신호 검출부(10)는 대상체에 주입된 추적자로부터 방출되는 감마선을 검출하여 LOR 형태의 데이터로 컴퓨터(20)의 단위신호 생성부(210)에 전송한다. 82 단계에서 단위신호 생성부(210)는 신호 검출 장치신호 검출부(10)에 의해 검출된 신호를 획득하고, 획득한 신호를 소정 간격의 구간들로 나누고, 나누어진 구간들 각각에 대하여 구간 내의 신호를 누적하여 단위신호를 생성한다. 83 단계에서 분류부(220)는 단위신호 생성부(210)에 의해 생성된 단위신호들 각각의 특성에 기초하여 단위신호들을 복수 개의 그룹으로 분류한다. 84 단계에서 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들로부터 그룹들 각각에 대한 추적자의 움직임 정보를 외부장치 (예. 모션센서)의 도움없이 추정한다. 85 단계에서 영상 생성부(240)는 움직임 추정부(230)에 의해 추정된 각 그룹의 움직임 정보에 기초하여 그룹들을 정렬하여함으로써 대상체에 대한 의료 영상을 생성한다.In operation 81, the signal detecting apparatus signal detector 10 detects gamma rays emitted from the tracer injected into the object and transmits the gamma rays to the unit signal generator 210 of the computer 20 as LOR data. In operation 82, the unit signal generator 210 acquires a signal detected by the signal detection device signal detector 10, divides the acquired signal into intervals of a predetermined interval, and signals within the interval for each of the divided intervals. Is accumulated to generate a unit signal. In operation 83, the classifier 220 classifies the unit signals into a plurality of groups based on characteristics of each of the unit signals generated by the unit signal generator 210. In step 84, the motion estimator 230 estimates the tracker's motion information for each of the groups from the groups generated by the classifier 220 without the help of an external device (eg, a motion sensor). In operation 85, the image generator 240 generates a medical image of the object by arranging the groups based on the motion information of each group estimated by the motion estimator 230.

상기된 바와 같은 실시예들에 따르면, 움직임이 있는 대상체에 대하여 양전자 방출 단층 촬영을 통해 영상을 생성하는 방법에 있어서, 단위신호 자체의 특성에 기초하여 정확한 분류를 수행함으로써, 보다 높은 해상도의 정지 영상을 생성할 수 있다. 단위신호를 분류하기 위해서 종래에는 외부 장치를 이용하여 호흡주기 또는 심장박동 주기에 각 단위신호를 대응시켜서 위상 정보를 결정하고, 위상 정보에 따라 분류하는 방법이 사용되었다. 단위신호가 검출된 시간 정보를 움직임 주기와 동기화시킴에 따라 위상 정보가 쉽게 결정되지만, 호흡주기 또는 심장박동 주기가 대상체의 움직임 또는 대상체의 움직임에 따른 추적자의 움직임 주기와 정확히 일치하지 않기 때문에 오차가 생기는 단점이 있었다. According to the embodiments as described above, in the method for generating an image by positron emission tomography for a moving object, by performing an accurate classification based on the characteristics of the unit signal itself, a higher resolution still image Can be generated. In order to classify unit signals, conventionally, a method of determining phase information by mapping each unit signal to a respiratory cycle or a heartbeat cycle using an external device and classifying them according to the phase information has been used. Phase information is easily determined by synchronizing the time information from which the unit signal is detected with the movement period, but the error is not because the respiratory cycle or the heartbeat cycle does not exactly match the movement of the subject or the tracer movement according to the movement of the subject. There was a disadvantage.

그러나 상기된 실시예들에서는 추적자의 위치를 나타내는 단위신호의 특성에 기초하여 외부 장치에 의존하지 않고 단위신호들을 분류하기 때문에 위와 같이 외부 장치를 이용하는 경우의 단점이 극복된다. 그러하기에 보다 정확한 영상 정렬이 가능하고, 결과적으로 깨끗한 정지 영상을 생성할 수 있다. 또한 사용자는 단위신호를 분류함에 있어서, 그룹의 개수를 미리 설정하거나, 그 외의 조절 인자를 사용자 입력장치를 통하여 입력할 수 있으며, 이를 이용하여 영상의 품질과 컴퓨터에서의 연산 로드의 트레이드오프 관계에서 사용자가 원하는 품질의 영상을 생성하도록 할 수 있다. However, in the above-described embodiments, since the unit signals are classified without depending on the external device based on the characteristics of the unit signal indicating the position of the tracker, the disadvantage of using the external device as described above is overcome. Thus, more accurate image alignment is possible, resulting in a clear still image. In addition, in classifying the unit signal, the user may preset the number of groups or input other adjustment factors through the user input device, which may be used in a trade-off relationship between image quality and computational load on a computer. A user may generate an image of a desired quality.

한편, 도 8에 도시된 영상 생성 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
On the other hand, the image generating method shown in Figure 8 can be written as a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium. The computer readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, or the like).

10: 신호 검출부 20: 컴퓨터
30: 디스플레이 장치 40: 사용자 입력장치
210: 단위신호 생성부 220: 분류부
230: 움직임 추정부 240: 영상 생성부
10: signal detection unit 20: computer
30: display device 40: user input device
210: unit signal generation unit 220: classification unit
230: motion estimation unit 240: image generating unit

Claims (24)

대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 단계;
상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단계;
상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 단계; 및
상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 단계를 포함하는 의료 영상 생성 방법.
Detecting signals emitted from the tracer injected into the subject;
Dividing the detected signals into sections of a predetermined interval, and accumulating signals in the sections for each of the sections to generate a unit signal for each section;
Classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals; And
And generating a medical image of the object from unit signals classified into the groups.
제 1 항에 있어서,
상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 단계를 더 포함하고,
상기 분류하는 단계는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
The method of claim 1,
Generating a two-dimensional sinogram for each section by using the unit signals;
The classifying may include classifying the sinograms into a plurality of groups based on characteristics of each of the sinograms.
제 2 항에 있어서,
상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성인 의료 영상 생성 방법.
3. The method of claim 2,
Wherein the characteristic is a characteristic of a gradient representing a two-dimensional gradient of the sinogram.
제 1 항에 있어서,
상기 분류하는 단계는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
The method of claim 1,
The classifying may include calculating a feature value representing a characteristic of each unit signal, and classifying the unit signals into a plurality of groups based on the calculated feature values.
제 4 항에 있어서,
상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출되는 의료 영상 생성 방법.
5. The method of claim 4,
And the feature value is calculated from a correlation value representing a similarity between the unit signals.
제 4 항에 있어서,
상기 분류하는 단계는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 할당하는 단계를 더 포함하고,
상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류하는 의료 영상 생성 방법.
5. The method of claim 4,
The classifying may further include determining a highest value and a lowest value among the feature values, and allocating a group to each interval by dividing the maximum value and the minimum value into a predetermined number of intervals.
And classifying the unit signals into groups allocated to the section including the feature values of the unit signals.
제 4 항에 있어서,
상기 분류하는 단계는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단계를 더 포함하고,
나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
5. The method of claim 4,
The classifying may further include arranging the unit signals according to a result of comparing the feature values.
The medical image generating method of classifying the unit signals into a plurality of groups based on the listed order.
제 1 항에 있어서,
상기 분류하는 단계는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류하는 의료 영상 생성 방법.
The method of claim 1,
The classification may be performed using a k-means clustering algorithm.
제 1 항에 있어서,
상기 생성하는 단계는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 방법.
The method of claim 1,
The generating may include generating an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups coincides with each other.
제 9항에 있어서
상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 단계를 더 포함하고,
상기 생성하는 단계는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 방법.
The method of claim 9, wherein
Estimating movement information of the tracker from the position of the tracker represented by one of the groups as a reference, to the position of the tracker represented by each group;
The generating may include generating an image of the object from the unit signals by aligning the unit signals based on the motion information.
제10 항에 있어서,
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정되는 의료 영상 생성 방법.
The method of claim 10,
And the motion information is estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.
제10 항에 있어서,
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정되는 의료 영상 생성 방법.
The method of claim 10,
The motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group.
대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 신호 검출부;
상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단위신호 생성부;
상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 분류부; 및
상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 영상 생성부를 포함하는 의료 영상 생성 장치.
A signal detector detecting signals emitted from a tracker injected into the object;
A unit signal generator for dividing the detected signals into sections of a predetermined interval and accumulating signals in the sections for each of the sections to generate a unit signal for each section;
A classification unit classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals; And
And an image generator configured to generate a medical image of the object from unit signals classified into the groups.
제 13 항에 있어서,
상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 시노그램 생성부를 더 포함하고,
상기 분류부는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
The method of claim 13,
Further comprising a sinogram generator for generating a two-dimensional sinogram (sinogram) for each section by using the unit signal,
The classification unit classifies the sinograms into a plurality of groups based on characteristics of each of the sinograms.
제 14 항에 있어서,
상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성인 의료 영상 생성 장치.
15. The method of claim 14,
Wherein the characteristic is a characteristic of a gradient representing a two-dimensional gradient of the sinogram.
제 13 항에 있어서,
상기 분류부는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
The method of claim 13,
The classification unit calculates a feature value representing a characteristic of each unit signal, and classifies the unit signals into a plurality of groups based on the calculated feature values.
제 16 항에 있어서,
상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출되는 의료 영상 생성 장치.
17. The method of claim 16,
And the feature value is calculated from a correlation value representing a similarity between the unit signals.
제 16 항에 있어서,
상기 분류부는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 설정하는 그룹 설정부를 더 포함하고,
상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류하는 의료 영상 생성 장치.
17. The method of claim 16,
The classification unit may further include a group setting unit configured to determine a maximum value and a minimum value among the feature values, and set a group for each period by dividing the maximum value and the minimum value into a predetermined number of sections.
And classifying each unit signal into a group allocated to a section including a feature value of each unit signal.
제 16 항에 있어서,
상기 분류부는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단위신호 나열부를 더 포함하고,
나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
17. The method of claim 16,
The classification unit further includes a unit signal arranging unit for arranging the unit signals according to a result of comparing the feature values.
The medical image generating apparatus classifies the unit signals into a plurality of groups based on the listed order.
제 13 항에 있어서,
상기 분류부는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류하는 의료 영상 생성 장치.
The method of claim 13,
The classification unit classifies the image using a k-means clustering algorithm.
제 13 항에 있어서,
상기 영상 생성부는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 장치.
The method of claim 13,
And the image generating unit generates an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups coincides with each other.
제 21 항에 있어서,
상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 움직임 추정부를 더 포함하고,
상기 영상 생성부는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 장치.
22. The method of claim 21,
And a motion estimator for estimating the motion information of the tracker from the position of the tracker represented by one of the groups as a reference, to the position of the tracker represented by each group,
And the image generator generates an image of the object from the unit signals by aligning the unit signals based on the motion information.
제22 항에 있어서,
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정되는 의료 영상 생성 장치.
23. The method of claim 22,
And the motion information is estimated based on a result of comparing unit signals assigned to one group as the reference and unit signals allocated to each group.
제22 항에 있어서,
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정되는 의료 영상 생성 장치.
23. The method of claim 22,
And the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group.
KR1020120115025A 2012-05-03 2012-10-16 Apparatus and method for generating positron emission tomography image KR20130124135A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2013101022215A CN103381095A (en) 2012-05-03 2013-03-27 Apparatus and method for generating image in positron emission tomography
US13/874,811 US20130294670A1 (en) 2012-05-03 2013-05-01 Apparatus and method for generating image in positron emission tomography
JP2013097070A JP2013234999A (en) 2012-05-03 2013-05-02 Medical video generation method for positron emission tomography and device therefor
EP20130166436 EP2660779A3 (en) 2012-05-03 2013-05-03 Apparatus and method for generating image in positron emission tomography

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120047128 2012-05-03
KR20120047128 2012-05-03

Publications (1)

Publication Number Publication Date
KR20130124135A true KR20130124135A (en) 2013-11-13

Family

ID=49853216

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120115025A KR20130124135A (en) 2012-05-03 2012-10-16 Apparatus and method for generating positron emission tomography image

Country Status (1)

Country Link
KR (1) KR20130124135A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000745A (en) * 2018-06-25 2020-01-03 서울대학교산학협력단 Medical practice data collection and management system and method
KR20200055425A (en) * 2018-11-13 2020-05-21 서강대학교산학협력단 Apparatus and method for ultra-fast acquiring positron emission tomographic image based on deep learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000745A (en) * 2018-06-25 2020-01-03 서울대학교산학협력단 Medical practice data collection and management system and method
KR20200055425A (en) * 2018-11-13 2020-05-21 서강대학교산학협력단 Apparatus and method for ultra-fast acquiring positron emission tomographic image based on deep learning

Similar Documents

Publication Publication Date Title
JP6440230B2 (en) Multi-modality imaging system and method
CN109009200B (en) System and method for positron emission tomography image reconstruction
US9269166B2 (en) Motion compensated imaging
CN1846618B (en) Method for mathematical compensation of a periodic movement of an organ and image shooting system
US8903152B2 (en) Methods and systems for enhanced tomographic imaging
CN107133549B (en) ECT motion gating signal acquisition method and ECT image reconstruction method
JP2009528139A (en) Local motion compensation based on list mode data
JP2013234999A (en) Medical video generation method for positron emission tomography and device therefor
CN103282941A (en) Method and apparatus to detect and correct motion in list-ode pet data with a gated signal
CN110536640B (en) Noise robust real-time extraction of respiratory motion signals from PET list data
US9196063B2 (en) Super-resolution apparatus and method
KR20130083205A (en) Apparatus and method of correcting positron emission tomography image
US9501819B2 (en) Super-resolution apparatus and method
KR20140062374A (en) Method for estimating motion information and apparatus for generating image using the same
KR20140042461A (en) Method and apparatus to correct motion
KR20140086627A (en) Method and apparatus for generating image
KR102616736B1 (en) Automated motion compensation in PET imaging
KR20130124135A (en) Apparatus and method for generating positron emission tomography image
KR102020531B1 (en) Method or Apparatus for generating a high-resolution PET(positron emission tomography) image using line gamma-ray source
Gigengack et al. Motion correction in thoracic positron emission tomography
CN114867414A (en) Apparatus, system, method and computer program for providing a nuclear image of a region of interest of a patient
Hugo Characterization of Center-of-Mass and Rebinning in Positron Emission Tomography with Motion
RU2779714C1 (en) Automated motion correction in pet imaging
WO2021105056A1 (en) Motion compensation of positron emission tomographic data
Wang Motion Correction Algorithm of Lung Tumors for Respiratory Gated PET Images

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination