KR20130124135A - Apparatus and method for generating positron emission tomography image - Google Patents
Apparatus and method for generating positron emission tomography image Download PDFInfo
- Publication number
- KR20130124135A KR20130124135A KR1020120115025A KR20120115025A KR20130124135A KR 20130124135 A KR20130124135 A KR 20130124135A KR 1020120115025 A KR1020120115025 A KR 1020120115025A KR 20120115025 A KR20120115025 A KR 20120115025A KR 20130124135 A KR20130124135 A KR 20130124135A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- signals
- group
- unit signals
- signal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000002600 positron emission tomography Methods 0.000 title abstract description 10
- 230000033001 locomotion Effects 0.000 claims abstract description 140
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 239000000700 radioactive tracer Substances 0.000 claims description 22
- 238000003064 k means clustering Methods 0.000 claims description 6
- 230000001105 regulatory effect Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 230000004060 metabolic process Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000270295 Serpentes Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010253 intravenous injection Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- ZCXUVYAZINUVJD-AHXZWLDOSA-N 2-deoxy-2-((18)F)fluoro-alpha-D-glucose Chemical compound OC[C@H]1O[C@H](O)[C@H]([18F])[C@@H](O)[C@@H]1O ZCXUVYAZINUVJD-AHXZWLDOSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 230000004153 glucose metabolism Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000006371 metabolic abnormality Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/412—Dynamic
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine (AREA)
Abstract
Description
양전자 방출 단층 촬영에서의 영상 생성 방법 및 장치에 관한 것이다.A method and apparatus for generating images in positron emission tomography.
환자를 진단하기 위해 인체 내부의 정보를 영상으로 획득하는 의료용 영상 기기는 질병 진단에 필요한 정보를 제공한다. 현재 병원에서 사용 또는 개발되고 있는 의료용 영상 촬영 방법은 크게 해부학적 영상과 생리학적 영상을 얻는 방법으로 나누어진다. 첫째로, 인체의 상세한 해부학적 영상을 높은 해상도로 제공하는 촬영기술의 예로는 MRI(Magnetic Resonance Imaging) 또는 CT(Computed Tomography)가 있다. 이들은 인체의 단면에 대한 2차원 영상, 또는 여러 장의 2차원 영상을 이용하여 3차원 영상을 높은 해상도로 생성하여 인체 내 장기들의 정확한 위치와 형태를 나타낸다. 둘째로, 생리학적 영상 촬영 기술의 예로는 인체 내의 신진 대사 과정을 촬영하여 대사의 이상 유무의 진단에 기여하는 양전자 방출 단층 촬영(PET, Positron emission tomography)가 대표적이다.Medical imaging devices that acquire images of the inside of the human body to diagnose patients provide information necessary for diagnosis of diseases. The medical imaging methods currently being used or developed in hospitals are largely divided into methods of obtaining anatomical images and physiological images. First, MRI (Magnetic Resonance Imaging) or CT (Computed Tomography) are examples of imaging techniques that provide detailed anatomical images of the human body at high resolution. These two-dimensional images of a human body, or a plurality of two-dimensional images using three-dimensional images with high resolution to produce the exact position and shape of the organs in the body. Second, examples of physiological imaging techniques include positron emission tomography (PET), which captures the metabolic processes in the body and contributes to the diagnosis of metabolic abnormalities.
양전자 방출 단층 촬영은 양전자를 방출하는 특수 방사성 추적자를 인체 대사에 참여하는 성분의 형태로 생성하고, 이 추적자를 정맥주사나 흡입의 방법으로 인체에 주입하고, 이 추적자에서 방출되는 양전자가 전자와 결합할 때 서로 반대 방향으로 방출되는 511keV의 두 개의 감마선을 외부 기기를 이용하여 검출함으로써 추적자의 위치를 추적하고, 이들의 분포 형태와 시간에 따른 분포 양상의 변화를 관찰하는 촬영 기술이다.Positron emission tomography (CT) produces a special radioactive tracer that emits a positron in the form of a component that participates in human metabolism. The tracer is injected into the human body by intravenous injection or inhalation, and the positron emitted by this tracer is combined with electrons , Which are emitted in the opposite direction to each other, are detected by using an external device to observe the position of the tracer and to observe the distribution pattern and the change of the distribution pattern with time.
일반적으로 대상체에 주입된 추적자로부터 방출된 감마선은 분산이나 감쇠 등의 영향으로 실제 방출된 양보다 훨씬 적은 양만이 신호 검출 장치에 도달하게 된다. 따라서 영상을 생성하기에 충분한 검출 양을 확보하기 위해서는 수 분 단위의 상대적으로 긴 검출 시간이 요구된다. 하지만 사람의 장기는 호흡, 심장박동 등에 의해 비교적 짧은 주기의 움직임을 수반하기 때문에, 수 분 단위의 영상 획득시간 동안 대상체를 촬영하게 되면 대상체의 움직임이 영상에 반영되어 흐릿하게 번진 채로 기록된다. 이렇게 촬영 장치와 피사체 간의 상대적인 움직임에 의해 발생하는 이미지의 흐림 혹은 번짐 현상을 동잡음이라고 한다. 이러한 동잡음은 양전자 방출 단층 촬영의 해상도를 저하시키는 주된 원인이 된다.
In general, the gamma rays emitted from the tracer injected into the object may reach the signal detection device in a much smaller amount than the amount actually emitted due to the influence of dispersion or attenuation. Therefore, a relatively long detection time of several minutes is required to secure a sufficient detection amount to generate an image. However, since human organs are accompanied by relatively short periods of movement due to breathing, heartbeat, etc., when the object is photographed for several minutes of image acquisition time, the movement of the object is reflected on the image and is blurred and recorded. The blurring or blurring of the image caused by the relative movement between the photographing apparatus and the subject is called dynamic noise. Such noise is a major cause of lowering the resolution of positron emission tomography.
양전자 방출 단층 촬영에 있어서, 검출된 데이터를 정확하게 분류하고 높은 해상도의 정지 영상을 생성하는 영상 생성 방법 및 장치를 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 실시예가 이루고자하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.In positron emission tomography, there is provided an image generating method and apparatus for accurately classifying detected data and generating still images of high resolution. The present invention also provides a computer-readable recording medium on which a program for causing the computer to execute the method is provided. The technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and further technical problems can be inferred from the following embodiments.
상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 영상 생성 방법은 대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 단계, 상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단계, 상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 단계 및 상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of generating an image, the method comprising: detecting signals emitted from a tracker injected into an object, dividing the detected signals into sections at predetermined intervals, Accumulating the signals in the section to generate a unit signal for each section, classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals, and from the unit signals classified into the groups. The method may include generating a medical image of the object.
본 발명의 다른 측면에 따른 영상 생성 방법은 상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 단계를 더 포함할 수 있고, 상기 분류하는 단계는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류할 수 있다. The image generating method according to another aspect of the present invention may further include generating a two-dimensional sinogram for each section by using each unit signal, and the classifying may include the sinograms. The sinograms may be classified into a plurality of groups based on respective characteristics.
본 발명의 또 다른 측면에 따라 상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성일 수 있다.According to another aspect of the present invention, the characteristic may be a characteristic of a gradient representing a two-dimensional gradient of the sinogram.
본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to yet another aspect of the present disclosure, the classifying may include calculating a feature value representing the characteristic of each unit signal, and classifying the unit signals into a plurality of groups based on the calculated feature value.
본 발명의 또 다른 측면에 따라 상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출될 수 있다.According to another aspect of the present invention, the feature value may be calculated from a correlation value representing the similarity between the respective unit signals.
본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 할당하는 단계를 더 포함할 수 있고, 상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classifying may include determining a maximum value and a minimum value among the feature values, and allocating a group to each interval by dividing the maximum value and the minimum value into a predetermined number of intervals. The unit signal may be further classified into a group allocated to a section including a feature value of each unit signal.
본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단계를 더 포함할 수 있고, 나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.The classifying according to another aspect of the present invention may further include arranging the unit signals according to a result of comparing the feature values, and classifying the unit signals into a plurality of groups based on the listed order. Can be classified.
본 발명의 또 다른 측면에 따라 상기 분류하는 단계는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류할 수 있다.According to another aspect of the present invention, the classifying may be classified using a k-means clustering algorithm.
본 발명의 또 다른 측면에 따라 상기 생성하는 단계는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to another aspect of the present invention, the generating may generate an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups is matched. .
본 발명의 또 다른 측면에 따른 영상 생성 방법은 상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 단계를 더 포함할 수 있고, 상기 생성하는 단계는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to still another aspect of the present invention, there is provided a method of generating an image, the method comprising: estimating motion information of the tracker from the position of the tracker indicated by one of the groups as a reference, to the position of the tracker indicated by each group; The generating may include generating the image of the object from the unit signals by aligning the unit signals based on the motion information.
본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information may be estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.
본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group. Can be.
본 발명의 또 다른 측면에 따라 상기된 영상 생성 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.According to still another aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing the above-described image generating method on a computer.
본 발명의 또 다른 측면에 따른 영상 생성 장치는 대상체에 주입된 추적자로부터 방출되는 신호들을 검출하는 신호 검출부, 상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단위신호 생성부, 상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 분류부 및 상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 영상 생성부를 포함할 수 있다. In accordance with another aspect of the present invention, an image generating apparatus includes a signal detector configured to detect signals emitted from a tracker injected into an object, dividing the detected signals into sections of a predetermined interval, and for each of the sections, a signal within the section. A unit signal generator for accumulating the signals and generating unit signals for each of the sections, a classifier for classifying the unit signals into a plurality of groups based on characteristics of the unit signals, and a unit signal classified into the groups. The image generating unit may generate a medical image of the object.
본 발명의 또 다른 측면에 따른 영상 생성 장치는 상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 시노그램 생성부를 더 포함할 수 있고, 상기 분류부는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류할 수 있다.The image generating apparatus according to another aspect of the present invention may further include a sinogram generator for generating a two-dimensional sinogram for each section by using the respective unit signals, and the classification unit may include the sinogram. The sinograms may be classified into a plurality of groups based on their respective characteristics.
본 발명의 또 다른 측면에 따라 상기 분류부는 상기 각 단위신호의 특성을 나타내는 특징값을 산출할 수 있고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classification unit may calculate a feature value representing the characteristic of each unit signal, and classify the unit signals into a plurality of groups based on the calculated feature value.
본 발명의 또 다른 측면에 따라 상기 분류부는 상기 특징값들 중 최고값과 최저값을 결정할 수 있고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 설정할 수 있다.According to another aspect of the present invention, the classification unit may determine the highest value and the lowest value of the feature values, and set a group for each period by dividing the maximum value and the minimum value into a predetermined number of sections.
본 발명의 또 다른 측면에 따라 상기 분류부는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단위신호 나열부를 더 포함할 수 있고, 나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류할 수 있다.According to another aspect of the present invention, the classifying unit may further include a unit signal arranging unit for arranging each unit signal according to a result of comparing the feature values, and the unit signals may be divided into a plurality of groups based on the listed order. Can be classified.
본 발명의 또 다른 측면에 따라 상기 분류부는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류할 수 있다.According to another aspect of the present invention, the classification unit may be classified using a k-means clustering algorithm.
본 발명의 또 다른 측면에 따라 상기 영상 생성부는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.According to another aspect of the present invention, the image generator may generate an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups is matched.
본 발명의 또 다른 측면에 따른 영상 생성 장치는 상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 움직임 추정부를 더 포함할 수 있고, 상기 영상 생성부는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성할 수 있다.An image generating apparatus according to another aspect of the present invention is a motion estimation for estimating the motion information of the tracker from the position of the tracker represented by one of the groups as a reference among the groups from the position of the tracker represented by each group The image generating unit may generate an image of the object from the unit signals by aligning the unit signals based on the motion information.
본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정될 수 있다.According to another aspect of the present invention, the motion information may be estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.
본 발명의 또 다른 측면에 따라 상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정될 수 있다.
According to another aspect of the present invention, the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group. Can be.
영상 정렬 방법을 이용하여 PET 의료 영상을 생성함에 있어서 외부 장치에 의존하지 않고 검출된 데이터를 분류한 후, 분류된 데이터를 정렬하여 영상을 생성함으로써, 데이터를 정확하게 분류할 수 있고, 높은 해상도의 정지 영상을 생성할 수 있다.In generating PET medical images using the image alignment method, the detected data are classified without relying on an external device, and then the classified data are sorted to generate an image, thereby accurately classifying the data and maintaining a high resolution. An image can be generated.
도 1은 본 발명의 일 실시예에 따른 영상 생성 장치를 나타낸 것이다.
도 2는 도 1에 도시된 컴퓨터의 구성도와 컴퓨터의 동작에 따른 데이터의 흐름을 나타낸 것이다.
도 3은 LOR 데이터의 예를 나타낸 것이다.
도 4는 LOR 데이터를 시노그램으로 나타내는 예를 나타낸 것이다.
도 5는 단위신호를 복수 개의 그룹으로 분류하는 예를 나타낸 것이다.
도 6은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 다른 예를 나타낸 것이다.
도 7은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 또 다른 예를 나타낸 것이다.
도 8은 일 실시예에 따른 영상 보정 방법의 흐름도이다.1 shows an image generating apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating the configuration of the computer illustrated in FIG. 1 and a flow of data according to the operation of the computer.
3 shows an example of LOR data.
4 shows an example in which LOR data is represented by a sinogram.
5 shows an example of classifying a unit signal into a plurality of groups.
6 shows another example of classifying a unit signal into a plurality of groups according to the feature value of the unit signal.
FIG. 7 illustrates another example of classifying a unit signal into a plurality of groups according to feature values of the unit signal.
8 is a flowchart of an image correction method, according to an exemplary embodiment.
이하에서는 도면을 참조하여 실시예들을 상세히 설명한다. 본 실시예들의 특징을 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. In order to clearly describe the features of the embodiments, detailed descriptions of matters well known to those skilled in the art will be omitted.
도 1은 일 실시예에 따른 영상 생성 장치를 나타낸 것으로서, 환자의 신체 단면에 대한 영상을 생성하는 전체적인 시스템을 도시하였다. 도 1을 참조하면, 영상 생성 장치는 신호 검출부(10), 컴퓨터(20), 디스플레이 장치(30) 및 사용자 입력장치(40)을 포함한다.FIG. 1 illustrates an image generating apparatus according to an embodiment, and illustrates an overall system for generating an image of a patient's body section. Referring to FIG. 1, the image generating apparatus includes a signal detector 10, a computer 20, a display device 30, and a
신호 검출부(10)는 대상체에 주입된 추적자로부터 방출되는 신호를 검출한다. 대상체는 동물이나 사람 등의 생물체가 될 수 있다. 대상체가 사람인 경우의 예를 들어 설명하면, 시술자는 양전자를 방출하는 특수 방사성 추적자(tracer)를 인체 대사에 참여하는 성분의 형태로 생성하고, 이 추적자를 정맥주사나 흡입의 방법으로 인체에 주입한다. 주입된 추적자는 양전자를 방출하고, 방출된 양전자가 전자와 결합하면 서로 반대 방향으로 511keV의 두 개의 감마선 쌍이 방출된다. 신호 검출부(10)는 이러한 감마선을 검출하고, 검출한 감마선에 대한 데이터를 LOR(line of response)의 형태로 컴퓨터(20)에 전송한다. 여기서, 양전자는 방사선의 한 종류로서, C-11, N-13, O-15, F-18 등의 방사성 동위원소에서 방출된다. 위와 같은 원소들을 이용하여 생성된, 생체를 구성하는 물질을 주입함으로써, 특수 방사성 추적자를 생성할 수 있다. 가장 흔히 이용되는 추적자로는 F-18-FDG 라는 포도당 유사물질이 있으며, 이를 주사하면 몸 안에서 암과 같이 포도당 대사가 집중되는 부위에 추적자가 집중된다. 추적자가 집중된 부위에서는 양전자가 집중적으로 방사된다.The signal detector 10 detects a signal emitted from the tracker injected into the object. The subject may be an organism such as an animal or a human. For example, when the subject is a human, the operator creates a special radiotracer that emits a positron in the form of a component that participates in human metabolism, and injects the tracer into the human body by intravenous injection or inhalation. . The injected tracer emits a positron, and when the emitted positron combines with the electron, two gamma ray pairs of 511keV are emitted in opposite directions. The signal detection unit 10 detects such gamma rays and transmits data on the detected gamma rays to the computer 20 in the form of a line of response (LOR). Here, a positron is a kind of radiation and is emitted from radioisotopes such as C-11, N-13, O-15, and F-18. By injecting a substance constituting the living body, generated using the above elements, a special radiotracer can be generated. The most commonly used tracer is a glucose-like substance called F-18-FDG, which injects the tracer in the body where glucose metabolism is concentrated, such as cancer. In areas where the tracer is concentrated, positrons are concentrated.
LOR는 공간 내에서 직선의 위치를 나타내는 데이터 형식으로, 도 3은 LOR 데이터의 예를 나타낸 것이다. 도 3을 참조하면, 스캐너(31) 내의 검출공간에 위치하는 추적자(32)로부터 방출된 양전자와 전자의 반응은 180도 방향으로 두 개의 감마선을 방출하고, 두 개의 감마선은 하나의 직선 상에 놓이게 된다. 도 3은 그러한 직선(33, 34)이 두 개 검출된 경우, 즉 양전자와 전자의 반응이 두 개 검출된 경우를 나타낸 것이다. 직선 33을 참조하면, 스캐너(31) 내의 원점을 기준으로 직선 33에 수직이 되는 수선을 그렸을 때, 수선까지의 거리는 r1, 수선까지의 각도는 θ1이기에, 직선 33에 대한 LOR은 (r1, θ1)로 표현될 수 있다. 마찬가지로 직선 34를 참조하면, 스캐너(31) 내의 원점을 기준으로 직선 34에 수직이 되는 수선을 내렸을 때, 수선까지의 거리는 r2, 수선까지의 각도는 θ2이기에, 직선 34에 대한 LOR은 (r2, θ2)로 표현될 수 있다. 이와 같이, 두 개 이상의 LOR 데이터를 획득하면 추적자의 위치는 LOR 데이터들의 교점으로 결정될 수 있다. 그러하기에, 신호 검출부(10)는 검출한 감마선에 대한 LOR을 컴퓨터(20)에 전송하고, 컴퓨터(20)는 최종적으로 그러한 LOR로부터 추적자의 위치를 결정하여 영상을 생성한다.LOR is a data format indicating the position of a straight line in space, and FIG. 3 shows an example of LOR data. Referring to FIG. 3, the reaction between the positron and the electron emitted from the
다시 도 1을 참조하면, 컴퓨터(20)는 신호 검출부(10)로부터 획득한 데이터를 이용하여 대상체에 대한 영상을 생성한다. 디스플레이 장치(30)는 컴퓨터(20)로부터 생성된 영상을 디스플레이 패널에 표시한다. 사용자는 사용자 입력장치(40)를 이용하여 컴퓨터(20)의 동작 시작 및 종료를 명령하는 등, 컴퓨터(20)의 동작에 필요한 정보들을 입력할 수 있다. 다만, 컴퓨터(20)는 필요한 정보를 사용자 입력장치(40)가 아닌 저장 장치로부터 획득할 수도 있다. Referring back to FIG. 1, the computer 20 generates an image of an object by using data obtained from the signal detector 10. The display device 30 displays an image generated from the computer 20 on the display panel. The user may input information necessary for the operation of the computer 20, such as commanding to start and end the operation of the computer 20 by using the
도 2는 도 1에 도시된 컴퓨터의 구성도와 컴퓨터의 동작에 따른 데이터의 흐름을 나타낸 것이다. 도 2를 참조하면, 컴퓨터(20)는 단위신호 생성부(210), 분류부(220), 움직임 추정부(230) 및 영상 생성부(240)를 포함한다. 도 2의 우측에는 각 유닛의 동작에 따른 데이터의 흐름을 나타내었다. FIG. 2 is a diagram illustrating the configuration of the computer illustrated in FIG. 1 and a flow of data according to the operation of the computer. Referring to FIG. 2, the computer 20 includes a
도 2의 단위신호 생성부(210)는 신호 검출부(10)에 의해 검출된 신호를 획득하고, 획득한 신호를 소정 간격의 구간들로 나누고, 나누어진 구간들 각각에 대하여 구간 내의 신호를 누적하여 단위신호를 생성한다. 예를 들어 설명하면, 신호 검출부(10)에 의해 검출된 신호는 검출된 시간 순으로 나열된 후, 소정 시간 간격으로 나누어질 수 있고, 이에 따라 각 단위신호는 소정 시간 구간 내의 신호를 누적함으로써 생성될 수 있다. 생성된 단위신호들 역시 시간 순으로 나열될 수 있다.The
도 2의 우측 데이터 흐름을 참조하면, 단위신호 생성부(210)의 우측에는 단위신호 #1부터 단위신호 #N까지 총 N개의 시간 순으로 나열된 단위신호가 도시되어 있다.Referring to the right data flow of FIG. 2, on the right side of the unit
신호 검출부(10)에 의해 LOR 신호가 검출되는 경우, 하나의 LOR로는 추적자의 위치를 결정할 수 없으며, 두 개 이상이더라도 그 양이 적은 경우에는 결정되는 추적자의 위치의 신뢰도가 떨어진다. 따라서, LOR 데이터들의 교점을 추적자의 위치로 결정할 수 있을 정도로 충분한 양의 데이터가 누적될 수 있도록 단위신호 생성부(210)는 구간을 이루는 소정 간격을 결정할 수 있다. 그러나, 간격이 넓어질수록 추적자의 움직임 때문에 정확한 추적자의 위치 결정이 어려워질 수 있으다. 그러므로, 소정 간격은 대상체의 움직임의 정도, 움직임의 주기, 스캐너가 LOR을 검출하는 시간 간격 등을 고려하여 결정해야 할 것이다. 이러한 구간은 짧은 시간으로써 예를 들어, 1초 이하의 시간이 될 수 있으나, 이에 한정하지 않는다. 이 때, 소정 간격 동안의 신호를 누적하여 생성된 단위신호는 노이즈를 포함할 수 있기 때문에, 노이즈의 영향을 최소화하기 위하여 히스토그램 클리핑이 적용될 수 있다. 히스토그램 클리핑은, 히스토그램으로 표현된 신호의 최소값과 최대값을 정하고, 신호의 값들을 최소값에서 최대값 사이의 값으로 제한하는 방법이다. 이에 따라 최소값 미만인 값은 최소값으로 제한되고, 최대값을 초과하는 값은 최대값으로 제한된다. When the LOR signal is detected by the signal detector 10, one LOR cannot determine the position of the tracker, and even if two or more are small, the reliability of the determined position of the tracker is low. Accordingly, the
위와 같이 생성된 단위신호는 여러 개의 LOR로 구성되는데, 이러한 LOR을 누적하는 방법으로써 시노그램 그래프가 사용될 수 있다. LOR 데이터를 시노그램으로 나타내는 방법을 구체적으로 설명하기 위해서 이하에서는 도 4를 참고하여 설명한다.The unit signal generated as described above is composed of several LORs, and a sinogram graph may be used as a method of accumulating such LORs. In order to specifically describe a method of representing LOR data in a sinogram, the following description will be made with reference to FIG. 4.
도 4는 LOR 데이터를 시노그램으로 나타내는 예를 나타낸 것이다. 투영 정보는 가로 축은 r, 세로 축은 θ를 나타내는 시노그램 그래프 형식으로 표현될 수 있다. 앞서 설명한 LOR 형식의 데이터 역시 r,θ를 변수로 하기에, LOR을 시노그램 상에 나타낼 수 있다. (r,θ)의 값을 갖는 LOR데이터는 시노그램 그래프에서 (r ,θ)의 좌표에 대응된다. 그래프 40은, 스캐너(31)의 검출공간 내의 추적자(32)로부터 방출되는 여러 개의 감마선에 대한 LOR을 시노그램에 나타낸 것이다. 스캐너(31)의 검출공간 내에서 추적자(32)의 위치 좌표 한 점은 도 4의 그래프에서의 하나의 곡선(41)에 대응된다. 따라서 복수 개의 추적자가 서로 다른 좌표에 존재하는 경우, 그러한 추적자들로부터 검출한 신호에 대한 시노그램은 여러 개의 곡선으로 나타날 것이다.4 shows an example in which LOR data is represented by a sinogram. The projection information may be expressed in a sinogram graph format in which the horizontal axis is r and the vertical axis is θ. The LOR data described above may also represent LOR on the sinogram since r and θ are variables. LOR data having a value of (r, θ) corresponds to a coordinate of (r, θ) in the sinogram graph.
이에 따라, 단위신호 생성부(210)는 각 단위신호에 포함된 LOR을 누적하여 시노그램의 형태로 단위신호를 생성할 수 있다. 부연 설명하면, 단위신호 생성부(210)는 각 단위신호마다 해당하는 시노그램을 생성할 수 있으며, 각각의 시노그램은 추적자(32)를 포함하는 대상체의 움직임에 따라 서로 비슷하거나 동일한 형태일수도 있고, 서로 상이할 수도 있다. Accordingly, the
다시 도 2를 참조하면, 분류부(220)는 단위신호 생성부(210)에 의해 생성된 단위신호들 각각의 특성에 기초하여 단위신호들을 복수 개의 그룹으로 분류한다. 도 2 우측의 데이터 흐름을 참조하면, 분류부(220)의 우측에는 그룹#1부터 그룹#M까지 총 M개의 그룹이 도시되어 있다. 여기서 M은 단위신호의 총 개수인 N보다 작은 수로써, 일반적으로 5이상의 값이 사용될 수 있으나, 이에 한정되지 않는다. 이러한 M의 값은 컴퓨터의 연산 성능이나, 요구되는 최종 영상의 해상도 등에 따라 달리 설정될 수 있다.Referring again to FIG. 2, the
각 단위신호에 나타난 추적자의 위치는 대상체의 움직임에 따라 서로 다를 수 있다. 이러한 단위신호들을 모두 합하여 하나의 정지 영상을 생성하기 위해서는 각 단위신호가 나타내는 추적자의 위치가 일치되도록 각 단위신호를 정렬해줄 필요가 있는데, 각 단위신호의 경우, 신호대잡음비가 낮으므로 각 단위신호를 정렬하는 것이 어려울 수 있다. 이에, 신호대잡음비를 향상하기 위하여 복수 개의 단위신호를 하나로 합할 수 있다. 예를 들어, 각 단위신호의 특징값을 추출하고, 추출된 특징값이 유사한 단위신호들을 하나로 합하는 개념을 도입할 수 있다. 단위신호가 누적될수록 신호대잡음비가 향상되므로, 보다 정확한 정렬이 가능하다.The position of the tracker shown in each unit signal may be different according to the movement of the object. In order to generate a single still image by adding all of these unit signals, it is necessary to align each unit signal so that the position of the tracker indicated by each unit signal is matched. For each unit signal, since the signal to noise ratio is low, Sorting can be difficult. Thus, in order to improve the signal-to-noise ratio, a plurality of unit signals may be combined into one. For example, a concept of extracting feature values of each unit signal and adding unit signals having similar feature values to each other may be introduced. As the unit signals accumulate, the signal-to-noise ratio improves, thus enabling more accurate alignment.
또한, 단위신호를 누적하면, 단위신호의 정렬에 필요한 연산 시간이 단축되는 장점도 있다. 모든 단위신호를 각각 정렬하려면 연산이 오래 걸리는 문제가 있다. 예를 들어, N개의 단위신호를 정렬하는 경우, 하나의 단위신호를 기준으로 하여 총 N-1번의 연산이 요구된다. 반면, 같은 위치에 해당하는 단위신호들끼리 하나의 그룹으로 묶고, 그러한 그룹들을 서로 정렬하는 연산을 수행하면, 총 연산 시간을 단축할 수 있다. 예를 들어, M개의 그룹을 정렬하는 경우, 하나의 그룹을 기준으로 하여 총 M-1번의 연산만이 요구된다. 여기서 M은 단위신호의 총 개수인 N보다 작은 수로써, 각 단위신호를 정렬할 때에 비해 각 그룹을 정렬하는 경우의 연산 시간이 단축된다. In addition, when the unit signals are accumulated, an operation time required for aligning the unit signals is shortened. There is a problem that it takes a long time to align all the unit signals individually. For example, when N unit signals are aligned, a total of N-1 operations are required based on one unit signal. On the other hand, if the unit signals corresponding to the same position are grouped into one group and the groups are aligned with each other, the total operation time can be shortened. For example, when sorting M groups, only M-1 operations are required based on one group. Here, M is a number smaller than N, which is the total number of unit signals, and the computation time for aligning each group is shortened as compared with aligning each unit signal.
도 5는 분류부(220)가 단위신호를 복수 개의 그룹으로 분류하는 일 예를 나타낸 것이다.5 illustrates an example in which the
도 5의 그래프 50은 각 단위신호를 검출시간 순서로 나열하였을 때, 각 단위신호가 나타내는 추적자의 위치 변화를 나타낸 것이다. 도 5에 도시된 바와 같이, 분류부(220)는 스캐너(31)의 검출공간 내에서의 추적자의 위치 1에 해당하는 단위신호 51, 52, 53, 54, 55를 그룹 1로 분류하고, 추적자의 위치 2에 해당하는 단위신호 56, 57, 58, 59, 60을 그룹 2로 분류하는 방법으로, 동일한 위치를 나타내는 단위신호들을 같은 그룹으로 분류할 수 있다. 이와 같이 추적자의 위치가 1과 2 사이에서 교번적으로 나타나는 이유는, 장기의 주기적인 움직임에 동반하여 그러한 장기에 주입된 추적자가 함께 움직일 수 있기 때문이다. M개의 위치에 대하여 단위신호를 분류하는 경우, 분류부(220)는 총 M개의 그룹을 생성할 수 있다.
분류부(220)는 단위신호를 분석한 결과에 기초하여, 동일한 위치를 나타내는 단위신호들을 하나의 그룹으로 묶음에 따라 단위신호들을 복수 개의 그룹으로 분류한다. 단위신호가 시노그램으로 표현되어 있는 경우의 예를 들면, 단위신호가 나타내는 추적자의 위치는 시노그램의 곡선에 대응되기에, 분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 각 시노그램이 유사한 정도에 따라 단위신호들을 추적자의 위치별로 분류할 수 있다.The classifying
이와 같은 분류 방법은 생성되는 총 그룹의 개수를 줄이는 장점이 있다. 예를 들어 대상체의 움직임 주기 내에서 서로 다른 위상에 해당하더라도 추적자의 위치는 동일할 수 있다. 이하에서 ‘위상 정보’란 각 데이터의 검출시간이 대상체의 움직임 주기 내에서 어느 위상에 해당하는가의 정보를 의미하는 용어로서 사용된다.Such a classification method has an advantage of reducing the total number of generated groups. For example, the position of the tracker may be the same even if they correspond to different phases within the movement period of the object. Hereinafter, 'phase information' is used as a term meaning information of which phase a detection time of each data corresponds to within a movement period of an object.
도 5를 참조하면, 위상 정보를 포함하여 분류하는 방법을 사용하면 단위신호 51, 53, 55가 서로 동일한 위상에 해당하여 하나의 그룹으로 분류되고, 단위신호 52, 54가 서로 동일한 위상에 해당하여 또 다른 그룹으로 분류될 것이다. 하지만 분류부(220)가 전술한 바와 같이 주기 내의 위상 정보와 관계없이 단위신호 자체의 특성에 기초하여 단위신호를 분류하면, 동일한 추적자의 위치를 나타내는 51, 52, 53, 54, 55는 모두 하나의 그룹으로 분류 될 수 있다. (단위신호 51, 53, 55와 단위신호 52, 54는 서로 위상이 다름에도 불구하고) 이에 따라, 분류부(220)에 의해 생성되는 총 그룹의 개수가 줄어들고, 결과적으로 움직임 추정부(230) 및 영상 생성부(240)의 연산 회수가 줄어들 수 있다.Referring to FIG. 5, when the classification method including phase information is used, the unit signals 51, 53, and 55 correspond to the same phase, and the unit signals 52 and 54 correspond to the same phase. It will be classified into another group. However, if the
분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 각 시노그램이 유사한 정도를 결정하기 위하여 시노그램의 특징값을 산출할 수 있다. 예를 들어 분류부(220)는 각 단위신호의 시노그램의 특징값을 산출하고, 시노그램의 특징값이 유사한 단위신호들을 같은 그룹으로 묶어 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 시노그램은 2차원 그래프로 표현되기 때문에 시노그램의 특징값으로는, 2차원 그래프의 유사도를 결정할 수 있는 다양한 특징값들이 사용될 수 있다. The
특징 값으로 분류부(220)는 각 단위신호의 시노그램의 관련성을 나타내는 코릴레이션을 사용할 수 있다. 이에 따라 분류부(220)는 산출된 단위신호들 간의 코릴레이션 값이 작은, 즉 관련성이 높은 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 또 다른 예를 들면, 분류부(220)는 각 단위신호의 시노그램에 특정 2차원 필터를 적용한 결과를 특징값으로 산출하고, 특징값이 유사한 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 이러한 필터의 예로는 가버 필터(Gabor filter) 등이 사용될 수 있다. 그 외에도 다양한 2차원 필터가 적용될 수 있다.As the feature value, the classifying
또 다른 예를 들면, 분류부(220)는 시노그램의 2차원 기울기를 나타내는 2차원 미분영상인 그라디언트(gradient)를 생성하고, 그라디언트의 특징값을 산출하고, 그라디언트의 특징값이 유사한 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 복수 개의 그룹으로 분류할 수 있다. 그 외에도 영상의 특징값을 산출하는 다양한 방법들이 적용될 수 있다. As another example, the classifying
위와 같이 산출된 특징값이 유사한 단위신호들끼리 분류하는 방법으로는 시노그램 특징값의 차이가 소정의 임계값 이하인 단위신호들을 동일한 그룹으로 묶어 단위신호들을 복수 개의 그룹으로 분류하는 방법을 사용할 수도 있고, 또는 그 외의 다양한 데이터 군집화 알고리즘을 사용할 수 있을 것이다.As a method of classifying unit signals having similar feature values calculated as described above, a unit signal may be classified into a plurality of groups by grouping unit signals having a difference in sinogram feature value equal to or less than a predetermined threshold value into the same group. Various data clustering algorithms may be used.
예를 들어, 주어진 데이터를 k개의 그룹으로 빠르게 효과적으로 군집화할 수 있는 k-평균 군집화 알고리즘을 사용할 수 있다. 부연하여 설명하면, 분류부(220)는 각 단위신호의 시노그램의 특징값을 산출하고, k-평균 군집화(k-means clustering) 알고리즘에 의해 단위신호들을 군집화함으로써 복수 개의 그룹으로 분류할 수 있다.For example, a k-means clustering algorithm can be used that can quickly and effectively cluster given data into k groups. In detail, the classifying
이 외에 가우시안 믹스쳐 모델(Gaussian mixture model) 분석 방법, PCA(Principal Components Analysis) 분류 방법, LDA(linear discriminant classification) 분류 방법 등의 다양한 분류 알고리즘이 사용될 수 있다. In addition, various classification algorithms such as Gaussian mixture model analysis, Principal Components Analysis (PCA) classification method, and linear discriminant classification (LDA) classification method may be used.
또는, 분류부(220)는 각 단위신호의 시노그램의 특성에 기초하여 단위신호를 분류하기 위해 GVF(gradient vector flow) SNAKE 알고리즘을 활용할 수 있다. SNAKE 알고리즘은 영상에서의 엣지를 검출하는 알고리즘이며, GVF SNAKE 알고리즘은 일종의 SNAKE 알고리즘으로, 영상 내에서의 엣지의 기울기 벡터의 분포로부터 엣지를 검출하는 알고리즘으로, 일종의 SNAKE 알고리즘이다. GVF SNAKE 알고리즘을 이용하여 검출된 엣지로부터 영상의 특성이 추출될 수 있다. 이러한 GVF SNAKE 알고리즘을 2차원 그래프인 시노그램에 적용하면, 분류부(220)는 GVF SNAKE 알고리즘을 이용하여 생성된 각 단위신호의 시노그램의 특성에 기초하여 단위신호를 분류할 수 있다. GVF SNAKE 알고리즘은 낮은 신호대잡음비의 시노그램에서도 좋은 처리 성능을 가지며, 사인함수 모양의 시노그램에 적용하기에 적절하다. Alternatively, the
도 6은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 다른 예를 나타낸 것이다. 도 6을 참조하면, 분류부(220)는 특징값의 최저값과 최고값을 획득하고, 최저값과 최고값 사이를 M개의 구간으로 나누어, 각 구간에 해당하는 특징값을 갖는 단위신호들끼리 같은 그룹으로 묶어, 단위신호들을 총 M개의 그룹으로 분류할 수 있다. 6 shows another example of classifying a unit signal into a plurality of groups according to the feature value of the unit signal. Referring to FIG. 6, the
도 7은 단위신호의 특징값에 따라 단위 신호를 복수 개의 그룹으로 분류하는 또 다른 예를 나타낸 것이다. 도 7을 참조하면, 분류부(220)는 특징값의 크기 순서에 따라 각 단위신호를 나열하고, 나열된 순서대로 N/M개의 단위신호를 하나의 그룹으로 묶어, 단위신호들을 총 M개의 그룹으로 분류할 수 있다.FIG. 7 illustrates another example of classifying a unit signal into a plurality of groups according to feature values of the unit signal. Referring to FIG. 7, the classifying
다시 도 2로 돌아오면, 도 2의 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들로부터 그룹들 각각에 대한 추적자의 움직임 정보를 추정한다. 예를 들어, 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들 중 기준이 되는 하나의 그룹이 나타내는 추적자의 위치로부터, 각 그룹이 나타내는 추적자의 위치로의 추적자의 움직임 정보를 추정한다. 이러한 움직임 정보는, 대상체의 움직임에 동반되는 추적자의 위치 변화에 대한 정보를 반영할 수 있다. 예를 들어 대상체의 움직임에 의해 각 그룹이 나타내는 추적자의 위치가 다른 경우, 각 그룹의 움직임 정보는 그룹 #1이 나타내는 추적자의 위치를 기준(reference)으로, 추적자의 위치가 이동한 거리와 방향을 의미하는 것으로써 사용될 수 있다. 이러한 움직임 추정은 외부장치 (예. 모션센서)등의 도움 없이 그룹으로 분류된 단위신호들의 분석만으로 계산될 수 있다. 이에 따라, 움직임 추정부(230)는 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 움직임 정보를 추정할 수 있다.2, the
각 그룹이 나타내는 추적자의 위치는 시노그램으로부터 알 수 있으며, 이에 따라 움직임 추정부(230)는 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추적자의 위치 변화를 추정하고, 이로부터 움직임 정보를 추정할 수 있다. The position of the tracker indicated by each group can be known from the sinogram, and accordingly, the
움직임 추정부(230)는 M개의 그룹들 중 그룹 #1을 기준(reference)으로 정하고, 그룹 #1로부터 각 그룹으로의 움직임 정보를 추정할 수 있다. 이와 같이 영상 내에서의 대상체의 움직임 정보를 추정하는 방법으로는 좌표 내에서 물체 또는 센서의 이동벡터 분포를 추정하는 옵티컬 플로우(Optical Flow), 또는 영상의 엣지(윤곽)를 검출하는 스네이크 알고리즘(SNAKE algorithm) 등의 기술이 사용될 수 있으며, 그 외에도 영상 내에서의 움직임 정보를 추정(motion estimation)하기 위한 다양한 방법들이 적용될 수 있다.The
도 2의 우측을 참고하면, 움직임 정보 #2는 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #2가 나타내는 추적자의 위치로의 변화를 의미하며, 도면에 도시되지는 않았으나 그룹 #3에 대응되는 움직임 정보 #3은 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #3이 나타내는 추적자의 위치로의 변화를 의미한다. 마찬가지로 움직임 정보 #M은 기준이 되는 그룹 #1이 나타내는 추적자의 위치로부터 그룹 #M이 나타내는 추적자의 위치로의 변화를 의미한다.Referring to the right side of FIG. 2, the
이하에서는 추적자의 움직임 정보를 3차원 공간 상에서 추정하는 방법의 예를 설명한다.Hereinafter, an example of a method of estimating the motion information of the tracker in three-dimensional space will be described.
스캐너(31) 내의 검출공간이 3차원인 경우, 2차원 평면(x-y 평면)상에서 신호를 획득하는 단계를 z축(스캐너가 원통형인 경우 스캐너의 축 방향)상의 서로 다른 z값에 대하여 실시함에 따라, 추적자의 위치를 3차원 공간에 나타낼 수 있다. 이를 위하여 신호 검출부(10)는 2차원 평면(x-y평면) 상에서 신호를 획득하는 단계를 z축 방향으로 이동하면서 서로 다른 z값에 대하여 반복 실시할 수도 있을 것이고, 또는 신호 검출부(10)는 서로 다른 z값에 대하여 2차원 평면(x-y평면)상의 신호를 동시에 획득할 수도 있을 것이다.When the detection space in the
이에 따르면, 단위신호 생성부(210)는 위와 같이 획득된 신호를 누적하여 N개의 단위신호를 생성하고, 분류부(220)는 각 단위신호가 나타내는 3차원 공간상에서의 추적자의 위치가 동일 또는 유사한 단위신호들을 같은 그룹으로 묶어, N개의 단위신호들을 M개의 그룹으로 분류할 수 있다. 움직임 추정부(230)는 각 그룹들로부터, 그룹들 각각에 대한 추적자의 3차원 상의 움직임 정보를 추정할 수 있다.According to this, the
예를 들어, 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들 중 기준이 되는 하나의 그룹이 나타내는 추적자의 3차원 위치로부터, 나머지 그룹들 각각이 나타내는 추적자의 3차원 위치로의 추적자의 3차원 상의 움직임 정보를 추정할 수 있다.For example, the
그룹 #1을 기준으로, 그룹 #1이 나타내는 추적자의 3차원 위치로부터 그룹 #2가 나타내는 추적자의 3차원 위치로의 변화를 의미하는 움직임 정보 #2를 추정하는 방법의 예를 들면, 움직임 추정부(230)는 추적자의 3차원 상 움직임 중, z축 방향에 해당하는 움직임을 먼저 추정한 후, x-y평면(또는 z평면) 방향에 해당하는 움직임을 추정할 수 있다. 각 그룹의 움직임 정보는 3차원 벡터로 표현될 수 있을 것이다.As an example of a method of estimating
예를 들어, 기준이 되는 그룹 #1에서의 z축의 값이 상수 k인 평면과, 그룹 #2에서의 z축의 값이 상수 k+a (a>0)인 평면에서의 추적자의 위치가 동일한 경우 움직임 추정부(230)는 움직임 정보 #2를 추정함에 있어서, 추적자가 z축 상에서 양의 방향으로 움직였음을 알 수 있다. 이와 같은 방법으로, 움직임 추정부(230)는 움직임 정보 #2의 z축 방향 움직임 벡터의 방향을 결정하고, a의 크기로부터 z축 방향 움직임 벡터의 크기를 결정함으로써, 움직임 정보 #2의 z축 방향 움직임 정보를 추정할 수 있다. 그러나 이는 z축 방향의 움직임 정보 #2를 추정하는 하나의 예시일 뿐이며 이에 한정되는 것은 아니다.For example, if the position of the tracer is the same in the plane whose z-axis value is constant k in the
움직임 정보 #2의 Z축 방향 움직임 정보가 추정되면, 움직임 추정부(230)는 움직임 정보 #2의 z평면 상의 움직임 정보를 추정할 수 있다. 이를 위하여 움직임 추정부(230)는 대표가 되는 어느 하나의 z평면 상에서의 추적자의 움직임 정보를 추정함으로써 이를 추적자의 x-y방향 움직임으로 추정할 수 있다. 또는, 움직임 추정부(230)는 복수 개의 z평면 상에서의 추적자의 움직임 정보를 추정하고, 이로부터 추적자의 x-y방향 움직임 정보를 추정할 수도 있다. When the Z-axis motion information of the
움직임 추정부(230)가 스캐너(31)의 검출 공간 상에서의 복수 개의 z평면들 각각에 대하여 x-y방향의 추적자의 움직임 정보를 추정하는 경우의 예를 들면 다음과 같다. z=1에 해당하는 z평면을 제1 평면이라 하면, 움직임 정보 #2를 추정하는 경우 움직임 추정부(230)는 기준이 되는 그룹 #1의 제1 평면이 나타내는 추적자의 위치로부터 그룹 #2의 제1 평면이 나타내는 추적자의 위치로의 변화를 추정함으로써 그룹 #1로부터 그룹 #2로의 제1 평면 상의 추적자의 움직임 정보를 추정할 수 있다. For example, the
유사한 방법으로 z=2에 해당하는 제2 평면 상에서의 추적자의 움직임 정보를 추정할 수 있다. 이러한 방법을 각각의 z평면에 대하여 반복 실시함에 따라 움직임 추정부(230)는 복수개의 z평면 상에서의 추적자의 움직임 정보를 각각의 z평면에 대하여 추정할 수 있다. 이에 따라, 움직임 추정부(230)는 복수 개의 z평면 상에서의 추적자의 움직임 정보로부터 움직임 정보 #2의 x-y방향 움직임 정보를 추정할 수 있다.Similarly, the motion information of the tracker on the second plane corresponding to z = 2 may be estimated. As the method is repeated for each z plane, the
움직임 추정부(230)는 추정된 추적자의 x-y방향 움직임 정보와, 전술한 방법에 따라 추정된 추적자의 z축 방향의 움직임 정보를 결합하여, 추적자의 움직임 정보 #2를 생성할 수 있다. 이와 같은 방법을 각각의 그룹에 대하여 실시함에 따라 움직임 추정부(230)는 M개의 그룹에 대하여 움직임 정보 #2 내지 움직임 정보 #M을 생성할 수 있다.The
움직임 추정부(230)가 2차원 평면 상에서의 움직임 정보를 추정하는 방법의 예로는, 전술한 바와 같이 좌표 내에서 물체 또는 센서의 이동벡터 분포를 추정하는 옵티컬 플로우(Optical Flow), 또는 영상의 엣지를 검출하는 스네이크 알고리즘(SNAKE algorithm) 등의 기술이 사용될 수 있으며, 그 외에도 영상 내에서의 움직임 정보를 추정(motion estimation)하기 위한 다양한 방법들이 적용될 수 있다.An example of a method of estimating the motion information on the two-dimensional plane by the
움직임 추정부(230)는 2차원 평면 상에서의 움직임 정보를 추정하기 위하여 각 평면에 대한 시노그램의 히스토그램 분포를 이용할 수도 있다. 예를 들어, 움직임 추정부(230)는 움직임 정보 #2의 x-y평면 상의 움직임 정보를 추정하기 위하여 그룹 #1의 제1 평면에 대한 2차원 시노그램과 그룹 #2의 제1 평면에 대한 2차원 시노그램 각각을 히스토그램 분포로 표현할 수 있다. 히스토그램 분포는 시노그램의 특성을 나타내는 방법의 예이므로, 움직임 추정부(230)가 z축 방향의 움직임 정보를 추정하는 데에도 적용될 수 있으며, 그 뿐 아니라 분류부(220) 역시 단위신호의 시노그램의 히스토그램 분포를 이용하여 히스토그램 분포가 유사한 단위신호들끼리 분류할 수 있을 것이다. 2차원 영상 또는 2차원 그래프를 히스토그램 분포로 표현하는 방법은 본 실시예가 속하는 분야에서 통상의 지식을 가진 자라면 알 수 있다 . The
위와 같이, 움직임 추정부(230)는 시노그램의 히스토그램 분포를 이용해 각 그룹의 z축방향 움직임 정보를 먼저 추정하고, 그 후 xy평면상 움직임 정보를 추정할 수 있다. As described above, the
영상 생성부(240)는 분류부(220)에 의해 복수 개의 그룹으로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성할 수 있다. 예를 들어, 영상 생성부(240)는 움직임 추정부(230)에 의해 추정된 각 그룹의 움직임 정보에 기초하여 그룹들에 포함된 단위신호들을 정렬함으로써 단위신호들로부터 대상체에 대한 의료 영상을 생성할 수 있다.The
예를 들어, 영상 생성부(240)는 분류부(220)에 의해 생성된 M개의 그룹들 각각에 대하여 움직임 추정부(230)에서 추정된 움직임 정보에 기초하여, 각 그룹들로부터 정지 영상을 생성한다. 이를 위하여, 영상 생성부(240)는 각 그룹에 대하여 각 그룹의 움직임 정보를 포함하는 변환 인자를 생성할 수 있고, 그러한 변환 인자는 영상 생성 과정에서 변수로써 사용될 수 있다. 이와 같은 각 그룹의 변환인자를 도 2의 영상 생성부(240)의 우측에 나타내었다. For example, the
영상 생성부(240)는 움직임 정보를 반영하여 반복적 복원 (iterative reconstruction)을 수행하는 방법으로 영상을 생성할 수 있다. 예를 들어, 영상 생성 알고리즘의 변수로써 각 그룹의 움직임 정보를 포함하는 변환 인자를 사용하여, 각 그룹에서의 추적자의 위치가, 기준이 되는 그룹#1에서의 추적자에 위치와 일치되도록 각 그룹의 단위신호들을 정렬함에 따라 최종적으로 모든 단위신호들을 변환하여 정지 영상을 생성할 수 있다. The
반복적 복원이란, 전달 함수를 알고 있고 출력 신호를 알고 있을 때, 입력 신호를 추정하는 알고리즘의 예이다. 즉, 입력신호의 초기값을 소정의 값으로 설정한 후, 입력 신호에 전달 함수를 적용하여 출력되는 출력 신호가 원하는 출력 신호가 될 때까지, 입력 신호를 변경하면서 반복적으로 연산을 수행하는 방법이다. Iterative reconstruction is an example of an algorithm that estimates the input signal when the transfer function is known and the output signal is known. That is, after the initial value of the input signal is set to a predetermined value, a transfer function is applied to the input signal, and the operation is repeatedly performed while changing the input signal until the output signal becomes a desired output signal. .
양전자 방출 단층 촬영의 경우의 예를 들면, 신호 검출부(10)로부터 획득한 LOR 신호가 입력 신호일 수 있고, 이로부터 생성되는 영상이 출력 신호일 수 있다. 이에 따라, LOR 신호로부터 영상을 재구성(reconstruction)하는 시스템 행렬이 변환 인자가 될 수 있다. 영상 생성부(240)는 서로 다른 추적자의 위치를 나타내는 복수 개의 그룹 신호로부터 동시에 하나의 정지영상을 재구성하기 위하여, 각 그룹마다 변환 인자를 가질 수 있다. 이 때, 영상 생성부(240)는 각 그룹의 변환인자에 각 그룹의 움직임 정보를 반영함으로써, 영상을 재구성하는 과정에서 각 그룹이 나타내는 추적자의 위치가 정렬되게 하고, 이로써 최종적으로 정지 영상을 생성할 수 있다.For example, in the case of positron emission tomography, an LOR signal obtained from the signal detector 10 may be an input signal, and an image generated therefrom may be an output signal. Accordingly, a system matrix for reconstructing an image from the LOR signal may be a conversion factor. The
예를 들어 움직임 추정부(230)에 의해 그룹 #1이 기준 그룹으로 설정된 경우에는, 영상 생성부(240)는 그룹 #2로 분류된 단위신호들을 영상으로 재구성변환할 때, 변환인자 #2를 영상 생성 알고리즘의 변수로 사용할 수 있고, 마찬가지로 그룹 #M으로 분류된 단위신호들을 대상체에 대한 영상으로 변환재구성할 때, 변환인자 #M을 영상 생성 알고리즘의 변수로 사용할 수 있다. 각 변환인자는 각 그룹의 움직임 정보를 포함하고 있기에, 영상 생성부(240)는 M개의 그룹에 포함된 모든 단위신호들로부터 동잡음이 없는 정지영상을 생성할 수 있다.For example, when the
도 8은 일 실시예에 따른 영상 보정 방법의 흐름도이다. 도 8에 도시된 바와 같이 영상 보정 장치는 대상체에 주입된 추적자로부터 방출되는 신호를 검출(81)하고, 검출된 신호로부터 단위신호를 생성(82)하고, 단위신호들을 복수 개의 그룹으로 분류(83)하고, 각 그룹의 움직임 정보를 추정(84)하고, 그룹을 정렬하여함으로써 영상을 생성(85)한다.8 is a flowchart of an image correction method, according to an exemplary embodiment. As illustrated in FIG. 8, the image correction apparatus detects a signal emitted from a tracer injected into an object (81), generates a unit signal from the detected signal (82), and classifies the unit signals into a plurality of groups (83). The motion information of each group is estimated (84) and the groups are aligned to generate an image (85).
81단계에서 신호 검출 장치신호 검출부(10)는 대상체에 주입된 추적자로부터 방출되는 감마선을 검출하여 LOR 형태의 데이터로 컴퓨터(20)의 단위신호 생성부(210)에 전송한다. 82 단계에서 단위신호 생성부(210)는 신호 검출 장치신호 검출부(10)에 의해 검출된 신호를 획득하고, 획득한 신호를 소정 간격의 구간들로 나누고, 나누어진 구간들 각각에 대하여 구간 내의 신호를 누적하여 단위신호를 생성한다. 83 단계에서 분류부(220)는 단위신호 생성부(210)에 의해 생성된 단위신호들 각각의 특성에 기초하여 단위신호들을 복수 개의 그룹으로 분류한다. 84 단계에서 움직임 추정부(230)는 분류부(220)에 의해 생성된 각 그룹들로부터 그룹들 각각에 대한 추적자의 움직임 정보를 외부장치 (예. 모션센서)의 도움없이 추정한다. 85 단계에서 영상 생성부(240)는 움직임 추정부(230)에 의해 추정된 각 그룹의 움직임 정보에 기초하여 그룹들을 정렬하여함으로써 대상체에 대한 의료 영상을 생성한다.In
상기된 바와 같은 실시예들에 따르면, 움직임이 있는 대상체에 대하여 양전자 방출 단층 촬영을 통해 영상을 생성하는 방법에 있어서, 단위신호 자체의 특성에 기초하여 정확한 분류를 수행함으로써, 보다 높은 해상도의 정지 영상을 생성할 수 있다. 단위신호를 분류하기 위해서 종래에는 외부 장치를 이용하여 호흡주기 또는 심장박동 주기에 각 단위신호를 대응시켜서 위상 정보를 결정하고, 위상 정보에 따라 분류하는 방법이 사용되었다. 단위신호가 검출된 시간 정보를 움직임 주기와 동기화시킴에 따라 위상 정보가 쉽게 결정되지만, 호흡주기 또는 심장박동 주기가 대상체의 움직임 또는 대상체의 움직임에 따른 추적자의 움직임 주기와 정확히 일치하지 않기 때문에 오차가 생기는 단점이 있었다. According to the embodiments as described above, in the method for generating an image by positron emission tomography for a moving object, by performing an accurate classification based on the characteristics of the unit signal itself, a higher resolution still image Can be generated. In order to classify unit signals, conventionally, a method of determining phase information by mapping each unit signal to a respiratory cycle or a heartbeat cycle using an external device and classifying them according to the phase information has been used. Phase information is easily determined by synchronizing the time information from which the unit signal is detected with the movement period, but the error is not because the respiratory cycle or the heartbeat cycle does not exactly match the movement of the subject or the tracer movement according to the movement of the subject. There was a disadvantage.
그러나 상기된 실시예들에서는 추적자의 위치를 나타내는 단위신호의 특성에 기초하여 외부 장치에 의존하지 않고 단위신호들을 분류하기 때문에 위와 같이 외부 장치를 이용하는 경우의 단점이 극복된다. 그러하기에 보다 정확한 영상 정렬이 가능하고, 결과적으로 깨끗한 정지 영상을 생성할 수 있다. 또한 사용자는 단위신호를 분류함에 있어서, 그룹의 개수를 미리 설정하거나, 그 외의 조절 인자를 사용자 입력장치를 통하여 입력할 수 있으며, 이를 이용하여 영상의 품질과 컴퓨터에서의 연산 로드의 트레이드오프 관계에서 사용자가 원하는 품질의 영상을 생성하도록 할 수 있다. However, in the above-described embodiments, since the unit signals are classified without depending on the external device based on the characteristics of the unit signal indicating the position of the tracker, the disadvantage of using the external device as described above is overcome. Thus, more accurate image alignment is possible, resulting in a clear still image. In addition, in classifying the unit signal, the user may preset the number of groups or input other adjustment factors through the user input device, which may be used in a trade-off relationship between image quality and computational load on a computer. A user may generate an image of a desired quality.
한편, 도 8에 도시된 영상 생성 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크, 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
On the other hand, the image generating method shown in Figure 8 can be written as a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium. The computer readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, or the like).
10: 신호 검출부 20: 컴퓨터
30: 디스플레이 장치 40: 사용자 입력장치
210: 단위신호 생성부 220: 분류부
230: 움직임 추정부 240: 영상 생성부10: signal detection unit 20: computer
30: display device 40: user input device
210: unit signal generation unit 220: classification unit
230: motion estimation unit 240: image generating unit
Claims (24)
상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단계;
상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 단계; 및
상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 단계를 포함하는 의료 영상 생성 방법.
Detecting signals emitted from the tracer injected into the subject;
Dividing the detected signals into sections of a predetermined interval, and accumulating signals in the sections for each of the sections to generate a unit signal for each section;
Classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals; And
And generating a medical image of the object from unit signals classified into the groups.
상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 단계를 더 포함하고,
상기 분류하는 단계는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
The method of claim 1,
Generating a two-dimensional sinogram for each section by using the unit signals;
The classifying may include classifying the sinograms into a plurality of groups based on characteristics of each of the sinograms.
상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성인 의료 영상 생성 방법.
3. The method of claim 2,
Wherein the characteristic is a characteristic of a gradient representing a two-dimensional gradient of the sinogram.
상기 분류하는 단계는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
The method of claim 1,
The classifying may include calculating a feature value representing a characteristic of each unit signal, and classifying the unit signals into a plurality of groups based on the calculated feature values.
상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출되는 의료 영상 생성 방법.
5. The method of claim 4,
And the feature value is calculated from a correlation value representing a similarity between the unit signals.
상기 분류하는 단계는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 할당하는 단계를 더 포함하고,
상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류하는 의료 영상 생성 방법.
5. The method of claim 4,
The classifying may further include determining a highest value and a lowest value among the feature values, and allocating a group to each interval by dividing the maximum value and the minimum value into a predetermined number of intervals.
And classifying the unit signals into groups allocated to the section including the feature values of the unit signals.
상기 분류하는 단계는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단계를 더 포함하고,
나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 방법.
5. The method of claim 4,
The classifying may further include arranging the unit signals according to a result of comparing the feature values.
The medical image generating method of classifying the unit signals into a plurality of groups based on the listed order.
상기 분류하는 단계는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류하는 의료 영상 생성 방법.
The method of claim 1,
The classification may be performed using a k-means clustering algorithm.
상기 생성하는 단계는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 방법.
The method of claim 1,
The generating may include generating an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups coincides with each other.
상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 단계를 더 포함하고,
상기 생성하는 단계는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 방법.
The method of claim 9, wherein
Estimating movement information of the tracker from the position of the tracker represented by one of the groups as a reference, to the position of the tracker represented by each group;
The generating may include generating an image of the object from the unit signals by aligning the unit signals based on the motion information.
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정되는 의료 영상 생성 방법.
The method of claim 10,
And the motion information is estimated based on a result of comparing unit signals allocated to one group as the reference and unit signals allocated to each group.
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정되는 의료 영상 생성 방법.
The method of claim 10,
The motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group.
상기 검출된 신호들을 소정 간격의 구간들로 나누고, 상기 구간들 각각에 대하여 상기 구간 내의 신호들을 누적하여 상기 구간 별로 단위신호를 생성하는 단위신호 생성부;
상기 단위신호들 각각의 특성에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 분류부; 및
상기 그룹들로 분류된 단위 신호들로부터 상기 대상체에 대한 의료 영상을 생성하는 영상 생성부를 포함하는 의료 영상 생성 장치.
A signal detector detecting signals emitted from a tracker injected into the object;
A unit signal generator for dividing the detected signals into sections of a predetermined interval and accumulating signals in the sections for each of the sections to generate a unit signal for each section;
A classification unit classifying the unit signals into a plurality of groups based on characteristics of each of the unit signals; And
And an image generator configured to generate a medical image of the object from unit signals classified into the groups.
상기 각 단위신호를 이용하여 상기 각 구간에 대하여 2차원 시노그램(sinogram)을 생성하는 시노그램 생성부를 더 포함하고,
상기 분류부는 상기 시노그램들 각각의 특성에 기초하여 상기 시노그램들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
The method of claim 13,
Further comprising a sinogram generator for generating a two-dimensional sinogram (sinogram) for each section by using the unit signal,
The classification unit classifies the sinograms into a plurality of groups based on characteristics of each of the sinograms.
상기 특성은 상기 시노그램의 2차원 기울기를 나타내는 그라디언트(gradient)의 특성인 의료 영상 생성 장치.
15. The method of claim 14,
Wherein the characteristic is a characteristic of a gradient representing a two-dimensional gradient of the sinogram.
상기 분류부는 상기 각 단위신호의 특성을 나타내는 특징값을 산출하고, 상기 산출된 특징값에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
The method of claim 13,
The classification unit calculates a feature value representing a characteristic of each unit signal, and classifies the unit signals into a plurality of groups based on the calculated feature values.
상기 특징값은 상기 각 단위신호들 간의 유사도를 나타내는 코릴레이션(correlation) 값으로부터 산출되는 의료 영상 생성 장치.
17. The method of claim 16,
And the feature value is calculated from a correlation value representing a similarity between the unit signals.
상기 분류부는 상기 특징값들 중 최고값과 최저값을 결정하고, 상기 최고값과 상기 최저값 사이를 소정 개수의 구간으로 나누어 각 구간에 대하여 그룹을 설정하는 그룹 설정부를 더 포함하고,
상기 각 단위신호를 상기 각 단위신호의 특징값이 포함된 구간에 할당된 그룹으로 분류하는 의료 영상 생성 장치.
17. The method of claim 16,
The classification unit may further include a group setting unit configured to determine a maximum value and a minimum value among the feature values, and set a group for each period by dividing the maximum value and the minimum value into a predetermined number of sections.
And classifying each unit signal into a group allocated to a section including a feature value of each unit signal.
상기 분류부는 상기 특징값들을 비교한 결과에 따라 상기 각 단위신호를 나열하는 단위신호 나열부를 더 포함하고,
나열된 순서에 기초하여 상기 단위신호들을 복수 개의 그룹으로 분류하는 의료 영상 생성 장치.
17. The method of claim 16,
The classification unit further includes a unit signal arranging unit for arranging the unit signals according to a result of comparing the feature values.
The medical image generating apparatus classifies the unit signals into a plurality of groups based on the listed order.
상기 분류부는 k-평균 군집화(k-means clustering) 알고리즘을 이용하여 분류하는 의료 영상 생성 장치.
The method of claim 13,
The classification unit classifies the image using a k-means clustering algorithm.
상기 영상 생성부는 상기 그룹들 각각이 나타내는 상기 추적자의 위치가 일치되도록 상기 단위신호들을 정렬(registration)함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 장치.
The method of claim 13,
And the image generating unit generates an image of the object from the unit signals by regulating the unit signals so that the position of the tracker represented by each of the groups coincides with each other.
상기 그룹들 중 기준이 되는 하나의 그룹이 나타내는 상기 추적자의 위치로부터 상기 각 그룹이 나타내는 상기 추적자의 위치로의 상기 추적자의 움직임 정보를 추정하는 움직임 추정부를 더 포함하고,
상기 영상 생성부는 상기 움직임 정보에 기초하여 상기 단위신호들을 정렬함으로써 상기 단위신호들로부터 상기 대상체에 대한 영상을 생성하는 의료 영상 생성 장치.
22. The method of claim 21,
And a motion estimator for estimating the motion information of the tracker from the position of the tracker represented by one of the groups as a reference, to the position of the tracker represented by each group,
And the image generator generates an image of the object from the unit signals by aligning the unit signals based on the motion information.
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들과 상기 각 그룹에 할당된 단위신호들을 비교한 결과에 따라 추정되는 의료 영상 생성 장치.
23. The method of claim 22,
And the motion information is estimated based on a result of comparing unit signals assigned to one group as the reference and unit signals allocated to each group.
상기 움직임 정보는 상기 기준이 되는 하나의 그룹에 할당된 단위신호들을 누적한 시노그램과 상기 각 그룹에 할당된 단위신호들을 누적한 시노그램을 비교한 결과에 따라 추정되는 의료 영상 생성 장치.23. The method of claim 22,
And the motion information is estimated based on a result of comparing a sinogram that accumulates unit signals allocated to one group as the reference and a sinogram that accumulates unit signals allocated to each group.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013101022215A CN103381095A (en) | 2012-05-03 | 2013-03-27 | Apparatus and method for generating image in positron emission tomography |
US13/874,811 US20130294670A1 (en) | 2012-05-03 | 2013-05-01 | Apparatus and method for generating image in positron emission tomography |
JP2013097070A JP2013234999A (en) | 2012-05-03 | 2013-05-02 | Medical video generation method for positron emission tomography and device therefor |
EP20130166436 EP2660779A3 (en) | 2012-05-03 | 2013-05-03 | Apparatus and method for generating image in positron emission tomography |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120047128 | 2012-05-03 | ||
KR20120047128 | 2012-05-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130124135A true KR20130124135A (en) | 2013-11-13 |
Family
ID=49853216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120115025A KR20130124135A (en) | 2012-05-03 | 2012-10-16 | Apparatus and method for generating positron emission tomography image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130124135A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200000745A (en) * | 2018-06-25 | 2020-01-03 | 서울대학교산학협력단 | Medical practice data collection and management system and method |
KR20200055425A (en) * | 2018-11-13 | 2020-05-21 | 서강대학교산학협력단 | Apparatus and method for ultra-fast acquiring positron emission tomographic image based on deep learning |
-
2012
- 2012-10-16 KR KR1020120115025A patent/KR20130124135A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200000745A (en) * | 2018-06-25 | 2020-01-03 | 서울대학교산학협력단 | Medical practice data collection and management system and method |
KR20200055425A (en) * | 2018-11-13 | 2020-05-21 | 서강대학교산학협력단 | Apparatus and method for ultra-fast acquiring positron emission tomographic image based on deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6440230B2 (en) | Multi-modality imaging system and method | |
CN109009200B (en) | System and method for positron emission tomography image reconstruction | |
US9269166B2 (en) | Motion compensated imaging | |
CN1846618B (en) | Method for mathematical compensation of a periodic movement of an organ and image shooting system | |
US8903152B2 (en) | Methods and systems for enhanced tomographic imaging | |
CN107133549B (en) | ECT motion gating signal acquisition method and ECT image reconstruction method | |
JP2009528139A (en) | Local motion compensation based on list mode data | |
JP2013234999A (en) | Medical video generation method for positron emission tomography and device therefor | |
CN103282941A (en) | Method and apparatus to detect and correct motion in list-ode pet data with a gated signal | |
CN110536640B (en) | Noise robust real-time extraction of respiratory motion signals from PET list data | |
US9196063B2 (en) | Super-resolution apparatus and method | |
KR20130083205A (en) | Apparatus and method of correcting positron emission tomography image | |
US9501819B2 (en) | Super-resolution apparatus and method | |
KR20140062374A (en) | Method for estimating motion information and apparatus for generating image using the same | |
KR20140042461A (en) | Method and apparatus to correct motion | |
KR20140086627A (en) | Method and apparatus for generating image | |
KR102616736B1 (en) | Automated motion compensation in PET imaging | |
KR20130124135A (en) | Apparatus and method for generating positron emission tomography image | |
KR102020531B1 (en) | Method or Apparatus for generating a high-resolution PET(positron emission tomography) image using line gamma-ray source | |
Gigengack et al. | Motion correction in thoracic positron emission tomography | |
CN114867414A (en) | Apparatus, system, method and computer program for providing a nuclear image of a region of interest of a patient | |
Hugo | Characterization of Center-of-Mass and Rebinning in Positron Emission Tomography with Motion | |
RU2779714C1 (en) | Automated motion correction in pet imaging | |
WO2021105056A1 (en) | Motion compensation of positron emission tomographic data | |
Wang | Motion Correction Algorithm of Lung Tumors for Respiratory Gated PET Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |