WO2014069712A1 - 소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법 - Google Patents

소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법 Download PDF

Info

Publication number
WO2014069712A1
WO2014069712A1 PCT/KR2012/010898 KR2012010898W WO2014069712A1 WO 2014069712 A1 WO2014069712 A1 WO 2014069712A1 KR 2012010898 W KR2012010898 W KR 2012010898W WO 2014069712 A1 WO2014069712 A1 WO 2014069712A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pet
respiratory
images
pet data
Prior art date
Application number
PCT/KR2012/010898
Other languages
English (en)
French (fr)
Inventor
나종범
남우현
안일준
김지혜
장용진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120144198A external-priority patent/KR101428005B1/ko
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to US14/421,769 priority Critical patent/US9582906B2/en
Publication of WO2014069712A1 publication Critical patent/WO2014069712A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography

Definitions

  • the present invention relates to a method for generating a positron emission tomography (PET) image, and in particular, a motion compensation and attenuation correction for each motion state using a small number of low dose computed tomography (CT) images. Relates to how to do it.
  • PET positron emission tomography
  • CT computed tomography
  • PET images are molecular images that provide functional information such as metabolism of the human body, and are useful for early cancer diagnosis and treatment.
  • PET image due to the long data acquisition time of the whole body PET image (approximately tens of minutes), photography is taken while breathing freely, and movement of the chest / abdominal organs caused by the breathing causes image quality deterioration due to blur on the PET image. do.
  • a respiratory gating PET imaging method that uses respiratory gating equipment when acquiring PET images and obtains PET images of various respiratory states that improves respiratory movement by classifying PET data by respiration is widely used.
  • attenuation correction should be performed using the breath-specific CT that corresponds exactly to the breathing condition.
  • the respiratory PET classified by each respiratory condition is very poor in the signal to noise (SNR) aspect, so to improve this, the motion information between the respiratory PETs is well estimated, and the estimated motion information is used.
  • SNR signal to noise
  • the first method is to use respiratory CT image acquired using respiratory gating CT imaging (4D CT imaging) method.
  • respiratory CT imaging 4D CT imaging
  • AARA Aslow As Reasonably Achievable
  • a CT image is acquired only in one breathing as in the case of CT acquisition of a conventional PET / CT, and a method of using PET images for each breath is used to estimate respiratory movements through a process of registration between PET images for each breath.
  • PET images by respiration are noisy, and since the distribution of activity concentrations of different PET images by respiration is different, it is difficult to trust motion information due to registration.
  • respiratory-specific PET images that are not attenuated-corrected have few features that can be used for matching, so high matching performance is difficult to expect.
  • the CT images of a specific breath obtained above must be transformed for each breathing state using motion information obtained through matching between breathing PET images. CT images are more likely to cause distortion in PET images.
  • the present invention has been proposed to solve the above problems and to meet the above requirements, and to provide a method for performing motion compensation and attenuation correction for each motion state using a small number of low dose CT images. There is a purpose.
  • a method of generating a PET image comprising obtaining PET data for each breath, acquiring CT images in at least two different breathing states, and using the acquired CT images.
  • Generating a virtual 4D CT image selecting 3D CT images corresponding to the respiratory PET data among the 4D CT images, and breathing on the respiratory PET data using the selected 3D CT images Characterized in that it comprises the step of performing the attenuation correction for each star and respiratory scattering correction.
  • the present invention may further include performing respiratory motion compensation and reconstruction on the respiratory PET data on which the attenuation correction and scattering correction are performed using the selected 3D CT image corresponding to each respiration.
  • the present invention provides a method for generating a medical image, the method for generating a medical image, the step of acquiring a plurality of medical images for the same diagnosis target, and in consideration of the movement characteristics of the area of the obtained medical image Segmenting, performing matching between the plurality of medical images for each region, and fusing the matched region into one image.
  • the present invention provides a method for generating a medical image, in the method for generating a medical image, obtaining a CT image for each breath from at least two or more breaths, and breathing motion information using the CT image for each breath Estimating and generating a virtual 4D CT image using the movement information for each breath, wherein the generating the 4D CT image divides a region in consideration of movement characteristics of the CT image in the other breaths. And a process of performing image registration for each of the regions, and a process of fusing the image matched regions.
  • the present invention provides a method for determining a CT image corresponding to the respiratory PET data, receiving at least one CT image, at least one PET data classified by respiratory movement, and the received CT image and Matching the PET data, performing attenuation correction and reconstruction on the respiratory PET data, and selecting a CT image corresponding to the respiratory PET data using the degree of attenuation correction distortion measured in the reconstructed PET image. It is characterized by having another feature.
  • the present invention can generate a virtual 4D CT image, which can help improve the image quality of the PET image, by using a small number of low-dose CT images, without the actual 4D CT acquisition. This can greatly reduce the effect.
  • the dose is less than or equal to the radiation exposure for CT acquisition.
  • the present invention estimates the motion information for each breath by using a high-quality CT image, there is an effect that the motion information can be estimated more accurately than in the PET image which has a lot of noise and includes distortion.
  • the present invention has the effect of increasing the value of convenience and care in terms of clinical diagnosis by suggesting a more accurate, high-quality PET imaging method.
  • the non-rigid registration framework of the present invention by reflecting the movement characteristics of the internal and external organs according to the breathing has an effect that can further increase the accuracy of image registration.
  • the non-rigid registration framework of the present invention can be extended to the field of registration of images obtained from other medical imaging devices.
  • a matching framework for accurately finding 3D CT images corresponding to PET data for each breath among the 4D CTs proposed in the present invention that is, a technique for finding CT corresponding to each breath by using attenuation correction distortion, is applicable to various applications.
  • FIG. 1 is a flow chart of a respiratory motion compensation and attenuation correction method using a low dose CT image according to the present invention.
  • FIG. 2 is an explanatory diagram showing a process of forming a virtual CT image in any breath according to the present invention.
  • Figure 3 is an explanatory diagram showing the usefulness of using the degree of distortion of the attenuation correction in the selection process of the CT image corresponding to the breath-classified PET data according to the present invention.
  • FIG. 4 is an explanatory diagram showing a process of finding a matching set of CT images at a time such that all motion-specific PET images according to the present invention minimize the distortion of the attenuation correction as a whole.
  • FIG. 5 is an explanatory diagram showing generation of attenuation correction maps of PET data classified by motions using selected motion-specific CT images according to the present invention
  • the present invention proposes a motion compensation and attenuation correction method for each motion state of a PET image using a small number of low dose CT images. That is, the present invention proposes a method of forming a virtual 4D CT image without acquiring the actual CT for each breath and using the same, to perform aspiration respiration correction and respiratory motion compensation. In addition, we propose a workflow for acquiring a few low-dose CT images of 2-3 pieces. In addition, we propose a non-rigid registration method that reflects movement characteristics of internal and external organs according to respiration. In addition, among the generated virtual 4D CT images, a matching method for finding a CT image corresponding to a breath-specific PET image is proposed.
  • FIG. 1 is a flowchart illustrating a respiratory motion compensation and attenuation correction method using a low dose CT image according to the present invention.
  • Figure 1 will be described by dividing the PET image generation method according to the present invention into main steps.
  • CT image and PET data acquisition (102, 104, 106, 108)
  • each CT image obtained in the different breathing states is obtained by using a dose of about 10 to 50% of the dose when one independent CT image is taken.
  • listmode data can be obtained from PET systems, and respiratory waveform information monitored during acquisition can be obtained from respiratory gating devices. Using these two data, PET sinogram data classified by respiration is formed.
  • breath classification there are generally a time (phase) based method for classifying using a breathing cycle and an amplitude based method for classifying a height value of a breath.
  • the present invention forms a virtual 4D CT image from two to three low dose CT images. Accurate image matching techniques are required for reliable 4D CT image formation.
  • Thoracic / abdominal imaging can be divided into internal area organs, such as lungs, heart, liver, kidneys, stomach, and intestines, and external area tissue including ribs, spine, and adjacent muscle areas. Organs in the inner region are soft, non-rigid, and local in motion, while outer regions are rigid and global.
  • the target image is divided into several regions in consideration of the characteristics of each region, and after each matching process in each region, the results are fused.
  • it is divided into two areas for convenience of description.
  • the method of dividing a region may be applied to various image segmentation techniques generally known.
  • various image matching methods based on similarity functions such as mutual information (MI), cross correlation, SSD, SSIM, and CEIO can be used.
  • MI mutual information
  • a B-spline FFD, a TPS, a flow-based model, or the like may be used.
  • a normalized MI similarity function and a B-spline FFD model are used in consideration of performance and efficiency.
  • prior information on the motion characteristics in each region may be imposed as a constraint on the image matching, thereby further increasing the performance of each region matching.
  • Known constraints include volume preserving, mass preserving, thin plate model and orthonormal model.
  • the present invention also proposes a solution to the above problem.
  • Two motion informations exist around the boundary of the two areas.
  • the motion information enables the overall natural fusion by reflecting the motion characteristics due to respiration while improving the matching performance more accurately.
  • the energy cost function equations of Equation 1 are defined and extended to graph-cut optimization problem. That is, the refining process of the respiratory area movement field in the boundary region is performed during the fusing process, and the refinement process may be performed using a graph-cut algorithm.
  • ego Is a weight
  • E data is defined to reflect the accuracy of the movement, and may be represented by Equation 2 below.
  • MI mutual information
  • SSIM cross correlation
  • CEIO CEIO
  • Pr ( ⁇ ) a joint probability, which is relatively simple in calculation amount, is used as an embodiment.
  • I T is the matching target image and I T is the source image to be transformed.
  • I T is the source image to be transformed.
  • E smooth may be defined using different degrees of motion information overlapping in the boundary region so as to reflect the reliability of the estimated motion information, which may be expressed by Equation 3 below.
  • Means Kronecker delta Is the range adjustment parameter.
  • Means L 2 -norm Denotes a motion vector determined according to the level of the voxel.
  • Displacement field information which is a result of registration between two CT images of different motion states obtained in the foregoing process, may be usefully used for forming a 4D CT image.
  • the obtained displacement field is interpolated to generate motion information therebetween.
  • There are various methods such as cubic spline and linear.
  • the displacement field is interpolated to be proportional to the relative distance in any breath to be formed, and using this, a virtual CT image at any breath is formed.
  • N 4D is the plotting coordinate Means a set of surrounding integer voxels, Denotes a parameter for Gaussian interpolation.
  • exhaled CT image Using the m, the respiratory state m-th CT image can be generated through the following equation (6).
  • FIG. 2 is an explanatory diagram showing a process of forming a virtual CT image in any breath according to the present invention.
  • CT images corresponding to each of PET data classified by motion are selected and motion information is determined between PET data (116, 118, and 120).
  • the present invention proposes a technique for finding a corresponding CT based on an image without using an additional external sensor or the like.
  • an important concept is to reflect the degree of attenuation correction distortion phenomenon in the cost function for matching.
  • the present embodiment uses normalized MI. 3 shows an embodiment showing that the normalized MI can be effectively operated in using the degree of attenuation distortion in selecting a CT image corresponding to the respiration PET data.
  • a method of independently searching for CT images corresponding to the respective PET images may be proposed.
  • all existing breath-specific PET images may be used for attenuation correction.
  • a method of finding a matching set of CT images at once so that distortion correction can be minimized can also be proposed.
  • the Viterbi search method is used to make computation time more efficient, and the degree of attenuation correction distortion between adjacent PET data and the accuracy of motion estimation are reflected together to improve matching performance. This is illustrated in FIG. 4.
  • FIG. 4 is an explanatory diagram showing a process of finding a matching set of CT images at a time such that all of the breath-specific PET images according to the present invention minimize the distortion correction for the attenuation correction as a whole.
  • the upper horizontal axis of FIG. 4 represents PET data for each breath, and the left vertical axis represents virtual 4D CT images formed in the previous process.
  • Each vertical line represents a stage and finds the best matching set based on the matching result up to the last Nth stage.
  • the cost functions used here are node cost and branch cost.
  • Each equation is defined as follows to reflect the degree of attenuation correction distortion and the accuracy of respiratory motion estimation.
  • a matching framework that accurately finds 3D CT images corresponding to PET data for each breath among 4D CTs proposed in the present invention that is, a technique for finding CT corresponding to each breath by using attenuation correction distortion
  • a technique for finding CT corresponding to each breath by using attenuation correction distortion is suitable for various applications.
  • By measuring the CT image repeatedly in a direction of minimizing it by measuring it is possible to obtain an accurate CT image in which respiration is consistent. Embodiments related to this are as follows.
  • existing 4D CT images and actual at least one PET data classified by respiratory movements are received. Then, the 4D CT images and the PET images generated by reconstructing the PET data are matched for each breath, and at this time, attenuation correction and reconstruction are performed on the PET data for each breath, and the attenuation correction distortion measured in the reconstructed PET image.
  • the CT image corresponding to the respiration PET data is selected using the degree.
  • the CT data of different breathing states and PET data in a specific breath are received. Then, the received CT image is matched with PET data, the attenuation correction and reconstruction are performed on the respiratory PET data, and the corresponding attenuation correction distortion data measured in the reconstructed PET image corresponds to the respiratory PET data. Select CT images. At this time, the CT image is modified by repeatedly modifying the CT image in a direction of minimizing the degree of attenuation correction distortion.
  • Attenuation and scattering correction which are distortion correction elements that can vary from breath to breath.
  • the attenuation correction should be considered when using CT images due to the different energy of the radiation used by the two devices (PET and CT) (511 KeV for PET, 80 to 120 KeV for CT), and the corresponding attenuation coefficients for the energy are different. Is the point.
  • each symbol means: Denotes a value of the attenuation coefficient map, x denotes a position, and S denotes a straight line corresponding to a point of the sinogram. In other words, Denotes the shipment of the value of the linear attenuation coefficient map corresponding to one point of the sinogram.
  • Scattering distortion as well as attenuation correction should be corrected for each breathing PET data. Recently, scattering correction based on single scatter simulation has been widely used, and since the accurate attenuation coefficient map for each motion obtained above can be used, more accurate scattering correction can be performed.
  • the PET sinogram data classified by motions are corrected into PET images at any one breathing position.
  • a reconstruction method using Equation 8 is used. This is a method of reconstructing the respiratory model included in the system matrix of the PET reconstruction, it is known that the performance is higher than the existing methods.
  • n ' is an index indicating a reference breathing state.
  • N is an index that distinguishes the respiratory state of PET.
  • A stands for system matrix, Denotes a conversion equation for converting an image from the reference breathing state to any n breathing state. This conversion equation can be obtained in advance through step 5 above. and Represents the PET sinogram data of the n th respiratory state and the respiratory motion compensated PET image at the reference respiratory position, respectively.
  • the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art.
  • the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention.
  • the recording medium may include any type of computer readable recording medium.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)

Abstract

본 발명은 소수의 저선량 컴퓨터 단층촬영 영상을 이용한 양전자 단층촬영 영상의 움직임 보상 및 움직임 상태별 감쇠 보정 방법에 관한 것이다. 본 발명의 방법은 호흡별 PET 데이터를 획득하는 단계와, 적어도 2 이상의 다른 호흡에서 CT 영상을 획득하고, 이를 이용하여 가상의 4D CT 영상을 생성하는 단계와, 4D CT 영상과 호흡별 PET 데이터를 매칭하여, 호흡별로 정확하게 대응되는 3D CT 영상들을 선택하는 단계, 선택된 결과를 이용하여, 호흡별 PET 데이터간의 호흡 움직임 변위 필드 정보를 추출하는 단계, 선택된 CT 영상들을 이용하여 호흡별 PET 데이터에 호흡별 감쇠 및 산란 보정을 수행하는 단계, 보정된 호흡별 PET 데이터들과 추출된 호흡 움직임 변위 필드 정보들을 이용하여, 호흡 보상 및 재구성을 수행하는 단계를 구비한다.

Description

소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법
본 발명은 양전자 단층촬영(positron emission tomography : PET) 영상을 생성하는 방법에 관한 것으로서, 특히 소수의 저선량 컴퓨터 단층촬영(computed tomography : CT) 영상을 이용하여 PET 영상의 움직임 보상 및 움직임 상태별 감쇠 보정을 수행하는 방법에 관한 것이다.
PET 영상은 인체의 신진 대사 등의 기능정보를 제공하는 분자 영상으로서, 조기 암진단 및 치료에 유용하게 사용되고 있다. 하지만, 전신 PET 영상의 긴 데이터 획득 시간(대략 수십 분)으로 인해 자유롭게 호흡을 하면서 촬영을 하는데, 이때의 호흡에 의한 흉/복부 장기들의 움직임은 PET 영상에 블러(blur)로 인한 화질 열화를 야기한다.
한편, 양질의 PET 영상 복원을 위해서는 여러 가지 영상 왜곡 보정들을 수행하여야 하는데, 감쇠 보정의 경우, 일반적으로 PET 영상 촬영 직전에 동일한 기기(PET/CT 시스템)에서 획득한 엑스레이(X-ray) CT 영상을 이용하여 보정을 수행한다. CT 영상의 경우, 수초 이내의 빠른 데이터 획득이 가능하므로, 일반적으로 특정 호흡 근처에서 호흡을 멈추어서 촬영을 하는데, 이때에 PET 영상과의 호흡 상태 차이로 인해 정확한 감쇠 보정이 수행되지 않고, 감쇠 보정 왜곡 현상을 오히려 야기하는 문제점이 있다. 이런 왜곡 현상은 PET 영상의 정량적 분석을 방해하는 요소로 작용할 뿐만 아니라, PET 영상을 흐릿하게 하는 문제점이 있다. 이런 이유들로 인한 PET 영상의 화질 저하는 궁극적으로 정확한 진단 및 치료를 방해하므로 해결되어야만 한다.
위 문제들을 해결하기 위하여 PET 영상 획득 시에 호흡 게이팅(respiratory gating) 장비를 이용하고, PET 데이터를 호흡별로 분류해 호흡 움직임을 개선한 여러 호흡 상태의 PET 영상을 얻는 호흡 게이팅 PET 이미징 방법이 널리 사용되고 있다. 그러나 호흡별 PET 영상들을 효과적으로 복원하기 위해서는 호흡 상태에 정확히 대응되는 호흡별 CT를 이용해서 감쇠 보정을 수행해야 한다. 뿐만 아니라, 각 호흡 상태별로 분류된 호흡별 PET은 SNR (signal to noise) 측면에서 화질이 매우 저하되므로, 이를 개선하기 위해서는 호흡별 PET 간의 움직임 정보를 잘 추정하고, 추정된 움직임 정보를 이용해서 하나의 호흡 상태로 다른 호흡별 PET들을 변환 시켜주는 움직임 보상 과정을 수행하여야 한다.
호흡별 감쇠 보정과 호흡 움직임 추정 및 보상을 위한 기존 연구로서, 첫 번째는 PET 영상을 획득할 때처럼 호흡 게이팅 CT 이미징 (4D CT imaging) 방법을 사용하여 획득한 호흡별 CT 영상을 이용하는 방법이다. 이는 획득된 호흡별 CT 영상을 이용하여 호흡별 감쇠 보정을 수행할 수 있을 뿐만 아니라, 획득한 4D 획득 영상들로부터 호흡 움직임 정보를 비교적 정확하게 구해낼 수 있기 때문에 유용한 방법이다. 하지만 4D CT 이미징을 위해서는 기존의 CT 촬영시보다 방사선 노출량이 상당히 증가하는 문제로 인해, ICRP가 1965년 권고한 방사선 방호의 기본 사고방식을 나타내는 개념인 ALARA(As Low As Reasonably Achievable) 원칙에 의해, 최근에는 지양되고 있는 추세이다. 뿐만 아니라, 분류된 호흡별 CT 영상과 호흡별 PET 영상의 호흡이 서로 일치하지 않는 문제가 빈번하게 발생하는데, 이런 경우 CT에서 구한 호흡 정보가 잘못 적용될 가능성이 있어 궁극적으로 보정 및 보상의 효과가 저하하는 문제가 있다. 이를 교정하기 위해서는 시간이 많이 걸리는 사용자의 수작업이 필수적으로 요구되는 불편함이 있다.
또 다른 방법으로, 기존 PET/CT의 CT 획득 시와 동일하게 하나의 호흡에서만 CT 영상을 획득하고, 호흡별 PET 영상들을 이용하는 방법으로서, 호흡별 PET 영상들간의 정합의 과정을 통해 호흡 움직임을 추정한다. 그러나 일반적으로 호흡별 PET 영상은 노이즈가 많고, 각 호흡별 PET 영상들의 액티비티 농도(activity concentration)의 분포가 다르기 때문에 정합(registration)으로 인한 움직임 정보를 신뢰하기 어렵다. 더욱이, 감쇠 보정되지 않은 호흡별 PET 영상들은 정합에 사용될 수 있는 특징이 적으므로, 높은 정합의 성능을 기대하기 어렵다. 또한 호흡별 감쇠 보정을 위해서는 앞서 획득한 특정호흡의 CT 영상을 호흡별 PET 영상들간의 정합을 통해 구한 움직임 정보를 이용하여 각 호흡 상태별로 변환을 수행해야 하는데 그 정확성을 신뢰하기 어려우며, 오히려 잘못 변환된 CT 영상은 궁극적으로 PET 영상에 왜곡 현상을 야기시킬 가능성이 높다.
따라서 본 발명은 상기와 같은 문제점을 해결하고 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 소수의 저선량 CT 영상을 이용하여 PET 영상의 움직임 보상 및 움직임 상태별 감쇠 보정을 수행하는 방법을 제공하는데 일 목적이 있다.
또한 본 발명은 보다 정확한 임상 진단을 가능하게 하는 의료 영상을 생성하는 방법을 제공하는데 다른 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명은 PET 영상을 생성하는 방법에 있어서, 호흡별 PET 데이터를 획득하는 단계와, 적어도 서로 다른 두 호흡 상태에서 CT 영상을 획득하고, 상기 획득한 CT 영상들을 이용하여 가상의 4D CT 영상을 생성하는 단계와, 상기 4D CT 영상들 중, 상기 호흡별 PET 데이터에 대응되는 3D CT 영상들을 선택하는 단계와, 상기 선택된 3D CT영상들을 이용하여 상기 호흡별 PET 데이터에 호흡별 감쇠 보정 및 호흡별 산란 보정을 수행하는 단계를 구비하는 것을 일 특징으로 한다.
또한 본 발명은 상기 호흡 별로 대응되는 선택된 3D CT 영상을 이용하여 상기 감쇠 보정 및 산란 보정이 수행된 호흡별 PET 데이터에 호흡 움직임 보상 및 재구성을 수행하는 단계를 더 구비하는 것을 특징으로 한다.
또한 본 발명은 의료 영상을 생성하는 방법에 있어서, 의료 영상을 생성하는 방법에 있어서, 동일한 진단 대상에 대해 복수의 의료 영상을 획득하는 단계와, 움직임 특성을 고려하여 상기 획득한 의료 영상의 영역을 분할하는 단계와, 상기 영역별로 상기 복수의 의료 영상 사이의 정합을 수행하는 단계와, 상기 영상 정합된 영역을 하나의 영상으로 융합하는 단계를 구비하는 것을 다른 특징으로 한다.
또한 본 발명은 의료 영상을 생성하는 방법에 있어서, 의료 영상을 생성하는 방법에 있어서, 적어도 2 이상의 다른 호흡에서 호흡별 CT 영상을 획득하는 단계와, 상기 호흡별 CT 영상을 이용하여 호흡별 움직임 정보를 추정하는 단계와, 상기 호흡별 움직임 정보를 이용하여 가상의 4D CT 영상을 생성하는 단계를 구비하며, 상기 4D CT 영상 생성 단계는 상기 다른 호흡에서의 CT 영상을 움직임 특성을 고려하여 영역을 분할하는 과정과, 상기 영역별로 영상 정합을 수행하는 과정과, 상기 영상 정합된 영역을 융합하는 과정을 구비하는 것을 또 다른 특징으로 한다.
또한 본 발명은 호흡별 PET 데이터에 대응되는 CT 영상을 결정하는 방법에 있어서, 적어도 하나의 CT 영상들과, 호흡 움직임별로 분류된 적어도 하나의 PET 데이터들을 입력받는 단계와, 상기 입력받은 CT 영상과 PET 데이터를 매칭시키되, 상기 호흡별 PET 데이터에 대해 감쇠 보정과 재구성을 수행하고, 상기 재구성된 PET 영상에서 측정되는 감쇠보정 왜곡 정도를 이용하여 호흡별 PET 데이터에 대응되는 CT 영상을 선정하는 단계를 구비하는 것을 특징으로 또 다른 특징으로 한다.
상기와 같은 본 발명은 실제 4D CT 획득 없이도, 소수의 저선량 CT 영상들을 이용하여, PET 영상의 화질 개선에 도움이 될 수 있는, 가상의 4D CT 영상을 생성시킬 수 있으므로, 방사선 추가 노출에 대한 부담을 대폭 줄일 수 있는 효과가 있다. 일반적인 PET/CT 촬영 시, CT 획득을 위한 방사선 노출량과 동일하거나 더 적다.
또한, 본 발명은 고화질의 CT 영상을 이용하여, 호흡별 움직임 정보를 추정하므로 노이즈가 많고, 왜곡을 포함하고 있는 PET 영상에서보다 더 정확한 움직임 정보 추정이 가능한 효과가 있다.
또한, 본 발명은 보다 정확하고, 고화질의 PET 영상화 방법을 제안함으로써, 임상 진단 측면에서 편의성 및 진료의 가치를 높일 수 있도록 하는 효과가 있다.
또한, 본 발명에서 제시한 영역별 비강체 정합 프레임워크를 통해, 호흡에 따른 내, 외부 장기들의 움직임 특성을 반영시켜 영상 정합 정확도를 더욱 높일 수 있는 효과가 있다. 아울러, 본 발명의 비강체 정합 프레임워크는 타 의료 영상기기에서 획득한 영상의 정합 분야에도 확장 가능하다.
또한, 본 발명에서 제시한 4D CT 중에서 호흡별 PET 데이터에 대응되는 3D CT 영상을 정확하게 찾아내는 매칭 프레임워크, 즉 감쇠보정 왜곡현상을 이용하여 호흡별 PET에 대응되는 CT를 찾는 기법은, 다양한 응용에 확장 적용될 수 있는 효과가 있다. 예를 들어, 기존의 실제로 획득한 4D CT 영상들과 호흡별 PET 영상들을 매칭시키거나, 서로 호흡 상태가 다른 CT 영상과 특정 호흡에서의 PET 데이터가 주어졌을 때 둘 사이의 감쇠 왜곡 발생의 정도를 측정하여 이를 최소화시키는 방향으로 CT 영상을 반복적으로 변형시켜 호흡이 일치되는 정확한 CT 영상을 획득할 수 있다.
또한, 본 발명에 의해 생성한 4D CT 영상, 3D CT 영상, 호흡별 PET 영상 등으로 4D 디스플레이를 구현하여 영상 정보로부터 암 진단 및 치료 등을 하는데 있어 정확한 의료 행위가 이루어질 수 있도록 하는 효과가 있다.
도 1은 본 발명에 따른 저선량 CT 영상을 이용한 호흡 움직임 보상 및 감쇠 보정 방법 흐름도.
도 2는 본 발명에 따른 임의의 호흡에서의 가상 CT 영상을 형성하는 과정을 보여주는 설명도.
도 3은 본 발명에 따른 호흡 분류된 PET 데이터에 대응되는 CT 영상의 선택과정에 있어 감쇠 보정의 왜곡 정도를 이용하는 것의 유용성을 보여주는 설명도.
도 4는 본 발명에 따른 모든 움직임별 PET 영상이 전반적으로 감쇠 보정에 대한 왜곡이 최소화되도록 하는 CT 영상의 매칭 세트를 한번에 찾는 과정을 보여주는 설명도.
도 5는 본 발명에 따른 선정된 움직임별 CT 영상을 이용한 움직임별로 분류된 PET 데이터의 감쇠 보정 맵 생성을 보여주는 설명도.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면들을 함께 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
본 발명에서는 소수의 저선량 CT 영상을 이용한 PET 영상의 움직임 보상 및 움직임 상태별 감쇠 보정 방법을 제시한다. 즉, 본 발명에서는, 실제 호흡별 CT의 획득 없이도, 가상의 4D CT 영상을 형성시키고, 이를 이용하여, 호흡별 감쇠 보정 및 호흡 움직임 보상을 수행하는 방법을 제안한다. 또한, 2~3장 정도의 소수의 저선량 CT 영상들을 획득하는 워크플로우를 제안한다. 또한, 호흡에 따른 내, 외부 장기들의 움직임 특성이 반영된, 비강체 정합 방법을 제안한다. 또한, 생성된 가상 4D CT 영상들 중, 호흡별 PET 영상에 대응되는 CT 영상을 찾는 매칭 방법을 제안한다.
도 1은 본 발명에 따른 저선량 CT 영상을 이용한 호흡 움직임 보상 및 감쇠 보정 방법 흐름도이다. 이하, 도 1을 참조하면서 본 발명에 의한 PET 영상 생성 방법을 주요 단계로 나누어 설명한다.
1. CT 영상 및 PET 데이터 획득(102, 104, 106, 108)
일반적으로 PET/CT 촬영 시, 특정 한 호흡에서 3D CT 영상 한 장만을 촬영한다. 이때 사용되는 CT 선량 조건을 1이라고 했을 때, 제안 방법에서는 선량 조건을 1/2 또는 1/4 선량이 되도록 조정한 다음, 서로 다른 호흡 2~3 상태 (들숨과 날숨, 또는 들숨과 중간숨과 날숨)에서 CT 영상을 획득한다. 선량 조절을 위해서는 X선관 전류, 전압, 회전 시간(rotation time), 회전 피치(rotation pitch) 등을 조절하여 사용할 수 있으며, 영상 왜곡에 비교적 영향이 둔감한 전류 조절을 사용한다. PET 데이터는 호흡 게이팅 장치를 환자의 흉부 또는 복부에 장착한 다음에, 리스트모드(listmode) PET 데이터 획득 모드에서 촬영한다. 바람직하게는, 본 발명에서 상기 서로 다른 호흡 상태에서 획득한 각각의 CT 영상은 하나의 독립된 CT 영상을 촬영할 때의 선량의 10 ~ 50 % 정도의 선량을 이용하여 획득한다.
2. PET 데이터의 호흡 움직임별 분류(122)
호흡별 PET 데이터 획득을 통해, PET 시스템에서는 리스트모드(listmode) 데이터를 얻을 수 있고, 그리고 호흡 게이팅 장치에서는 획득하는 동안에 모니터링 된 호흡 파형 정보를 얻을 수 있다. 이 두 데이터를 이용하여, 호흡별로 분류된 PET 사이노그램(sinogram) 데이터를 형성한다. 호흡 분류를 위해서는, 일반적으로, 호흡 주기를 이용하여 분류하는 시간(위상) 기반 방법과 호흡의 높이 값으로 분류하는 진폭 기반 방법이 있다.
3. 획득한 CT 영상들간의 영역별 정합(110)
본 발명은 2~3장의 저선량 CT 영상들로부터 가상의 4D CT 영상을 형성시키는 것이다. 신뢰성 있는 4D CT 영상 형성을 위해서는 정확한 영상 정합 기술이 필요하다.
흉/복부 영상은, 폐, 심장, 간, 신장, 위, 대장 등의 내부 영역 장기들과 늑골과 척추 그리고 이들과 인접한 근육 영역들을 포함하는 외부 영역 조직으로 나눌 수 있다. 내부 영역의 장기들은 부드럽고 비강체이며 국부적(soft, non-rigid, local)인 움직임을 보이는데 반해, 외부 영역은 강체이며 전체적(rigid, global)인 움직임을 보이는 특성이 있다.
기존의 비강체 영상 정합에서는 효율성을 이유로 비스플라인 프리폼 변형(B-spline freeform deformation : FFD)을 사용한다. 그러나 B-spline FFD 모델의 특성상 인접한 영역에서의 움직임에 급격한 변화가 생기는 경우, 해당 영역의 정합의 성능이 저하되는 문제점이 있다. 따라서, 본 발명에서는 효율적이라고 알려진 B-spline FFD 모델을 사용하면서도, 움직임이 급격하게 변하는 영역에서도 정확하게 정합 성능을 보일 수 있는 방법을 제안한다.
본 발명에서는 영역별 움직임의 특성을 고려하여 대상 영상을 몇 가지 영역으로 나눈 다음, 각 영역에서 각각의 정합 과정을 거친 후에, 그 결과들을 융합한다. 본 실시예에서는 설명의 편의를 위해 두 영역으로 나눈다.
영역을 나누는 방법은 일반적으로 알려진 다양한 영상 분할 기술이 적용될 수 있다. 다음에 각각 영역에 대한 정합 과정 역시 많이 알려진 mutual information (MI), cross correlation, SSD, SSIM, CEIO 등의 유사도 함수를 기반으로 하는 다양한 영상 정합 방법이 사용될 수 있다. 변환 모델 역시, B-spline FFD, TPS, 플로우(flow) 기반 모델 등이 사용될 수 있다. 본 실시예에서는 성능 및 효율성을 고려하여 normalized MI 유사도 함수와 B-spline FFD 모델을 사용한다. 또한 각 영역 내의 움직임 특성에 대한 사전 정보를 영상 정합에 제한조건(constraint)으로 부과하여, 각 영역 정합의 성능을 보다 증대시킬 수도 있다. 알려진 제한조건들로는 volume preserving, mass preserving, thin plate model, orthonormal model 등이 있다.
또한, 위 과정에서 형성된 각각의 영상 영역에 대한 정합 결과를 잘 융합하는 것이 중요하다. 융합 과정에서 쉽게 발생할 수 있는 문제로 두 영역의 경계에서 발생하는 왜곡 현상 등을 들 수 있는데, 이는 다음 과정에서 구할 움직임 정보 형성에 직접적으로 악영향을 미치므로, 이 과정에서 왜곡 현상이 발생하지 않도록 하는 방안이 필요하다.
따라서, 본 발명에서는 위의 문제를 해결할 수 있는 방안 역시 제안한다. 두 영역의 경계 주변에서는 두 가지 움직임 정보가 상존하게 되는데, 본 발명에서는 두 정보들 중에 정합 성능을 더욱 정확하게 향상시키면서도, 호흡에 의한 움직임 특성을 잘 반영하여 전반적으로 자연스러운 융합을 가능하게 하는 움직임 정보를 선택한다. 이 문제를 해결하기 위한 수단으로 수학식 1의 에너지 비용 함수(energy cost function) 수식들을 정의하였고, 이를 graph-cut optimization 문제로 확장한다. 즉, 상기 융합하는 과정에 경계영역에서의 호흡영역움직임 필드의 정제과정(refinement)을 수행하며, 이 정제과정(refinement)에 있어서 graph-cut 알고리즘을 이용하여 수행될 수 있다.
수학식 1
Figure PCTKR2012010898-appb-M000001
여기서,
Figure PCTKR2012010898-appb-I000001
이고,
Figure PCTKR2012010898-appb-I000002
는 가중치이고,
Figure PCTKR2012010898-appb-I000003
는 인접하는 복셀(voxel)들의 상호작용하는 쌍(pair)의 세트를 표시한다. 또는 Edata는 움직임의 정확도를 반영할 수 있도록 정의하였으며, 아래 수학식 2로 표현될 수 있다. 응용예에 따라, 이는 mutual information (MI), cross correlation, SSD, SSIM, CEIO 등의 다양한 유사도 함수가 사용될수 있다. 본 발명에서는 실시예로써, 비교적 연산량이 간단한 joint probability, Pr(·)를 이용하였다.
수학식 2
Figure PCTKR2012010898-appb-M000002
여기서 I T는 정합 타켓 영상이며, I T는 변형될 소스 영상이다. 아울러,
Figure PCTKR2012010898-appb-I000004
는 복셀의 레벨에 따라 결정되는 변환식을 의미한다.
Esmooth는 추정된 움직임 정보의 신뢰성을 반영할 수 있도록 경계 영역에 중첩해서 존재하는 움직임 정보들간 다른 정도를 이용하여 정의될 수 있으며, 이는 아래 수학식 3으로 표현될 수 있다.
수학식 3
Figure PCTKR2012010898-appb-M000003
여기서,
Figure PCTKR2012010898-appb-I000005
는 Kronecker delta를 의미하며,
Figure PCTKR2012010898-appb-I000006
는 범위조절 파라미터이다. 또한
Figure PCTKR2012010898-appb-I000007
는 L2-norm을 의미하며,
Figure PCTKR2012010898-appb-I000008
는 복셀의 레벨에 따라 결정되는 움직임 벡터를 의미한다.
4. 4차원 움직임 정보 형성 및 4차원 CT 영상 형성(112, 114)
앞선 과정에서 구한 서로 다른 움직임 상태의 두 CT 영상들 사이의 정합 결과인 변위 필드(displacement field) 정보는 4D CT 영상의 형성에 유용하게 이용될 수 있다. 구한 변위 필드를 보간(interpolation)하여 그 사이의 움직임 정보를 생성한다. 보간 방법으로는 cubic spline, linear 등의 다양한 방법이 있다. 본 발명에서는 도 2와 같이, 형성시키려고 하는 임의의 호흡에서의 상대 거리에 비례하도록 변위 필드를 보간하고, 이를 이용하여, 임의의 호흡에서의 가상 CT 영상을 형성한다.
만약, 날숨과 들숨을 각각의 호흡상태 1과 M상태라고 명명하면, M번째 호흡 상태에서 임의의 m번째 호흡 상태로의 호흡 움직임 변위 필드,
Figure PCTKR2012010898-appb-I000009
는 다음의 수학식 4로 표현될 수 있다.
수학식 4
Figure PCTKR2012010898-appb-M000004
여기서, '1 ≤ m ≤ M'이고,
Figure PCTKR2012010898-appb-I000010
는 호흡 상태 M 번째 영상에서의 정수 복셀 위치를 의미하고,
Figure PCTKR2012010898-appb-I000011
는 호흡 상태 1번째 영상을 호흡 상태 M번째 영상으로 변환시켜 주는 호흡 변위 필드를 의미한다. 유사하게 임의의 호흡 상태 m'번째 영상에서 m번째 영상으로 변환시켜 주는 변위 필드는 다음의 수학식 5로 표현 가능하다.
수학식 5
Figure PCTKR2012010898-appb-M000005
여기서 N 4D는 플로팅 좌표
Figure PCTKR2012010898-appb-I000012
주변의 정수 복셀들의 세트를 의미하며,
Figure PCTKR2012010898-appb-I000013
는 가우시안 보간을 위한 파라미터를 의미한다. 상기 수학식 5를 기반으로, 날숨 CT 영상,
Figure PCTKR2012010898-appb-I000014
을 이용하여, 임의의 호흡 상태 m번째 CT 영상을 다음의 수학식 6을 통해, 생성시킬 수 있다.
수학식 6
Figure PCTKR2012010898-appb-M000006
도 2는 본 발명에 따른 임의의 호흡에서의 가상 CT 영상을 형성하는 과정을 보여주는 설명도이다.
5. 움직임별로 분류된 PET 데이터들 각각에 대응되는 CT 영상들을 선정 및 PET 데이터들 간의 움직임 정보 결정(116, 118, 120)
앞선 과정들에서 형성한 움직임별로 분류된 PET 데이터와 가상의 4D CT 영상들을 매칭시켜서 대응되는 호흡 상태별 CT 영상을 선정하는 것은 호흡별 PET 데이터들간의 움직임 정보 추정 및 감쇠 보정에 직접적인 영향을 미치므로 중요하다.
이를 위해 본 발명에서는 추가 외부 센서 등의 장치를 사용하지 않고, 영상기반으로 대응 CT를 찾아내는 기술을 제안한다. 이때, 중요한 개념은 매칭을 위한 비용 함수(cost function)에 감쇠 보정 왜곡 현상의 정도를 반영한다는 점이다. 즉 특정 CT 영상이 특정 움직임 PET 영상에 정확하게 대응된다면 그 CT 영상을 이용하여 감쇠 보정을 수행하였을 때, 감쇠 보정이 잘못 수행되면서 생기는 왜곡 현상이 최소화될 것이라는 개념을 이용한 것이다. 그 왜곡 정도를 측정하기 위해, 본 실시예에서는 normalized MI을 사용한다. 도 3에서는 호흡별 PET 데이터에 대응되는 CT 영상을 선정하는 과정에서, 감쇠왜곡의 정도를 이용함에 있어서, normalized MI가 효과적으로 동작할 수 있음을 보여주는 실시 예를 보여준다.
위에서 언급한 normalized MI를 이용하여, 각각의 움직임 별 PET 영상에 대응되는 CT 영상을 독립적으로 찾는 방법도 제안될 수 있겠지만, 또 다른 방법으로써, 존재하는 모든 호흡별 PET 영상이 전반적으로 감쇠 보정에 대한 왜곡 보정이 최소화되도록 하는 CT 영상의 매칭 세트를 한번에 찾는 방법도 제안될 수 있다. 이 방법에서는 보다 연산 시간을 효율적으로 하기 위해 비터비 검색(Viterbi search) 방법을 이용하고, 보다 매칭 성능을 향상시키기 위해 인접한 PET 데이터 간의 감쇠 보정 왜곡 현상 정도와 움직임 추정의 정확도 정도를 함께 반영시킨다. 이를 도 4에서 도시하였다.
도 4는 본 발명에 따른 모든 호흡별 PET 영상이 전반적으로 감쇠 보정에 대한 왜곡 보정이 최소화되도록 하는 CT 영상의 매칭 세트를 한번에 찾는 과정을 보여주는 설명도이다. 도 4의 상단 가로축은 호흡별 PET 데이터를 의미하고, 왼쪽 세로축은 앞선 과정에서 형성시킨 가상의 4D CT 영상들을 의미한다. 각각의 세로줄은 스테이지(stage)를 의미하며, 최종 N번째 스테이지까지의 매칭 결과를 바탕으로 최적의 매칭 세트를 찾는다. 이때 사용하는 비용 함수로는 노드 비용(node cost)와 브랜치 비용(branch cost)들이 있으며, 각각의 수식은 감쇠 보정 왜곡 정도와 호흡 움직임 추정의 정확도가 반영될 수 있도록 다음과 같이 정의한다.
수학식 7
Figure PCTKR2012010898-appb-M000007
여기서,
Figure PCTKR2012010898-appb-I000015
Figure PCTKR2012010898-appb-I000016
는 노드 비용과 브랜치 비용의 가중치 값들이며,
Figure PCTKR2012010898-appb-I000017
는 호흡상태 n번째 PET 영상의 복셀 위치좌표를 의미하며, 수학식 7의
Figure PCTKR2012010898-appb-I000018
Figure PCTKR2012010898-appb-I000019
와 동일한 복셀 위치 좌표로 해석될 수 있다. NMI()는 normalized MI를 의미하며, CC()는 cross correlation을 의미한다. 또한
Figure PCTKR2012010898-appb-I000020
는 n번째 호흡 상태 PET 데이터를 m번째 CT 영상을 이용해서 감쇠보정하고, 재구성해서 형성한 PET 영상을 의미한다.
한편, 위 과정을 통해, 호흡별 PET 데이터에 대응되는 CT 영상을 선택할 수 있을 뿐만 아니라, 각 CT 영상들이 가지고 있는, 선택된 CT 영상들간의 호흡 움직임 변위 필드 정보도 동시에 구해질 수 있다. 이 호흡 움직임 변위 정보들은 아래 단계에서 호흡 움직임 보상 재구성 과정에서 효과적으로 사용될 수 있을 것이다.
특히, 본 발명에서 제시한 4D CT 중에서 호흡별 PET 데이터에 대응되는 3D CT 영상을 정확하게 찾아내는 매칭 프레임워크, 즉 감쇠보정 왜곡현상을 이용하여 호흡별 PET에 대응되는 CT를 찾는 기법은, 다양한 응용에 확장 적용될 수 있는 효과가 있다. 예를 들어, 기존의 실제로 획득한 4D CT 영상들과 호흡별 PET 영상들을 매칭시키거나, 서로 호흡 상태가 다른 CT 영상과 특정 호흡에서의 PET 데이터가 주어졌을 때 둘 사이의 감쇠 왜곡 발생의 정도를 측정하여 이를 최소화시키는 방향으로 CT 영상을 반복적으로 변형시켜 호흡이 일치되는 정확한 CT 영상을 획득할 수 있다. 이와 관련된 실시 예는 다음과 같다.
첫번째 실시 예로, 기존의 실제로 획득한 4D CT 영상들과, 호흡 움직임별로 분류된 적어도 하나의 PET 데이터들을 입력받는다. 그러면 상기 4D CT 영상들과 상기 PET 데이터를 재구성하여 생성한 PET 영상들을 호흡별로 매칭시키되, 이때 상기 호흡별 PET 데이터에 대해 감쇠 보정과 재구성을 수행하고, 상기 재구성된 PET 영상에서 측정되는 감쇠보정 왜곡 정도를 이용하여 호흡별 PET 데이터에 대응되는 CT 영상을 선정한다.
두번째 실시 예로, 서로 호흡 상태가 다른 CT 영상과 특정 호흡에서의 PET 데이터를 입력받는다. 그러면 상기 입력받은 CT 영상과 PET 데이터를 매칭시키되, 상기 호흡별 PET 데이터에 대해 감쇠 보정과 재구성을 수행하고, 상기 재구성된 PET 영상에서 측정되는 감쇠보정 왜곡 정도를 이용하여 호흡별 PET 데이터에 대응되는 CT 영상을 선정한다. 이때 감쇠보정 왜곡 정도를 최소화시키는 방향으로 상기 CT 영상을 반복적으로 변형시켜 호흡이 일치되는 CT 영상을 선정한다.
6. 선정된 움직임별 CT 영상을 이용하여 움직임별로 분류된 PET 데이터의 왜곡 보정 요소 생성(124, 126)
위 과정에서 구한, 선정된 CT 영상들을 이용해서, 호흡별로 달라질 수 있는 왜곡보정 요소들인 감쇠 및 산란 보정을 수행한다. 감쇠 보정은 CT 영상을 사용할 때 고려해야할 사항은 PET 및 CT, 두 기기에서 사용하는 방사선의 에너지가 다름으로 인해 (PET은 511KeV, CT는 80~120 KeV), 그 에너지에 대응되는 감쇠 계수가 다르다는 점이다.
최근 가장 널리 사용하는 방법은 CT 영상의 값을 도 4와 같은 변환함수를 적용하여 511KeV에 해당하는 감쇠 정보를 가지는 가상의 영상을 만들어내는 것이고 이를 감쇠계수 맵이라 한다. 도 4는 본 발명에 따른 선정된 움직임별 CT 영상을 이용한 움직임별로 분류된 PET 데이터의 왜곡 보정 요소 생성을 보여주는 설명도이다. 감쇠계수 맵의 값을 선적분(
Figure PCTKR2012010898-appb-I000021
)하여 그 값을 감쇠 보상 계수로 사용한다. 그리고 감쇠 보상 계수를 사이노그램에 곱해주어 감쇠 보상을 수행한다. 위 선적분을 나타내는 수식에서 각 기호는 다음을 의미한다.
Figure PCTKR2012010898-appb-I000022
는 감쇠계수 맵의 값을 나타내고, x는 위치를 나타내며, S는 사이노그램의 한 점에 대응되는 직선을 나타낸다. 즉,
Figure PCTKR2012010898-appb-I000023
는 사이노그램의 한 점에 대응되는 직선상의 감쇠계수 맵의 값을 선적분 한 것을 의미한다.
감쇠 보정뿐만 아니라 산란 왜곡 현상 역시, 호흡별 PET 데이터별로 보정되어야 한다. 최근에는 single scatter simulation 기반의 산란 보정이 많이 사용되고 있으며, 이때 위에서 구한 움직임별 정확한 감쇠계수 맵을 사용할 수 있으므로 더욱 정확한 산란 보정을 수행할 수 있다.
7. 움직임 및 왜곡 현상이 보정된 최종 PET 영상 재구성(128, 130)
위에서 구한 왜곡 보정 요소들과 결정된 최종 움직임 정보를 이용하여, 움직임별로 분류된 PET 사이노그램 데이터들을 임의의 한 호흡 위치에서의 PET 영상으로 보정한다. 이를 위해 다음의 수학식 8을 이용한 재구성 방법을 사용한다. 이는 호흡 모델을 PET 재구성의 시스템 매트릭스에 함께 포함하여 재구성하는 방법으로, 기존의 방법들에 비해 그 성능이 높은 것으로 알려져 있다.
수학식 8
Figure PCTKR2012010898-appb-M000008
여기서 i는 반복 횟수를 의미하여, n'은 기준 호흡 상태를 나타내는 인덱스이다. 그리고 n은 PET의 호흡 상태를 구분하는 인덱스이다. A는 시스템 매트릭스를 의미하고,
Figure PCTKR2012010898-appb-I000024
는 기준 호흡 상태에서, 임의의 n 호흡 상태로 영상을 변환시키는 변환식을 의미한다. 이 변환식은 상기 5번 과정을 통해, 미리 구해질 수 있다.
Figure PCTKR2012010898-appb-I000025
Figure PCTKR2012010898-appb-I000026
은 각각 n번째 호흡 상태의 PET 사이노그램 데이터 및 기준 호흡 위치에서 호흡 움직임 보상된 PET 영상을 의미한다.
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
소수의 저선량 컴퓨터 단층촬영 영상을 이용한 양전자 단층촬영 영상의 움직임 보상 및 움직임 상태별 감쇠 보정 기술에 적용된다.

Claims (25)

  1. PET 영상을 생성하는 방법에 있어서,
    호흡별 PET 데이터를 획득하는 단계와,
    적어도 서로 다른 두 호흡 상태에서 CT 영상을 획득하고, 상기 획득한 CT 영상들을 이용하여 가상의 4D CT 영상을 생성하는 단계와,
    상기 4D CT 영상들 중, 상기 호흡별 PET 데이터에 대응되는 3D CT 영상들을 선택하는 단계와,
    상기 선택된 3D CT영상들을 이용하여 상기 호흡별 PET 데이터에 호흡별 감쇠 보정 및 호흡별 산란 보정을 수행하는 단계를
    구비하는 것을 특징으로 하는 PET 영상의 생성 방법.
  2. 제 1 항에 있어서,
    상기 호흡 별로 대응되는 선택된 3D CT 영상을 이용하여 상기 감쇠 보정 및 산란 보정이 수행된 호흡별 PET 데이터에 호흡 움직임 보상 및 재구성을 수행하는 단계를 더 구비하는 것을 특징으로 하는 PET 영상의 생성 방법.
  3. 제 2 항에 있어서,
    상기 가상의 4D CT 영상과 호흡별 PET 영상과의 감쇠보정 왜곡 현상을 이용한 매칭 과정을 통해, 호흡별 PET 데이터들간의 호흡움직임 정보를 추정하는 것을 특징으로 하는 PET 영상의 생성 방법.
  4. 제 1 항에 있어서,
    상기 서로 다른 호흡 상태에서 획득한 각각의 CT 영상은 하나의 독립된 CT 영상을 촬영할 때의 선량의 10 내지 50 % 정도의 선량을 이용하여 획득하며, 이를 이용하는 것을 특징으로 하는 PET 영상의 생성 방법.
  5. 제 1 항에 있어서,
    상기 적어도 서로 다른 두 호흡 상태 이상의 다른 호흡은 들숨과 날숨, 또는 들숨과 중간숨과 날숨인 것을 특징으로 하는 PET 영상의 생성 방법.
  6. 제 1 항에 있어서,
    상기 호흡별 PET 데이터는 호흡 게이팅 장치(respiratory gating system)를 환자의 흉부 또는 복부에 장착하고 리스트모드(listmode) PET 데이터 획득 모드에서 촬영되는 것을 특징으로 하는 PET 영상의 생성 방법.
  7. 제 1 항에 있어서,
    상기 가상의 4D CT 영상을 생성하는 단계는
    상기 다른 호흡에서의 CT 영상을 움직임 특성을 고려하여 영역을 분할하는 과정과,
    상기 영역별로 영상 정합을 수행하는 과정과,
    상기 영상 정합된 영역을 융합하는 과정을
    구비하는 것을 특징으로 하는 PET 영상의 생성 방법.
  8. 제 7 항에 있어서,
    상기 영역별 영상 정합은 B-spline FFD (free form deformation) 변환으로 수행되는 것을 특징으로 하는 PET 영상의 생성 방법.
  9. 제 8 항에 있어서,
    상기 B-spline FFD 변환에 영역별 움직임 특성 정보를 제한조건(constraint)으로 부과하는 것을 특징으로 하는 PET 영상의 생성 방법.
  10. 제 7 항에 있어서,
    상기 융합하는 과정에 경계영역에서의 호흡영역움직임 필드의 정제과정(refinement)을 수행하는 것을 특징으로 하는 PET 영상의 생성 방법.
  11. 제 8 항에 있어서,
    상기 정제과정(refinement)에 있어서, graph-cut 알고리즘을 이용하여 수행되는 것을 특징으로 하는 PET 영상의 생성 방법.
  12. 제 1 항에 있어서,
    상기 호흡별 감쇠 보정 단계는 상기 4D CT 영상에서 상기 호흡별 PET 영상에 대응되는 CT 영상을 매칭하는 과정을 구비하는 것을 특징으로 하는 PET 영상의 생성 방법.
  13. 제 12 항에 있어서,
    상기 매칭되는 CT 영상을 선정함에 있어서, 상기 호흡별 PET 영상에 대해 감쇠 보정과 재구성과정을 수행하고, 재구성된 영상에서 측정되는 감쇠보정 왜곡 정도를 이용하여, 호흡별 PET 데이터에 대응되는 CT 영상을 찾는 것을 특징으로 하는 PET 영상의 생성 방법.
  14. 제 12 항 또는 제 13 항에 있어서,
    상기 감쇠 보정의 왜곡 정도를 이용한, 호흡별 PET 데이터에 대응되는 CT 영상 선정과정에 있어서, 호흡별 PET 데이터 별로 독립적으로 선정하는 방법을 특징으로 하는 PET 영상의 생성 방법.
  15. 제 12 항 또는 제 13 항에 있어서,
    상기 감쇠 보정의 왜곡 정도를 이용한, 호흡별 PET 데이터에 대응되는 CT 영상 선정과정에 있어서, 호흡 별 PET 데이터를 전체 세트로 가정하여, 전체 감쇠보정왜곡 정도와 호흡 움직임 오차 정도의 총합을 최소화 되도록 하게 선정하는 것을 특징으로 하는 PET 영상의 생성 방법.
  16. 의료 영상을 생성하는 방법에 있어서,
    동일한 진단 대상에 대해 복수의 의료 영상을 획득하는 단계와,
    움직임 특성을 고려하여 상기 획득한 의료 영상의 영역을 분할하는 단계와,
    상기 영역별로 상기 복수의 의료 영상 사이의 정합을 수행하는 단계와,
    상기 영상 정합된 영역을 하나의 영상으로 융합하는 단계를
    구비하는 것을 특징으로 하는 의료 영상의 생성 방법.
  17. 제 16 항에 있어서,
    상기 영역별 영상 정합은 B-spline FFD (free form deformation) 변환으로 수행되는 것을 특징으로 하는 의료 영상의 생성 방법.
  18. 제 17 항에 있어서,
    상기 B-spline FFD 변환에 영역별 움직임 특성 정보를 제한조건(constraint)으로 부과하는 것을 특징으로 하는 의료 영상의 생성 방법.
  19. 제 16 항에 있어서,
    상기 융합하는 과정에 경계영역에서의 호흡영역움직임 필드의 정제과정(refinement)을 수행하는 것을 특징으로 하는 의료 영상의 생성 방법.
  20. 제 19 항에 있어서,
    상기 정제과정(refinement)에 있어서, graph-cut 알고리즘을 이용하여 수행되는 것을 특징으로 하는 의료 영상의 생성 방법.
  21. 의료 영상을 생성하는 방법에 있어서,
    적어도 2 이상의 다른 호흡에서 호흡별 CT 영상을 획득하는 단계와,
    상기 호흡별 CT 영상을 이용하여 호흡별 움직임 정보를 추정하는 단계와,
    상기 호흡별 움직임 정보를 이용하여 가상의 4D CT 영상을 생성하는 단계를 구비하며,
    상기 4D CT 영상 생성 단계는
    상기 다른 호흡에서의 CT 영상을 움직임 특성을 고려하여 영역을 분할하는 과정과,
    상기 영역별로 영상 정합을 수행하는 과정과,
    상기 영상 정합된 영역을 융합하는 과정을 구비하는 것을 특징으로 하는 의료 영상의 생성 방법.
  22. 컴퓨터 판독 가능한 기록매체에 있어서,
    호흡별 PET 데이터를 획득하는 단계와,
    적어도 2 이상의 다른 호흡에서 호흡별 CT 영상을 획득하고, 상기 획득한 호흡별 CT 영상을 이용하여 가상의 4D CT 영상을 생성하는 단계와,
    상기 4D CT 영상 중 상기 호흡별 PET 데이터에 대응되는 3D CT 영상들을 선택하는 단계와,
    상기 선택 과정을 통해 호흡별 PET데이터간 호흡 움직임 변위 필드 정보들을 추출하는 단계와,
    상기 선택된 3D CT 영상들을 이용하여, 호흡별 PET의 호흡별 감쇠 및 산란보정을 수행하는 단계와,
    상기 보정된 호흡 별 PET 사이노그램들을 상기 추출된 호흡 움직임 변위 필드 정보들을 이용하여, 호흡 보상 및 재구성을 수행하여, 임의의 호흡 상태에서의 PET 영상을 생성하는 단계를
    수행하는 컴퓨터 프로그램이 기록된 기록매체.
  23. 호흡별 PET 데이터에 대응되는 CT 영상을 결정하는 방법에 있어서,
    적어도 하나의 CT 영상들과, 호흡 움직임별로 분류된 적어도 하나의 PET 데이터들을 입력받는 단계와,
    상기 입력받은 CT 영상과 PET 데이터를 매칭시키되, 상기 호흡별 PET 데이터에 대해 감쇠 보정과 재구성을 수행하고, 상기 재구성된 PET 영상에서 측정되는 감쇠보정 왜곡 정도를 이용하여 호흡별 PET 데이터에 대응되는 CT 영상을 선정하는 단계를
    구비하는 것을 특징으로 하는 감쇠보정 왜곡현상을 이용한 CT 영상의 결정 방법.
  24. 제 23 항에 있어서,
    상기 입력받은 CT 영상은 4D CT 영상들이고, 상기 매칭 과정은 상기 4D CT 영상들과 상기 PET 데이터를 재구성하여 생성한 PET 영상들을 호흡별로 매칭시키는 것을 특징으로 하는 감쇠보정 왜곡현상을 이용한 CT 영상의 결정 방법.
  25. 제 23 항에 있어서,
    상기 입력받은 CT 영상과 PET 데이터는 서로 호흡 상태가 다른 CT 영상과 특정 호흡에서의 PET 데이터이고, 상기 CT 영상 선정 과정은 상기 감쇠보정 왜곡 정도를 최소화시키는 방향으로 상기 CT 영상을 반복적으로 변형시켜 호흡이 일치되는 CT 영상을 선정하는 것을 특징으로 하는 감쇠보정 왜곡현상을 이용한 CT 영상의 결정 방법.
PCT/KR2012/010898 2012-10-29 2012-12-14 소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법 WO2014069712A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/421,769 US9582906B2 (en) 2012-10-29 2012-12-14 Method for subjecting PET image to motion compensation and attenuation correction by using small number of low-radiation-dose CT images

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0120713 2012-10-29
KR20120120713 2012-10-29
KR1020120144198A KR101428005B1 (ko) 2012-10-29 2012-12-12 소수의 저선량 ct 영상을 이용하여 pet 영상을 움직임 보상 및 감쇠 보정하는 방법
KR10-2012-0144198 2012-12-12

Publications (1)

Publication Number Publication Date
WO2014069712A1 true WO2014069712A1 (ko) 2014-05-08

Family

ID=50627597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/010898 WO2014069712A1 (ko) 2012-10-29 2012-12-14 소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법

Country Status (1)

Country Link
WO (1) WO2014069712A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105147312A (zh) * 2015-08-25 2015-12-16 上海联影医疗科技有限公司 Pet图像获取方法及系统
KR101725668B1 (ko) * 2015-10-15 2017-04-11 한국과학기술원 4d 영상의 화질 개선을 위한 반복적 움직임 보상 기법
CN109009200A (zh) * 2017-09-30 2018-12-18 上海联影医疗科技有限公司 用于正电子发射断层成像图像重建的系统和方法
CN110063739A (zh) * 2019-04-11 2019-07-30 澳门大学 Spect和pet的图像校正方法、装置以及电子设备
CN110992280A (zh) * 2019-11-27 2020-04-10 上海联影医疗科技有限公司 Pet图像衰减校正方法、装置、计算机设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232855A (ja) * 2002-02-13 2003-08-22 Hitachi Ltd 断層像作成装置及び断層像作成方法並びに放射線検査装置
JP2009156856A (ja) * 2007-12-03 2009-07-16 Shimadzu Corp 核医学診断x線ct装置
US20090253980A1 (en) * 2008-04-08 2009-10-08 General Electric Company Method and apparatus for determining the effectiveness of an image transformation process
KR101080605B1 (ko) * 2010-04-30 2011-11-04 한국과학기술원 Mr 영상을 이용한 pet 영상 감쇄 보상 방법 및 pet 장치
US20120078089A1 (en) * 2010-09-23 2012-03-29 General Electric Company Method and apparatus for generating medical images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232855A (ja) * 2002-02-13 2003-08-22 Hitachi Ltd 断層像作成装置及び断層像作成方法並びに放射線検査装置
JP2009156856A (ja) * 2007-12-03 2009-07-16 Shimadzu Corp 核医学診断x線ct装置
US20090253980A1 (en) * 2008-04-08 2009-10-08 General Electric Company Method and apparatus for determining the effectiveness of an image transformation process
KR101080605B1 (ko) * 2010-04-30 2011-11-04 한국과학기술원 Mr 영상을 이용한 pet 영상 감쇄 보상 방법 및 pet 장치
US20120078089A1 (en) * 2010-09-23 2012-03-29 General Electric Company Method and apparatus for generating medical images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105147312A (zh) * 2015-08-25 2015-12-16 上海联影医疗科技有限公司 Pet图像获取方法及系统
KR101725668B1 (ko) * 2015-10-15 2017-04-11 한국과학기술원 4d 영상의 화질 개선을 위한 반복적 움직임 보상 기법
CN109009200A (zh) * 2017-09-30 2018-12-18 上海联影医疗科技有限公司 用于正电子发射断层成像图像重建的系统和方法
CN110063739A (zh) * 2019-04-11 2019-07-30 澳门大学 Spect和pet的图像校正方法、装置以及电子设备
CN110063739B (zh) * 2019-04-11 2023-11-24 澳门大学 Spect和pet的图像校正方法、装置以及电子设备
CN110992280A (zh) * 2019-11-27 2020-04-10 上海联影医疗科技有限公司 Pet图像衰减校正方法、装置、计算机设备
CN110992280B (zh) * 2019-11-27 2023-10-31 上海联影医疗科技股份有限公司 Pet图像衰减校正方法、装置、计算机设备

Similar Documents

Publication Publication Date Title
KR101428005B1 (ko) 소수의 저선량 ct 영상을 이용하여 pet 영상을 움직임 보상 및 감쇠 보정하는 방법
US9269166B2 (en) Motion compensated imaging
CN109009200B (zh) 用于正电子发射断层成像图像重建的系统和方法
CN109741284A (zh) 用于校正pet成像中由呼吸运动引起的失配的系统和方法
JP4576228B2 (ja) 生理学的モデルに基づく非剛体画像位置合わせ
CN107133946B (zh) 医学图像处理方法、装置及设备
CN108289651B (zh) 用于跟踪身体部位中的超声探头的系统
CN109035355A (zh) 用于pet图像重建的系统和方法
EP2389661B1 (en) Nuclear image reconstruction
WO2014069712A1 (ko) 소수의 저선량 씨티 영상을 이용하여 피이티 영상을 움직임 보상 및 감쇠 보정하는 방법
Nye et al. Minimizing artifacts resulting from respiratory and cardiac motion by optimization of the transmission scan in cardiac PET/CT
CN108364290A (zh) 对周期性生理活动的图像序列进行分析的方法、介质和系统
US20160321821A1 (en) Moving structure motion compensation in imaging
US11715212B2 (en) Heatmap and atlas
CN111242931A (zh) 一种单肺叶的小气道病变判断方法和装置
US20210150781A1 (en) Method for processing computed tomography imaging data of a suspect's respiratory system
Wu et al. Reconstruction of 4D-CT from a single free-breathing 3D-CT by spatial-temporal image registration
KR101350496B1 (ko) 광자감쇠지도 생성 방법 및 mri 융합영상시스템
CN111583354B (zh) 医学图像处理单元的训练方法和医学图像运动估计方法
JP2005040178A (ja) 医用画像表示方法
CN112365492A (zh) 图像扫描方法、装置、电子设备和存储介质
Nye et al. Current state of hybrid imaging: attenuation correction and fusion
US20230045406A1 (en) System and method for hybrid imaging
KR20140054783A (ko) 움직임 보상된 pet영상과 ct 및 mr 영상과의 4차원 융합 디스플레이 기술
Ding et al. Non-rigid 3D CT/MR Liver Registration with Discontinuous Transforms Using Total Variation Regularization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12887583

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14421769

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12887583

Country of ref document: EP

Kind code of ref document: A1