WO2014148828A1 - 영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치 - Google Patents

영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치 Download PDF

Info

Publication number
WO2014148828A1
WO2014148828A1 PCT/KR2014/002334 KR2014002334W WO2014148828A1 WO 2014148828 A1 WO2014148828 A1 WO 2014148828A1 KR 2014002334 W KR2014002334 W KR 2014002334W WO 2014148828 A1 WO2014148828 A1 WO 2014148828A1
Authority
WO
WIPO (PCT)
Prior art keywords
detector
value
pixel
common axis
determining
Prior art date
Application number
PCT/KR2014/002334
Other languages
English (en)
French (fr)
Inventor
홍윤미
김계현
이재성
이재출
정해경
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP14767386.7A priority Critical patent/EP2977955B1/en
Priority to US14/778,864 priority patent/US9993218B2/en
Publication of WO2014148828A1 publication Critical patent/WO2014148828A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/42Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4233Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using matrix detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/424Iterative

Definitions

  • the present invention relates to a projection and reverse projection method in an image processing method and an image processing device, and more particularly, to a projection and reverse projection method for minimizing artifacts occurring in an image.
  • the projection image may be acquired through a detector through which the electromagnetic wave transmitted from the source generating the electromagnetic wave passes through the object.
  • the tomography image may be reconstructed through a back-projection method for the obtained projection image.
  • the detector value is calculated from the pixel when performing projection, and in contrast, the pixel value is inferred from the detector value when performing reverse projection. In this process, a process of estimating the detector value and the pixel value is necessary.
  • the plurality of pixels included in the pixel grid and the plurality of detector cells included in the detection unit influence each other, so that artifacts are compared with the original image. ) Will exist.
  • An embodiment of the present invention provides an image processing method and an image processing apparatus capable of obtaining the same image as the original image by minimizing artifacts generated during projection and reverse projection.
  • the image processing method of the image processing apparatus includes the step of projecting the center of the pixels of the pixel grid (pixel grid) on a predetermined common axis, A detector value based on mapping a boundary of a detector cell included in the detector to the predetermined common axis, projecting a center of pixels to a predetermined common axis, and mapping a boundary of the detector cell to a predetermined common axis It may include the step of determining.
  • FIG. 1 is a diagram illustrating a state in which an electromagnetic wave irradiated toward an inspected object passes through the inspected object and reaches the detector in the imaging system.
  • FIG. 2 is a diagram illustrating a structure for obtaining pixel values when performing image processing according to a first projection method.
  • FIG. 3 is a diagram illustrating a structure for obtaining a detector value when performing image processing according to a second projection method.
  • FIG. 4 is a graph showing a sinogram according to a second projection method of a uniform disk.
  • FIG. 5 is a diagram illustrating a pixel model for performing image processing according to a third projection method.
  • 6 is a graph showing the basis function used in the third projection method.
  • FIG. 8 is a diagram illustrating a structure for performing forward projection according to a fourth projection method.
  • FIG. 9 is a diagram illustrating a structure for performing reverse projection according to a fourth projection method.
  • FIG. 10 is a graph showing the actual sinogram, the result according to the second projection method, and the result according to the fourth projection method in computed tomography.
  • the image processing method of the image processing apparatus includes the step of projecting the center of the pixels of the pixel grid (pixel grid) on a predetermined common axis, A detector value based on mapping a boundary of a detector cell included in the detector to the predetermined common axis, projecting a center of pixels to a predetermined common axis, and mapping a boundary of the detector cell to a predetermined common axis It may include the step of determining.
  • the determining of the detector value may include determining the detector value by using a formula obtained by integrating pixel values between points where the boundary of the detector cell is mapped to a common axis. Can be.
  • the determining of the detector value may include determining a pixel value corresponding to a point where the boundary of the detector cell is mapped to the common axis based on interpolation. Can be.
  • the common axis may be determined according to the angle between the line connecting the source and the detection unit and the horizontal axis.
  • the determining of the detector value may be characterized in that the detector value is determined based on a partial linear model of the value of the pixel affecting the detector cell.
  • An image processing method of an image processing apparatus includes projecting a center of a detector cell included in a detector on a common axis, mapping a boundary of pixels of a pixel grid to a common axis, and including a detector. Determining a pixel value based on projecting the center of the detected detector cell on a predetermined common axis and mapping a boundary of the pixel to the predetermined common axis.
  • the determining of the pixel value may include determining the pixel value by using a formula integrating a detector value between points where a pixel boundary is mapped to a common axis. have.
  • the determining of the pixel value may include determining a detector value corresponding to a point where the boundary of the pixel is mapped to the common axis based on the interpolation method.
  • the common axis may be determined according to the angle between the line connecting the source and the detection unit and the horizontal axis.
  • determining the pixel value may be characterized by determining the pixel value based on a partial linear model of the value in which the detector cell affects the pixel.
  • An image processing apparatus projects a center of pixels of a pixel grid and a detector including a source for generating electromagnetic waves and a detector cell for detecting electromagnetic waves, on a predetermined common axis
  • the controller may include a controller configured to map a boundary of the detector cell to a predetermined common axis and determine a detector value using the projection result and the mapping result.
  • control unit may determine the detector value by using a formula that integrates pixel values between points where the boundary of the detector cell is mapped to the common axis.
  • the controller may include determining a detector value corresponding to a point where a boundary of a detector cell is mapped to a common axis based on interpolation.
  • control unit may be characterized by determining the common axis according to the angle between the line connecting the source and the detection unit and the horizontal axis.
  • control unit may be characterized by determining the detector value based on a partial linear model of the value that the pixel affects the detector cell.
  • an image processing apparatus includes: a detector including a source for generating electromagnetic waves, a detector cell for detecting electromagnetic waves, and a center of a detector cell on a predetermined common axis,
  • the controller may be configured to map a boundary to a predetermined common axis and determine a pixel value by using the projection result and the mapping result.
  • the controller may determine the pixel value by using a formula integrating the detector value between the points where the pixel boundary is mapped to the common axis.
  • the controller may determine a detector value corresponding to a point at which a pixel boundary is mapped to a common axis based on interpolation.
  • control unit may be characterized by determining the common axis according to the angle between the line connecting the source and the detection unit and the horizontal axis.
  • control unit may be characterized by determining the pixel value based on a partial linear model of the value that the pixel affects the detector cell.
  • the recording medium according to an embodiment of the present invention may be a computer readable non-transitory recording medium on which a program for executing the method described above is recorded.
  • the present invention relates to an image processing method and a method for performing projection and reverse projection in an image processing apparatus.
  • the present invention relates to a projection and reverse projection method performed when a cross-sectional image is restored from an X-ray transmission image.
  • FIG. 1 is a diagram illustrating a state in which an electromagnetic wave irradiated toward an inspected object passes through the inspected object and reaches the detector in the imaging system.
  • An image processing apparatus includes a detector including a source 110 for generating electromagnetic waves and a plurality of detector cells 120 for detecting electromagnetic waves emitted from the source 110 and generating them as electrical signals. 130 and the controller 100 for controlling each unit.
  • the source 110 irradiates the object 140 with an electromagnetic wave such as, for example, X-rays.
  • Electromagnetic waves emitted from the source 110 may be in the form of a fan beam or cone beam, but the present invention is not limited thereto.
  • Electromagnetic waves transmitted through the object 140 arrive at the detector 130, and the detector 130 may be divided into a plurality of detector cells 120.
  • the image processing apparatus may acquire information in the inspected object 140 by detecting the electromagnetic wave that has passed through the inspected object 140 and reaches the detector cell 120.
  • the controller 100 may configure an image based on the information obtained by the detector 130. That is, the final image may be generated by backprojection of the filtered image obtained by rotating the periphery of each tomography to a further filtered image.
  • the controller 100 may compose an image by performing a calculation based on forward projection-backprojection.
  • the controller 100 may calculate a pixel value or a detector value for forward projection-reverse projection.
  • the controller 100 may include at least one processor for performing a calculation process.
  • FIG. 2 is a diagram illustrating a structure for obtaining pixel values when performing image processing according to a first projection method.
  • the first projection method may also be called a Ray-driven Method.
  • pixel values are calculated through linear interpolation between two pixels.
  • FIG. 3 is a diagram illustrating a structure for obtaining a detector value when performing image processing according to a second projection method.
  • the second projection method may also be referred to as a pixel-driven method.
  • adjacent detector cells 120 are irradiated with respect to an electromagnetic beam emitted from the source 110 and irradiated to the detector 130 through the center of the pixel 210 included in the pixel grid 200. Calculate the detector value using linear interpolation for.
  • FIG. 4 is a graph showing a sinogram according to a second projection method of a uniform disk.
  • the high frequency component shown in FIG. 4 represents the artifact.
  • FIG. 5 is a diagram illustrating a structure for performing image processing according to a third projection method.
  • the common axis 500 is set, and the vertices of the pixels 210 from the source 110 are projected on the common axis.
  • the positions at which each vertex is projected on the common axis are x m (1) , x m (2) , x m + 1 (1) and x m + 1 (2) .
  • y n and y n + 1 are points where the line segment connecting the boundary between the source 110 and the detector cell 120 and the common axis 500 meet each other.
  • the control unit 100 x m (2) from x m + 1 (1) to have the pixel values s m, and decreases linearly to x m (1) from x m (2), x m + 1 (1
  • the detector value can be obtained by integrating a function that decreases linearly from x n + 1 (2) from y n to y n + 1 .
  • the detector value reflecting the distance passing through the pixel 210 from the source 110 may be obtained.
  • the pixel value can be calculated from the detector value in the reverse way.
  • the common axis 500 may be determined according to the relative positions of the source, the object under test, and the detector.
  • the x axis which is a horizontal axis
  • the y axis which is a vertical axis
  • the common axis 500 may be determined as the x-axis or the y-axis according to the angle between the line connecting the source and the detector and the horizontal axis.
  • 6 is a graph showing the basis function used in the third projection method.
  • a trapezoidal form of basis may be used.
  • the method of calculating the area may be changed according to the relative positions of the source 110, the pixel 210, and the detector cell 120, thereby increasing the complexity.
  • a base function that is a partial linear function can be used as shown in FIG. 7.
  • the partial linear model for the pixel value s (x) based on the basis function ⁇ m (x) shown in FIG. 7 can be represented by the following equation.
  • FIG. 8 is a diagram illustrating a structure for performing forward projection according to a fourth projection method.
  • the center of the pixels 210 of the pixel grid 200 is projected on the common axis 500.
  • x m-1 , x m and x m + 1 represent positions at which the centers of the pixels 210 are projected on the common axis 500.
  • the pixel values at x m-1 , x m and x m + 1 are s m-1 , s m and s m + 1 .
  • the boundary of the detector cell 120 may be mapped to the common axis 500.
  • the boundary of the detector cell 120 may be mapped to y n and y n + 1 , which are points where the boundary of the detector cell 120 and the line 110 connecting the source 110 and the common axis 500 meet.
  • the controller of the image processing apparatus may determine a detector value d n based on a result of the center of the pixels 210 projected on the common axis 500 and a result of the boundary of the detector cell 120 mapped to the common axis. .
  • d n may be calculated by integrating the pixel value s (x) for the region [y n , y n + 1 ].
  • the values t m-1 and t m of s (x) at y n and y n + 1 can be obtained by linear interpolation.
  • the detector value d n may be determined by the following equation.
  • the present invention can be applied to more multi-dimensional image processing.
  • FIG. 9 is a diagram illustrating a structure for performing reverse projection according to a fourth projection method.
  • the center of the detector cell 120 is projected on the common axis 500.
  • y n-1 , y n and y n + 1 represent positions at which the center of the detector cell 120 is projected on the common axis 500.
  • the pixel values at y n-1 , y n and y n + 1 are t n-1 , t n and t n + 1 .
  • the boundary of the pixel 210 may be mapped to the common axis 500.
  • the boundary of the pixel 210 may be mapped to x m-1 and x m which are points where the boundary of the pixel 210 and the extension line of the line segment connecting the source 110 and the common axis 500 meet.
  • the controller of the image processing apparatus may determine the pixel value s m-1 based on a result of the center of the detector cell 120 projected on the common axis 500 and a result of the boundary of the pixel 210 mapped to the common axis. Can be.
  • sm-1 may be calculated by integrating the detector value d (x) with respect to [x m-1 , x m ].
  • the values tn-1 and tn of d (x) at x m-1 and x m can be obtained by linear interpolation.
  • the pixel value s m-1 may be determined by the following equation.
  • FIG. 10 is a graph showing the actual sinogram, the result according to the second projection method, and the result according to the fourth projection method in computed tomography.
  • the image processing result according to the fourth projection method of the present invention can obtain a result more similar to an actual sinogram without noticeable artifacts.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

Abstract

영상 처리 방법 및 영상 처리 장치에 있어서, 투사 및 역투사 방법이 제공된다. 투사 및 역투사 방법은 검출부에 포함된 검출기 셀의 중심을 공통축에 투사하는 단계와, 픽셀 그리드의 픽셀들의 경계를 공통축에 매핑하는 단계 및 검출부에 포함된 검출기 셀의 중심을 소정의 공통축에 투사하는 단계 및 픽셀의 경계를 상기 소정의 공통축에 매핑하는 단계에 기초하여 픽셀 값을 결정하는 단계를 포함한다.

Description

영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치
본 발명은 영상 처리 방법 및 영상 처리 장치에 있어서, 투사 및 역투사 방법에 관한 것으로서, 보다 상세하게는, 영상에 발생하는 아티팩트를 최소화하는 투사 및 역투사 방법에 관한 것이다.
전자기파를 발생시키는 소스(source)로부터 피검사체(object)를 투과한 전자기파를 검출부를 통해 투사(projection) 영상을 획득할 수 있다. 또한, 획득된 투사 영상에 대한 역투사(back-projection) 방법을 통해 단층영상을 재구성할 수 있다.
투사 수행 시 디텍터 값은 픽셀로부터 계산하고, 반대로 역투사 수행 시 픽셀 값을 디텍터 값으로부터 유추한다. 이 과정에서 디텍터 값 및 픽셀 값을 추정(estimation)하는 과정이 필요하다.
*그러나, 투사 과정 및 역투사 과정에서, 픽셀 그리드(pixel grid)에 포함된 복수의 픽셀과 검출부에 포함된 복수의 검출기 셀이 서로 영향(contribution)을 미치게 되므로, 원본 이미지와 비교하여 아티팩트(artifact)가 존재하게 된다.
따라서, 각 픽셀 값이 디텍터 값에 미치는 영향 및 각 디텍터 값이 픽셀 값에 미치는 영향을 보다 정확히 반영하는 투사 및 역투사 방법이 필요하다.
본 발명의 일 실시예는 투사 및 역투사 수행 시 발생되는 아티팩트(artifact)를 최소화함으로써 보다 원본 영상과 동일한 영상을 획득할 수 있는 영상 처리 방법 및 영상 처리 장치를 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 처리 장치의 영상 처리 방법은, 픽셀 그리드(pixel grid)의 픽셀들의 중심을 소정의 공통축에 투사하는 단계와, 검출부에 포함된 검출기 셀의 경계를 상기 소정의 공통축에 매핑하는 단계 및 픽셀들의 중심을 소정의 공통축에 투사하는 단계 및 검출기 셀의 경계를 소정의 공통축에 매핑하는 단계에 기초하여 검출부 값을 결정하는 단계를 포함할 수 있다.
도 1은 영상 촬영 시스템에서 피검사체를 향하여 조사된 전자기파가 피검사체를 투과하여 검출부에 도달하는 모습을 나타낸 도면이다.
도 2는 제 1 투사 방법에 따라 영상 처리를 수행 시 픽셀 값을 구하는 구조를 나타낸 도면이다.
도 3은 제 2 투사 방법에 따라 영상 처리를 수행 시 검출부 값을 구하는 구조를 나타낸 도면이다.
도 4는 균일한 디스크의 제 2 투사 방법 따른 사이노그램을 그래프로 나타낸 도면이다.
도 5는 제 3 투사 방법에 따라 영상 처리를 수행하기 위한 픽셀 모델을 나타낸 도면이다.
도 6은 제 3 투사 방법에 이용되는 기저 함수를 그래프로 나타낸 도면이다.
도 7은 제 4 투사 방법에 이용되는 기저 함수를 그래프로 나타낸 도면이다.
도 8은 제 4 투사 방법에 따라 정방향 투사를 수행하는 구조를 나타낸 도면이다.
도 9은 제 4 투사 방법에 따라 역투사를 수행하는 구조를 나타낸 도면이다.
도 10은 컴퓨터 단층촬영에 있어서, 실제 사이노그램, 제 2 투사 방법에 따른 결과 및 제 4 투사 방법에 따른 결과를 그래프로 나타낸 도면이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 처리 장치의 영상 처리 방법은, 픽셀 그리드(pixel grid)의 픽셀들의 중심을 소정의 공통축에 투사하는 단계와, 검출부에 포함된 검출기 셀의 경계를 상기 소정의 공통축에 매핑하는 단계 및 픽셀들의 중심을 소정의 공통축에 투사하는 단계 및 검출기 셀의 경계를 소정의 공통축에 매핑하는 단계에 기초하여 검출부 값을 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, 검출부 값을 결정하는 단계는 검출기 셀의 경계가 공통축에 매핑된 지점 간의 픽셀 값을 적분한 수식을 이용하여 상기 검출부 값을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 검출부 값을 결정하는 단계는 보간법(interpolation)에 기초하여 공통축에 검출기 셀의 경계가 매핑된 지점에 해당하는 픽셀값을 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 공통축은 소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 결정되는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 검출부 값을 결정하는 단계는 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 상기 검출부 값을 결정하는 것을 특징으로 할 수 있다.
본 발명의 다른 일 실시예에 따른 영상 처리 장치의 영상 처리 방법은, 검출부에 포함된 검출기 셀의 중심을 공통축에 투사하는 단계 픽셀 그리드의 픽셀들의 경계를 공통축에 매핑하는 단계 및 검출부에 포함된 검출기 셀의 중심을 소정의 공통축에 투사하는 단계 및 픽셀의 경계를 소정의 공통축에 매핑하는 단계에 기초하여 픽셀 값을 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, 픽셀 값을 결정하는 단계는 픽셀의 경계가 공통축에 매핑된 지점 간의 검출부 값을 적분한 수식을 이용하여 상기 픽셀 값을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 픽셀 값을 결정하는 단계는 보간법에 기초하여 공통축에 픽셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 공통축은 소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 결정되는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 픽셀 값을 결정하는 단계는 검출기 셀이 픽셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 픽셀 값을 결정하는 것을 특징으로 할 수 있다.
본 발명의 일 실시예에 따른 영상 처리 장치는, 전자파를 발생시키는 소스와, 전자파를 검출하는 검출기 셀을 포함하는 검출부 및 픽셀 그리드(pixel grid)의 픽셀들의 중심을 소정의 공통축에 투사하고, 검출기 셀의 경계를 소정의 공통축에 매핑하며, 투사 결과 및 매핑 결과를 이용하여 검출부 값을 결정하는 제어부를 포함할 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, 제어부는 검출기 셀의 경계가 공통축에 매핑된 지점 간의 픽셀 값을 적분한 수식을 이용하여 상기 검출부 값을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 보간법(interpolation)에 기초하여 공통축에 검출기 셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 공통축을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 검출부 값을 결정하는 것을 특징으로 할 수 있다.
본 발명의 다른 일 실시예에 따른 영상 처리 장치는, 전자파를 발생시키는 소스와, 전자파를 검출하는 검출기 셀을 포함하는 검출부 및 검출기 셀의 중심을 소정의 공통축에 투사하고, 픽셀 그리드의 픽셀들의 경계를 소정의 공통축에 매핑하며, 투사 결과 및 매핑 결과를 이용하여 픽셀 값을 결정하는 제어부를 포함할 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, 제어부는 픽셀의 경계가 공통축에 매핑된 지점 간의 검출부 값을 적분한 수식을 이용하여 상기 픽셀 값을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 보간법에 기초하여 공통축에 픽셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 것을 특징으로 할 수 있다.
*또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 공통축을 결정하는 것을 특징으로 할 수 있다.
또한, 본 발명의 또 다른 일 실시예에 따르면, 제어부는 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 픽셀 값을 결정하는 것을 특징으로 할 수 있다.
본 발명의 일 실시예에 따른 기록 매체는 상기 기재된 방법을 실시하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 비 일시적 기록 매체일 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 발명은 영상 처리 방법 및 영상 처리 장치에 있어서, 투사 및 역투사를 수행하는 방법에 관한 것이다. 예를 들어, 컴퓨터 단층촬영(Computer Tomography) 장치에 있어서, 엑스선 투과 영상으로부터 단면 영상을 복원할 때 수행되는 투사 및 역투사 방법에 관한 것이다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 영상 촬영 시스템에서 피검사체를 향하여 조사된 전자기파가 피검사체를 투과하여 검출부에 도달하는 모습을 나타낸 도면이다.
본 발명의 일 실시예에 따른 영상 처리 장치는, 전자파를 발생하는 소스(110), 소스(110)로부터 조사된 전자파를 검출하고 이를 전기적 신호로 생성하는 복수의 검출기 셀(120)을 포함하는 검출부(130) 및 상기 각 부를 제어하는 제어부(100)를 포함할 수 있다.
소스(110)는, 예를 들어, 엑스선과 같은 전자파를 피검사체(140)에 조사한다. 소스(110)로부터 조사되는 전자파는 팬 빔(Fan-beam) 또는 콘 빔(Cone-beam) 형태가 될 수 있으나, 본 발명이 이에 한정되지 아니한다.
피검사체(140)를 투과한 전자파는 검출부(130)에 도달하는데, 검출부(130)는 복수의 검출기 셀(120)로 구분될 수 있다. 영상 처리 장치는 피검사체(140)를 투과하여 검출기 셀(120)에 도달한 전자파를 검출함으로써, 피검사체(140) 내의 정보를 획득할 수 있다.
제어부(100)는 검출부(130)에서 획득한 정보에 기초하여 영상을 구성할 수 있다. 즉, 각 단층의 주위를 회전하여 얻어진 투사(Projection) 영상을 추가의 후처리 단계를 거친 영상(filtered image)를 역투사(Backprojection)하여 최종적인 영상을 생성할 수 있다.
여기서, 제어부(100)는 정방향 투사(Forward Projection)-역투사(Backprojection)에 따른 연산을 수행함으로써 영상을 구성할 수 있다. 제어부(100)는 정방향 투사-역투사를 위하여 픽셀 값 또는 디텍터 값을 계산할 수 있다.
제어부(100)는 연산 과정을 수행하기 위한 적어도 하나의 프로세서를 포함할 수 있다.
도 2는 제 1 투사 방법(projection method)에 따라 영상 처리를 수행 시 픽셀 값을 구하는 구조를 나타낸 도면이다.
제 1 투사 방법은 레이-구동 방법(Ray-driven Method)이라고도 불릴 수 있다.
제 1 투사 방법에 따르면, 소스(110)로부터 조사되어 픽셀 그리드(Pixel Grid)(200)에 포함된 픽셀(210)을 지나 검출부(130)의 검출기 셀(120)의 중심에 조사되는 전자파 빔(beam)에 대하여, 두 픽셀 간에 대한 선형 보간법(linear interpolation)을 통해 픽셀 값을 계산한다.
도 3은 제 2 투사 방법에 따라 영상 처리를 수행 시 검출부 값을 구하는 구조를 나타낸 도면이다.
제 2 투사 방법은 픽셀-구동 방법(Pixel-driven Method)이라고도 불릴 수 있다.
제 2 투사 방법에 따르면, 소스(110)로부터 조사되어 픽셀 그리드(200)에 포함된 픽셀(210)의 중심을 지나 검출부(130)에 조사되는 전자파 빔(beam)에 대하여, 인접한 검출기 셀(120)에 대한 선형 보간법을 통해 디텍터 값을 계산한다.
도 4는 균일한 디스크의 제 2 투사 방법에 따른 사이노그램을 그래프로 나타낸 도면이다.
제 1 투사 방법 및 제 2 투사 방법의 경우, 검출부 값이 픽셀 값에 영향(contribution)을 미치는 정도 및 픽셀 값이 검출부 값에 영향을 미치는 정도가 적절히 반영되지 않아 아티팩트(artifact)가 발생한다.
도 4에서 나타난 고주파 성분이 상기 아티팩트를 나타낸다.
도 5는 제 3 투사 방법에 따라 영상 처리를 수행하는 구조를 나타낸 도면이다.
제 3 투사 방법에 따르는 경우, 공통축(500)이 설정되고, 소스(110)로부터 픽셀(210)의 꼭지점이 공통축에 투사된다. 각 꼭지점이 공통축에 투사된 위치가 xm (1), xm (2), xm+1 (1) 및 xm+1 (2)이다. yn 및 yn+1 은 소스(110)와 검출기 셀(120)의 경계를 이은 선분과 공통축(500)이 만나는 지점이다.
제어부(100)는 xm (2)로부터 xm+1 (1)까지 픽셀 값 sm을 가지고, xm (2)로부터 xm (1)까지 선형적으로 감소하며, xm+1 (1)로부터 xm+1 (2)까지 선형적으로 감소하는 함수를 yn으로부터 yn+1까지 적분함으로써, 디텍터 값을 획득할 수 있다.
제 3 투사 방법에 따라 디텍터 값을 계산함으로써, 소스(110)로부터 픽셀(210)을 투과하는 거리가 반영된 디텍터 값이 획득될 수 있다.
반대로, 픽셀 값을 계산하는 경우, 반대의 방법으로 디텍터 값으로부터 픽셀 값이 계산될 수 있다.
또한, 공통축(500)은 소스, 피검사체 및 검출부의 상대적인 위치에 따라서 결정될 수 있다. 예를 들어, 소스, 피검사체 및 검출부 사이의 각도에 따라서 수평 축인 x축 또는 수직 축인 y축이 공통축(500)으로 결정될 수 있다. 또 다른 예로, 소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라서 공통축(500)이 x축 또는 y축으로 결정될 수 있다.
도 6은 제 3 투사 방법에 이용되는 기저 함수를 그래프로 나타낸 도면이다.
도 5에 나타난 바와 같이, 제 3 투사 방법에 따라 디텍터 값을 계산하는 경우, 사다리꼴(trapezoidal) 형태의 기저 함수(basis)가 이용될 수 있다.
다만, 제 3 투사 방법에 따라 디텍터 값을 계산하는 경우, 제어부(100)에서 수행해야 하는 연산의 양이 늘어나게 된다. 또한, 소스(110), 픽셀(210) 및 검출기 셀(120)의 상대적인 위치에 따라서 면적을 산출하는 방법이 변경될 수 있어 복잡도가 높아지게 된다.
도 7은 제 4 투사 방법에 이용되는 기저 함수를 그래프로 나타낸 도면이다.
제 3 투사 방법에 따라 디텍터 값을 계산함에 따라서 연산의 양 및 복잡도가 높아지므로, 도 7에 나타난 바와 같이 부분적 선형 함수인 기저 함수를 이용할 수 있다.
도 7에 나타난 기저 함수 βm(x)에 기초하는 픽셀 값 s(x)에 대한 부분적 선형 모델은 다음 수식으로 나타내어질 수 있다.
수학식 1
Figure PCTKR2014002334-appb-M000001
도 8은 제 4 투사 방법에 따라 정방향 투사를 수행하는 구조를 나타낸 도면이다.
먼저, 픽셀 그리드(pixel grid)(200)의 픽셀(210)들의 중심을 공통축(500)에 투사한다. 도 8에서 xm-1, xm 및 xm+1은 픽셀(210)들의 중심이 공통축(500)에 투사된 위치를 나타낸다. xm-1, xm 및 xm+1에서의 픽셀 값은 sm-1, sm 및 sm+1이다.
또한, 검출기 셀(120)의 경계가 공통축(500)에 매핑될 수 있다. 여기서, 검출기 셀(120)의 경계는 검출기 셀(120)의 경계와 소스(110)를 잇는 선분과 공통축(500)이 만나는 지점인 yn 및 yn+1로 매핑될 수 있다.
여기서, 영상 처리 장치의 제어부는 픽셀(210)들의 중심이 공통축(500)에 투사된 결과 및 검출기 셀(120)의 경계가 공통축에 매핑된 결과에 기초하여 검출부 값인 dn을 결정할 수 있다.
본 발명의 일 실시예에 따르면, dn은 영역 [yn,yn+1]에 대해 픽셀 값 s(x)를 적분하여 계산될 수 있다. 여기서, yn 및 yn+1에서의 s(x)의 값 tm-1및 tm은 선형 보간법(linear interpolation)에 의해 얻어질 수 있다.
최종적으로, 검출부 값 dn은 아래 수식에 의해 결정될 수 있다.
수학식 2
Figure PCTKR2014002334-appb-M000002
또한, 본 발명은 보다 다차원의 영상 처리에도 적용될 수 있다.
도 9은 제 4 투사 방법에 따라 역투사를 수행하는 구조를 나타낸 도면이다.
먼저, 검출기 셀(120)의 중심을 공통축(500)에 투사한다. 도 9에서 yn-1, yn및 yn+1은 검출기 셀(120)의 중심이 공통축(500)에 투사된 위치를 나타낸다. yn-1, yn및 yn+1에서의 픽셀 값은 tn-1, tn및 tn+1이다.
또한, 픽셀(210)의 경계가 공통축(500)에 매핑될 수 있다. 여기서, 픽셀(210)의 경계는 픽셀(210)의 경계와 소스(110)를 이은 선분의 연장선과 공통축(500)이 만나는 지점인 xm-1 및 xm으로 매핑될 수 있다.
여기서, 영상 처리 장치의 제어부는 검출기 셀(120)의 중심이 공통축(500)에 투사된 결과 및 픽셀(210)의 경계가 공통축에 매핑된 결과에 기초하여 픽셀 값인 sm-1을 결정할 수 있다.
본 발명의 일 실시예에 따르면, sm-1은 [xm-1, xm]에 대해 검출부 값 d(x)를 적분하여 계산될 수 있다. 여기서, xm-1 및 xm에서의 d(x)의 값 tn-1 및 tn은 선형 보간법에 의해 구해질 수 있다.
최종적으로, 픽셀 값 sm-1은 아래 수식에 의해 결정될 수 있다.
수학식 3
Figure PCTKR2014002334-appb-M000003
도 10은 컴퓨터 단층촬영에 있어서, 실제 사이노그램, 제 2 투사 방법에 따른 결과 및 제 4 투사 방법에 따른 결과를 그래프로 나타낸 도면이다.
도 10에서 보는 바와 같이, 제 2 투사 방법, 즉 픽셀 구동법에 따른 영상 처리 결과에서는 눈에 띄는 아티팩트가 발생한다.
그러나, 본 발명의 제 4 투사 방법에 따른 영상 처리 결과는 눈에 띄는 아티팩트 없이 실제 사이노그램(sinogram)과 보다 유사한 결과를 얻을 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (21)

  1. 영상 처리 장치의 영상 처리 방법에 있어서,
    픽셀 그리드(pixel grid)의 픽셀들의 중심을 소정의 공통축에 투사하는 단계;
    검출부에 포함된 검출기 셀의 경계를 상기 소정의 공통축에 매핑하는 단계; 및
    상기 픽셀들의 중심을 상기 소정의 공통축에 투사하는 단계 및 상기 검출기 셀의 경계를 상기 소정의 공통축에 매핑하는 단계에 기초하여 검출부 값을 결정하는 단계를 포함하는 영상 처리 방법.
  2. 제 1 항에 있어서,
    상기 검출부 값을 결정하는 단계는,
    하기 수식을 이용하여 상기 검출부 값을 결정하는 것을 특징으로 하는 영상 처리 방법.
    Figure PCTKR2014002334-appb-I000001
    상기 수식에서 dn은 디텍터 값이고, xm은 상기 픽셀의 중심이 소정의 공동축에 투사된 위치이고, sm은 xm에서의 픽셀 값이고, yn+1 및 yn은 상기 검출기 셀의 경계가 상기 공동축에 매핑된 위치이고, tm-1 및 tm은 yn 및 yn+1의 위치에 해당하는 픽셀 값이다.
  3. 제 2 항에 있어서,
    상기 검출부 값을 결정하는 단계는,
    보간법(interpolation)에 기초하여 상기 공통축에 상기 검출기 셀의 경계가 매핑된 지점에 해당하는 픽셀값을 결정하는 단계를 포함하는 영상 처리 방법.
  4. 제 1 항에 있어서,
    상기 공통축은,
    소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 결정되는 것을 특징으로 하는 영상 처리 방법.
  5. 제 1 항에 있어서,
    상기 검출부 값을 결정하는 단계는,
    상기 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 상기 검출부 값을 결정하는 것을 특징으로 하는 영상 처리 방법.
  6. 영상 처리 장치의 영상 처리 방법에 있어서,
    검출부에 포함된 검출기 셀의 중심을 공통축에 투사하는 단계;
    픽셀 그리드의 픽셀들의 경계를 공통축에 매핑하는 단계; 및
    상기 검출부에 포함된 검출기 셀의 중심을 상기 소정의 공통축에 투사하는 단계 및 상기 픽셀의 경계를 상기 소정의 공통축에 매핑하는 단계에 기초하여 픽셀 값을 결정하는 단계를 포함하는 영상 처리 방법.
  7. 제 6 항에 있어서,
    상기 픽셀 값을 결정하는 단계는,
    하기 수식을 이용하여 상기 픽셀 값을 결정하는 것을 특징으로 하는 영상 처리 방법.
    Figure PCTKR2014002334-appb-I000002
    상기 수식에서 sm-1은 픽셀 값이고, yn은 상기 픽셀들의 중심이 소정의 공동축에 투사된 위치이고, dn은 xm에서의 디텍터 값이고, xm-1 및 xm은 상기 검출기 셀의 경계가 상기 공동축에 매핑된 위치이고, tn-1 및 tn은 xm-1 및 xm의 위치에 해당하는 검출부 값이다.
  8. 제 7 항에 있어서,
    상기 픽셀 값을 결정하는 단계는,
    보간법에 기초하여 상기 공통축에 상기 픽셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 단계를 포함하는 영상 처리 방법.
  9. 제 6 항에 있어서,
    상기 공통축은,
    소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 결정되는 것을 특징으로 하는 영상 처리 방법.
  10. 제 6 항에 있어서,
    상기 픽셀 값을 결정하는 단계는,
    상기 검출기 셀이 픽셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 상기 픽셀 값을 결정하는 것을 특징으로 하는 영상 처리 방법.
  11. 영상 처리 장치에 있어서,
    전자파를 발생시키는 소스;
    상기 전자파를 검출하는 검출기 셀을 포함하는 검출부; 및
    픽셀 그리드(pixel grid)의 픽셀들의 중심을 소정의 공통축에 투사하고, 상기 검출기 셀의 경계를 상기 소정의 공통축에 매핑하며, 상기 투사 결과 및 매핑 결과를 이용하여 검출부 값을 결정하는 제어부를 포함하는 영상 처리 장치.
  12. 제 11 항에 있어서,
    상기 제어부는,
    하기 수식을 이용하여 상기 검출부 값을 결정하는 것을 특징으로 하는 영상 처리 장치.
    Figure PCTKR2014002334-appb-I000003
    상기 수식에서 dn은 디텍터 값이고, xm은 상기 픽셀의 중심이 소정의 공동축에 투사된 위치이고, sm은 xm에서의 픽셀 값이고, yn+1 및 yn은 상기 검출기 셀의 경계가 상기 공동축에 매핑된 위치이고, tm-1 및 tm은 yn 및 yn+1의 위치에 해당하는 픽셀 값이다.
  13. 제 12 항에 있어서,
    상기 제어부는,
    보간법(interpolation)에 기초하여 상기 공통축에 상기 검출기 셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 단계를 포함하는 영상 처리 장치.
  14. 제 11 항에 있어서,
    상기 제어부는,
    소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 상기 공통축을 결정하는 것을 특징으로 하는 영상 처리 장치.
  15. 제 11 항에 있어서,
    상기 제어부는,
    상기 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 상기 검출부 값을 결정하는 것을 특징으로 하는 영상 처리 장치.
  16. 영상 처리 장치에 있어서,
    전자파를 발생시키는 소스;
    상기 전자파를 검출하는 검출기 셀을 포함하는 검출부; 및
    상기 검출기 셀의 중심을 소정의 공통축에 투사하고, 픽셀 그리드의 픽셀들의 경계를 상기 소정의 공통축에 매핑하며, 상기 투사 결과 및 매핑 결과를 이용하여 픽셀 값을 결정하는 제어부를 포함하는 영상 처리 장치.
  17. 제 16 항에 있어서,
    상기 제어부는,
    하기 수식을 이용하여 상기 픽셀 값을 결정하는 것을 특징으로 하는 영상 처리 장치.
    Figure PCTKR2014002334-appb-I000004
    상기 수식에서 sm-1은 픽셀 값이고, yn은 상기 픽셀들의 중심이 소정의 공동축에 투사된 위치이고, dn은 xm에서의 디텍터 값이고, xm-1 및 xm은 상기 검출기 셀의 경계가 상기 공동축에 매핑된 위치이고, tn-1 및 tn은 xm-1 및 xm의 위치에 해당하는 검출부 값이다.
  18. 제 17 항에 있어서,
    상기 제어부는
    보간법에 기초하여 상기 공통축에 상기 픽셀의 경계가 매핑된 지점에 해당하는 검출부 값을 결정하는 것을 특징으로 하는 영상 처리 장치.
  19. 제 16 항에 있어서,
    상기 제어부는,
    소스 및 검출부를 잇는 선과 수평축 사이의 각도에 따라 상기 공통축을 결정하는 것을 특징으로 하는 영상 처리 장치.
  20. 제 16 항에 있어서,
    상기 제어부는,
    상기 픽셀이 검출기 셀에 영향을 미치는 값에 대한 부분적 선형 모델에 기초하여 상기 픽셀 값을 결정하는 것을 특징으로 하는 영상 처리 장치.
  21. 제 1 항의 방법을 실시하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 비 일시적 기록 매체.
PCT/KR2014/002334 2013-03-20 2014-03-20 영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치 WO2014148828A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14767386.7A EP2977955B1 (en) 2013-03-20 2014-03-20 Method for projection and back-projection for image processing, and image processing apparatus therefor
US14/778,864 US9993218B2 (en) 2013-03-20 2014-03-20 Method for projection and back-projection for image processing, and image processing apparatus therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0029925 2013-03-20
KR1020130029925A KR102060659B1 (ko) 2013-03-20 2013-03-20 영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치

Publications (1)

Publication Number Publication Date
WO2014148828A1 true WO2014148828A1 (ko) 2014-09-25

Family

ID=51580425

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/002334 WO2014148828A1 (ko) 2013-03-20 2014-03-20 영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치

Country Status (4)

Country Link
US (1) US9993218B2 (ko)
EP (1) EP2977955B1 (ko)
KR (1) KR102060659B1 (ko)
WO (1) WO2014148828A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314160B1 (en) * 1999-12-17 2001-11-06 General Electric Company Method and apparatus for performing fluoroscopic noise reduction
KR20070092006A (ko) * 2006-03-08 2007-09-12 포스앤핏 주식회사 3차원 영상 처리 방법 및 이를 구현할 수 있는 프로그램이수록된 기록매체
WO2010089319A1 (en) * 2009-02-05 2010-08-12 Institute Of High Energy Physics Low dose single step grating based x-ray phase contrast imaging
KR20110083153A (ko) * 2010-01-13 2011-07-20 주식회사바텍 X선 단층 촬영 장치 및 그 방법
KR20110091354A (ko) * 2010-02-05 2011-08-11 성균관대학교산학협력단 치과용 동영상 디지털 엑스선 영상 획득 시스템

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2914891B2 (ja) * 1995-07-05 1999-07-05 株式会社東芝 X線コンピュータ断層撮影装置
US5708691A (en) * 1996-07-05 1998-01-13 Kabushiki Kaisha Toshiba X-ray computed tomographic imaging device and x-ray computed tomographic method
US6307908B1 (en) * 1999-09-20 2001-10-23 General Electric Company System and method for data interpolation in a multislice x-ray computed tomography system
JP3963086B2 (ja) * 2001-07-13 2007-08-22 株式会社島津製作所 断層再構成ソフトウエアとその記録媒体と断層撮影装置
US7227982B2 (en) * 2002-04-15 2007-06-05 General Electric Company Three-dimensional reprojection and backprojection methods and algorithms for implementation thereof
US6724856B2 (en) * 2002-04-15 2004-04-20 General Electric Company Reprojection and backprojection methods and algorithms for implementation thereof
JP4032357B2 (ja) * 2004-05-21 2008-01-16 ソニー株式会社 画像情報処理装置および方法、並びにプログラム
US7778392B1 (en) * 2004-11-02 2010-08-17 Pme Ip Australia Pty Ltd Method of reconstructing computed tomography (CT) volumes suitable for execution on commodity central processing units (CPUs) and graphics processors, and apparatus operating in accord with those methods (rotational X-ray on GPUs)
US7272205B2 (en) * 2004-11-17 2007-09-18 Purdue Research Foundation Methods, apparatus, and software to facilitate computing the elements of a forward projection matrix
WO2007096936A1 (ja) * 2006-02-20 2007-08-30 Shimadzu Corporation 断層撮影装置および演算処理プログラム
US7583780B2 (en) * 2006-06-22 2009-09-01 General Electric Company Systems and methods for improving a resolution of an image
US7920751B2 (en) * 2007-03-16 2011-04-05 General Electric Company Adaptive gradient weighting technique for detector bad cell correction
US8135186B2 (en) * 2008-01-25 2012-03-13 Purdue Research Foundation Method and system for image reconstruction
US8326011B2 (en) * 2008-05-21 2012-12-04 Varian Medical Systems, Inc. Methods, systems, and computer-program products for estimating scattered radiation in radiographic projections
EP2308028B1 (en) * 2008-06-25 2017-04-26 Koninklijke Philips N.V. Image generation device with optimized dose control
EP2521095B1 (en) * 2008-07-14 2015-03-04 Cefla S.C. Dynamic error correction in radiographic imaging
US8116426B2 (en) * 2008-11-11 2012-02-14 Kabushiki Kaisha Toshiba Computed tomography device and method using circular-pixel position-adaptive interpolation
JP5537132B2 (ja) * 2008-12-11 2014-07-02 株式会社東芝 X線コンピュータ断層撮影装置、医用画像処理装置、及び医用画像処理プログラム
JP5729907B2 (ja) * 2009-02-23 2015-06-03 株式会社東芝 X線診断装置
US8503750B2 (en) * 2009-10-06 2013-08-06 General Electric Company Method and apparatus for reduction of metal artifacts in CT images
US8913805B2 (en) * 2010-08-30 2014-12-16 The Regents Of The University Of Michigan Three-dimensional forward and back projection methods
JP6214128B2 (ja) * 2010-11-22 2017-10-18 キヤノン株式会社 画像処理装置、画像処理方法、及び記憶媒体
US9002090B2 (en) 2010-11-25 2015-04-07 Koninklijke Philips N.V. Forward projection apparatus
US9861332B2 (en) * 2014-09-19 2018-01-09 Fujifilm Corporation Tomographic image generation device and method, and recording medium
US9848844B2 (en) * 2015-10-09 2017-12-26 Carestream Health, Inc. Iterative reconstruction process

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314160B1 (en) * 1999-12-17 2001-11-06 General Electric Company Method and apparatus for performing fluoroscopic noise reduction
KR20070092006A (ko) * 2006-03-08 2007-09-12 포스앤핏 주식회사 3차원 영상 처리 방법 및 이를 구현할 수 있는 프로그램이수록된 기록매체
WO2010089319A1 (en) * 2009-02-05 2010-08-12 Institute Of High Energy Physics Low dose single step grating based x-ray phase contrast imaging
KR20110083153A (ko) * 2010-01-13 2011-07-20 주식회사바텍 X선 단층 촬영 장치 및 그 방법
KR20110091354A (ko) * 2010-02-05 2011-08-11 성균관대학교산학협력단 치과용 동영상 디지털 엑스선 영상 획득 시스템

Also Published As

Publication number Publication date
EP2977955A4 (en) 2016-11-02
US9993218B2 (en) 2018-06-12
KR20140115170A (ko) 2014-09-30
EP2977955B1 (en) 2020-02-26
US20160045181A1 (en) 2016-02-18
EP2977955A1 (en) 2016-01-27
KR102060659B1 (ko) 2019-12-30

Similar Documents

Publication Publication Date Title
WO2014208971A1 (en) Ultrasound image display method and apparatus
WO2016053067A1 (en) 3-dimensional model generation using edges
WO2014204093A1 (en) Information providing method and apparatus for aligning x-ray tube and detector of mobile x-ray apparatus, and wireless detector
WO2013168998A1 (en) Apparatus and method for processing 3d information
WO2014185710A1 (ko) Tiled display에서 3d 영상을 보정하는 방법 및 장치
CN102170546A (zh) 校正信息计算装置、图像处理装置、图像显示系统及方法
WO2013095032A1 (ko) 초음파 영상을 이용하여 정중 시상면을 자동으로 검출하는 방법 및 그 장치
WO2023027227A1 (ko) X선을 이용한 구조물의 결함 검사 시스템, 검사 시스템의 x선 출력 제어 방법 및 결함의 깊이를 산출하는 방법
WO2016204402A1 (ko) 부품 결함 검사 방법 및 그 장치
US20150243027A1 (en) Image processing device, image processing method, and program
US7377650B2 (en) Projection of synthetic information
WO2015178745A1 (ko) 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
WO2019124836A1 (ko) 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치
WO2017195984A1 (ko) 3차원 스캐닝 장치 및 방법
WO2017126772A1 (en) Tomography apparatus and method for reconstructing tomography image thereof
WO2020139011A1 (ko) 뇌병변 정보 제공 장치 및 방법
WO2014148828A1 (ko) 영상 처리를 위한 투사 및 역투사 방법 및 그 영상 처리 장치
WO2020204366A2 (ko) 스캔 가이드 제공 방법 이를 위한 영상 처리장치
WO2015046658A1 (ko) 설진기 재현성 측정 장치 및 방법
CN110853113B (zh) 基于bpf的tof-pet图像重建算法及重建系统
JP2017170118A (ja) 放射線撮影システム、制御装置、情報処理方法及びプログラム
WO2019231119A1 (ko) 혼잡도 시각화 장치 및 방법
WO2023075433A1 (ko) 양자 이미징을 위한 광자 통계기반의 서포트 벡터 머신
WO2022220422A1 (ko) 셀-대-셀 비교 방법
WO2024029698A1 (ko) 뇌혈류 데이터를 연산하는 방법 및 뇌혈류 데이터를 연산하기 위한 신경망 모델의 학습 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14767386

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14778864

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014767386

Country of ref document: EP