WO2016148350A1 - 의료 영상 재구성 장치 및 그 방법 - Google Patents

의료 영상 재구성 장치 및 그 방법 Download PDF

Info

Publication number
WO2016148350A1
WO2016148350A1 PCT/KR2015/007733 KR2015007733W WO2016148350A1 WO 2016148350 A1 WO2016148350 A1 WO 2016148350A1 KR 2015007733 W KR2015007733 W KR 2015007733W WO 2016148350 A1 WO2016148350 A1 WO 2016148350A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image
information
image information
unit
Prior art date
Application number
PCT/KR2015/007733
Other languages
English (en)
French (fr)
Inventor
임세열
김태우
서동완
최성일
한태희
Original Assignee
주식회사 바텍
(주)바텍이우홀딩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바텍, (주)바텍이우홀딩스 filed Critical 주식회사 바텍
Priority to EP15885652.6A priority Critical patent/EP3272290B1/en
Priority to CN201580080112.5A priority patent/CN107635468B/zh
Priority to KR1020177029913A priority patent/KR102096561B1/ko
Publication of WO2016148350A1 publication Critical patent/WO2016148350A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the present invention relates to an apparatus for reconstructing a medical image and a method thereof and a computer-readable recording medium recording a program for implementing the method. More particularly, the present invention relates to a medical image reconstruction apparatus. Medical image reconstruction apparatus and method for generating two-dimensional (2D) medical images (eg, Sepharo images) by automatic reconstruction from three-dimensional medical images (eg, computed tomography images) after correction; A computer readable recording medium having recorded thereon a program for realizing the method.
  • 2D two-dimensional
  • CT computerized tomography
  • three-dimensional medical images such as computed tomography (CT) images, ultrasound images, etc.
  • CT computed tomography
  • ultrasound images etc.
  • CT computed tomography
  • 2D medical image rather than the 3D medical image. Therefore, if the 3D medical image and the 2D medical image are displayed together, the user can simultaneously perform an overview and close observation of the subject.
  • the conventional apparatus for displaying a 3D medical image and a 2D medical image includes a 3D image acquisition unit for obtaining a 3D medical image of a subject, and a 3D medical image to a subject based on an external input to the acquired 3D medical image.
  • the section selector may include a window generator configured to generate at least one window to be positioned on the acquired 3D medical image, a window controller to move the generated at least one window on the 3D medical image, and at least one selected. And an additional cross section selector for further selecting at least one cross section adjacent to the cross section.
  • the 2D image acquisition unit may include: a first image acquisition unit configured to scan at least one first two-dimensional medical image by scanning the subject in correspondence with the selected at least one cross-section; A second image acquisition unit configured to scan and acquire at least one second two-dimensional medical image, and acquire at least one synthesized two-dimensional medical image by synthesizing at least one first two-dimensional medical image and at least one second two-dimensional medical image It includes a synthesized image acquisition unit.
  • the prior art may obtain at least one synthetic two-dimensional medical image by acquiring and synthesizing at least one cross section and first and second two-dimensional medical images corresponding to at least one cross section adjacent to the cross section, respectively.
  • the obtained synthetic 2D medical image has a problem that it is different from the actual captured 2D medical image.
  • the degree of magnification between the two-dimensional medical images corresponding to different cross sections spaced apart by a predetermined interval on the path of the beam differs from each other.
  • a simple image synthesizing method such as a method
  • the computed tomography image photographed with the patient's imaging position misaligned cannot prevent the symmetrical and skeletal structure of the patient from being distorted.
  • the computed tomography image may be distorted.
  • the present invention does not additionally photograph two-dimensional medical images (eg, Sepulo images), and uses the pre-recorded three-dimensional medical image information to position the corresponding image in three-dimensional space.
  • a medical image reconstruction apparatus for generating a two-dimensional medical image by the automatic reconstruction method after correcting the error caused by posture, and a method and a computer-readable recording medium recording a program for realizing the method. The purpose is.
  • the geometry correction unit for correcting the geometry of the three-dimensional medical image information so that the three-dimensional medical image is positioned in the three-dimensional space;
  • a setting unit configured to set an image information utilization section in the 3D medical image information;
  • a reconstruction unit configured to reconstruct the 2D medical image by summating the 3D medical image information of the image information utilization section in a 2D view direction.
  • the position coordinate setting unit for setting the position coordinates of the X-ray source outside the image area of the three-dimensional medical information;
  • a reconstruction unit configured to reconstruct the two-dimensional medical image by summarizing the three-dimensional medical information according to the X-ray irradiation path generated from the position coordinates.
  • the method of the present invention for achieving the above object in the medical image reconstruction method of the medical image reconstruction device, (a) the geometry of the three-dimensional medical image information so that the three-dimensional medical image is positioned in the three-dimensional space; Correcting; (b) setting an image information utilization section in the 3D medical image information; And (c) summing the 3D medical image information of the image information utilization section in a 2D view direction to reconstruct the 2D medical image.
  • the present invention as described above, by using the pre-recorded three-dimensional medical image information to position the image on the three-dimensional space to correct the error caused by the patient's incorrect posture during the image reconstruction method
  • a two-dimensional medical image for example, the Sepulro image
  • the exposure dose of the subject (patient) can be reduced by removing the additional exposure.
  • the present invention by correcting the error caused by the incorrect position of the patient during the computed tomography, it is possible to improve the position accuracy of the cross-sectional image, thereby enabling a more accurate medical diagnosis have.
  • the present invention by using the computed tomography geometry correction in the automatic generation of the cephalo image by the automatic reconstruction method using the computed tomography information, it is possible to prevent the distortion of the facial skeleton, accordingly the position of the image per cross-section The accuracy can be improved, and the magnification can also be improved.
  • the present invention can eliminate the need to mount an arm (Arm) that is guaranteed a certain degree of magnification in order to implement a Sepha imaging device, thereby miniaturizing the size of medical equipment, and also medical There is an effect that can reduce the installation space of the device.
  • FIG. 1 is a block diagram of a medical image reconstruction apparatus according to an embodiment of the present invention.
  • FIG. 2 is a detailed configuration diagram of a geometry correction unit according to an embodiment of the present invention.
  • FIG. 3 is a detailed configuration diagram of a correction angle extraction unit according to an embodiment of the present invention.
  • FIG. 4 is a detailed configuration diagram of a count map extracting unit for each rotation angle according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a medical image reconstruction method according to an embodiment of the present invention.
  • FIG. 6 is a detailed flowchart illustrating a geometry correction process according to an embodiment of the present invention.
  • FIG. 7 is a detailed flowchart illustrating a correction angle extraction process according to an embodiment of the present invention.
  • FIG. 8 is a detailed flowchart illustrating a count map extraction process for each rotation angle according to an embodiment of the present invention.
  • the cephalo image after correcting the computed tomography image in a three-dimensional space by applying computed tomography geometry correction to the computed tomography information, the cephalo image by the automatic reconstruction method using the computed tomography image.
  • the image information of a specific section along the X-ray irradiation path is regenerated in the digital or toroidal cross-sectional direction of the computed tomography image to generate a cephalo image.
  • the position error is first corrected by applying a computed tomography geometry correction algorithm to correct an error caused by an incorrect posture of a patient during computed tomography.
  • a computed tomography geometry correction algorithm to correct an error caused by an incorrect posture of a patient during computed tomography.
  • an optimized position is calculated by using a feature value of the ROI designated in the computed tomography image.
  • an automatic reconstruction algorithm is applied to generate a cephalo image from the computed tomography image.
  • the image information of a section designated in the direction of the cross section of the digital or the kernel is summed along the X-ray irradiation path to generate a sepulo image.
  • FIG. 1 is a block diagram of a medical image reconstruction apparatus according to an embodiment of the present invention.
  • the apparatus for reconstructing a medical image includes applying CT computed tomography information to computed tomography information to obtain a computed tomography image in a three-dimensional space.
  • the geometry correction unit 100 for correcting the position to be correct the setting unit 200 for setting the image information utilization section and X-ray irradiation path to be used to reconstruct the Sepulro image, and the image information utilization section set by the setting unit 200
  • the geometry correction unit 100 performs computed tomography geometry correction to correct an error caused by an incorrect posture of a patient during computed tomography.
  • the image after applying the computed tomography geometry correction is the shape of the patient's face facing the front, and the left or right symmetrical organs or feature points such as the position of the left and right jaws and the eyes are horizontal, and the head is not too bowed or held up. It is a deformed image.
  • the geometry correction unit 100 will be described in more detail with reference to FIGS. 2 to 4 as follows.
  • FIG. 2 is a detailed configuration diagram of the geometry correction unit 100 according to an embodiment of the present invention.
  • the geometry correction unit 100 receives the computed tomography information and extracts a correction angle in each cross-sectional direction for correcting the position of the computed tomography information.
  • the correction angle extractor 110 and the correction angle extractor 120 are configured to rotate the computed tomography image using the correction angles of the respective cross-sectional directions extracted by the correction angle extractor 110 to perform geometry correction.
  • a computed tomography (CT) device photographs the head of a subject as an example, and transfers the computed tomography information (CT data) to the geometry correction unit 100 of the medical image information.
  • CT computed tomography
  • the correction angle extraction unit 110 receives the computed tomography information from the computed tomography apparatus, and each cross section (kernel, sagittal, axial) of the MPR (Multi Planar Reconstruction) to correct the position of the computed tomography information. Extract the correction angle in the (Axial)) direction.
  • a subroutine (correction angle extraction unit in FIG. 3) is performed for each cross-sectional direction to extract the correction angles in the respective cross-sectional directions of the MPR.
  • MPR means reconstructing a plurality of two-dimensional cross-sectional images from a three-dimensional image, and the kernel, the digital, and the axial are related to each cross section of the X, Y, and Z axes of the three-dimensional image.
  • the correction unit 120 performs geometry correction by rotating the computed tomography image using the rotation angle (correction angle) extracted for each cross-sectional direction by the correction angle extractor 110.
  • the rotation angle (correction angle) can be calculated with three parameters according to the kernel, digital, and axial directions.
  • FIG. 3 is a detailed block diagram of the correction angle extraction unit 110 according to an embodiment of the present invention.
  • the correction angle extractor 110 includes a reference point information extractor 111 and a reference point information extractor 111 for extracting reference point information from computed tomography information.
  • a count map extractor 112 for each rotation angle for extracting a count map for each preset rotation angle by using image information of the ROI including the reference point information extracted from the ROI, and for each rotation angle. It includes a rotation angle extraction unit 113 for extracting the rotation angle of the minimum count map of the count map extracted by the rotation angle in the count map extraction unit 112.
  • the reference point information extracting unit 111 receives computer computed tomography information from a computed tomography apparatus and extracts any one of reference point information that can be extracted from the computed tomography information.
  • the reference point information may include jaw line information, tooth arrangement information, ear plug information, temporo-mandibular joint (TMJ) information, eye position information, and the like.
  • x, y, and z are position values of the X, Y, and Z axes in the computed tomography image
  • w is the horizontal size of the cross-sectional image
  • h is the vertical size of the cross-sectional image
  • Zs is a start point set for image superposition on the Z axis
  • ze is an end point set for image superimposition on the Z axis.
  • Equation 3 The superimposed image generating condition equation f (x, y, z) is shown in Equation 3 below.
  • I (x, y, z) means each pixel value of the computed tomography image, and when the specified threshold is satisfied, the value of the overlapping image g (x, y) is increased.
  • the specified threshold t1 is 1000 and t2 is 2000. In this case, the thresholds t1 and t2 can be changed because they can be changed according to the computed tomography apparatus or the imaging conditions, and can be experimentally obtained and optimized.
  • the center region of the mandibular jawline is calculated using the superimposed image information.
  • Image information of the central region of the mandibular jawline is extracted in the axial cross-sectional image of the designated section on the computed tomography.
  • the coordinates of the cross section satisfying the conditions for which the extracted image information is described below are used as the center region of the mandible jaw line. Equation h (x, y) for detecting the central region of the mandible jawline is as shown in Equation 4 below.
  • bx and by are center coordinates of a section designated to detect the center region of the mandible jawline in the overlapping image
  • sx and sy are region size values of the section.
  • Equations X (x, y) and Y (x, y) for detecting the X-axis center coordinates of the designated section are shown in Equation 6 below.
  • an arbitrary threshold value t is referenced.
  • the threshold t is 40.
  • the value of the threshold value t can be changed because it can be changed according to the characteristics of the image, and can be experimentally obtained and used.
  • the region size values sx and sy for setting the section based on the detected center coordinates are all 100.
  • the size value of the region may be changed according to the characteristics of the image, and may be experimentally obtained and used.
  • Equation j (x, y, z) for detecting the mandible jawline information within the finally set section is shown in Equation 7 below.
  • m denotes a mask size
  • the mask area around each pixel is searched within a designated area, and the total number TC of pixel values satisfying the threshold values t1 and t2 is calculated by [Equation 8] below. do.
  • the corresponding position point is used as the position coordinate of the mandible jaw line.
  • the count map extractor 112 for each rotation angle uses image information of a region of interest (ROI) extracted based on the reference point information extracted by the reference point information extractor 111 for each preset rotation angle. Extract the count map. At this time, to extract the count map for each rotation angle, a subroutine (count map extraction unit for each rotation angle of FIG. 4) is performed for each rotation angle.
  • ROI region of interest
  • the rotation angle extractor 113 measures the number of effective pixels of the count map extracted for each rotation angle by the count map extractor 112 for each rotation angle, and thus has a count map having the smallest number of pixels (that is, a minimum count map). Extract the angle of rotation.
  • FIG. 4 is a detailed configuration diagram of the count map extractor 112 for each rotation angle according to an embodiment of the present invention.
  • the count map extractor 112 for each rotation angle may include an image rotation unit 112a and an image rotation unit for rotating the computed tomography image for each preset rotation angle.
  • An image information extracting unit 112b for extracting image information of the ROI based on the reference point information extracted by the reference point information extracting unit 111 from the computed tomography image rotated at 112a, and the image information extracting unit 112b
  • a count map extractor 112c for extracting a count map using the image information of the ROI extracted from.
  • the image rotating unit 112a repeatedly rotates the computed tomography image at a predetermined rotation angle (for example, 0.1 degree) at a predetermined rotation angle section.
  • a predetermined rotation angle for example, 0.1 degree
  • the rotation angle interval can be arbitrarily changed, and can be set at intervals other than 0.1 degree interval, which can be set and used according to the trade-off relationship between processing time and accuracy.
  • image rotation processing may be performed by reducing a computed tomography image to improve processing speed.
  • the original information of size 800 * 800 * 600 can be reduced to 400 * 400 * 600, 400 * 400 * 300, 400 * 800 * 300, and the like.
  • the image rotation processing may be performed after applying a preprocessing algorithm such as a noise removing filter to accurately calculate the rotation angle for image correction.
  • the rotation angle range of the computed tomography image specified for each section is axial (-10 ° to 10 °), digital (-9 ° to 9 °), and kernel (-3 ° to 3). °) can be set, which corresponds to one embodiment.
  • the setting of the rotation angle may be parameterized for each device in consideration of the range in which the computed tomography output information may be distorted.
  • the image rotation is performed by changing the angle at a rotation angle interval (for example, 0.1 degree) specified according to the axial direction, the digital direction, and the kernel direction.
  • a rotation angle interval for example, 0.1 degree
  • the order of image rotation can be arbitrarily selected, and it is also possible to find the rotation angle by obtaining a count map for all directions.
  • the rotation angle can be determined by finding the axial direction first, finding the digital direction, and finding the kernel direction. You can also find it.
  • the image information extracting unit 112b is a region of interest ROI designated for each section based on the mandible jaw line information (reference point information) extracted from the reference point information extracting unit 111 from the computed tomography image rotated by the image rotating unit 112a. Extract video information).
  • the ROI may be set to a size that may include both the maxilla and the mandible.
  • the setting of the region of interest is also an element that can influence the performance of the apparatus (or algorithm) according to the exemplary embodiment of the present invention, it is possible to set it in various forms other than the form including both the maxilla and the mandible.
  • the count map extractor 112c extracts a count map based on a specified threshold value using the image information in the ROI extracted by the image information extractor 112b.
  • the count map generation equation g (x, y) is as shown in Equation 9 below.
  • r1 and r2 mean height values of the ROI.
  • Equation 10 The count map generation condition equation f (x, y, z) is shown in Equation 10 below.
  • the specified threshold value t1 is 500
  • t2 may be set to 1500, and may be changed and set according to the CT apparatus or the photographing environment.
  • the setting unit 200 is a position information setting unit 210 for setting the position coordinates of the X-ray source according to the two-dimensional view direction of the cephalo image using the equipment photographing sequence information, and the position And an image information utilization section setting unit 220 for setting the image information utilization section based on the position coordinate set by the information setting unit 210.
  • the position information setting unit 210 sets the position coordinates of the X-ray source by using the equipment photographing sequence information based on the position coordinates of the anterior occlusal surface.
  • the most reasonable position of the X-ray source when the image was taken with the Sepulro imaging apparatus may be set to a plane having an occlusal surface. It can be set appropriately outside the image area of the dimensional medical information.
  • the image information of the designated section is summed along the irradiation direction of the X-ray beam based on the position coordinates of the X-ray source to reconstruct the image by Sepul.
  • the X-ray path summing according to the position of the X-ray source is determined.
  • the X-ray path may be used by calculating a path passing through the location of each voxel of the computed tomography information by generating an X-ray at the location of the X-ray source when the real image is taken with a Sepha imaging device.
  • the image information utilization section setting unit 220 may set an entire section or a specified section of the computed tomography image as a summing section (image information utilization section) in the direction of the cross section of the digital or kernel according to the X-ray beam irradiation direction. Can be.
  • the reconstructor 300 adjusts the ratio of the image information reflected in the reconstructed Sepulro image, and the image set by the " image information utilization section setting unit 220 adjusted by the adjuster 310.
  • the reconstructor 300 further includes an image size adjuster 330 for adjusting the size of the cephalo image reconstructed by the medical image reconstructor 320.
  • the reconstructor 300 further includes a medical image processor 340 for performing image processing on the sepulo image reconstructed by the medical image reconstructor 320.
  • the adjusting unit 310 generates and uses an Opacity Table.
  • the gamma curve is applied to an area below a specific threshold in consideration of the characteristics of the CT number to generate an opacity table.
  • the error table is a kind of look-up table, and is used as a method of adjusting the ratio of image information reflected in the sepulo image reconstructed in the present invention.
  • the expression table generation formula T (x) is shown in Equation 11 below.
  • s denotes the size of the error table
  • g denotes a gamma curve power.
  • the threshold t may be applied as a value calculated by experimental optimization. For example, when the threshold t is set to 2000, this value is an example set in consideration of the computed tomography number.
  • the medical image reconstructing unit 320 may adjust the image information utilization section set in the “image information utilization section setting unit 220 adjusted by the adjusting unit 310 among the image information of the computed tomography image corrected by the geometry correction unit 100.
  • Video information "
  • the value of the transparency table may be used as the value of the video information utilization section during the summation.
  • the weight of the summation information (image information) may be adjusted by using the characteristic information (edge, gradient, etc.). Can be.
  • the weight may use attenuation coefficient in consideration of characteristics of the X-ray, or may use an intensity value of the pixel in the summing section. The final generated weight is applied to the result value passing through the transparency table and summing.
  • the medical image resizing unit 330 adjusts the size of the reconstructed cephalo image on the computed tomography information.
  • the image size is adjusted by cutting a specific area in order to derive an image similar to the image captured by the Sepharo imaging apparatus or to remove an unnecessary edge.
  • the medical image size adjusting unit 330 may be omitted.
  • the medical image processor 340 may perform post processing on the reconstructed Sepharo image to improve image quality.
  • a pre-processing process may be applied before the geometry correction unit 100 is performed.
  • FIG. 5 is a flowchart illustrating a medical image reconstruction method according to an embodiment of the present disclosure. Since the specific embodiment has been described above in detail with respect to the medical image reconstruction apparatus, the operation process thereof will be briefly described. do.
  • the geometry correction unit 100 corrects the computed tomography image to be correctly positioned in a three-dimensional space by applying CT tomography information to CT computed tomography information (500).
  • the geometry correction process 500 will be described later with reference to FIGS. 6 to 8.
  • the setting unit 200 sets an image information utilization section to be used for reconstructing the sephalo image (600).
  • the image information utilization section setting process 600 is a process in which the location information setting unit 210 sets the position coordinates of the X-ray source using the equipment photographing sequence information (610), and utilizes the image information.
  • the section setting unit 220 sets an image information utilization section based on the location coordinates set by the location information setting unit 210.
  • the reconstructor 300 sets the "image information of the computed tomography image corrected by the geometry correction unit 100" in the image information utilization section set by the setting unit 200 to the position of the X-ray source set by the setting unit 200.
  • the image is reconstructed along the X-ray irradiation path based on the coordinates to reconstruct the Sepulo image (700).
  • the Sepharo image reconstruction process 700 is a process of adjusting the ratio of the image information reflected in the Sepharo image reconstructed by the adjustment unit 310 (710), and the medical image reconstruction unit 320 in the adjustment unit 310 And reconstructing the image of the Sepulro by summing the adjusted "image information in the image information utilization section set by the image information utilization section setting unit 220".
  • the Sepulro image reconstruction process 700 further includes a process 730 of adjusting, by the image resizing unit 330, the size of the Sepulro image reconstructed by the medical image reconstruction unit 320.
  • the Sepharo image reconstruction process 700 further includes a process 740 in which the medical image processing unit 340 performs image processing on the Sepharo image reconstructed by the medical image reconstruction unit 320.
  • FIG. 6 is a detailed flowchart of a geometry correction process 500 according to an embodiment of the present invention.
  • the correction angle extractor 110 receives the computed tomography information and extracts the correction angle in each cross-sectional direction to correct the position of the computed tomography information (510). At this time, a subroutine (correction angle extraction process of FIG. 7) is performed for each section to extract the correction angle for each section.
  • the correction unit 120 rotates the computed tomography image using the correction angles of the respective cross-sectional directions extracted by the correction angle extractor 110 to perform geometry correction (520).
  • FIG. 7 is a detailed flowchart of a correction angle extraction process 510 according to an embodiment of the present invention.
  • the reference point information extraction unit 111 extracts reference point information from the computed tomography information (511).
  • the count map extractor 112 for each rotation angle extracts the count map for each preset rotation angle using the image information according to the reference point information extracted by the reference point information extractor 111 (512).
  • a subroutine count map extraction process for each rotation angle of FIG. 8 is performed for each rotation angle.
  • the rotation angle extractor 113 extracts the rotation angle of the minimum count map among the count maps extracted for each rotation angle by the count map extractor 112 for each rotation angle (513).
  • FIG. 8 is a detailed flowchart of a count map extraction process 512 for each rotation angle according to an embodiment of the present invention.
  • the image rotating unit 112a rotates the computed tomography image for each preset rotation angle (512a).
  • the image information extracting unit 112b extracts image information of the ROI based on the reference point information extracted by the reference point information extracting unit 111 from the computed tomography image rotated by the image rotating unit 112a (512b).
  • the count map extracting unit 112c extracts the count map using the image information of the ROI extracted by the image information extracting unit 112b (512c).
  • the computed tomography geometry correction is applied to the computed tomography information so that the computed tomography image is correctly positioned in the three-dimensional space.
  • the organ or feature points such as left and right eyes, left and right ears, and ear rods, which are symmetrical to the subject and the shooting position, are constantly present. Arranged on a horizontal plane.
  • the image is generated by the cephalor using an automatic reconstruction method using a computed tomography image.
  • the image information of a specific section along the X-ray irradiation path is regenerated in the digital or toroidal cross-sectional direction of the computed tomography image to generate a cephalo image.
  • the magnification ratio of each position according to the X-ray irradiation path is different.
  • the size of the left and right ears is different in the cross-sectional direction of the sagittal (LAT) cephalo image. As shown in the figure, it is similar to the cephalo image using the actual cephalographer.
  • the medical image reconstruction method according to the present invention as described above is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium.
  • the computer readable medium may include a program command, an information file, an information structure, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • the medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, an information structure, or the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 2차원 의료 영상을 추가적으로 촬영하지 않고, 기 촬영된 3차원 의료 영상 정보를 이용하여 해당 영상이 3차원 공간 상에 정 위치하도록 하여 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정한 후에 자동 재구성 방식으로 2차원 의료 영상을 생성하기 위한 의료 영상 재구성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하고자 한다. 이를 위하여, 본 발명은, 3차원 의료 영상이 3차원 공간 상에 정 위치하도록 3차원 의료 영상 정보의 지오메트리를 보정하는 지오메트리 보정부; 상기 3차원 의료 영상 정보에 영상 정보 활용 구간을 설정하는 설정부; 및 상기 영상 정보 활용 구간의 상기 3차원 의료 영상 정보를 2차원 뷰 방향으로 서메이션하여 2차원 의료 영상을 재구성하는 재구성부를 포함한다.

Description

의료 영상 재구성 장치 및 그 방법
본 발명은 의료 영상 재구성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 더욱 상세하게는 3차원(3D) 의료 영상 정보의 3차원 공간 상의 위치를 보정한 후에 3차원 의료 영상(예를 들어, 컴퓨터 단층 촬영 영상)으로부터 자동 재구성 방식으로 2차원(2D) 의료 영상(예를 들어, 세펄로 영상)을 생성하기 위한 의료 영상 재구성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
이하의 본 발명의 실시예에서는 3차원 의료 영상의 일 예로 컴퓨터 단층 촬영(CT: Computed Tomography) 영상을 예로 들어 설명하고, 2차원 의료 영상의 일 예로 세펄로 영상(Cephalo Image)을 예로 들어 설명하나, 본 발명이 이에 한정되는 것이 아님을 미리 밝혀둔다.
일반적으로, 컴퓨터 단층 촬영(CT) 영상, 초음파 영상 등의 3차원 의료 영상은 피검체를 개괄적이고 일목요연하게 파악할 수 있는 장점이 있다. 그러나 피검체의 내부 구조 등을 더욱 자세히 관찰하기 위해서는 3차원 의료 영상보다는 2차원 의료 영상을 이용하는 것이 효과적일 수 있다. 따라서 3차원 의료 영상과 2차원 의료 영상을 함께 디스플레이한다면 사용자가 피검체에 대하여 개괄적이고 면밀한 관찰을 동시에 할 수 있다.
이러한 종래의 3차원 의료 영상과 2차원 의료 영상을 디스플레이하는 방식의 일예로서 대한민국공개특허번호 제10-2013-0138612호(2013년 12월 19일 공개)를 살펴보면 다음과 같다.
종래의 3차원 의료 영상과 2차원 의료 영상을 디스플레이하는 장치는, 피검체에 대한 3차원 의료 영상을 획득하는 3차원 영상 획득부, 획득된 3차원 의료 영상에 대한 외부 입력에 기초하여 피검체에 대한 적어도 하나의 단면을 선택하는 단면 선택부, 선택된 적어도 하나의 단면에 상응하게 피검체를 스캔하여 2차원 의료 영상을 획득하는 2차원 영상 획득부, 및 2차원 의료 영상과 3차원 의료 영상을 디스플레이하는 디스플레이부를 포함한다.
이때, 단면 선택부는, 획득된 3차원 의료 영상 상에 위치할 적어도 하나의 윈도우를 생성하는 윈도우 생성부, 3차원 의료 영상 상에서 상기 생성된 적어도 하나의 윈도우를 이동시키는 윈도우 제어부, 및 선택된 적어도 하나의 단면과 인접한 적어도 하나의 단면을 추가로 선택하는 추가 단면 선택부를 포함한다.
그리고 2차원 영상 획득부는, 선택된 적어도 하나의 단면에 상응하게 피검체를 스캔하여 적어도 하나의 제 1 이차원 의료 영상을 획득하는 제 1 영상 획득부, 단면과 인접한 적어도 하나의 단면에 상응하게 피검체를 스캔하여 적어도 하나의 제 2 이차원 의료 영상을 획득하는 제 2 영상 획득부, 및 적어도 하나의 제 1 이차원 의료 영상 및 적어도 하나의 제 2 이차원 의료 영상을 합성함으로써 적어도 하나의 합성 2차원 의료 영상을 획득하는 합성 영상 획득부를 포함한다.
그러나 상기 종래 기술은 적어도 어느 하나의 단면과 그 단면에 인접한 적어도 하나의 단면에 상응하는 제 1, 2 이차원 의료 영상을 각각 획득하여 합성함으로써 적어도 하나의 합성 2차원 의료 영상을 획득할 수 있으나, 이렇게 얻어진 합성 2차원 의료 영상은 실제 촬영된 2차원 의료 영상과 다르다는 문제점이 있다.
왜냐하면, 초음파 빔(Beam) 또는 엑스선 빔은 방사형으로 진행되는 특성으로 인하여 빔의 진행경로 상 일정 간격 이상 이격된 서로 다른 단면에 상응하는 2차원 의료 영상 간의 확대 정도가 다르기 때문에, 종래 기술에서 사용하는 방식과 같은 단순한 영상 합성 방식으로 의료 영상을 중첩하여 2차원 의료 영상을 획득하는 경우 부정확한 2차원 의료 영상이 획득되게 되는 문제점이 있다.
한편, 컴퓨터 단층 촬영 시 촬영자의 경험 정도에 따른 숙련도에 따라 환자(피검자)의 촬영 자세를 정확히 잡지 못한 상태에서 촬영하는 경우가 빈번히 발생하고 있다.
이처럼 환자의 촬영 위치가 틀어진 상태로 촬영된 컴퓨터 단층 촬영 영상은 좌우 대칭 및 안면 골격의 구조가 틀어져 보이는 현상을 방지할 수 없다.
따라서 컴퓨터 단층 촬영 시 환자의 자세가 부정확한 상태에서 획득된 컴퓨터 단층 촬영 영상을 의료 진단용 3차원 뷰어(3D Viewer)를 통해 디스플레이할 경우, 컴퓨터 단층 촬영 영상이 틀어져 보이는 현상이 발생하게 되는 문제점이 있다.
따라서 상기와 같은 종래 기술은 전술한 바와 같은 문제점이 있으며, 이러한 문제점을 해결하고자 하는 것이 본 발명의 과제이다.
따라서 본 발명은 2차원 의료 영상(예: 세펄로 영상)을 추가적으로 촬영하지 않고, 기 촬영된 3차원 의료 영상 정보를 이용하여 해당 영상이 3차원 공간 상에 정 위치하도록 하여 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정한 후에 자동 재구성 방식으로 2차원 의료 영상을 생성하기 위한 의료 영상 재구성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시 예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 장치는, 3차원 의료 영상이 3차원 공간 상에 정 위치하도록 3차원 의료 영상 정보의 지오메트리를 보정하는 지오메트리 보정부; 상기 3차원 의료 영상 정보에 영상 정보 활용 구간을 설정하는 설정부; 및 상기 영상 정보 활용 구간의 상기 3차원 의료 영상 정보를 2차원 뷰 방향으로 서메이션(Summation)하여 2차원 의료 영상을 재구성하는 재구성부를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 장치는, 3차원 의료 정보의 영상영역 외측으로 엑스레이 소스의 위치좌표를 설정하는 위치좌표 설정부; 및 상기 위치좌표로부터 발생되는 엑스선 조사 경로에 따라 상기 3차원 의료 정보를 서메이션하여 2차원 의료 영상을 재구성하는 재구성부를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 방법은, 의료 영상 재구성 장치의 의료 영상 재구성 방법에 있어서, (a) 3차원 의료 영상이 3차원 공간 상에 정 위치하도록 3차원 의료 영상 정보의 지오메트리를 보정하는 단계; (b) 상기 3차원 의료 영상 정보에 영상 정보 활용 구간을 설정하는 단계; 및 (c) 상기 영상 정보 활용 구간의 상기 3차원 의료 영상 정보를 2차원 뷰 방향으로 서메이션(Summation)하여 2차원 의료 영상을 재구성하는 단계를 포함한다.
상기와 같은 본 발명은, 기 촬영된 3차원 의료 영상 정보를 이용하여 해당 영상이 3차원 공간 상에 정 위치하도록 하여 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정한 후에 자동 재구성 방식으로 2차원 의료영상, 일례로 세펄로 영상을 생성함으로써, 세펄로 영상을 추가적으로 촬영할 필요가 없고, 추가 촬영이 필요 없으므로 추가적인 피폭을 제거하여 피검자(환자)의 피폭선량을 감소시킬 수 있는 효과가 있다.
또한, 본 발명은, 컴퓨터 단층 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정함으로써, 단면 별 영상의 위치 정확도를 개선할 수 있고, 그에 따라 보다 정확한 의료 진단이 가능하도록 할 수 있는 효과가 있다.
또한, 본 발명은, 컴퓨터 단층 촬영 정보를 이용하여 자동 재구성 방식으로 세펄로 영상을 자동 생성 시 컴퓨터 단층 촬영 지오메트리 보정을 적용함으로써, 안면 골격의 틀어짐을 방지할 수 있고, 그에 따라 단면 별 영상의 위치 정확도를 개선할 수 있으며, 또한 확대도를 개선할 수 있는 효과가 있다.
또한, 본 발명은 세펄로 영상 촬영 장치를 구현하기 위해 일정 이상의 확대도가 보장되는 암(Arm)을 장착해야만 하는 필요성을 제거할 수 있고, 그에 따라 의료 장비의 크기를 소형화할 수 있으며, 또한 의료 장치의 설치 공간을 축소시킬 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 재구성 장치의 구성도,
도 2는 본 발명의 일 실시예에 따른 지오메트리 보정부의 상세 구성도,
도 3은 본 발명의 일 실시예에 따른 보정 각도 추출부의 상세 구성도,
도 4는 본 발명의 일 실시예에 따른 회전 각도별 카운트 맵 추출부의 상세 구성도,
도 5는 본 발명의 일 실시예에 따른 의료 영상 재구성 방법에 대한 흐름도,
도 6은 본 발명의 일 실시예에 따른 지오메트리 보정 과정에 대한 상세 흐름도,
도 7은 본 발명의 일 실시예에 따른 보정 각도 추출 과정에 대한 상세 흐름도,
도 8은 본 발명의 일 실시예에 따른 회전 각도별 카운트 맵 추출 과정에 대한 상세 흐름도이다.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
그리고 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때 이는 "직접적으로 연결"되어 있는 경우뿐만 아니라 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함하거나 구비할 수 있는 것을 의미한다. 또한, 명세서 전체의 기재에 있어서 일부 구성요소들을 단수형으로 기재하였다고 해서, 본 발명이 그에 국한되는 것은 아니며, 해당 구성요소가 복수 개로 이루어질 수 있음을 알 것이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다.
먼저, 본 발명의 실시예에 따른 기술 요지를 정리하여 살펴보면, 다음과 같다.
본 발명의 실시예에서는 컴퓨터 단층 촬영 정보에 컴퓨터 단층 촬영 지오메트리 보정을 적용하여 3차원 공간 상에 컴퓨터 단층 촬영 영상이 정 위치하도록 보정한 후에, 컴퓨터 단층 촬영 영상을 이용하여 자동 재구성 방식으로 세펄로 영상을 생성한다. 이때, 본 발명의 실시예에서는 컴퓨터 단층 촬영 영상의 새지털 또는 커로우널 단면 방향에서 엑스선 조사 경로에 따른 특정 구간의 영상 정보를 재구성하여 세펄로 영상을 생성한다.
즉, 본 발명의 실시예에서는, 먼저 컴퓨터 단층 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정하기 위하여 컴퓨터 단층 촬영 지오메트리 보정 알고리즘을 적용하여 위치 오차를 보정한다. 이때, 컴퓨터 단층 촬영 영상에서 지정된 관심 영역(ROI)의 특징값을 이용하여 최적화된 위치를 산출한다. 이후에, 컴퓨터 단층 촬영 영상에서 세펄로 영상을 생성하기 위하여 자동 재구성 방식 알고리즘을 적용한다. 이때, 새지털 또는 커로우널 단면 방향에서 지정된 구간의 영상 정보를 엑스선 조사경로를 따라 서메이션(Summation)하여 세펄로 영상을 생성한다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 재구성 장치의 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 재구성 장치는, 컴퓨터 단층 촬영 정보에 컴퓨터 단층 촬영 지오메트리 보정(CT Geometry Correction)을 적용하여 3차원 공간 상에 컴퓨터 단층 촬영 영상이 정 위치하도록 보정하기 위한 지오메트리 보정부(100), 세펄로 영상 재구성에 사용될 영상 정보 활용 구간 및 엑스선 조사 경로를 설정하기 위한 설정부(200), 및 설정부(200)에서 설정된 영상 정보 활용 구간 내의 "지오메트리 보정부(100)에서 보정된 컴퓨터 단층 촬영 영상의 영상 정보"를 설정부(200)에서 설정된 엑스선 조사 경로를 따라 서메이션(Summation)하여 세펄로 영상을 재구성하기 위한 재구성부(300)를 포함한다.
다음으로, 상기 각 구성 요소에 대하여 좀 더 구체적으로 살펴보면, 다음과 같다.
먼저, 지오메트리 보정부(100)는 컴퓨터 단층 촬영 시 환자의 부정확한 자세로 인하여 발생되는 오차를 보정하기 위해 컴퓨터 단층 촬영 지오메트리 보정을 수행한다. 이때, 컴퓨터 단층 촬영 지오메트리 보정을 적용한 후의 영상은 환자의 얼굴이 정면을 주시한 형태이고, 좌우 턱 및 눈의 위치 등 좌우 대칭인 기관 또는 특징점이 수평을 유지하며, 고개를 너무 숙이거나 들고 있지 않도록 변형된 영상이다. 이러한 지오메트리 보정부(100)에 대하여 도 2 내지 도 4를 참조하여 좀 더 상세히 살펴보면 다음과 같다.
도 2는 본 발명의 일 실시예에 따른 지오메트리 보정부(100)의 상세 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 지오메트리 보정부(100)는, 컴퓨터 단층 촬영 정보를 전달받아 컴퓨터 단층 촬영 정보의 위치 보정을 위해 각 단면 방향의 보정 각도를 추출하기 위한 보정 각도 추출부(110), 및 보정 각도 추출부(110)에서 추출된 각 단면 방향의 보정 각도를 이용하여 컴퓨터 단층 촬영 영상을 회전시켜 지오메트리 보정을 수행하기 위한 보정부(120)를 포함한다.
다음으로, 상기 각 구성 요소에 대하여 좀 더 구체적으로 살펴보면, 다음과 같다.
먼저, 컴퓨터 단층 촬영(CT) 장치(도면에 도시되지 않음)가 일예로 피검자의 두부를 촬영하여 컴퓨터 단층 촬영 정보(CT Data)를 의료 영상 정보의 지오메트리 보정부(100)로 전달한다.
그러면, 보정 각도 추출부(110)는 컴퓨터 단층 촬영 장치로부터 컴퓨터 단층 촬영 정보를 전달받아 컴퓨터 단층 촬영 정보의 위치 보정을 위해 MPR(Multi Planar Reconstruction)의 각 단면(커로우널, 새지털, 액시얼(Axial)) 방향의 보정 각도를 추출한다. 이때, MPR의 각 단면 방향의 보정 각도를 추출하기 위해 서브 루틴(도 3의 보정 각도 추출부)을 단면 방향 별로 수행한다. 여기서, MPR은 다수의 2차원 단면 영상을 3차원 영상으로부터 재구성한 것을 의미하며, 커로우널, 새지털, 액시얼은 3차원 영상의 X, Y, Z 축의 각 단면과 관련된다.
그리고 보정부(120)는 보정 각도 추출부(110)에서 단면 방향 별로 추출된 회전 각도(보정 각도)를 이용하여 컴퓨터 단층 촬영 영상을 회전시켜 지오메트리 보정을 수행한다. 이때, 회전 각도(보정 각도)는 커로우널, 새지털, 액시얼 방향에 따라 3개의 파라미터(Parameter)로 산출할 수 있다.
도 3은 본 발명의 일 실시예에 따른 보정 각도 추출부(110)의 상세 구성도이다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 보정 각도 추출부(110)는, 컴퓨터 단층 촬영 정보에서 기준점 정보를 추출하기 위한 기준점 정보 추출부(111), 기준점 정보 추출부(111)에서 추출된 기준점 정보를 포함하는 관심영역(ROI)의 영상 정보를 이용하여 기 설정된 회전 각도별로 카운트 맵(Count Map)을 추출하기 위한 회전 각도별 카운트 맵 추출부(112), 및 회전 각도별 카운트 맵 추출부(112)에서 회전 각도별로 추출된 카운트 맵 중 최소 카운트 맵의 회전 각도를 추출하기 위한 회전 각도 추출부(113)를 포함한다.
다음으로, 상기 각 구성 요소에 대하여 좀 더 구체적으로 살펴보면, 다음과 같다.
먼저, 기준점 정보 추출부(111)는 컴퓨터 단층 촬영 장치로부터 컴퓨터 단층 촬영 정보를 전달받아 컴퓨터 단층 촬영 정보 내에서 추출할 수 있는 기준점 정보 중의 어느 하나를 추출한다. 이때, 기준점 정보로는 턱선 정보, 치아 배열 정보, 이어 플러그(Ear Plug) 정보, TMJ(Temporo-Mandibular Joint) 정보, 눈의 위치 정보 등이 있을 수 있다.
일 예로, 기준점 정보로 하악 턱선 정보(3차원 상의 좌표)를 이용하는 경우를 예를 들어 살펴보면, 컴퓨터 단층 촬영 상에서 지정된 구간의 액시얼 단면 영상을 중첩하여 중첩 영상을 획득한다. 중첩 영상 획득 시 하악 턱선 정보만을 추출하기 위해 후술되는 임의의 임계값을 사용한다. 이때, 중첩 영상 생성 수식 g(x,y)는 하기의 [수학식 1]과 같다.
Figure PCTKR2015007733-appb-M000001
여기서, x, y, z는 컴퓨터 단층 촬영 영상에서 X, Y, Z 축의 위치값을 의미하고, w는 단면 영상의 가로 크기이며, h는 단면 영상의 세로 크기이다. 그리고 zs는 Z축에서 영상 중첩을 위해 설정된 시작 지점이고, ze는 Z축에서 영상 중첩을 위해 설정된 종료 지점이다. 컴퓨터 단층 촬영 영상의 중첩 시작, 종료 지점값은 환자의 특성에 따라 변동이 가능하기 때문에 변경이 가능하며, 실험적으로 얻어 최적화하여 사용할 수 있다. 그 일 예를 살펴보면 하기의 [수학식 2]와 같다.
Figure PCTKR2015007733-appb-M000002
그리고 중첩 영상 생성 조건 수식 f(x,y,z)는 하기의 [수학식 3]과 같다.
Figure PCTKR2015007733-appb-M000003
여기서, I(x,y,z)는 컴퓨터 단층 촬영 영상의 각 픽셀값을 의미하고, 지정된 임계값을 만족하는 경우 중첩 영상 g(x,y)의 값을 증가시킨다. 지정된 임계값 t1은 1000이고, t2는 2000이다. 이때, 임계값 t1, t2는 컴퓨터 단층 촬영 장치 또는 촬영 조건에 따라 변동이 가능하기 때문에 변경이 가능하며, 실험적으로 얻어 최적화하여 사용할 수 있다.
그리고 중첩한 영상 정보를 이용하여 하악 턱선의 중심 영역을 산출한다. 컴퓨터 단층 촬영 상에서 지정된 구간의 액시얼 단면 영상 내에서 하악 턱선의 중심 영역의 영상 정보를 추출한다. 추출된 영상 정보가 후술되는 조건을 만족하는 단면의 좌표를 하악 턱선의 중심 영역으로 활용한다. 하악 턱선의 중심 영역을 검출하기 위한 수식 h(x,y)는 하기의 [수학식 4]와 같다.
Figure PCTKR2015007733-appb-M000004
여기서, bx, by는 중첩 영상 내에서 하악 턱선의 중심 영역을 검출하기 위해 지정한 구간의 중심 좌표이고, sx, sy는 해당 구간의 영역 크기값이다. 이때, 해당 구간 설정을 위한 수식은 하기의 [수학식 5]와 같다.
Figure PCTKR2015007733-appb-M000005
그리고 지정 구간의 X축 중심 좌표를 검출하기 위한 수식 X(x,y), Y(x,y)는 하기의 [수학식 6]과 같다.
Figure PCTKR2015007733-appb-M000006
중첩 영상 내에서 유효 지점을 설정하기 위해 임의의 임계값 t를 기준으로 한다. 일 예로, 임계값 t는 40이다. 여기서, 임계값 t의 값은 영상의 특성에 따라 변동이 가능하기 때문에 변경이 가능하며, 실험적으로 얻어 최적화하여 사용할 수 있다.
일 예로, 검출된 중심 좌표를 기준으로 구간 설정을 위한 영역 크기값 sx, sy는 모두 100이다. 이때, 영역의 크기값은 영상의 특성에 따라 변경이 가능하며, 실험적으로 얻어 최적화하여 사용할 수 있다.
최종적으로 설정된 구간 내에서 하악 턱선 정보를 검출하기 위한 수식 j(x,y,z)는 하기의 [수학식 7]과 같다.
Figure PCTKR2015007733-appb-M000007
여기서, m은 마스크(Mask) 크기를 의미하고, 지정된 영역 내에서 각 픽셀 주변의 마스크 영역을 검색하여 픽셀값이 임계값 t1, t2를 만족하는 총 개수 TC를 하기의 [수학식 8]과 계산한다.
Figure PCTKR2015007733-appb-M000008
이때, TC의 값이 마스크 영역의 크기와 동일한 경우 해당 위치 지점을 하악 턱 선의 위치 좌표로 활용한다.
그리고 회전 각도별 카운트 맵 추출부(112)는 기준점 정보 추출부(111)에서 추출된 기준점 정보를 기준으로 추출된 관심 영역(ROI: Region Of Interest)의 영상 정보를 이용하여, 기 설정된 회전 각도별로 카운트 맵을 추출한다. 이때, 각 회전 각도별로 카운트 맵을 추출하기 위해 서브 루틴(도 4의 회전 각도별 카운트 맵 추출부)을 각 회전 각도별로 수행한다.
그리고 회전 각도 추출부(113)는 회전 각도별 카운트 맵 추출부(112)에서 각 회전 각도별로 추출된 카운트 맵의 유효 픽셀 개수를 측정하여 가장 적은 픽셀 개수를 갖는 카운트 맵(즉, 최소 카운트 맵)의 회전 각도를 추출한다.
도 4는 본 발명의 일 실시예에 따른 회전 각도별 카운트 맵 추출부(112)의 상세 구성도이다.
도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 회전 각도별 카운트 맵 추출부(112)는, 기 설정된 회전 각도별로 컴퓨터 단층 촬영 영상을 회전시키기 위한 영상 회전부(112a), 영상 회전부(112a)에서 회전된 컴퓨터 단층 촬영 영상으로부터 기준점 정보 추출부(111)에서 추출된 기준점 정보를 기준으로 관심 영역의 영상 정보를 추출하기 위한 영상 정보 추출부(112b), 및 영상 정보 추출부(112b)에서 추출된 관심 영역의 영상 정보를 이용하여 카운트 맵을 추출하기 위한 카운트 맵 추출부(112c)를 포함한다.
다음으로, 상기 각 구성 요소에 대하여 좀 더 구체적으로 살펴보면, 다음과 같다.
먼저, 영상 회전부(112a)는 컴퓨터 단층 촬영 영상을 기 지정(설정)된 회전 각도 구간만큼 기 설정된 임의의 회전 각도(예: 0.1도) 간격으로 반복하여 회전시킨다. 이때, 회전 각도 간격은 임의로 변경이 가능하고, 0.1도 간격 이외의 간격으로도 설정이 가능하며, 이는 처리시간과 정확도 사이의 트레이드-오프(Trade-off) 관계에 따라 설정하여 사용할 수 있다.
그리고 처리 속도 개선을 위해 컴퓨터 단층 촬영 영상을 축소하여 영상 회전 처리를 수행할 수도 있다. 예를 들면, 800*800*600 크기의 원본 정보를 400*400*600, 400*400*300, 400*800*300 등으로 축소하여 처리할 수 있다. 또한, 영상 보정을 위한 회전 각도의 정확한 산출을 위해 노이즈 제거 필터 등의 전처리 알고리즘을 적용한 후에 영상 회전 처리를 수행할 수도 있다.
일 예로, 각 단면별로 지정된 컴퓨터 단층 촬영 영상의 회전 각도 구간은 액시얼은 (-10°~ 10°), 새지털은 (-9°~ 9°), 커로우널은 (-3°~ 3°)와 같이 설정할 수 있으며, 이는 하나의 실시 예에 해당한다.
그리고 회전 각도의 설정은 컴퓨터 단층 촬영 출력 정보가 틀어질 수 있는 범위를 고려하여 각 장비에 맞게 파라미터화하여 사용할 수 있다.
그리고 영상 회전은 액시얼 방향, 새지털 방향, 커로우널 방향에 따라 지정된 회전 각도 간격(예: 0.1도)으로 각도를 변경하면서 후술되는 영상 정보 추출부(112b) 및 카운트 맵 추출부(112c)의 동작을 반복한다.
그리고 영상 회전의 순서는 임의로 선택할 수 있으며, 모든 방향에 대해 카운트 맵을 구하여 회전 각도를 찾는 방법도 가능하고, 액시얼 방향을 먼저 찾고 새지털 방향을 찾고 커로우널 방향을 찾는 방식으로 회전 각도를 찾는 방법도 가능하다.
그리고 영상 정보 추출부(112b)는 영상 회전부(112a)에서 회전된 컴퓨터 단층 촬영 영상으로부터 기준점 정보 추출부(111)에서 추출된 하악 턱선 정보(기준점 정보)를 기준으로 각 단면별로 지정된 관심 영역(ROI)의 영상 정보를 추출한다. 이때, 관심 영역은 상악 및 하악이 모두 포함될 수 있는 크기로 설정할 수 있다. 여기서, 관심 영역의 설정도 본 발명의 일 실시예에 따른 장치(또는 알고리즘)의 성능을 좌우할 수 있는 요소이기 때문에 상악 및 하악이 모두 포함되는 형태 외의 다양한 형태로 설정이 가능하다.
그리고 카운트 맵 추출부(112c)는 영상 정보 추출부(112b)에서 추출된 관심 영역 내의 영상 정보를 이용하여 지정된 임계값을 기준으로 카운트 맵을 추출한다. 이때, 카운트 맵 생성 수식 g(x,y)는 하기의 [수학식 9]와 같다.
Figure PCTKR2015007733-appb-M000009
여기서, r1, r2는 설정된 관심 영역의 높이값을 의미한다.
그리고 카운트 맵 생성 조건 수식 f(x,y,z)는 하기의 [수학식 10]과 같다.
Figure PCTKR2015007733-appb-M000010
이때, 지정된 임계값 t1은 500이고, t2는 1500으로 정할 수 있으며, 컴퓨터 단층 촬영 장치 또는 촬영 환경에 따라 변경하여 설정할 수 있다.
한편, 설정부(200)는 장비 촬영 시퀀스 정보를 활용하여 세팔로 영상의 2차원 뷰 방향에 따른 엑스레이 소스(X-ray Source)의 위치 좌표를 설정하기 위한 위치 정보 설정부(210), 및 위치 정보 설정부(210)에서 설정된 위치 좌표를 기준으로 영상 정보 활용 구간을 설정하기 위한 영상 정보 활용 구간 설정부(220)를 포함한다.
이때, 위치 정보 설정부(210)는 전치 교합면의 위치 좌표를 기준으로 장비 촬영 시퀀스 정보를 활용하여 엑스레이 소스(X-ray Source)의 위치 좌표를 설정한다. 일예로, 세펄로 영상 촬영 장치로 촬영했을 때의 가장 합리적인 엑스레이 소스의 위치를 본 발명의 실시예에서는 전치 교합면을 품는 평면으로 설정할 수 있으며, 이 외에도 세펄로 영상을 촬영하는 위치를 고려하여 3차원 의료 정보의 영상영역 외측으로 적절히 설정할 수 있다.
이렇게 엑스레이 소스의 위치 좌표를 설정함으로써, 이후에 엑스레이 소스의 위치 좌표를 기준으로 하는 엑스선 빔의 조사방향을 따라 지정된 구간의 영상 정보를 서메이션하여 세펄로 영상을 재구성하도록 한다. 이때, 엑스레이 소스의 위치에 따라 서메이션하는 엑스레이 경로(X-ray Path)가 결정된다. 엑스레이 경로는 실제 세펄로 영상 촬영 장치로 촬영하였을 때 엑스레이 소스의 위치에서 엑스레이(X-ray)가 발생하여 컴퓨터 단층 촬영 정보의 각 복셀(Voxel)의 위치를 지나가는 경로를 계산하여 사용할 수 있다.
그리고 영상 정보 활용 구간 설정부(220)는 엑스선 빔의 조사방향에 따른 새지털 또는 커로우널 단면 방향으로 컴퓨터 단층 촬영 영상의 전체 구간 또는 지정된 일부 구간을 서메이션 구간(영상 정보 활용 구간)으로 설정할 수 있다.
한편, 재구성부(300)는 재구성하는 세펄로 영상에 반영되는 영상 정보의 비율을 조정하기 위한 조정부(310), 및 조정부(310)에서 조정된 "영상 정보 활용 구간 설정부(220)에서 설정된 영상 정보 활용 구간 내의 영상 정보"를 서메이션하여 세펄로 영상을 재구성하기 위한 의료 영상 재구성부(320)를 포함한다.
이때, 재구성부(300)는 의료 영상 재구성부(320)에서 재구성된 세펄로 영상의 크기를 조정하기 위한 영상 크기 조정부(330)를 더 포함한다.
또한, 재구성부(300)는 의료 영상 재구성부(320)에서 재구성된 세펄로 영상에 대하여 영상 처리를 수행하기 위한 의료 영상 처리부(340)를 더 포함한다.
여기서, 조정부(310)는 오패서티 테이블(Opacity Table)를 생성하여 이용한다. 즉, 컴퓨터 단층 촬영 넘버(CT Number)의 특성을 고려하여 특정 임계값 이하의 영역에 감마 커브(Gamma Curve)를 적용하여 오패서티 테이블을 생성한다. 이때, 오패서티 테이블은 룩업 테이블(Look-Up Table)의 일종으로서, 본 발명에서 재구성하는 세펄로 영상에 반영되는 영상 정보의 비율을 조정할 수 있는 하나의 방법으로 이용된다. 오패서티 테이블 생성 수식 T(x)는 하기의 [수학식 11]과 같다.
Figure PCTKR2015007733-appb-M000011
여기서, s는 오패서티 테이블의 크기를 의미하고, g는 감마 커브 파워(Gamma Curve Power)를 의미한다. 임계값 t는 실험적으로 최적화하여 산출된 값으로 적용할 수 있으며, 일예로 임계값 t를 2000이라고 정하는 경우 이값은 컴퓨터 단층 촬영 넘버를 고려하여 설정한 하나의 예이다.
그리고 의료 영상 재구성부(320)는 지오메트리 보정부(100)에서 보정된 컴퓨터 단층 촬영 영상의 영상 정보 중 조정부(310)에서 조정된 "영상 정보 활용 구간 설정부(220)에서 설정된 영상 정보 활용 구간 내의 영상 정보"를 서메이션하여 세펄로 영상을 재구성한다.
이때, 서메이션 시 영상 정보 활용 구간의 값으로 오패서티 테이블이 적용된 값을 사용할 수 있으며, 이에 더하여 특징 정보(엣지, 그래디언트 등)를 이용하여 서메이션 정보(영상 정보)의 가중치를 조정하여 적용할 수 있다. 여기서, 가중치는 엑스레이(X-ray)의 특성을 고려하여 감쇠 계수를 사용하거나 서메이션 구간 내의 픽셀(Pixel)의 인텐시티(Intensity) 값을 이용할 수도 있다. 그리고 최종 생성된 가중치를 오패서티 테이블을 통과한 결과값에 적용하여 서메이션한다.
상기와 같은 처리를 모든 엑스레이 경로 구간에 적용하여 세펄로 영상을 재구성한다.
그리고 의료 영상 크기 조정부(330)는 컴퓨터 단층 촬영 정보 상에서 재구성된 세펄로 영상의 크기를 조정한다. 즉, 세펄로 영상 촬영 장치에서 촬영한 영상과 유사한 결과 영상을 도출하거나 불필요한 테두리 부분을 제거하기 위해 특정 영역을 커팅(Cutting)하여 영상 크기를 조절한다. 이때, 영상 크기 조정이 불필요한 경우에는 의료 영상 크기 조정부(330)를 생략할 수도 있다.
그리고 의료 영상 처리부(340)는 재구성된 세펄로 영상에 대하여 후 처리(Post Processing)를 수행하여 영상의 품질을 향상시킨다. 영상의 품질 향상을 극대화하기 위해 지오메트리 보정부(100)의 수행 이전에 전 처리(Pre-Processing) 과정을 적용할 수도 있다.
도 5는 본 발명의 일 실시예에 따른 의료 영상 재구성 방법에 대한 흐름도로서, 그 구체적인 실시 예는 의료 영상 재구성 장치에 대한 설명에서 상세히 전술한 바 있으므로, 여기서는 그 동작 과정에 대하여 간략하게 설명하기로 한다.
먼저, 지오메트리 보정부(100)가 컴퓨터 단층 촬영 정보에 컴퓨터 단층 촬영 지오메트리 보정(CT Geometry Correction)을 적용하여 3차원 공간 상에 컴퓨터 단층 촬영 영상이 정 위치하도록 보정한다(500). 이러한 지오메트리 보정 과정(500)에 대해서는 도 6 내지 도 8을 참조하여 후술하기로 한다.
이후, 설정부(200)가 세펄로 영상 재구성에 사용될 영상 정보 활용 구간을 설정한다(600). 이때, 영상 정보 활용 구간 설정 과정(600)은 위치 정보 설정부(210)가 장비 촬영 시퀀스 정보를 활용하여 엑스레이 소스(X-ray Source)의 위치 좌표를 설정하는 과정(610), 및 영상 정보 활용 구간 설정부(220)가 위치 정보 설정부(210)에서 설정된 위치 좌표를 기준으로 영상 정보 활용 구간을 설정하는 과정(620)을 포함한다.
이후, 재구성부(300)가 설정부(200)에서 설정된 영상 정보 활용 구간 내의 "지오메트리 보정부(100)에서 보정된 컴퓨터 단층 촬영 영상의 영상 정보"를 설정부(200)에서 설정된 엑스레이 소스의 위치좌표를 기준으로 하는 엑스선 조사 경로를 따라 서메이션하여 세펄로 영상을 재구성한다(700). 이때, 세펄로 영상 재구성 과정(700)은 조정부(310)가 재구성하는 세펄로 영상에 반영되는 영상 정보의 비율을 조정하는 과정(710), 및 의료 영상 재구성부(320)가 조정부(310)에서 조정된 "영상 정보 활용 구간 설정부(220)에서 설정된 영상 정보 활용 구간 내의 영상 정보"를 서메이션하여 세펄로 영상을 재구성하는 과정(720)을 포함한다. 그리고 세펄로 영상 재구성 과정(700)은 영상 크기 조정부(330)가 의료 영상 재구성부(320)에서 재구성된 세펄로 영상의 크기를 조정하는 과정(730)을 더 포함한다. 또한, 세펄로 영상 재구성 과정(700)은 의료 영상 처리부(340)가 의료 영상 재구성부(320)에서 재구성된 세펄로 영상에 대하여 영상 처리를 수행하는 과정(740)을 더 포함한다.
도 6은 본 발명의 일 실시예에 따른 지오메트리 보정 과정(500)에 대한 상세 흐름도이다.
먼저, 보정 각도 추출부(110)가 컴퓨터 단층 촬영 정보를 전달받아 컴퓨터 단층 촬영 정보의 위치 보정을 위해 각 단면 방향의 보정 각도를 추출한다(510). 이때, 각 단면별로 보정 각도를 추출하기 위해 서브 루틴(도 7의 보정 각도 추출 과정)을 각 단면별로 수행한다.
이후, 보정부(120)가 보정 각도 추출부(110)에서 추출된 각 단면 방향의 보정 각도를 이용하여 컴퓨터 단층 촬영 영상을 회전시켜 지오메트리 보정을 수행한다(520).
도 7은 본 발명의 일 실시예에 따른 보정 각도 추출 과정(510)에 대한 상세 흐름도이다.
먼저, 기준점 정보 추출부(111)가 컴퓨터 단층 촬영 정보에서 기준점 정보를 추출한다(511).
이후, 회전 각도별 카운트 맵 추출부(112)가 기준점 정보 추출부(111)에서 추출된 기준점 정보에 따른 영상 정보를 이용하여, 기 설정된 회전 각도별로 카운트 맵을 추출한다(512). 이때, 각 회전 각도별로 카운트 맵을 추출하기 위해 서브 루틴(도 8의 회전 각도별 카운트 맵 추출 과정)을 각 회전 각도별로 수행한다.
이후, 회전 각도 추출부(113)가 회전 각도별 카운트 맵 추출부(112)에서 각 회전 각도별로 추출된 카운트 맵 중 최소 카운트 맵의 회전 각도를 추출한다(513).
도 8은 본 발명의 일 실시예에 따른 회전 각도별 카운트 맵 추출 과정(512)에 대한 상세 흐름도이다.
먼저, 영상 회전부(112a)가 기 설정된 회전 각도별로 컴퓨터 단층 촬영 영상을 회전시킨다(512a).
이후, 영상 정보 추출부(112b)가 영상 회전부(112a)에서 회전된 컴퓨터 단층 촬영 영상으로부터 기준점 정보 추출부(111)에서 추출된 기준점 정보를 기준으로 관심 영역의 영상 정보를 추출한다(512b).
이후, 카운트 맵 추출부(112c)가 영상 정보 추출부(112b)에서 추출된 관심 영역의 영상 정보를 이용하여 카운트 맵을 추출한다(512c).
한편, 이상의 실시예에서는 컴퓨터 단층 촬영 정보에 컴퓨터 단층 촬영 지오메트리 보정을 적용하여 3차원 공간 상에 컴퓨터 단층 촬영 영상이 정 위치하도록 보정한다.
따라서 본 발명의 실시예에 따라 보정된 컴퓨터 단층 촬영 영상은 뷰어 등을 통해 디스플레이될 경우, 촬영대상, 촬영자세와 무관하게 좌우측 눈, 좌우측 귀, 이어로드 등 좌우 대칭인 기관 내지는 특징점이 상시적으로 수평면 상에 배열된다.
또한, 이상의 실시예에서는 컴퓨터 단층 촬영 영상을 이용하여 자동 재구성 방식으로 세펄로 영상을 생성한다. 이때, 본 발명의 실시예에서는 컴퓨터 단층 촬영 영상의 새지털 또는 커로우널 단면 방향에서 엑스선 조사 경로에 따른 특정 구간의 영상 정보를 재구성하여 세펄로 영상을 생성한다.
따라서 본 발명의 실시예에 따른 세팔로 영상이 디스플레이될 경우 엑스선 조사경로에 따른 위치별 확대율이 서로 다르게 나타나는데, 단적인 예로 새지털 단면 방향, 즉 측 방향(LAT) 세팔로 영상에서 좌우측 귀의 크기가 다르게 나타나는 등 실제 세팔로 촬영장치를 이용한 세팔로 영상과 유사한 형태를 나타내게 된다.
전술한 바와 같은 본 발명에 따른 의료 영상 재구성 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 정보 파일, 정보 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 매체는 프로그램 명령, 정보 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 치환, 변형 및 변경이 가능하다.
그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (14)

  1. 3차원 의료 영상이 3차원 공간 상에 정 위치하도록 3차원 의료 영상 정보의 지오메트리를 보정하는 지오메트리 보정부;
    상기 3차원 의료 영상 정보에 영상 정보 활용 구간을 설정하는 설정부; 및
    상기 영상 정보 활용 구간의 상기 3차원 의료 영상 정보를 2차원 뷰 방향으로 서메이션(Summation)하여 2차원 의료 영상을 재구성하는 재구성부
    를 포함하는 의료 영상 재구성 장치.
  2. 제 1항에 있어서,
    상기 지오메트리 보정부는,
    커로우널, 새지털, 액시얼 중 적어도 하나의 단면 방향에 대한 상기 3차원 의료 영상 정보의 보정 각도를 추출하는 보정 각도 추출부; 및
    상기 보정 각도에 따라 상기 3차원 의료 영상을 회전시키는 보정부
    를 포함하는 의료 영상 재구성 장치.
  3. 제 2항에 있어서,
    상기 보정 각도 추출부는,
    상기 3차원 의료 영상 정보로부터 기준점 정보를 추출하는 기준점 정보 추출부;
    상기 기준점 정보를 포함하는 관심 영역의 영상 정보로부터 커로우널, 새지털, 액시얼 중 적어도 하나의 단면 방향에 대한 회전각도 별 유효 픽셀 개수에 의한 카운트 맵(Count Map)을 추출하는 회전 각도 별 카운트 맵 추출부; 및
    상기 회전각도 별 카운트 맵 중 최소 카운트 맵의 회전 각도를 상기 보정 각도로 추출하는 회전 각도 추출부
    를 포함하는 의료 영상 재구성 장치.
  4. 제 1항에 있어서,
    상기 설정부는, 상기 3차원 의료 영상의 외측으로 엑스레이 소스(X-ray Source)의 위치 좌표를 설정하는 위치 정보 설정부를 더 포함하고,
    상기 재구성부는, 상기 위치 좌표로부터 발생되는 엑스선 조사 경로를 따라 상기 3차원 의료 영상 정보를 서메이션하는, 의료 영상 재구성 장치.
  5. 제 1항에 있어서,
    상기 3차원 의료 영상은 좌우 대칭인 기관 또는 특징점이 수평선 상에 배열되는, 의료 영상 재구성 장치.
  6. 제 1항에 있어서,
    상기 2차원 의료 영상은 상기 2차원 뷰 방향에 대해 서로 다른 위치의 확대율이 상이한, 의료 영상 재구성 장치.
  7. 의료 영상 재구성 장치의 의료 영상 재구성 방법에 있어서,
    (a) 3차원 의료 영상이 3차원 공간 상에 정 위치하도록 3차원 의료 영상 정보의 지오메트리를 보정하는 단계;
    (b) 상기 3차원 의료 영상 정보에 영상 정보 활용 구간을 설정하는 단계; 및
    (c) 상기 영상 정보 활용 구간의 상기 3차원 의료 영상 정보를 2차원 뷰 방향으로 서메이션(Summation)하여 2차원 의료 영상을 재구성하는 단계
    를 포함하는 의료 영상 재구성 방법.
  8. 제 7항에 있어서,
    상기 (a) 단계는,
    (a1) 커로우널, 새지털, 액시얼 중 적어도 하나의 단면 방향에 대한 상기 3차원 의료 영상 정보의 보정 각도를 추출하는 단계; 및
    (a2) 상기 보정 각도에 따라 상기 3차원 의료 영상을 회전시키는 단계
    를 포함하는 의료 영상 재구성 방법.
  9. 제 8항에 있어서,
    상기 (a1) 단계는,
    (a11) 상기 3차원 의료 영상 정보로부터 기준점 정보를 추출하는 단계;
    (a12) 상기 기준점 정보를 포함하는 관심 영역의 영상 정보로부터 커로우널, 새지털, 액시얼 중 적어도 하나의 단면 방향에 대한 회전각도 별 유효 픽셀 개수에 의한 카운트 맵을 추출하는 단계; 및
    (a13) 상기 회전 각도별로 추출된 카운트 맵 중 최소 카운트 맵의 회전 각도를 상기 보정 각도로 추출하는 단계
    를 포함하는 의료 영상 재구성 방법.
  10. 제 7항에 있어서,
    상기 (c) 단계 전에, 상기 3차원 의료 영상의 외측으로 엑스레이 소스의 위치 좌표를 설정하는 단계를 더 포함하고,
    상기 (C) 단계는 상기 위치 좌표로부터 발생되는 엑스선 빔 경로를 따라 상기 3차원 의료 영상 정보를 서메이션하는, 의료 영상 재구성 방법.
  11. 상기 제 7항 내지 제 10항 중 어느 한 항의 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  12. 3차원 의료 정보의 영상영역 외측으로 엑스레이 소스의 위치좌표를 설정하는 위치좌표 설정부; 및
    상기 위치좌표로부터 발생되는 엑스선 조사 경로에 따라 상기 3차원 의료 정보를 서메이션하여 2차원 의료 영상을 재구성하는 재구성부
    를 포함하는 의료 영상 재구성 장치.
  13. 제 12항에 있어서,
    상기 2차원 의료 영상은 상기 엑스선 조사 경로에 대해 서로 다른 위치의 확대율이 상이한, 의료 영상 재구성 장치.
  14. 제 12항에 있어서,
    상기 2차원 의료 영상은 세팔로 영상인, 의료 영상 재구성 장치.
PCT/KR2015/007733 2015-03-18 2015-07-24 의료 영상 재구성 장치 및 그 방법 WO2016148350A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15885652.6A EP3272290B1 (en) 2015-03-18 2015-07-24 Device and method for reconstructing medical image
CN201580080112.5A CN107635468B (zh) 2015-03-18 2015-07-24 用于重建医学图像的设备和方法
KR1020177029913A KR102096561B1 (ko) 2015-03-18 2015-07-24 의료 영상 재구성 장치 및 그 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150037652 2015-03-18
KR10-2015-0037652 2015-03-18

Publications (1)

Publication Number Publication Date
WO2016148350A1 true WO2016148350A1 (ko) 2016-09-22

Family

ID=56919700

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/007733 WO2016148350A1 (ko) 2015-03-18 2015-07-24 의료 영상 재구성 장치 및 그 방법

Country Status (4)

Country Link
EP (1) EP3272290B1 (ko)
KR (1) KR102096561B1 (ko)
CN (1) CN107635468B (ko)
WO (1) WO2016148350A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097597B (zh) * 2019-05-05 2022-02-11 中国工程物理研究院激光聚变研究中心 一种目标物的系列x光像的坐标对应方法
CN112568935B (zh) * 2019-09-29 2024-06-25 中慧医学成像有限公司 基于三维追踪相机的三维超声成像方法和系统
KR102478003B1 (ko) * 2020-11-26 2022-12-15 제이피아이헬스케어 주식회사 영상 처리 방식 기반 위치 보정 기능을 가지는 의료 영상 촬영 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130240A (ja) * 2005-11-10 2007-05-31 Imagunooshisu Kk 医用三次元画像の表示方向修正装置、修正方法および修正用プログラム
KR20100070822A (ko) * 2008-12-18 2010-06-28 주식회사바텍 3차원 영상획득 장치
US20130022252A1 (en) * 2011-07-21 2013-01-24 Shoupu Chen Panoramic image generation from cbct dental images
US20130235036A1 (en) * 2010-11-26 2013-09-12 Sony Corporation Image processing apparatus, image processing method, and image processing program
US20150036790A1 (en) * 2013-07-31 2015-02-05 Qr Srl Method and apparatus to generate a panoramic radiography

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714810B2 (en) * 2000-09-07 2004-03-30 Cbyon, Inc. Fluoroscopic registration system and method
US8325874B2 (en) * 2009-07-31 2012-12-04 Imaging Sciences International Llc Panoramic dental imaging using segmentation and a master arch
US8693634B2 (en) * 2010-03-19 2014-04-08 Hologic Inc System and method for generating enhanced density distribution in a three dimensional model of a structure for use in skeletal assessment using a limited number of two-dimensional views

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130240A (ja) * 2005-11-10 2007-05-31 Imagunooshisu Kk 医用三次元画像の表示方向修正装置、修正方法および修正用プログラム
KR20100070822A (ko) * 2008-12-18 2010-06-28 주식회사바텍 3차원 영상획득 장치
US20130235036A1 (en) * 2010-11-26 2013-09-12 Sony Corporation Image processing apparatus, image processing method, and image processing program
US20130022252A1 (en) * 2011-07-21 2013-01-24 Shoupu Chen Panoramic image generation from cbct dental images
US20150036790A1 (en) * 2013-07-31 2015-02-05 Qr Srl Method and apparatus to generate a panoramic radiography

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3272290A4 *

Also Published As

Publication number Publication date
KR20170125399A (ko) 2017-11-14
CN107635468B (zh) 2020-10-13
CN107635468A (zh) 2018-01-26
EP3272290A4 (en) 2018-12-05
EP3272290A1 (en) 2018-01-24
EP3272290B1 (en) 2021-11-10
KR102096561B1 (ko) 2020-04-02

Similar Documents

Publication Publication Date Title
WO2017192020A1 (ko) 치과용 3차원 데이터 처리장치 및 그 방법
WO2022158804A1 (ko) 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법
WO2016148350A1 (ko) 의료 영상 재구성 장치 및 그 방법
JP6862099B2 (ja) 放射線撮影システム及び放射線撮影方法
WO2016032256A1 (ko) 맘모그래피 시스템 및 맘모그래피 촬영 방법
WO2015178745A1 (ko) 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
WO2021210723A1 (ko) 딥러닝을 이용한 3차원 의료 영상 데이터의 특징점 자동 검출 방법 및 장치
WO2022191575A1 (ko) 안면 이미지 매칭 기반의 시뮬레이션 장치 및 방법
WO2016148351A1 (ko) 의료 영상 재구성 장치 및 그 방법
WO2017039253A1 (ko) 3차원 표면데이터 생성 기능을 갖는 엑스선 촬영 장치 및 그 촬영 방법
WO2010058927A2 (ko) 안면 영상 촬영장치
JP4861037B2 (ja) 計測装置
JP2005338977A (ja) 立体画像処理システム
JP2001112743A (ja) 三次元顎運動表示装置、方法及び三次元顎運動表示プログラムを記憶した記憶媒体
WO2013129811A1 (ko) 씨티의 메탈 아티팩트 감소 방법
WO2020209568A1 (ko) 방사선 진단 및 치료 장치의 모션 평가 시스템 및 방법
KR20210099835A (ko) 파노라믹 영상 생성 방법 및 이를 위한 영상 처리장치
WO2020067636A1 (ko) 엑스선 영상 생성 방법, 엑스선 영상 생성 장치 및 컴퓨터 판독 가능한 기록 매체
JP2013047644A (ja) 放射線撮影装置および断層画像補正方法
KR20080050283A (ko) 3차원 모션 데이터 생성을 위한 상관 관계 추출 방법과이를 이용한 실사 배경 영상에 인체형 캐릭터의 용이한합성을 위한 모션 캡쳐 시스템 및 방법
WO2020197109A1 (ko) 치아 영상 정합 장치 및 방법
WO2020235784A1 (ko) 신경 검출 방법 및 장치
CN114786614A (zh) 确定上牙和下牙之间的空间关系
WO2024085549A1 (ko) 3차원 컴퓨터 단층 촬영 방법 및 장치
WO2018131733A1 (ko) Ct 이미지의 잡음 저감 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15885652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20177029913

Country of ref document: KR

Kind code of ref document: A