WO2017061843A1 - 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법 - Google Patents

깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법 Download PDF

Info

Publication number
WO2017061843A1
WO2017061843A1 PCT/KR2016/011325 KR2016011325W WO2017061843A1 WO 2017061843 A1 WO2017061843 A1 WO 2017061843A1 KR 2016011325 W KR2016011325 W KR 2016011325W WO 2017061843 A1 WO2017061843 A1 WO 2017061843A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
weight
image processing
dimensional
sections
Prior art date
Application number
PCT/KR2016/011325
Other languages
English (en)
French (fr)
Inventor
배웅
최성일
Original Assignee
주식회사 바텍이우홀딩스
주식회사 바텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바텍이우홀딩스, 주식회사 바텍 filed Critical 주식회사 바텍이우홀딩스
Priority to EP16853959.1A priority Critical patent/EP3360481B1/en
Priority to CN201680071264.3A priority patent/CN108778130B/zh
Priority to US15/766,763 priority patent/US10713825B2/en
Publication of WO2017061843A1 publication Critical patent/WO2017061843A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to medical image processing technology, and more particularly, to an apparatus and method for reconstructing a medical image by emphasizing depth information.
  • a method of acquiring CT data by computed tomography (CT), synthesizing it, and reconstructing a cephalo image or a panoramic image is known.
  • CT computed tomography
  • two-dimensional images such as a cephalo image are formed by overlapping each slice image of the acquired three-dimensional CT image according to a view direction to be viewed. Since the two-dimensional image formed in this manner is a composite of cross-sectional images, there is a limit in representing depth information of a three-dimensional photographing target.
  • the conventional methods for emphasizing depth information of a 2D image are a method of finding a CT slice representing a depth information of a photographing object from the CT data and processing based thereon, which takes a long time to find the corresponding CT slice. have. For this reason, existing methods of increasing the depth resolution of two-dimensional images may actually fall short of helping medical diagnosis.
  • An object of the present invention is to provide an apparatus and method for forming a two-dimensional image emphasizing depth resolution information, which can provide significant depth resolution information by reducing the possibility of heterogeneity and confusion.
  • Another object of the present invention is to provide an apparatus and method for forming a two-dimensional image in which contrast is emphasized in a region of interest of a photographing target.
  • Another object of the present invention is to provide an image forming apparatus and method for emphasizing depth resolution information so that depth information of a photographing target can be found in a short time.
  • a medical image processing apparatus generates a two-dimensional reconstructed image by overlapping a part or all of an input interface, CT image data, to which a user's depth adjustment command is input, in a view direction, and generates a two-dimensional reconstructed image for the depth adjustment command. It may include an image processing and control unit for changing at least part of the contrast, and a display unit for displaying the two-dimensional reconstruction image.
  • the 2D reconstructed image may be a sepullow image or a panoramic image.
  • the image processing and control unit may set a plurality of sections along the view direction in the CT image data, generate a weight map for each of the plurality of sections, and select the sections selected by the depth adjustment command.
  • the contrast of at least a portion of the two-dimensional reconstructed image may be changed based on a weight map of.
  • a medical image processing method includes (a) generating a two-dimensional reconstructed image by superimposing a part or all of the CT image data in the view direction, and (b) at least the two-dimensional reconstructed image according to a user's depth adjustment command. Changing and displaying some of the contrast.
  • the 2D reconstructed image may be a sepullow image or a panoramic image.
  • the step (a) may include setting a plurality of sections along the view direction in the CT image data and generating a weight map for each of the plurality of sections.
  • the step (b) may include changing a contrast of at least a portion of the 2D reconstructed image based on the weight map of the section selected by the depth adjustment command.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of a hardware platform for executing an image processing method for emphasizing depth information in a two-dimensional image according to the present invention.
  • FIG. 2 is a flowchart illustrating an embodiment of an image processing method for emphasizing depth information in a 2D image according to the present invention.
  • FIG. 3 is a diagram illustrating a plurality of slice images of a CT image.
  • FIG. 4 is a diagram illustrating a process of dividing a plurality of slice images of a CT image into a plurality of sections in a coronal view direction.
  • FIG. 5 is a flowchart illustrating a detailed process of generating a weight map in FIG. 2 (S202).
  • FIG. 6 is a diagram illustrating a simplified image having a size of 8 x 8 pixels as a first layer image.
  • FIG. 7 illustrates a simplified image having a size of 8 x 8 pixels as a second layer image.
  • FIG. 8 is a diagram illustrating an embodiment of a curve for mapping pixel values in a first layer image to weight values in a weight map for a first section.
  • FIG. 9 is a diagram illustrating an embodiment of a curve for mapping pixel values in a second layer image to weight values in a weight map for a second section.
  • FIG. 10 is a diagram illustrating a weight map for a first section.
  • FIG. 11 is a diagram illustrating a weight map for a second section.
  • FIG. 12 is a diagram illustrating a two-dimensional image reconstructed by overlapping the first layer image of FIG. 6 and the second layer image of FIG. 7.
  • FIG. 13 is a diagram illustrating a result of applying a weight map of the first section of FIG. 10 to the 2D reconstruction image of FIG. 12 when the first section is selected.
  • FIG. 14 is a diagram illustrating a result of applying a weight map of the second section of FIG. 11 to the two-dimensional reconstructed image of FIG. 12 when the second section is selected.
  • FIG. 15 is a diagram illustrating a photograph of a PA (Posterior-Anterior) sepullow image in a coronal view direction reconstructed using three-dimensional CT image data obtained by capturing a human head.
  • PA Posterior-Anterior
  • 16 (a) and 16 (b) respectively show sections showing the characteristics of the anterior and posterior parts among the plurality of sections of the 3D CT image by turning a computer mouse wheel to perform image processing according to embodiments of the present invention. Pictures of the resulting images in one case.
  • FIG. 17 is a photograph of a resultant image when image processing according to embodiments of the present invention is performed by designating a portion (Temporomandibular Joint (TMJ)) indicated by an arrow in FIG. 15 using a computer mouse.
  • TMJ Temporomandibular Joint
  • FIG. 18 is a photograph of a resultant image when image processing is performed according to embodiments of the present invention only on a mask portion designated by designating a mask portion with a computer mouse.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of a hardware platform for executing an image processing method for emphasizing depth information in a two-dimensional image according to the present invention.
  • the image processing apparatus 100 may include an input interface 110, an image processing and control unit 120, a storage unit 130, and a display unit 140.
  • the input interface 110 may be configured as a hardware and software module for inputting a user command to perform image processing according to various embodiments of the present disclosure.
  • the input interface 110 may be advantageously used to input various necessary commands to the image processing and control unit 120 or to direct some or all of the displayed images to perform various image processing accordingly.
  • the input interface 110 may include a keyboard, a keypad, a touchpad, a mouse, and the like of a computer, but the type of the input interface is not limited thereto. .
  • the input interface 110 may include a graphic user interface that can be controlled using the above-described input devices.
  • the display unit 140 is for displaying images formed according to various embodiments of the present disclosure, and may include various display devices such as an LCD display, an LED display, an AMOLED display, and a CRT display.
  • the storage unit 130 may include 3D CT data obtained by CT imaging a target, 2D reconstructed image data generated using 3D CT data, and a weight map generated according to various embodiments of the present disclosure. Data, mapping table related data used to generate weight maps, image data of intermediate results of performing image processing according to various embodiments of the present invention, and image processing according to various embodiments of the present invention. Various image data, such as two-dimensional reconstructed image data of which depth information has been obtained, may be stored.
  • the storage unit 130 may further store software / firmware required for image processing and the implementation of the controller 120.
  • the storage unit 130 may include a flash memory type, a hard disk type, a multimedia card (MMC), a memory of a card type (eg, a Secure Digital (SD) card or an XD). (eXtream Digital) cards, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM)
  • RAM Random Access Memory
  • SRAM Static Random Access Memory
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • PROM Programmable Read-Only Memory
  • the magnetic memory, the magnetic disk, and the optical disk may be implemented as any one of the storage media, but those skilled in the art will appreciate that the implementation of the storage unit 130 is not limited thereto.
  • the image processing and control unit 120 reads out all or part of the 3D CT data from the storage unit 130 and performs various image processing to form a 2D image emphasizing depth resolution information according to various embodiments of the present disclosure. It can be configured to perform.
  • the image processing and control unit 120 divides the CT image into a plurality of slice images for a view direction, and a weight map for each of a plurality of sections set in the view direction for the plurality of slice images. Can be programmed to produce.
  • the image processing and control unit 120 may be further programmed to generate a 2D reconstructed image using the plurality of slice images.
  • the image processing and control unit 120 processes at least a part of the 2D reconstructed image based on the weight map or the addition value map in response to the user's depth adjustment command through the input interface 110 to obtain at least depth information. It can be further programmed to produce some modified two-dimensional reconstructed images. In order to implement the above-described image processing function, the image processing and control unit 120 superimposes a plurality of images on a pixel or block basis, adds and subtracts a plurality of images, and multiplies and divides pixel values of the images. And may be programmed to perform arithmetic processing. In one embodiment, the image processing and control unit 120 may be programmed to implement contrast enhancement, image reconstruction, and various image filtering functions of the image.
  • the image processing and control unit 120 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPs), Programmable Logic Devices (PLDs), Field-Programmable Gate Arrays (FPGAs), Processors, Controllers, Micro-controllers, and Microprocessors It may be implemented using at least one of.
  • the image processing and control unit 120 may also be implemented as a firmware / software module executable on the aforementioned hardware platform. In this case, the firmware / software module may be implemented by one or more software applications written in an appropriate program language.
  • FIG. 2 is a flowchart illustrating an embodiment of a medical image processing method for emphasizing depth information in a two-dimensional image according to the present invention.
  • the medical image processing method starts with setting a plurality of sections in a view direction with respect to the plurality of slice images constituting the CT image (S201).
  • 3 and 4 illustrate a process of dividing the plurality of slice images 307 of the CT image into a plurality of sections 401-1 through 401-N in a coronal view direction 305, but the kernel
  • the plurality of slice images 307 may be divided into a plurality of sections in a sagittal view direction or an axial view direction.
  • the sections are equally divided so that the selected number of slice images are included in each section (for example, four). It is also possible to do
  • step S202 a weight map is generated for each of the plurality of sections set in step S201.
  • the weight map for each of the plurality of sections may include a weight value at each pixel position.
  • step S202 will be described in detail with reference to FIGS. 5 to 9.
  • FIG. 5 is a flowchart illustrating a detailed process of generating a weight map in FIG. 2 (S202).
  • At least one slice image included in each of the plurality of sections is overlapped to form a section-specific layer image for the corresponding section.
  • the section layer image may be obtained by overlapping at least one slice image included in each section.
  • 6 and 7 illustrate a simplified image having a size of 8 ⁇ 8 pixels as a layered layer image for each section. For convenience of explanation, it is assumed that the number of layer images for each section is 2, and the two layer images for each section illustrated in FIGS. 6 and 7 are respectively the first layer image 600 and the second layer image 700. This is called.
  • a weight map for the corresponding interval is generated based on pixel values in each of the layer-specific layer images formed in operation S501.
  • the weight value for each pixel set to emphasize the contrast of each of the formed layered layer images may be determined as the weight value at the corresponding pixel position in the weight map for the corresponding interval.
  • the weight value at the corresponding pixel position in the weight map for the section may be set larger.
  • weight values in the weight map for the corresponding section may be set in proportion to corresponding pixel values in the layer image for each section.
  • the pixel values of the layer image for each section are identified from a minimum value to a maximum value, and correspond to at least one pixel in the layer image for each section having a minimum value.
  • At least one pixel-specific position in the weight map for the interval corresponding to at least one pixel in the layer-specific layer image having a minimum weight value and having a maximum value for one pixel-specific position
  • the maximum weight value can be given for.
  • the minimum weight and the maximum Interpolated values based on weights may be given as weight values.
  • the minimum weight and the maximum weight may be set to have an arbitrary value to emphasize the contrast of the layer image for each section. If the difference between the minimum weight and the maximum weight is large, the contrast and the depth resolution of the image can be increased, while the small difference causes the effect of the depth information enhancement to be insignificant. In addition, if the minimum weight is too small, the detail of the image is lost. If the maximum weight is too large, there may be a side effect that the resolution of an object having high luminance may be lowered. Therefore, these points can be compromised to select the minimum weight and the maximum weight according to the diagnosis purpose. In one embodiment, the minimum weight value may be set to 0 or more and 1.0 or less, and the maximum weight value may be set to any value of 1.0 or more, but the minimum weight value and the maximum weight value are limited thereto. no.
  • step S502 an addition map instead of a weight map. You can also create). For example, in the above-described embodiment, when the pixel value in the layer image for each particular section is a and the weight in the weight map corresponding to the specific layer image is determined as b, the value of a * (b-1) is added to the corresponding value. Can be set to the addition value in the map.
  • FIGS. 6 and 7 a process of generating a weight map by taking the first layer image 600 and the second layer image 700 illustrated in FIGS. 6 and 7 as an example will be described.
  • first layer image 600 of FIG. 6 there are 5, 10, and 100 pixel values, of which the minimum pixel value is 5 and the maximum pixel value is 100.
  • second layer image 700 of FIG. 7 there are 5, 10, 100, and 150 pixel values, of which the minimum pixel value is 5 and the maximum pixel value is 150.
  • 8 and 9 illustrate embodiments of curves for mapping pixel values in first and second layer images to weight values in weight maps for first and second intervals, respectively. According to the exemplary embodiment shown in FIG.
  • the maximum pixel value 100 in the first layer image 600 is mapped to the maximum weight value (assuming 2.0 in this embodiment), and the minimum pixel value 5 Is mapped to the minimum weight value (assuming 1.0 in this embodiment), and the pixel value 10 in the middle thereof may be mapped to a weight value of about 1.2, which is a value between the maximum pixel value and the minimum pixel value.
  • the maximum pixel value 150 in the second layer image 700 is mapped to the maximum weight value (assuming 2.0 in this embodiment), and the minimum pixel value 5 is the minimum.
  • mapping curves of FIGS. 8 and 9 may be implemented as a mapping table.
  • the weight maps 1000 and 1100 for the first and second intervals, respectively, are generated in the manner described above in FIGS. 10 and 11.
  • the weight values in the weight map for each of the plurality of sections or the addition values in the addition map are values that emphasize the contrast of the video by referring to pixel values of the layer image for each section. It is to be appreciated that the manner of determining weight values or addition values in accordance with the present invention is not limited by the above-described embodiments.
  • a two-dimensional reconstructed image is generated using the plurality of slice images.
  • the 2D reconstructed image reconstructed in this step may be a sepullow image or a panoramic image.
  • FIG. 12 illustrates a two-dimensional image reconstructed by overlapping the first layer image 600 of FIG. 6 and the second layer image 700 of FIG. 7.
  • the 2D reconstructed image 1200 generated in operation S203 may be displayed.
  • a weight / addition map of one of the weight / addition maps for the plurality of sections is determined in response to the user's depth adjustment command, and the 2D reconstruction image is based on the determined weight / addition map.
  • At least a portion of the 1200 may be processed to generate a 2D reconstructed image having at least partially changed depth information.
  • the user's input is an operation of designating a position where the user wants to adjust the depth in the displayed 2D reconstruction image 1200, for example, using a computer mouse, and adjusting the depth of the user in the displayed 2D reconstruction image 1200.
  • an operation of designating a desired portion as a mask using a computer mouse and a user selecting, for example, a specific section from among a plurality of sections by turning a mouse wheel of the computer mouse. Can be generated by
  • the user's input is generated by an operation of specifying a position where the user wants to adjust the depth in the displayed two-dimensional reconstructed image 1200
  • at least one slice image representing the characteristic of the photographing target at the designated position is displayed.
  • the included section is selected from a plurality of sections, and the weights / additions in the weight / addition map of the selected section are applied to the 2D reconstruction image 1200 for each pixel to generate a 2D reconstruction image whose depth information is changed. Can be generated.
  • the 2D reconstructed image of which the information is changed at least partially may be generated.
  • the weights / additions in the weight / addition map for the selected specific section are two-dimensional reconstructed images.
  • a 2D reconstructed image of which depth information is changed may be generated by applying the pixel to each pixel at 1200.
  • the processing for the 2D reconstruction image 1200 in step S205 may include a process of multiplying pixels of the 2D reconstruction image 1200 pixel by pixel in the selected weight map. . In one embodiment, the processing for the two-dimensional reconstruction image 1200 in step S205 may include a process of adding, in pixels, the addition values in the selected addition map to the pixels of the two-dimensional reconstruction image 1200. Can be.
  • FIG. 13 is a diagram illustrating a result of applying the weight map 1000 of the first section of FIG. 10 to the two-dimensional reconstruction image 1200 of FIG. 12 when the first section is selected. 11, the weight map 1100 of the second section of FIG. 11 is applied to the two-dimensional reconstruction image 1200 of FIG. 12.
  • the feature of the first layer image 600 is highlighted and the second section is selected. In this case, it may be confirmed that the feature of the second layer image 700 is highlighted.
  • FIG. 15 is a diagram illustrating a photograph of a PA (Posterior-Anterior) sepullow image in a coronal view direction reconstructed using three-dimensional CT image data obtained by capturing a human head.
  • 16 (a) and 16 (b) respectively show sections showing the characteristics of the anterior and posterior parts among the plurality of sections of the 3D CT image by turning a computer mouse wheel to perform image processing according to embodiments of the present invention. Pictures of the resulting images in one case.
  • FIGS. 16A and 16B the anterior and the posterior features of the anterior portion and the posterior portion can be seen in the higher contrast.
  • FIG. 16A and 16B the anterior and the posterior features of the anterior portion and the posterior portion can be seen in the higher contrast.
  • FIG. 17 illustrates the resultant image when the image processing according to the embodiments of the present invention is performed by designating a portion (Temporomandibular Joint (TMJ)) indicated by an arrow 1500 in FIG. 15 using a computer mouse. It is a photograph. It can be seen that the contrast of the jaw joint is emphasized in the photograph of FIG. 17 than in the photograph of FIG. 15.
  • FIG. 18 is a photograph of a resultant image when image processing according to embodiments of the present invention is performed only on a mask portion designated by designating the mask portion 1800 illustrated in FIG. 18 as a computer mouse in FIG. 15. Also in this case, it can be seen that the contrast and the resolution in the mask portion 1800 are significantly improved than in the case of FIG. 15.
  • the arrangement of the illustrated components or the order of the steps may vary depending on the environment or requirements on which the invention is implemented. For example, some components or some steps may be omitted or some components or some steps may be combined and implemented as one. In addition, the arrangement order and connection of some components may be changed.

Abstract

의료 영상 처리 장치가 개시된다. 개시된 의료 영상 처리 장치는, 사용자의 깊이 조절 명령이 입력되는 입력 인터페이스, CT 영상 데이터의 일부 또는 전부를 뷰 방향으로 중첩하여 2차원 재구성 영상을 생성하고 상기 깊이 조절 명령에 대해 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는 영상 처리 및 제어부, 및 상기 2차원 재구성 영상을 표시하는 디스플레이부를 포함할 수 있다.

Description

깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법
본 발명은 의료 영상 처리 기술에 관한 것으로, 더 구체적으로는 의료 영상을 깊이 정보를 강조하여 재구성하는 장치 및 방법에 관한 것이다.
컴퓨터 단층촬영(Computed Tomography: CT)에 의해 CT 데이터를 획득하고 이를 합성하여 세펄로우 영상(cephalo image) 또는 파노라마 영상(panoramic image)을 재구성하는 방식이 알려져 있다. 이 방식에 따르면, 획득된 3차원 CT 영상의 각 단면 영상(slice images)을 보고자 하는 뷰(view) 방향에 따라 중첩하여, 예컨대 세펄로우 영상(cephalo image)과 같은 2차원 영상을 형성하게 된다. 이 방식으로 형성된 2차원 영상은 단면 영상들을 합성한 것이어서, 3차원인 촬영 대상의 깊이 정보를 나타내는 데에 한계가 있다.
이에 따라, CT 데이터를 이용하여 형성한 세펄로우 영상 또는 파노라마 영상의 효용성을 높이기 위해 그 깊이 분해능 정보를 제공하기 위한 연구가 진행되고 있다. 그러나, 현재까지의 연구 결과에 따르면, 2차원 영상에서 깊이 분해능을 높임에 따라 2차원 영상 자체가 CT 영상으로 변하기 때문에 영상에 이질감이 있고 혼동 야기의 가능성도 있게 된다. 또한, 2차원 영상의 깊이 정보를 강조하는 기존의 방식들은 CT 데이터에서 촬영 대상의 깊이 정보를 나타내는 CT 슬라이스를 찾아 이에 기반하여 처리가 이루어지는 방식이라, 해당 CT 슬라이스를 찾는데 시간에 오래 걸린다는 단점이 있다. 이러한 이유로 인해, 2차원 영상의 깊이 분해능을 높이는 기존의 방식들은 실제로 의료 진단에 도움이 되는 수준에 못 미치고 있다 할 수 있다.
따라서, 처리된 결과의 2차원 영상에서 이질감과 혼동 야기의 가능성을 줄일 수 있는, 2차원 영상에서의 깊이 분해능 정보를 강조할 수 있는 향상된 영상 처리 방법이 요구되고 있다.
본 발명의 과제는 이질감과 혼동 야기의 가능성이 줄어들어 유의미한 깊이 분해능 정보를 제공할 수 있는, 깊이 분해능 정보를 강조한 2차원 영상을 형성하는 장치 및 방법을 제공하는 것이다.
본 발명의 다른 과제는 촬영 대상의 관심 영역에서의 컨트래스트가 강조된 2차원 영상을 형성하는 장치 및 방법을 제공하는 것이다.
본 발명의 다른 과제는 촬영 대상의 깊이 정보를 빠른 시간 내에 찾을 수 있도록 한, 깊이 분해능 정보를 강조하는 영상 형성 장치 및 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예들에 따르면, 의료 영상 처리 장치가 제공된다. 이 의료 영상 처리 장치는, 사용자의 깊이 조절 명령이 입력되는 입력 인터페이스, CT 영상 데이터의 일부 또는 전부를 뷰 방향으로 중첩하여 2차원 재구성 영상을 생성하고 상기 깊이 조절 명령에 대해 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는 영상 처리 및 제어부, 및 상기 2차원 재구성 영상을 표시하는 디스플레이부를 포함할 수 있다.
일 실시예에서, 상기 2차원 재구성 영상은 세펄로우 영상 또는 파노라마 영상일 수 있다.
일 실시예에서, 상기 영상 처리 및 제어부는, 상기 CT 영상 데이터에 상기 뷰 방향을 따라 복수의 구간을 설정하고, 상기 복수의 구간 각각에 대한 가중치 맵을 생성하며, 상기 깊이 조절 명령에 의해 선택된 구간의 가중치 맵을 기초로 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하도록 구성될 수 있다.
본 발명의 실시예들에 따르면, 의료 영상 처리 방법이 제공된다. 이 의료 영상 처리 방법은, (a) CT 영상 데이터의 일부 또는 전부를 뷰 방향으로 중첩하여 2차원 재구성 영상을 생성하는 단계, 및 (b) 사용자의 깊이 조절 명령에 따라 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경 및 표시하는 단계를 포함할 수 있다.
일 실시예에서, 상기 2차원 재구성 영상은 세펄로우 영상 또는 파노라마 영상일 수 있다.
일 실시예에서, 상기 단계 (a)는 상기 CT 영상 데이터에 상기 뷰 방향을 따라 복수의 구간을 설정하고, 상기 복수의 구간 각각에 대한 가중치 맵을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 상기 단계 (b)는 상기 깊이 조절 명령에 의해 선택된 구간의 가중치 맵을 기초로 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는 단계를 포함할 수 있다.
본 발명의 실시예들에 따르면, 이질감과 혼동 야기의 가능성이 극소화되고, 유의미한 깊이 분해능 정보를 제공하며 또한 컨트래스트가 강조된 2차원 영상을 제공할 수 있는 기술적 효과가 있다.
도 1은 본 발명에 따라 2차원 영상에서의 깊이 정보를 강조하는 영상 처리 방법을 실행하기 위한 하드웨어 플랫폼의 일 실시예의 구성을 도시한 도면이다.
도 2는 본 발명에 따라 2차원 영상에서의 깊이 정보를 강조하는 영상 처리 방법의 일 실시예를 설명하기 위한 흐름도를 도시한 도면이다.
도 3은 CT 영상의 복수의 슬라이스 영상을 예시한 도면이다.
도 4는 CT 영상의 복수의 슬라이스 영상을 커러널(coronal) 뷰 방향으로 복수의 구간으로 분할하는 과정을 예시한 도면이다.
도 5는 도 2에서의 가중치 맵을 생성하는 단계(S202)의 상세 과정을 설명하기 위한 흐름도를 도시한 도면이다.
도 6은 크기가 8 x 8 픽셀인 단순화된 영상을 제1 레이어 영상으로서 예시한 도면이다.
도 7은 크기가 8 x 8 픽셀인 단순화된 영상을 제2 레이어 영상으로서 예시한 도면이다.
도 8은 제1 레이어 영상에서의 픽셀 값들을 제1 구간에 대한 가중치 맵에서의 가중치 값들로 맵핑하는 곡선의 일 실시예를 도시한 도면이다.
도 9는 제2 레이어 영상에서의 픽셀 값들을 제2 구간에 대한 가중치 맵에서의 가중치 값들로 맵핑하는 곡선의 일 실시예를 도시한 도면이다.
도 10은 제1 구간에 대한 가중치 맵을 도시한 도면이다.
도 11은 제2 구간에 대한 가중치 맵을 도시한 도면이다.
도 12는 도 6의 제1 레이어 영상과 도 7의 제2 레이어 영상을 중첩시켜 재구성한 2차원 영상을 도시한 도면이다.
도 13은 제1 구간이 선택되었을 경우 도 10의 제1 구간에 대한 가중치 맵을 도 12의 2차원 재구성 영상에 적용한 결과를 도시한 도면이다.
도 14는 제2 구간이 선택되었을 경우 도 11의 제2 구간에 대한 가중치 맵을 도 12의 2차원 재구성 영상에 적용한 결과를 도시한 도면이다.
도 15는 인체의 두부를 촬영하여 얻은 3차원 CT 영상 데이터를 이용하여 재구성한 커러널(coronal) 뷰 방향으로의 PA(Posterior-Anterior) 세펄로우 영상의 사진을 도시한 도면이다.
도 16(a) 및 도 16(b)는 각각 3차원 CT 영상의 복수의 구간 중에서 전치부 및 구치부의 특징을 잘 드러내는 구간들을 컴퓨터 마우스 휠을 돌려 지정하여 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상들에 대한 사진들이다.
도 17은 도 15에서 화살표로 표시한 부분(턱관절(Temporomandibular Joint: TMJ))을 컴퓨터 마우스를 이용하여 지정하여 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상에 대한 사진이다.
도 18은 마스크 부분을 컴퓨터 마우스로 지정하여 지정된 마스크 부분에 대해서만 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상에 대한 사진이다.
본 발명의 이점들과 특징들 그리고 이들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해 질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 실시예들은 단지 본 발명의 개시가 완전하도록 하며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려 주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들어, 단수로 표현된 구성 요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성 요소를 포함하는 개념으로 이해되어야 한다. 또한, 본 발명의 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성이 배제되는 것은 아니다. 또한, 본 명세서에 기재된 실시예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미할 수 있다.
덧붙여, 다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 발명의 명세서에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
도 1은 본 발명에 따라 2차원 영상에서의 깊이 정보를 강조하는 영상 처리 방법을 실행하기 위한 하드웨어 플랫폼의 일 실시예의 구성을 도시한 도면이다.
도 1에 도시된 바와 같이, 영상 처리 장치(100)는 입력 인터페이스(110), 영상 처리 및 제어부(120), 저장부(130) 및 디스플레이부(140)를 포함할 수 있다. 입력 인터페이스(110)는 본 발명의 다양한 실시예들에 따른 영상 처리를 수행하기 위하여 사용자 명령을 입력하기 위한 하드웨어 및 소프트웨어 모듈로 구성될 수 있다. 입력 인터페이스(110)는 필요한 다양한 명령을 영상 처리 및 제어부(120)로 입력하거나 디스플레이된 영상의 일부 또는 전부를 지시하여 이에 따른 다양한 영상 처리를 수행하기 위해 유리하게 사용될 수 있다. 일 실시예에서, 입력 인터페이스(110)는 컴퓨터의 키보드(keyboard), 키패드(keypad), 터치패드(touchpad), 마우스(mouse) 등을 포함할 수 있으나, 입력 인터페이스의 종류가 이에 제한되는 것은 아니다. 예컨대, 입력 인터페이스(110)는 전술한 입력 장치들을 이용하여 제어 가능한 그래픽 사용자 인터페이스(Graphic User Interface)를 포함할 수도 있다. 디스플레이부(140)는 본 발명의 다양한 실시예에 따라 형성된 영상들을 디스플레이하기 위한 것으로, LCD 디스플레이, LED 디스플레이, AMOLED 디스플레이, CRT 디스플레이 등의 다양한 디스플레이 장치를 포함할 수 있다.
저장부(130)는 촬영 대상을 CT 촬영하여 얻은 3차원 CT 데이터, 3차원 CT 데이터를 이용하여 생성한 2차원 재구성 영상 데이터, 본 발명의 다양한 실시예들에 따라 생성된 가중치 맵(weight map) 데이터, 가중치 맵을 생성하는데 사용되는 맵핑 테이블(mapping table) 관련 데이터, 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함에 따른 중간 결과의 영상 데이터, 본 발명의 다양한 실시예들에 따른 영상 처리를 수행함으로써 얻어진, 깊이 정보가 변경된 2차원 재구성 영상 데이터 등의 다양한 영상 데이터를 저장할 수 있다. 저장부(130)는 영상 처리 및 제어부(120)의 구현에 필요한 소프트웨어/펌웨어 등을 더 저장할 수 있다. 저장부(130)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드(MultiMedia Card: MMC), 카드 타입의 메모리(예를 들어, SD(Secure Digital) 카드 또는 XD(eXtream Digital) 카드 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크 및 광 디스크 중 어느 하나의 저장 매체로 구현될 수 있으나, 당업자라면 저장부(130)의 구현 형태가 이에 한정되는 것이 아님을 알 수 있을 것이다.
영상 처리 및 제어부(120)는 저장부(130)로부터 3차원 CT 데이터의 전부 또는 일부를 독출하여 본 발명의 다양한 실시예들에 따라 깊이 분해능 정보를 강조한 2차원 영상을 형성하기 위해 다양한 영상 처리를 수행하도록 구성될 수 있다. 영상 처리 및 제어부(120)는 CT 영상을 뷰(view) 방향에 대한 복수의 슬라이스 영상으로 구분하고, 상기 복수의 슬라이스 영상에 대해 뷰 방향으로 설정된 복수의 구간의 각각에 대하여 가중치 맵(weight map)을 생성하도록 프로그래밍될 수 있다. 영상 처리 및 제어부(120)는 복수의 슬라이스 영상을 이용하여 2차원 재구성 영상을 생성하도록 더 프로그래밍될 수 있다. 영상 처리 및 제어부(120)는 입력 인터페이스(110)를 통한 사용자의 깊이 조절 명령에 응답하여 가중치 맵 또는 가산치 맵에 기초하여 2차원 재구성 영상의 적어도 일부를 처리하여 깊이 정보(depth information)가 적어도 일부 변경된 2차원 재구성 영상을 생성하도록 더 프로그래밍될 수 있다. 전술한 영상 처리 기능을 구현하기 위하여, 영상 처리 및 제어부(120)는 픽셀 단위 또는 블록 단위로 복수의 영상에 대한 중첩 처리, 복수의 영상에 대한 덧셈 및 뺄셈, 영상의 픽셀 값에 대한 곱셈 및 나눗셈 등의 연산 처리를 수행하도록 프로그래밍될 수 있다. 일 실시예에서, 영상 처리 및 제어부(120)는 영상의 컨트래스트 강조, 영상 복원 및 각종 영상 필터링 기능을 구현하도록 프로그래밍될 수 있다.
영상 처리 및 제어부(120)는, 하드웨어적 측면에서 응용 주문형 집적 회로(Application Specific Integrated Circuits: ASICs), 디지털 신호 처리기(Digital Signal Processors: DSPs), 디지털 신호 처리 소자(Digital Signal Processing Devices: DSPDs), 프로그램 가능 논리 소자(Programmable Logic Devices: PLDs), 현장 프로그램 가능 게이트 어레이(Field-Programmable Gate Arrays: FPGAs), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers) 및 마이크로 프로세서 (microprocessors) 중 적어도 하나를 이용하여 구현될 수 있다. 영상 처리 및 제어부(120)는 또한 전술한 하드웨어 플랫폼(platform) 상에서 실행 가능한 펌웨어(firmware)/소프트웨어 모듈로 구현될 수 있다. 이 경우, 펌웨어/소프트웨어 모듈은 적절한 프로그램(program) 언어로 쓰여진 하나 또는 그 이상의 소프트웨어 애플리케이션(software applications)에 의해 구현될 수 있다.
도 2는 본 발명에 따라 2차원 영상에서의 깊이 정보를 강조하는 의료 영상 처리 방법의 일 실시예를 설명하기 위한 흐름도를 도시한 도면이다.
본 발명의 일 실시예에 따른 의료 영상 처리 방법은 CT 영상을 구성하는 복수의 슬라이스 영상에 대하여 뷰(view) 방향으로 복수의 구간을 설정하는 단계로부터 시작된다(S201). 도 3 및 4에서는 CT 영상의 복수의 슬라이스 영상(307)을 커러널(coronal) 뷰 방향(305)으로 복수의 구간(401-1 내지 401-N)으로 분할하는 과정을 예시하고 있으나, 커러널 뷰 방향 이외에도 새지털(sagittal) 뷰 방향이나 액시얼(axial) 뷰 방향으로 복수의 슬라이스 영상(307)을 복수의 구간으로 분할하는 것도 가능하다. 도시된 실시예에서는, 각 구간에 선정된 개수만큼(예컨대, 4개)의 슬라이스 영상이 포함되도록 구간을 균등 분할을 하는 것으로 예시되어 있으나, 각 구간에 서로 다른 개수의 슬라이스 영상이 포함되도록 구간 분할을 하는 것도 가능하다.
단계(S202)에서는, 단계(S201)에서 설정된 복수의 구간의 각각에 대해 가중치 맵(weight map)을 생성한다. 상기 복수의 구간의 각각에 대한 가중치 맵은 픽셀별 위치에서의 가중치 값을 포함할 수 있다. 이하에서, 도 5 내지 도 9를 참조하여 단계(S202)을 상세히 설명하기로 한다. 먼저, 도 5는 도 2에서의 가중치 맵을 생성하는 단계(S202)의 상세 과정을 설명하기 위한 흐름도를 도시한 도면이다.
단계(S501)에서는, 복수의 구간의 각각에 포함되는 적어도 하나의 슬라이스 영상을 중첩시켜 해당 구간에 대한 구간별 레이어 영상을 형성한다. 구간별 레이어 영상은 각 구간에 포함된 적어도 하나의 슬라이스 영상을 중첩시킴으로써 얻을 수 있다. 일 실시예에서, 각 구간에 포함된 적어도 하나의 슬라이스 영상을 뷰 방향으로 픽셀별로 평균 또는 가중 평균하여 구간별 레이어 영상을 얻는 것이 가능하다. 도 6 및 도 7에는 크기가 8 x 8 픽셀인 단순화된 영상을 구간별 레이어 영상으로서 예시하고 있다. 이하에서의 설명의 편의상, 구간별 레이어 영상들의 개수가 2라 가정하고, 도 6 및 도 7에 예시된 2개의 구간별 레이어 영상들을 각각 제1 레이어 영상(600) 및 제2 레이어 영상(700)이라 칭한다.
단계(S502)에서는, 단계(S501)에서 형성된 구간별 레이어 영상들의 각각에서의 픽셀 값들을 근거로 상기 해당 구간에 대한 가중치 맵을 생성한다. 일 실시예에서, 형성된 구간별 레이어 영상들의 각각의 컨트래스트를 강조하도록 설정된 픽셀별 가중치 값을 해당 구간에 대한 가중치 맵에서의 해당 픽셀별 위치에서의 가중치 값으로 결정할 수 있다. 일 실시예에서, 해당 구간별 레이어 영상에서 픽셀 값이 클수록 해당 구간에 대한 가중치 맵에서의 해당 픽셀별 위치에서의 가중치 값을 크게 설정할 수 있다. 일 실시예에서, 해당 구간에 대한 가중치 맵에서의 가중치 값들을 해당 구간별 레이어 영상에서의 해당 픽셀 값들에 비례하여 설정할 수 있다. 일 실시예에서, 해당 구간별 레이어 영상의 픽셀 값들을 최소값부터 최대값까지 식별하고, 최소값을 갖는, 해당 구간별 레이어 영상에서의 적어도 하나의 픽셀에 대응하는, 해당 구간에 대한 가중치 맵에서의 적어도 하나의 픽셀별 위치에 대해, 최소의 가중치 값을 부여하고, 최대값을 갖는, 해당 구간별 레이어 영상에서의 적어도 하나의 픽셀에 대응하는, 해당 구간에 대한 가중치 맵에서의 적어도 하나의 픽셀별 위치에 대해 최대의 가중치 값을 부여할 수 있다. 일 실시예에서, 최소값과 상기 최대값 사이의 값을 갖는, 해당 구간별 레이어 영상에서의 픽셀들에 대응하는, 해당 구간에 대한 가중치 맵에서의 픽셀별 위치들에 대해서는, 최소의 가중치와 최대의 가중치에 근거해 보간한 값들을 가중치 값들로서 부여할 수 있다. 최소의 가중치 및 최대의 가중치는 각 구간별 레이어 영상의 컨트래스트를 강조하도록 하는 임의의 값을 갖도록 설정될 수 있다. 최소의 가중치와 최대의 가중치 간의 차이가 크면 영상의 컨트래스트와 깊이 분해능을 높일 수 있게 되는 반면, 동 차이가 작으면 깊이 정보 강조의 효과가 미미하게 된다. 또한, 최소의 가중치가 너무 작으면 영상의 디테일을 잃어 버리게 되고, 최대의 가중치가 너무 크면 고 휘도를 갖는 객체의 해상도가 오히려 떨어질 수 있는 부작용도 있을 수 있다. 따라서, 이러한 점들을 절충하여 진단 목적에 맞게 최소의 가중치 및 최대의 가중치를 선택할 수 있다. 일 실시예에서, 최소의 가중치 값은 0 이상 1.0 이하로 설정될 수 있고, 최대의 가중치 값은 1.0 이상의 임의의 값으로 설정될 수 있으나, 최소의 가중치 값 및 최대의 가중치 값이 이에 제한되는 것은 아니다.
이상에서는 단계(S502)에서 구간별 레이어 영상들의 각각에서의 픽셀 값들을 근거로 해당 구간에 대한 가중치 맵을 생성하는 실시예에 대해 설명하였으나, 단계(S502)에서 가중치 맵 대신 가산치 맵(addition map)을 생성할 수도 있다. 예컨대, 전술한 실시예에서 특정 구간별 레이어 영상에서의 픽셀 값이 a이고 이 특정 레이어 영상에 해당하는 가중치 맵에서의 가중치가 b로 결정된 경우, a * (b-1)이라는 값을 해당 가산치 맵에서의 가산치 값으로 설정할 수 있다.
이제, 도 6 및 도 7에 예시된 제1 레이어 영상(600) 및 제2 레이어 영상(700)을 예로 들어 가중치 맵을 생성하는 과정을 예시하기로 한다. 도 6의 제1 레이어 영상(600)에서는 5, 10 및 100의 픽셀 값이 있고, 이중에서 최소의 픽셀 값은 5이고 최대의 픽셀 값은 100이다. 도 7의 제2 레이어 영상(700)에서는 5, 10, 100 및 150의 픽셀 값이 있고, 이중에서 최소의 픽셀 값은 5이고 최대의 픽셀 값은 150이다. 도 8 및 도 9에는 각각 제1 및 제2 레이어 영상들에서의 픽셀 값들을 제1 및 제2 구간들에 대한 가중치 맵들에서의 가중치 값들로 맵핑하는 곡선들의 실시예들이 도시되어 있다. 도 8에 도시된 실시예에 따르면, 제1 레이어 영상(600)에서 최대의 픽셀 값인 100은 최대의 가중치 값(본 실시예에서는 2.0으로 가정함)으로 맵핑(mapping)되고, 최소의 픽셀 값인 5는 최소의 가중치 값(본 실시예에서는 1.0으로 가정함)으로 맵핑되고, 그 중간의 픽셀 값인 10은 최대의 픽셀 값과 최소의 픽셀 값의 사이 값인 약 1.2의 가중치 값으로 맵핑될 수 있다. 도 9에 도시된 실시예에 따르면, 제2 레이어 영상(700)에서 최대의 픽셀 값인 150은 최대의 가중치 값(본 실시예에서는 2.0으로 가정함)으로 맵핑되고, 최소의 픽셀 값인 5는 최소의 가중치 값(본 실시예에서는 1.0으로 가정함)으로 맵핑되고, 그 중간의 픽셀 값들인 10과 100은 최대의 픽셀 값과 최소의 픽셀 값의 사이 값들인 약 1.2와 약 1.7의 가중치 값들로 맵핑될 수 있다. 일 실시예에서, 도 8 및 도 9의 맵핑 곡선들을 맵핑 테이블로서 구현할 수 있다. 예시의 목적상, 도 10 및 도 11에 전술한 방식에 따라 생성된, 제1 및 제2 구간들에 대한 가중치 맵들(1000, 1100)을 각각 도시하였다.
이상으로 설명한 바와 같이, 복수의 구간의 각각에 대한 가중치 맵에서의 가중치 값들 또는 가산치 맵에서의 가산치 값들은 해당 구간별 레이어 영상의 픽셀 값들을 참조하여 동 영상의 컨트래스트를 강조하는 값들로서 결정될 수 있고, 따라서 본 발명에 따라 가중치 값들 또는 가산치 값들을 결정하는 방식이 전술한 실시예들에 의해 제한되는 것이 아님을 인식하여야 한다.
다시 도 2로 돌아와서, 단계(S203)에서는, 복수의 슬라이스 영상을 이용하여 2차원 재구성 영상을 생성한다. 이 단계에서 재구성되는 2차원 재구성 영상은 세펄로우 영상 또는 파노라마 영상일 수 있다. 일 실시예에서, 복수의 슬라이스 영상을 뷰 방향으로 중첩시켜 2차원 재구성 영상을 생성하는 것이 가능하다. 일 실시예에서, 단계(S501)에서 생성된 구간별 레이어 영상들을 뷰 방향으로 중첩시켜 2차원 재구성 영상을 생성하는 것도 가능하다. 예시의 목적상, 도 6의 제1 레이어 영상(600)과 도 7의 제2 레이어 영상(700)을 중첩시켜 재구성한 2차원 영상을 도 12에 도시하였다. 단계(S204)에서는, 단계(S203)에서 생성된 2차원 재구성 영상(1200)을 디스플레이 할 수 있다.
단계(S205)에서는, 사용자의 깊이 조절 명령에 응답하여 복수의 구간들에 대한 가중치/가산치 맵들 중 하나의 가중치/가산치 맵을 결정하고, 결정된 가중치/가산치 맵에 기초하여 2차원 재구성 영상(1200)의 적어도 일부를 처리하여 깊이 정보(depth information)가 적어도 일부 변경된 2차원 재구성 영상을 생성한다. 여기서, 사용자의 입력은, 디스플레이된 2차원 재구성 영상(1200)에서 사용자가 깊이 조절을 원하는 위치를, 예컨대 컴퓨터 마우스를 이용하여 지정하는 동작, 디스플레이된 2차원 재구성 영상(1200)에서 사용자가 깊이 조절을 원하는 부분을, 예컨대 컴퓨터 마우스를 이용하여 마스크(mask)로서 지정하는 동작 및 사용자가, 예컨대 컴퓨터 마우스의 휠(mouse wheel)을 돌려 복수의 구간 중에서 특정 구간을 선택하는 동작 중 어느 하나의 동작에 의해 발생될 수 있다.
사용자의 입력이, 디스플레이된 2차원 재구성 영상(1200)에서 사용자가 깊이 조절을 원하는 위치를 지정하는 동작에 의해 발생되는 경우에는, 지정된 위치에서의 촬영 대상의 특징을 대표하는 적어도 하나의 슬라이스 영상이 포함된 구간을 복수의 구간 중에서 선택하고, 이렇게 선택된 구간에 대한 가중치/가산치 맵에서의 가중치들/가산치들을 2차원 재구성 영상(1200)에 픽셀별로 적용하여 깊이 정보가 변경된 2차원 재구성 영상을 생성할 수 있다. 상기 사용자의 입력이, 디스플레이된 2차원 재구성 영상(1200)에서 사용자가 깊이 조절을 원하는 부분을 마스크로 지정하는 동작에 의해 발생되는 경우에는, 지정된 마스크 부분에서의 촬영 대상의 특징을 대표하는 적어도 하나의 슬라이스 영상이 포함된 구간을 복수의 구간 중에서 선택하고, 2차원 재구성 영상(1200)의 지정된 마스크 부분에 선택된 구간에 대한 가중치/가산치 맵에서의 해당 가중치들/가산치들을 픽셀별로 적용하여 깊이 정보가 적어도 일부 변경된 2차원 재구성 영상을 생성할 수 있다. 사용자의 입력이, 예컨대 마우스의 휠을 돌려 복수의 구간 중에서 특정 구간을 선택하는 동작에 의해 발생되는 경우에는, 선택된 특정 구간에 대한 가중치/가산치 맵에서의 가중치들/가산치들을 2차원 재구성 영상(1200)에 픽셀별로 적용하여 깊이 정보가 변경된 2차원 재구성 영상을 생성할 수 있다.
일 실시예에서, 단계(S205)에서의 2차원 재구성 영상(1200)에 대한 처리는, 선택된 가중치 맵에서의 가중치들을 2차원 재구성 영상(1200)의 픽셀들에 픽셀별로 곱하는 처리를 포함할 수 있다. 일 실시예에서, 단계(S205)에서의 2차원 재구성 영상(1200)에 대한 처리는, 선택된 가산치 맵에서의 가산치들을 2차원 재구성 영상(1200)의 픽셀들에 픽셀별로 더하는 처리를 포함할 수 있다.
도 13은 제1 구간이 선택되었을 경우 도 10의 제1 구간에 대한 가중치 맵(1000)을 도 12의 2차원 재구성 영상(1200)에 적용한 결과를 도시한 도면이고, 도 14는 제2 구간이 선택되었을 경우 도 11의 제2 구간에 대한 가중치 맵(1100)을 도 12의 2차원 재구성 영상(1200)에 적용한 결과를 도시한 도면이다. 도 13 및 도 14의 최종 결과 영상들(1300, 1400)로부터 관찰할 수 있는 바와 같이, 제1 구간이 선택되었을 경우 제1 레이어 영상(600)에서의 특징이 부각되고, 제2 구간이 선택되었을 경우 제2 레이어 영상(700)의 특징이 부각됨을 확인할 수 있다.
도 15는 인체의 두부를 촬영하여 얻은 3차원 CT 영상 데이터를 이용하여 재구성한 커러널(coronal) 뷰 방향으로의 PA(Posterior-Anterior) 세펄로우 영상의 사진을 도시한 도면이다. 도 16(a) 및 도 16(b)는 각각 3차원 CT 영상의 복수의 구간 중에서 전치부 및 구치부의 특징을 잘 드러내는 구간들을 컴퓨터 마우스 휠을 돌려 지정하여 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상들에 대한 사진들이다. 도 15의 사진에서 보다 도 16(a) 및 도 16(b)의 사진들에서 전치부와 구치부의 특징이 보다 높은 컨트래스트로 잘 드러나 있는 것을 확인할 수 있다. 도 17은 도 15에서 화살표(1500)로 표시한 부분(턱관절(Temporomandibular Joint: TMJ))을 컴퓨터 마우스를 이용하여 지정하여 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상에 대한 사진이다. 도 15의 사진에서 보다 도 17의 사진에서 턱관절 부분의 컨트래스트가 강조된 것을 관찰할 수 있다. 도 18은 도 18에 표시된 마스크 부분(1800)을 도 15에서 컴퓨터 마우스로 지정하여 지정된 마스크 부분에 대해서만 본 발명의 실시예들에 따른 영상 처리를 한 경우의 결과 영상에 대한 사진이다. 이 경우도, 마스크 부분(1800)에서의 컨트래스트와 해상도가 도 15의 경우보다 현저히 개선된 것을 알 수 있다.
본원에 개시된 실시예들에 있어서, 도시된 구성 요소들의 배치 또는 단계들의 순서는 발명이 구현되는 환경 또는 요구 사항에 따라 달라질 수 있다. 예컨대, 일부 구성 요소 또는 일부 단계가 생략되거나 몇몇 구성 요소 또는 몇몇 단계가 통합되어 하나로 실시될 수 있다. 또한 일부 구성 요소들의 배치 순서 및 연결이 변경될 수 있다.
이상에서는 본 발명의 다양한 실시예들에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예들에 한정되지 아니하며, 상술한 실시예들은 첨부하는 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변형 실시될 수 있음은 물론이고, 이러한 변형 실시예들이 본 발명의 기술적 사상이나 범위와 별개로 이해되어져서는 아니 될 것이다. 따라서, 본 발명의 기술적 범위는 오직 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.
[부호의 설명]
100: 의료 영상 처리 장치
110: 입력 인터페이스
120: 영상 처리 및 제어부
130: 저장부
140: 디스플레이부
305: 뷰 방향
307: 슬라이스 영상들
401-1 ~ 401-N: 구간
600: 제1 레이어 영상
700: 제2 레이어 영상
1000, 1100: 가중치 맵
1200: 2차원 재구성 영상
1300, 1400: 최종 결과 영상들
1500: 화살표
1800: 마스크 부분

Claims (6)

  1. 사용자의 깊이 조절 명령이 입력되는 입력 인터페이스,
    CT 영상 데이터의 일부 또는 전부를 뷰 방향으로 중첩하여 2차원 재구성 영상을 생성하고 상기 깊이 조절 명령에 대해 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는 영상 처리 및 제어부, 및
    상기 2차원 재구성 영상을 표시하는 디스플레이부를 포함하는 의료 영상 처리 장치.
  2. 제1항에 있어서,
    상기 2차원 재구성 영상은 세펄로우 영상 또는 파노라마 영상인, 의료 영상 처리 장치.
  3. 제1항에 있어서,
    상기 영상 처리 및 제어부는
    상기 CT 영상 데이터에 상기 뷰 방향을 따라 복수의 구간을 설정하고,
    상기 복수의 구간 각각에 대한 가중치 맵을 생성하며,
    상기 깊이 조절 명령에 의해 선택된 구간의 가중치 맵을 기초로 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는, 의료 영상 처리 장치.
  4. 의료 영상 처리 방법으로서,
    (a) CT 영상 데이터의 일부 또는 전부를 뷰 방향으로 중첩하여 2차원 재구성 영상을 생성하는 단계, 및
    (b) 사용자의 깊이 조절 명령에 따라 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경 및 표시하는 단계를 포함하는 의료 영상 처리 방법
  5. 제4항에 있어서,
    상기 2차원 재구성 영상은 세펄로우 영상 또는 파노라마 영상인, 의료 영상 처리 방법.
  6. 제4항에 있어서,
    상기 단계 (a)는 상기 CT 영상 데이터에 상기 뷰 방향을 따라 복수의 구간을 설정하고, 상기 복수의 구간 각각에 대한 가중치 맵을 생성하는 단계를 포함하며,
    상기 단계 (b)는 상기 깊이 조절 명령에 의해 선택된 구간의 가중치 맵을 기초로 상기 2차원 재구성 영상의 적어도 일부의 컨트래스트를 변경하는 단계를 포함하는, 의료 영상 처리 방법.
PCT/KR2016/011325 2015-10-08 2016-10-10 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법 WO2017061843A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16853959.1A EP3360481B1 (en) 2015-10-08 2016-10-10 Medical image reconstruction device and method emphasising depth information
CN201680071264.3A CN108778130B (zh) 2015-10-08 2016-10-10 医疗图像重建装置和加强深度信息的方法
US15/766,763 US10713825B2 (en) 2015-10-08 2016-10-10 Medical image reconstruction device and method emphasizing depth information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0141382 2015-10-08
KR1020150141382A KR102451377B1 (ko) 2015-10-08 2015-10-08 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2017061843A1 true WO2017061843A1 (ko) 2017-04-13

Family

ID=58488026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011325 WO2017061843A1 (ko) 2015-10-08 2016-10-10 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법

Country Status (5)

Country Link
US (1) US10713825B2 (ko)
EP (1) EP3360481B1 (ko)
KR (1) KR102451377B1 (ko)
CN (1) CN108778130B (ko)
WO (1) WO2017061843A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220319031A1 (en) * 2021-03-31 2022-10-06 Auris Health, Inc. Vision-based 6dof camera pose estimation in bronchoscopy

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204725A (ja) * 2000-01-25 2001-07-31 Hitachi Medical Corp X線ct装置
JP2001212135A (ja) * 2000-02-04 2001-08-07 Ge Yokogawa Medical Systems Ltd 放射線断層撮影装置および記憶媒体
KR20070083645A (ko) * 2004-09-10 2007-08-24 메딕사이트 피엘씨. Ct 스캔 분석을 위한 사용자 인터페이스
KR20130136519A (ko) * 2011-03-18 2013-12-12 고꾸리츠 다이가꾸호오징 기후다이가꾸 파노라마 엑스선 사진을 이용한 진단 지원 시스템, 및 파노라마 엑스선 사진을 이용한 진단 지원 프로그램
WO2015130916A1 (en) * 2014-02-28 2015-09-03 Hologic, Inc. System and method for generating and displaying tomosynthesis image slabs

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2418094B (en) 2004-09-10 2010-05-12 Medicsight Plc User interface for CT scan analysis
US8433033B2 (en) * 2005-10-21 2013-04-30 Axion Japan Co., Ltd. Panoramic imaging apparatus
JP5383014B2 (ja) * 2007-08-30 2014-01-08 キヤノン株式会社 放射線画像処理装置及び方法
JP6040502B2 (ja) * 2011-10-17 2016-12-07 朝日レントゲン工業株式会社 歯科用x線撮影装置
ITBO20130422A1 (it) * 2013-07-31 2015-02-01 Qr Srl Metodo e apparato per generare una radiografia panoramica
KR102335080B1 (ko) * 2014-11-11 2021-12-06 (주)바텍이우홀딩스 의료 영상 재구성 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204725A (ja) * 2000-01-25 2001-07-31 Hitachi Medical Corp X線ct装置
JP2001212135A (ja) * 2000-02-04 2001-08-07 Ge Yokogawa Medical Systems Ltd 放射線断層撮影装置および記憶媒体
KR20070083645A (ko) * 2004-09-10 2007-08-24 메딕사이트 피엘씨. Ct 스캔 분석을 위한 사용자 인터페이스
KR20130136519A (ko) * 2011-03-18 2013-12-12 고꾸리츠 다이가꾸호오징 기후다이가꾸 파노라마 엑스선 사진을 이용한 진단 지원 시스템, 및 파노라마 엑스선 사진을 이용한 진단 지원 프로그램
WO2015130916A1 (en) * 2014-02-28 2015-09-03 Hologic, Inc. System and method for generating and displaying tomosynthesis image slabs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3360481A4 *

Also Published As

Publication number Publication date
EP3360481A1 (en) 2018-08-15
KR102451377B1 (ko) 2022-10-06
US10713825B2 (en) 2020-07-14
US20190087987A1 (en) 2019-03-21
CN108778130A (zh) 2018-11-09
CN108778130B (zh) 2022-05-31
EP3360481B1 (en) 2022-11-30
KR20170042005A (ko) 2017-04-18
EP3360481A4 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
US20200268335A1 (en) Medical image processing apparatus, x-ray diagnostic apparatus, medical image processing method and x-ray diagnostic method
DE112016005343T5 (de) Elektronische Anzeigestabilisierung unter Verwendung von Pixelgeschwindigkeiten
DE112016002043T5 (de) Durchlaufanzeige von erfassten bildern
JP2011159162A5 (ko)
WO2018004154A1 (ko) 혼합현실 디스플레이 장치
JP2013110712A (ja) 車両周辺監視用画像生成装置
WO2016003258A1 (ko) 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법
JP2015173856A (ja) 画像処理装置、およびプログラム
WO2020184875A1 (ko) 파노라믹 영상을 이용한 치아번호 선택방법 및 이를 위한 의료영상 처리장치
JP2016039900A (ja) 医用画像処理装置及び医用画像処理方法
US11496661B2 (en) Image processing apparatus and image processing method
JP2019139121A (ja) 回路装置、電子機器及びエラー検出方法
WO2021049784A2 (ko) Gan을 이용한 의료 영상의 광강도 분포 일반화 기법
WO2017048104A1 (ko) 다중 해상도 3차원 엑스선 영상 재구성 장치 및 방법
US10685490B2 (en) Information processing apparatus, information processing method, and storage medium
WO2017061843A1 (ko) 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법
JP2018500690A (ja) 拡大3d画像を生成するための方法およびシステム
WO2015069049A1 (ko) 치과용 3차원 영상의 표시 방법 및 장치
WO2013027773A1 (ja) 画像処理装置、画像処理方法、および記録媒体
JP2022058770A5 (ja) 画像処理システム、画像処理方法及びプログラム
JP7223312B2 (ja) ボリュームレンダリング装置
TW202223842A (zh) 用於環景影像的影像處理方法及裝置
JP2013134744A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2010278680A (ja) 特定色検出回路
JP2021056963A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853959

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016853959

Country of ref document: EP