KR100428234B1 - Medical image segmentation apparatus and method thereof - Google Patents

Medical image segmentation apparatus and method thereof Download PDF

Info

Publication number
KR100428234B1
KR100428234B1 KR10-2002-0015012A KR20020015012A KR100428234B1 KR 100428234 B1 KR100428234 B1 KR 100428234B1 KR 20020015012 A KR20020015012 A KR 20020015012A KR 100428234 B1 KR100428234 B1 KR 100428234B1
Authority
KR
South Korea
Prior art keywords
image
segmentation
dimensional
medical image
unit
Prior art date
Application number
KR10-2002-0015012A
Other languages
Korean (ko)
Other versions
KR20030043572A (en
Inventor
김동성
Original Assignee
주식회사 인피니트테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인피니트테크놀로지 filed Critical 주식회사 인피니트테크놀로지
Priority to PCT/KR2002/002106 priority Critical patent/WO2003043490A1/en
Priority to AU2002366041A priority patent/AU2002366041A1/en
Priority to US10/466,884 priority patent/US7386153B2/en
Publication of KR20030043572A publication Critical patent/KR20030043572A/en
Application granted granted Critical
Publication of KR100428234B1 publication Critical patent/KR100428234B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명은 의료영상분할장치 및 그 방법에 관한 것으로서, 본 발명의 의료영상분할장치는 사용자와의 인터페이스를 제공하는 사용자 인터페이스부와; 의료영상에 대한 정보를 입력하는 볼륨데이터입력부와; 상기 볼륨데이터를 전달받아 그 의료영상의 소정위치에 대한 2차원영상을 생성하여 표시하고 그 2차원영상에 대한 분할을 수행하는 2차원영상표시제어부와; 상기 볼륨데이터를 전달받아 그 의료영상에 대한 3차원영상을 생성하여 표시하고 그 3차원영상에 대한 분할을 수행한 후 그 결과를 상기 2차원영상표시제어부로 전달하며 상기 2차원영상표시제어부로부터 상기 2차원영상의 위치정보 및 2차원영상의 분할결과를 전달받아 상기 3차원영상에 표시하는 3차원영상표시제어부;를 포함하여 구성되며, 2차원 및 3차원영상 중 어느 하나의 분할결과를 2차원과 3차원영상 모두에게 적용하고, 분할의 종류별로 공통적인 분할정보 및 분할결과들을 별도로 관리함으로써, 의료영상에 대한 분할작업을 보다 능률적으로 수행할 수 있도록 한다는 특징이 있다.The present invention relates to a medical image splitting apparatus and a method thereof, the medical image splitting apparatus of the present invention comprising: a user interface unit for providing an interface with a user; A volume data input unit for inputting information on the medical image; A 2D image display control unit which receives the volume data, generates and displays a 2D image of a predetermined position of the medical image, and divides the 2D image; Receives the volume data, generates and displays a 3D image of the medical image, performs segmentation on the 3D image, and transfers the result to the 2D image display controller. And a 3D image display control unit which receives the position information of the 2D image and the segmentation result of the 2D image, and displays the segmentation result of any one of 2D and 3D images. It is applied to both 3D and 3D images, and the common segmentation information and the segmentation results are separately managed by the type of segmentation so that the segmentation operation on the medical image can be performed more efficiently.

Description

의료영상분할장치 및 그 방법{Medical image segmentation apparatus and method thereof}Medical image segmentation apparatus and method

본 발명은 영상처리기법(Image Processing Technique)에 관한 것으로서, 보다 상세하게는 의료영상에서 관심부위를 분리시키는 의료영상분할기법에 관한 것이다.The present invention relates to an image processing technique, and more particularly, to a medical image segmentation technique that separates a region of interest from a medical image.

영상처리기법이란 다차원 영상데이터를 입력받아 배경이 되는 전체영상으로부터 관심영역을 분리하거나, 필요한 정보를 얻기 위해 영상데이터로부터 특징정보를 추출하거나, 영상의 질을 개선하기 위해 영상을 복원하거나 재처리하는 등의 일련의 과정을 수행하는 방법을 의미한다. 이들 중, 특히, 전체영상으로부터 관심영역을 분리하는 기술을 '분할기술'이라 말한다. 이러한 '분할기술'은 의료분야의 진단이나 연구가 진행될 때 그 대상이 되는 관심영역을 전체영상으로부터 분할한 후, 그 관심영역을 2차원이나 3차원영상으로 표현함으로써 진단이나 연구 결과의 정확성이나 능률성을 향상시킨다. 따라서, '분할기술'은 의료영상처리분야에 있어서 필수적으로 사용되는 영상처리기법이다.The image processing technique receives multidimensional image data, separates the region of interest from the entire image as the background, extracts feature information from the image data to obtain necessary information, or restores or reprocesses the image to improve the quality of the image. It means how to carry out a series of processes. Among them, the technique of separating a region of interest from the whole image is called a 'splitting technique'. Such 'splitting technology' divides the region of interest as a target from the whole image when the diagnosis or research in the medical field is in progress, and then expresses the region of interest in two-dimensional or three-dimensional images, thereby improving the accuracy and efficiency of the diagnosis or research results. Improve sex. Therefore, 'splitting technology' is an image processing technique that is essentially used in the medical image processing field.

한편, 일반적인 영상분할방법들은 각 차원의 영상을 분할할 때 그 차원의 가시화정보만을 활용해서 분할을 수행하고 검증한다. 예를 들어, 2차원 영상을 분할하고자 할 경우 2차원영상의 가시화정보만을 활용하고, 3차원 영상을 분할하고자 할 경우 3차원영상의 가시화 정보만을 활용하여야 한다. 즉, 종래의 영상분할방법에 의하면, 2차원영상에서 분할을 수행할 경우 분할영역의 기하학적인 특성을 이용하지만, 검증을 위해 3차원영상의 가시화정보를 활용하는 경우는 없었다. 또한, 기존의 영상분할방법에 의하면, 3차원영상의 가시화정보를 이용한 분할결과를 2차원영상의 분할에 적용하는 경우도 없었다. 따라서, 종래의 영상분할방법을 이용할 경우, 사용자 인터페이스가 제한적으로 제공된다는 단점이 있었다.On the other hand, in general image segmentation methods, segmentation is performed using only the visualization information of the dimension when segmenting the image of each dimension and verify. For example, when segmenting a 2D image, only the visualization information of the 2D image should be used, and when visualizing the 3D image, only the visualization information of the 3D image should be used. That is, according to the conventional image segmentation method, when performing the segmentation in the 2D image, the geometric characteristics of the segmented region are used, but there is no case in which the visualization information of the 3D image is used for verification. In addition, according to the existing image segmentation method, the segmentation result using the visualization information of the 3D image has not been applied to the segmentation of the 2D image. Therefore, when using the conventional image segmentation method, there is a disadvantage that the user interface is limited.

또한, 종래의 영상분할방법을 이용할 경우, 분할 종류별 분할도구들과 수정작업을 위한 그리기도구가 각각 별도로 동작함으로써, 분할 및 수정작업이 비능률적으로 수행되었다. 즉, 분할 종류별 분할도구들과 수정작업을 위한 그리기도구 각각의 동작환경을 별도로 설정하여야 하며, 각 분할도구의 분할결과들과 그리기도구의 수정결과가 독립적으로 존재함으로써, 각 분할도구를 이용한 분할의 방법 및 그 처리결과들이 유기적인 조화를 이루지 못하여 통합(Synergy)효과를 발휘할 수 없었다.In addition, when using the conventional image segmentation method, the segmentation tools and the drawing tools for the correction operation are operated separately, so that the segmentation and correction operations are inefficiently performed. That is, the operation environment of each of the partitioning tools and the drawing tools for correcting work must be set separately, and the partitioning results of each partitioning tool and the modifying result of the drawing tool are independent. The method and the results of the processing did not harmonize organically, so it could not have a synergy effect.

본 발명은 상기한 바와 같은 종래의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 각 차원의 영상을 분할할 때, 그 차원의 가시화정보 및 다른 차원의 가시화정보를 활용할 수 있도록 하고, 분할종류별 분할도구들과 수정작업을 위한 그리기도구가 서로 유기적으로 동작하도록 하는 의료영상분할장치 및 그 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to make use of visualization information of another dimension and visualization information of another dimension when segmenting an image of each dimension. The present invention provides a medical image splitting apparatus and a method for causing segmentation tools of each type and drawing tools for corrective operations to operate organically.

도 1은 본 발명의 실시예에 따른 의료영상분할장치에 대한 개략적인 블록도,1 is a schematic block diagram of a medical image splitting apparatus according to an embodiment of the present invention;

도 2는 본 발명의 실시예에 따른 2차원영상 표시제어부에 대한 개략적인 블록도,2 is a schematic block diagram of a two-dimensional image display control unit according to an embodiment of the present invention;

도 3은 본 발명의 실시예에 따른 3차원영상 표시제어부에 대한 개략적인 블록도,3 is a schematic block diagram of a 3D image display control unit according to an embodiment of the present invention;

도 4는 본 발명의 실시예에 따른 의료영상분할방법에 대한 처리 흐름도,4 is a flowchart illustrating a medical image segmentation method according to an embodiment of the present invention;

도 5는 본 발명의 실시예에 따른 2차원영상 분할과정에 대한 처리 흐름도,5 is a flowchart illustrating a two-dimensional image segmentation process according to an embodiment of the present invention;

도 6은 본 발명의 실시예에 따른 조건부수정과정에 대한 처리 흐름도,6 is a process flow diagram for a conditional modification process according to an embodiment of the present invention;

도 7 내지 도 12e는 본 발명의 실시예에 따른 의료영상분할장치의 동작과정을 설명하기 위한 예시화면들.7 to 12E are exemplary screens for describing an operation process of a medical image splitting apparatus according to an exemplary embodiment of the present invention.

♣ 도면의 주요 부분에 대한 부호의 설명 ♣♣ Explanation of symbols for the main parts of the drawing ♣

100 : 사용자 인터페이스부 200 : 제어부100: user interface unit 200: control unit

300 : 볼륨데이터 입력부 400 : 2차원영상 표시제어부300: volume data input unit 400: 2D image display control unit

500 : 3차원영상 표시제어부500: 3D image display control unit

상기 목적을 달성하기 위한 본 발명의 의료영상분할장치는 사용자의 조작신호를 입력하는 사용자 인터페이스부와; 의료영상에 대한 정보를 3차원적 위치의 함수로 표시되는 볼륨데이터로 입력하는 볼륨데이터입력부와; 상기 볼륨데이터입력부로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상의 소정위치에 대한 2차원영상을 생성하여 표시하고, 그 2차원영상에 대한 분할을 수행하는 2차원영상표시제어부와; 상기 볼륨데이터입력부로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상에 대한 3차원영상을 생성하여 표시하고, 그 3차원영상에 대한 분할을 수행한 후 그 결과를 상기 2차원영상표시제어부로 전달하며, 상기 2차원영상표시제어부로부터 상기 2차원영상의 위치정보 및 2차원영상의 분할결과를 전달받아 상기 3차원영상에 표시하는 3차원영상표시제어부와; 상기 사용자 인터페이스부를 통해 입력되는 사용자의 조작신호에 의거하여 상기 2차원영상표시제어부 및 3차원영상표시제어부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 한다.Medical image segmentation device of the present invention for achieving the above object comprises a user interface for inputting a user's operation signal; A volume data input unit for inputting information about the medical image as volume data displayed as a function of three-dimensional position; A two-dimensional image display control unit which receives the volume data of the medical image from the volume data input unit, generates and displays a two-dimensional image of a predetermined position of the medical image, and divides the two-dimensional image; Receives the volume data of the medical image from the volume data input unit, generates and displays a 3D image of the medical image, divides the 3D image, and transfers the result to the 2D image display control unit. A 3D image display control unit which receives the position information of the 2D image and the segmentation result of the 2D image from the 2D image display control unit and displays the 3D image on the 3D image; And a controller configured to control operations of the 2D image display controller and the 3D image display controller based on a user's manipulation signal input through the user interface unit.

한편, 상기 목적을 달성하기 위한 본 발명의 의료영상분할방법은 의료영상에 대한 정보를 3차원적 위치함수로 표시되는 볼륨데이터로 입력받는 제1 과정과; 상기 볼륨데이터로부터 의료영상에 대한 2차원 및 3차원영상을 생성하여 화면에 디스플레이하는 제2 과정과; 상기 디스플레이된 2차원 및 3차원영상 중 어느 하나의 소정영역에 대한 분할이 요청되면, 그에 대한 응답으로 분할을 수행한 후, 그 분할결과를 2차원과 3차원영상 모두에게 적용하는 제3 과정과; 상기 분할된 영상의 소정영역에 대한 수정 작업이 요청된 경우, 그에 대한 응답으로 수정을 수행한 후, 그 수정된 영역 중 기 설정된 수정조건들을 만족하는 영역만을 분할에 적용하는 제4 과정을 포함하는 것을 특징으로 한다.On the other hand, the medical image segmentation method of the present invention for achieving the above object comprises a first step of receiving information about the medical image as the volume data displayed as a three-dimensional position function; A second process of generating two-dimensional and three-dimensional images of the medical image from the volume data and displaying them on the screen; When a segmentation of any one of the displayed 2D and 3D images is requested, the process is performed in response to the segmentation, and then the segmentation process is applied to both 2D and 3D images. ; If a correction operation is requested for a predetermined region of the divided image, performing a modification in response thereto, and then applying only a region of the modified region that satisfies preset modification conditions to the division; It is characterized by.

이하, 첨부한 도면에 의거하여, 본 발명에 따른 의료영상분할장치 및 그 방법에 대한 바람직한 실시예를 상세하게 설명한다.Hereinafter, on the basis of the accompanying drawings, it will be described in detail a preferred embodiment of the medical image segmentation apparatus and method according to the present invention.

도 1은 본 발명의 실시예에 따른 의료영상분할장치에 대한 개략적인 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 의료영상분할장치는 사용자 인터페이스부(100), 제어부(200), 볼륨데이터입력부(300), 2차원영상표시제어부(400) 및 3차원영상표시제어부(500)를 포함한다.1 is a schematic block diagram of a medical image splitting apparatus according to an exemplary embodiment of the present invention. 1, a medical image splitting apparatus according to an exemplary embodiment of the present invention includes a user interface unit 100, a controller 200, a volume data input unit 300, a two-dimensional image display control unit 400, and a three-dimensional image display. The control unit 500 is included.

볼륨데이터입력부(300)는 의료영상에 대한 정보를 3차원적 위치의 함수로 표시되는 볼륨데이터로 입력한다. 예를 들어, CT나 MRI 단면 스캐닝 결과로 생성된 볼륨데이터를 각 장치들로 직접 입력받아 저장하고자 하는 경우, 볼륨데이터 입력부(300)는 각 장치들과 접속하여 해당 데이터를 입력받기 위한 접속 하드웨어 및 이를 저장하기 위한 하드디스크 또는 메모리 소자로 구성될 수 있다. 한편, 이미 측정되어 다른 저장매체(예컨대, 플로피 디스크, CD-ROM 등)에 저장된 데이터를 읽어들이는 경우, 볼륨데이터 입력부(300)는 그와 같은 시스템 내/외부 저장장치와 접속하여 해당 데이터를 입력받기 위한 접속 하드웨어와, 이를 저장하기 위한 하드디스크 또는 메모리소자로 구성될 수 있다.The volume data input unit 300 inputs information about the medical image as volume data displayed as a function of three-dimensional position. For example, if the volume data generated as a result of CT or MRI cross-sectional scanning is to be directly received and stored in each device, the volume data input unit 300 may be connected to each device to receive the corresponding data and receive the corresponding data. It may be composed of a hard disk or a memory device for storing it. On the other hand, when reading data that has already been measured and stored in another storage medium (eg, floppy disk, CD-ROM, etc.), the volume data input unit 300 is connected to such internal / external storage device to access the data. Connection hardware for receiving input and a hard disk or a memory device for storing it may be configured.

2차원영상표시제어부(400)는 볼륨데이터입력부(300)로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상의 소정위치에 대한 2차원영상을 생성하여 표시하고, 그 2차원영상에 대한 분할을 수행한다. 이 때, 2차원영상표시제어부(400)는 3차원영상표시제어부(500)로부터 3차원영상에 대한 분할결과를 전달받아 현재 표시하고 있는 2차원영상에 표시한다. 즉, 2차원영상표시제어부(400)는 3차원영상표시제어부(500)로부터 3차원영상에 대한 3차원 원(original)영상정보와 그 분할결과를 전달받고, 원영상에 분할결과를 반영하여 새로운 3차원영상을 생성한다. 그리고, 2차원영상표시제어부(400)는 그 생성된 3차원영상정보에 의거하여 화면에 보여줄 2차원영상을 생성한 후, 그 결과를 2차원영상에 표시하는 것이다.The 2D image display control unit 400 receives the volume data of the medical image from the volume data input unit 300, generates and displays a 2D image of a predetermined position of the medical image, and divides the 2D image. Perform. At this time, the 2D image display control unit 400 receives the division result of the 3D image from the 3D image display control unit 500 and displays it on the currently displayed 2D image. That is, the 2D image display control unit 400 receives the 3D original image information about the 3D image and the segmentation result from the 3D image display control unit 500, and reflects the segmentation result in the original image. Create 3D image. Then, the 2D image display control unit 400 generates a 2D image to be displayed on the screen based on the generated 3D image information, and then displays the result on the 2D image.

한편, 2차원영상표시제어부(400)는 2차원영상에 대한 분할결과를 3차원영상표시제어부(500)로 전달하여, 2차원영상에 대한 분할결과가 3차원영상에도 적용되도록 한다.Meanwhile, the 2D image display control unit 400 transmits the segmentation result of the 2D image to the 3D image display control unit 500 so that the segmentation result of the 2D image is also applied to the 3D image.

3차원영상표시제어부(500)는 볼륨데이터입력부(300)로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상에 대한 3차원영상을 생성하여 표시하고, 그 3차원영상에 대한 분할을 수행한다. 그리고, 그 결과를 2차원영상표시제어부(400)로 전달한다. 한편, 3차원영상표시제어부(500)는 2차원영상표시제어부(400)로부터 현재 표시되고 있는 2차원영상의 위치정보 및 2차원영상의 분할결과를 전달받아 그에 따른 3차원영상정보를 도출한 후, 그 결과를 3차원영상에 표시한다. 즉, 2차원영상에 대한 분할결과를 3차원영상에 적용하도록 한다.The 3D image display control unit 500 receives the volume data of the medical image from the volume data input unit 300, generates and displays a 3D image of the medical image, and divides the 3D image. The result is transmitted to the 2D image display control unit 400. Meanwhile, the 3D image display control unit 500 receives the position information of the 2D image currently displayed from the 2D image display control unit 400 and the segmentation result of the 2D image, and derives the 3D image information accordingly. The result is displayed on the 3D image. That is, the division result of the 2D image is applied to the 3D image.

한편, 사용자 인터페이스부(100)는 사용자와의 인터페이스를 제공한다. 또한, 제어부(200)는 사용자 인터페이스부(100)를 통해 입력되는 사용자의 조작신호에 의거하여, 2차원영상표시제어부(400) 및 3차원영상표시제어부(500)의 동작을 제어한다.Meanwhile, the user interface unit 100 provides an interface with a user. In addition, the controller 200 controls operations of the 2D image display controller 400 and the 3D image display controller 500 based on a user's operation signal input through the user interface unit 100.

도 2는 본 발명의 실시예에 따른 2차원영상표시제어부(400)에 대한 개략적인 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 2차원영상표시제어부(400)는 2차원이미지 생성부(405), 위치선택부(410), 2차원분할부(415), 매개변수관리자(420), 로컬변수버퍼(425), 공유변수버퍼(430), 객체관리자(435),객체버퍼(440), 보호관리자(445), 보호영역저장부(450), 그리기도구(455), 조건매개변수버퍼(460), 3차원인터페이스부(465) 및 디스플레이제어부(470)를 포함한다.2 is a schematic block diagram of a two-dimensional image display control unit 400 according to an embodiment of the present invention. Referring to FIG. 2, the 2D image display controller 400 according to an embodiment of the present invention includes a 2D image generator 405, a position selector 410, a 2D divider 415, and a parameter manager ( 420, local variable buffer 425, shared variable buffer 430, object manager 435, object buffer 440, protection manager 445, protected area storage unit 450, drawing tool 455, condition It includes a parameter buffer 460, a three-dimensional interface unit 465 and a display control unit 470.

3차원인터페이스부(3차원 I/F)(465)는 3차원영상표시제어부('도 1'의 500)와의 데이터교환을 위한 인터페이스를 제공한다.The three-dimensional interface unit (three-dimensional I / F) 465 provides an interface for data exchange with the three-dimensional image display control unit (500 in Figure 1).

2차원이미지 생성부(405)는 볼륨데이터입력부('도 1'의 300)로부터 전달되는 볼륨데이터에 의해 화면에 디스플레이할 2차원영상을 생성하고, 3차원 I/F(465)로부터 전달되는 3차원분할결과를 이용하여 현재 디스플레이되고 있는 2차원영상에 분할정보를 표시한다. 즉, 3차원분할결과가 2차원영상에도 적용되도록 한다. 다시말하면, 3차원영상은 2차원영상이 연속적으로 들어가 있는 자료구조 형태를 가지므로, 3차원분할결과로부터 k번째의 2차원영상을 인출하기 위해 (k-1)*이미지크기(Image size)로부터 이미지크기(Image size) 만큼의 데이터를 가져오면 되는 것이다.The two-dimensional image generating unit 405 generates a two-dimensional image to be displayed on the screen by volume data transmitted from the volume data input unit (300 of FIG. 1), and is transferred from the three-dimensional I / F 465. The segmentation information is displayed on the currently displayed two-dimensional image using the dimensional division result. That is, the 3D segmentation result is applied to the 2D image. In other words, since the 3D image has a data structure in which the 2D image is continuously inserted, from (k-1) * Image size to extract the k-th 2D image from the 3D segmentation result. You just need to get as much data as the image size.

한편, 3차원영상에서의 분할이 2차원영상에서의 분할보다 더 용이한 경우는 분할하고자 하는 기관이 3차원영상에서 가시화가 잘되고, 배경 영역과 구분되어지는 경우이다. 이러한 경우로서, 갈비뼈와 척추를 예로 들을 수 있는데, 갈비뼈와 척추는 3차원영상에서 가시화가 잘되고, 혈관 등에 조영제를 넣지 않는 경우, 3차원상에서 외곽에 위치한 갈비뼈와 척추를 그리기도구로 쉽게 분리할 수 있기 때문이다.On the other hand, when the segmentation in the 3D image is easier than the segmentation in the 2D image, the organ to be segmented is well visualized in the 3D image and is distinguished from the background area. In this case, for example, the ribs and the spine can be easily visualized in the three-dimensional image, and if the contrast agent is not added to the blood vessels, the ribs and the vertebrae located on the outside in three dimensions can be easily separated with a drawing tool. Because there is.

위치선택부(410)는 3차원영상표시제어부('도 1'의 500)로부터 3차원영상 상에 표시되는 슬라이스 위치정보(Slice Number)를 전달받아 그 위치에 해당되는 영상데이터를 비트맵(bitmap)구조로 변경하여 화면에 보여준다. 이 때, 슬라이스란 3차원영상의 소정위치에 대한 단면으로서, 2차원영상의 표시단위를 말한다. 따라서, 위치선택부(410)는 3차원영상표시제어부('도 1'의 500)로부터 전달된 슬라이스 정보에 의거하여 해당 2차원영상정보를 선택한 후, 화면에 디스플레이한다.The position selection unit 410 receives slice position information displayed on the 3D image from the 3D image display control unit 500 of FIG. 1 and receives a bitmap of the image data corresponding to the position. Change to the structure and show it on the screen. In this case, the slice is a cross section of a predetermined position of the three-dimensional image, and refers to a display unit of the two-dimensional image. Accordingly, the position selector 410 selects the 2D image information based on the slice information transmitted from the 3D image display control unit 500 of FIG. 1, and then displays the 2D image information on the screen.

2차원분할부(415)는 사용자 인터페이스부('도 1'의 100)를 통해 선택된 선택정보에 의거하여 2차원영상에 대한 분할을 수행한다. 예를 들어, 사용자가 마우스 등을 이용하여 2차원영상 상의 원하는 영역을 선택하면, 그 영역에 대한 분할을 수행한다.The 2D dividing unit 415 divides the 2D image based on the selection information selected through the user interface unit 100 of FIG. 1. For example, when the user selects a desired area on the 2D image using a mouse or the like, segmentation of the area is performed.

이 때, 의료영상에서 사용될 수 있는 분할의 방법은 영역의 특성을 이용하는 방법, 경계의 특성을 이용하는 방법 및 영역 및 경계의 특성을 모두 이용하는 혼합 방법이 있는데, 2차원영상표시제어부(400)에서는 보다 효과적인 처리를 수행하기 위해, 이러한 분할의 종류별로 공통적으로 적용되는 2차원분할부(415)의 동작환경정보들 및 각 분할의 종류별로 도출된 2차원영상의 분할결과들을 별도로 관리한다.At this time, the segmentation method that can be used in the medical image includes a method using the characteristics of the region, a method using the characteristics of the boundary, and a mixing method using both the characteristics of the region and the boundary. In order to perform an effective process, the operation environment information of the 2D divider 415 commonly applied for each type of division and the division results of the 2D image derived for each division type are separately managed.

이를 위해, 도 2의 예에서는 각 분할의 종류별로 공통적으로 적용되는 공유변수들을 저장/관리하기 위한 공유변수버퍼(430)와, 각 분할의 종류별로 개별적으로 적용되는 로컬변수들을 저장/관리하기 위한 로컬변수버퍼(425)를 포함하며, 이들(430, 425)은 매개변수관리자(420)에 의해 제어를 받는다. 매개변수관리자(420)는 2차원분할부(415) 또는 그리기도구(455)의 요청에 의해 공유변수버퍼(430) 및 로컬변수버퍼(425)에서 관리되는 매개변수들을 2차원분할부(415) 또는 그리기도구(455)에게 제공하는 역할을 한다. 이와 같이 분할을 위해 설정되는 변수들의 예로는 최대/최소 밝기값, 최대 강도(Max intensity), 형태의 확장/침식(Morphological dilation/erosion)횟수, 최대/최소 임계치, 내성(tolerance), 채움(fill holes) 여부, ROI 종류, 페인트 종류, 페인트 브러쉬폭, 프로파게이션(propagation) 방향 등을 설정하는 변수 등이 있으며, 이들 중 최대/최소 밝기값, 최대 강도(Max intensity), 형태의 확장/침식(Morphological dilation/erosion)횟수, 최대/최소 임계치를 설정하는 변수들은 각 분할에 모두 적용되는 공유변수들이고, 내성(tolerance)을 설정하는 변수는 2D/3D 그로우(Grow)에만 적용되는 로컬변수이고, 채움(fill holes) 여부를 설정하는 변수는 쓰레스홀딩(Thresholding)과 2D/3D 그로우(Grow)에만 적용되는 로컬변수이고, 페인트 종류(paint type), 페인트 브러쉬폭(paint brush width) 설정 변수는 페인트에만 적용되는 로컬변수이고, 프로파게이션(propagation) 방향 설정변수는 ROI와 2D 그로우(Grow)에만 적용되는 로컬변수이다. 이 때, 그리기도구(455)는 사용자의 선택에 의해 분할된 분할결과를 수작업에 의해 수정하고자 하는 경우, 그 수정작업을 수행하기 위해 제공되며, 사용자 인터페이스부('도 1'의 100)를 통해 입력되는 사용자의 선택정보에 의해 동작한다.To this end, in the example of FIG. 2, the shared variable buffer 430 for storing / managing shared variables commonly applied to each partition type, and for storing / managing local variables individually applied to each partition type. Local variable buffers 425, which are controlled by parameter manager 420. The parameter manager 420 divides the parameters managed in the shared variable buffer 430 and the local variable buffer 425 at the request of the 2D divider 415 or the drawing tool 455. Or serves to provide a drawing tool (455). Examples of such variables set for dividing include maximum / minimum brightness value, maximum intensity, number of Morphological dilation / erosion, maximum / minimum threshold, tolerance, and fill There are variables to set the hole status, ROI type, paint type, paint brush width, propagation direction, etc. Among them, the maximum / minimum brightness value, the maximum intensity, and the expansion / erosion of the shape Variables that set the frequency (Morphological dilation / erosion) and maximum / minimum thresholds are shared variables that apply to each partition, and variables that set tolerance are local variables that apply only to 2D / 3D Grow. Variables for filling holes are local variables that apply only to Thresholding and 2D / 3D Grow, and paint type and paint brush width configuration variables. Applies only to paint A local variable, the profile ligated (propagation) direction setting variables are local variables that are specific to ROI and 2D grown (Grow). At this time, the drawing tool 455 is provided to perform the correction operation when the division result divided by the user's selection is to be manually modified, and is provided through the user interface unit (100 in FIG. 1). It is operated by the user's selection information input.

또한, 각 분할의 종류별로 그 분할에 사용되는 객체들을 별도의 객체버퍼(440)에 저장하고, 객체관리자(435)에 의해 그 객체들을 관리하도록 한다. 이 때, 객체버퍼(440)는 슬라이스단위로 객체들의 분할정보를 저장하는데, 이러한 분할정보들은 인접한 슬라이스의 분할정보의 영향을 받는다. 예를 들어, 이전 슬라이스에 적용된 분할정보들을 현재 슬라이스의 분할에 적절히 적용할 수 있도록 한다. 이처럼 다음 슬라이스의 분할에 연속적으로 적용되는 분할정보로는 씨앗점의 위치, ROI 정보 등이 있다.In addition, for each type of partition, the objects used for the partition are stored in a separate object buffer 440, and the object manager 435 manages the objects. At this time, the object buffer 440 stores the segmentation information of the objects in units of slices, which are affected by the segmentation information of adjacent slices. For example, the split information applied to the previous slice can be appropriately applied to the split of the current slice. As such, the split information continuously applied to the division of the next slice includes the location of the seed point and the ROI information.

한편, 2차원분할부(415)는 사용자의 선택에 의해 설정된 분할대상영역을 분할할 때, 그 분할대상영역의 정보가 다른 영역으로 새나가는 것을 방지하기 위해, 즉, 분할대상영역을 보호하기 위해, 분할대상영역의 인접영역을 먼저 분할하고, 그 분할영역을 보호영역으로 설정한 후, 상기 분할대상영역에 대한 분할을 수행하도록 한다. 이를 위해, 도 2의 예에서는 보호영역으로 설정된 영역들을 별도로 관리하는 보호영역저장부(450)와, 그 보호영역저장부(450)를 관리하는 보호관리자(445)를 포함한다.On the other hand, when dividing the divided target area set by the user's selection, the two-dimensional partitioning unit 415 prevents the information of the divided target area from leaking to another area, that is, to protect the divided target area. Next, the adjacent area of the partitioned area is divided first, the partitioned area is set as a protection area, and the partitioned area is partitioned. To this end, the example of FIG. 2 includes a protection area storage unit 450 for separately managing areas set as protection areas, and a protection manager 445 for managing the protection area storage unit 450.

보호관리자(445)는 2차원분할부(415)를 통해 분할대상영역이 선택되면, 먼저, 그 분할대상영역의 경계위치를 도출하고, 그 경계위치에 인접한 영역들을 도출한다. 그리고, 그 인접영역을 먼저 분할하고, 그 분할영역을 보호영역으로 설정한다. 즉, 그 분할영역을 라벨링하여 보호영역저장부(450)에 저장한다. 그리고, 2차원분할부(415)를 통해 분할작업이 요청되면, 분할작업을 위해 선택된 분할대상영역이 보호영역저장부(450)에 저장된 영역인지를 확인한 후, 그렇지 않은 경우만 해당 영역에 대한 분할을 수행하도록 한다.When the division target area is selected through the two-dimensional division unit 415, the protection manager 445 first derives a boundary position of the division target area and derives regions adjacent to the boundary position. The adjacent area is first divided, and the divided area is set as a protected area. That is, the divided area is labeled and stored in the protection area storage unit 450. Then, when a split operation is requested through the 2D divider 415, after checking whether the divided target area selected for the split operation is an area stored in the protected area storage unit 450, splitting is performed for the corresponding area only. To do this.

또한, 그리기도구(455)는 사용자 인터페이스부('도 1'의 100)를 통해 선택된 선택정보에 의해 2차원영상의 소정영역에 대한 영상이 수정된 경우, 그 수정된 영역 중 기 설정된 수정조건들을 만족하는 영역만을 분할에 적용한다. 다시 말해, 그리기도구(455)는 조건부 수정을 수행한다. 조건매개변수버퍼(460)는 이를 위한 수정조건들을 저장관리하고, 그리기도구(455)의 요청에 따라 해당 수정조건들을 그리기도구(455)에게 제공한다. 이 때, 조건부 수정을 위해 설정되는 수정조건들의 예는 영역의 밝기값 등이 있다. 그리기도구(455)는 이러한 조건부 수정을 위해 화소의 조건을 검사하면서 수정작업을 수행한다.In addition, when the image of the predetermined region of the 2D image is modified by the selection information selected through the user interface unit 100 of FIG. 1, the drawing tool 455 sets preset correction conditions among the modified regions. Only the area that satisfies is applied to the partition. In other words, the drawing tool 455 performs conditional correction. The condition parameter buffer 460 stores and manages correction conditions for this, and provides the correction conditions to the drawing tool 455 at the request of the drawing tool 455. At this time, examples of the correction conditions set for the conditional correction include a brightness value of the area, and the like. The drawing tool 455 performs the correction operation while checking the condition of the pixel for such conditional correction.

디스플레이제어부(470)는 2차원이미지 생성부(405), 위치선택부(410), 2차원 분할부(415) 및 그리기도구(455)의 처리 결과에 따른 2차원영상을 화면에 표시하도록 제어한다.The display controller 470 controls to display the 2D image according to the processing result of the 2D image generator 405, the position selector 410, the 2D divider 415, and the drawing tool 455 on the screen. .

도 3은 본 발명의 실시예에 따른 3차원영상표시제어부(500)에 대한 개략적인 블록도이다. 도 3을 참조하면, 본 발명의 실시예에 따른 3차원영상표시제어부(500)는 3차원가시화부(510), 위치표시부(520), 3차원분할부(530), 2차원인터페이스부(2차원 I/F)(540) 및 디스플레이제어부(550)를 포함한다.3 is a schematic block diagram of a three-dimensional image display control unit 500 according to an embodiment of the present invention. Referring to FIG. 3, the three-dimensional image display controller 500 according to an embodiment of the present invention includes a three-dimensional visualization unit 510, a position display unit 520, a three-dimensional divider 530, and a two-dimensional interface unit 2. Dimension I / F) 540 and display controller 550.

2차원인터페이스부(2차원 I/F)(540)는 2차원영상표시제어부('도 1'의 400)와의 데이터교환을 위한 인터페이스를 제공한다.The two-dimensional interface unit (two-dimensional I / F) 540 provides an interface for exchanging data with the two-dimensional image display control unit (400 of FIG. 1).

3차원가시화부(510)는 볼륨데이터입력부('도 1'의 300)로부터 전달되는 볼륨데이터에 의해 화면에 디스플레이할 3차원영상을 생성하고, 2차원 I/F(540)로부터 전달되는 2차원분할결과를 이용하여 현재 디스플레이되고 있는 3차원영상에 분할정보를 표시한다. 즉, 2차원분할결과가 3차원영상에도 적용되도록 한다. 다시말하면, 2차원분할결과는 소정의 이미지 크기(image size)를 갖는 영상으로서, 분할결과를 표시할 수 있는 배열의 형태로 저장되어 있는데, 이러한 2차원분할결과를 3차원영상에 적용하기 위해, 첫 번째 2차원영상에 해당되는 분할배열부터 순차적으로 연결하여 3차원 분할결과를 생성하고, 그 3차원분할결과를 이용하여 분할된 3차원영상으로 가시화한다. 이 때, 3차원 분할결과에 해당되는 볼륨만을 선택하여 3차원영상으로 가시화할 수도 있고, 3차원 분할결과에 해당하는 볼륨을 제외한 부분만을 선택하여 3차원영상으로 가시화할 수도 있다.The three-dimensional visualization unit 510 generates a three-dimensional image to be displayed on the screen by the volume data transmitted from the volume data input unit (300 of FIG. 1), and the two-dimensional image transmitted from the two-dimensional I / F 540. The segmentation information is used to display the segmentation information on the currently displayed 3D image. That is, the two-dimensional segmentation result is applied to the three-dimensional image. In other words, the 2D segmentation result is an image having a predetermined image size, and is stored in the form of an array capable of displaying the segmentation result. In order to apply the 2D segmentation result to the 3D image, A three-dimensional segmentation result is generated by sequentially connecting the split arrays corresponding to the first two-dimensional image, and visualized as a segmented three-dimensional image using the three-dimensional segmentation result. In this case, only the volume corresponding to the 3D segmentation result may be selected and visualized as a 3D image, or only a portion except the volume corresponding to the 3D segmentation result may be selected and visualized as a 3D image.

한편, 3차원영상을 화면에 디스플레이하기 위해 사용되는 가시화 엔진은 VR엔진, MIP엔진 및 MinIP엔진을 사용하는 것이 가능하다. 'VR엔진'은 볼륨렌더링(Volume Rendering) 엔진을 말하며, 3차원 데이터를 레이_트레이싱(ray tracing)과 같은 볼륨렌더링(volume rendering) 방법에 의해 투영되는 영상을 비트맵(bitmap)으로 만들어 화면에 보여주고, 'MIP엔진'은 최대밝기표시(Maximum Intensity Projection)엔진을 말하며, 레이_트레이싱(ray tracing)으로 만나는 모든 3차원 복셀(voxel)들 중에서 밝기값이 최대가 되는 복셀이 투영(projection)되는 화면의 화소에 대한 밝기값을 기준으로 하여 비트맵(bitmap)을 만들어 화면에 보여주고, 'MinIP엔진'은 최소밝기표시(Minimum Intensity Projection)엔진을 말하며, 레이_트레이싱(ray tracing)으로 만나는 모든 3차원 복셀(voxel)들 중에서 밝기값이 최소가 되는 것이 투영(projection)되는 화면의 화소에 대한 밝기값을 기준으로 하여 비트맵(bitmap)을 만들어 화면에 보여준다.On the other hand, the visualization engine used to display a three-dimensional image on the screen it is possible to use a VR engine, MIP engine and MinIP engine. The 'VR engine' refers to a volume rendering engine. The VR engine is a bitmap of an image projected by a volume rendering method such as ray tracing. 'MIP engine' refers to the Maximum Intensity Projection engine, and the voxel whose brightness is the highest among all three-dimensional voxels encountered by ray tracing is projected. Creates a bitmap and displays it on the screen based on the brightness value of the pixels on the screen, and 'MinIP engine' refers to the minimum intensity projection engine, and meets with ray tracing. Among all three-dimensional voxels, the minimum brightness value is based on the brightness value of the pixel of the projected screen, and a bitmap is displayed on the screen.

위치표시부(520)는 2차원표시제어부에서 디스플레이하고 있는 슬라이스의 2차원영상의 위치를 3차원영상 상에 직선으로 표시한다. 위치표시부(520)는 2차원영상표시제어부(400)의 위치선택부('도 2'의 410)와 슬라이스 위치정보(Slice Number)를 상호 교환한다. 따라서, 2차원영상표시제어부(400)에서 표시하는 영상이 변경되면, 그 때의 슬라이스 위치정보에 의거하여 위치표시부(520)는 3차원영상 상의 직선표시위치를 이동시키고, 위치표시부(520)에서 슬라이스 위치를 표시하기 위한 직선을 이동시키면, 그 때의 슬라이스 위치정보에 의거하여 2차원영상표시제어부(400)의 표시 영상이 변경된다.The position display unit 520 displays the position of the 2D image of the slice displayed by the 2D display controller in a straight line on the 3D image. The position display unit 520 exchanges the slice position information (Slice Number) and the position selection unit 410 of the 2D image display control unit 400. Therefore, when the image displayed by the 2D image display control unit 400 is changed, the position display unit 520 moves the linear display position on the 3D image based on the slice position information at that time, and the position display unit 520 When the straight line for displaying the slice position is moved, the display image of the 2D image display control unit 400 is changed based on the slice position information at that time.

3차원분할부(530)는 사용자 인터페이스부('도 1'의 100)를 통해 선택된 선택정보에 의거하여 3차원영상에 대한 분할을 수행한다. 예를 들어, 사용자가 마우스 등을 이용하여 3차원영상 상의 원하는 영역을 선택하면, 3차원분할부(530)는 그 영역에 대한 분할을 수행한다. 이 때, 3차원분할부(530)는 3차원 볼륨 자체의 특성을 이용하여 분할을 수행하며, 수행된 분할결과를 분할결과 배열에 저장한다. 즉, 3차원분할부(530)는 연결성과 동질성의 특성을 만족하는 3차원 볼륨을 한 개의 객체로 분할하고, 이렇게 분할된 객체는 3차원 분할결과 배열에 그 객체를 구성하는 배열의 위치에 분할객체의 ID를 저장한다. 또한, 3차원분할부(530)는 3차원 분할결과를 2차원영상표시제어부(400)로 전달하여 3차원분할결과가 2차원영상에서도 적용될 수 있도록 한다.The 3D splitter 530 divides the 3D image based on the selection information selected through the user interface unit 100 of FIG. 1. For example, when a user selects a desired area on the 3D image using a mouse or the like, the 3D splitter 530 divides the area. At this time, the 3D splitter 530 performs the split using the characteristics of the 3D volume itself, and stores the split result in the split result array. That is, the three-dimensional partitioning unit 530 divides the three-dimensional volume that satisfies the characteristics of connectivity and homogeneity into one object, and the divided object is divided at the position of the array constituting the object in the three-dimensional partitioning result array. Stores the ID of the object. In addition, the 3D splitter 530 transmits the 3D split result to the 2D image display controller 400 so that the 3D split result can be applied to the 2D image.

따라서, 2차원 I/F(540)는 2차원영상표시제어부(400)로부터 2차원영상정보를 전달받아 3차원가시화부(510)로 전달하고, 2차원영상표시제어부(400)로부터 2차원 슬라이스 위치정보를 전달받아 위치표시부(520)로 전달하고, 3차원분할부(530)로부터 3차원분할결과를 전달받아 2차원영상표시제어부(400)로 전달한다.Therefore, the 2D I / F 540 receives the 2D image information from the 2D image display control unit 400 and transmits the 2D image information to the 3D visualization unit 510 and the 2D slice from the 2D image display control unit 400. The location information is received and transmitted to the location display unit 520, and the 3D division result is received from the 3D division unit 530 and transferred to the 2D image display control unit 400.

한편, 디스플레이제어부(550)는 3차원가시화부(510), 위치표시부(520) 및 3차원분할부(530)의 처리 결과에 의거하여 3차원영상을 화면에 디스플레이하도록 제어한다.Meanwhile, the display controller 550 controls to display the 3D image on the screen based on the processing result of the 3D visualization unit 510, the position display unit 520, and the 3D divider 530.

도 4는 본 발명의 실시예에 따른 의료영상분할방법에 대한 처리 흐름도이다. 도 4를 참조하면, 본 발명의 실시예에 따른 의료영상분할방법은 다음과 같다. 먼저, 분할대상이 되는 의료영상정보가 3차원적 위치함수로 표시되는 볼륨데이터로 입력되면(s100), 그 의료영상정보로부터 2차원 및 3차원영상을 각각 도출하여 별도의 디스플레이를 통해 2차원 및 3차원영상을 디스플레이한다(s110). 이 때, 볼륨데이터는 CT나 MRI 단면 스캐닝 등에 의해 생성된다. 한편, 그 의료영상정보로부터 2차원 및 3차원영상을 도출하는 구체적인 과정은 이미 공지된 기술이므로 본 명세서에서는 그 구체적인 설명을 생략한다.4 is a flowchart illustrating a medical image segmentation method according to an exemplary embodiment of the present invention. 4, the medical image segmentation method according to an embodiment of the present invention is as follows. First, when the medical image information to be divided into the volume data represented by the three-dimensional position function (s100), the two-dimensional and three-dimensional images are derived from the medical image information, respectively, and the two-dimensional and The 3D image is displayed (s110). At this time, the volume data is generated by CT, MRI cross-sectional scanning, or the like. On the other hand, the specific process of deriving the two-dimensional and three-dimensional image from the medical image information is already known technology, so the detailed description thereof will be omitted.

그리고, 2차원 및 3차원영상으로 표시된 의료영상 중 어느 하나의 소정영역에 대한 분할이 요청되면(s120), 그에 대한 응답으로 분할을 수행한 후, 그 분할결과를 2차원과 3차원영상 모두에게 적용한다(s130 내지 s190).When a segmentation of a predetermined region of a medical image displayed as a 2D and 3D image is requested (s120), the segmentation is performed in response to the segmentation, and the segmentation result is transmitted to both 2D and 3D images. Apply (s130 to s190).

즉, 사용자가 소정영역을 선택한 후, 그 영역에 대한 분할을 요청하면(s120), 사용자의 작업영역에 따라(s130), 작업영역이 2차원영상표시영역이면 2차원영상분할을 수행하고(s140), 작업영역이 3차원영상표시영역이면 3차원영상분할을 수행한다(s170). 그리고, 그 각각의 영상분할 결과를 다른 차원의 영상에도 적용한다(s150, s180). 다시 말하면, 2차원영상의 분할결과를 3차원영상에 적용하고(s150), 3차원영상의 분할결과를 2차원영상에 적용한다(s180). 다만, 2차원영상에 대한 분할을 수행한 경우, 그 분할정보를 슬라이스 단위로 별도 저장/관리하는 과정(s160)을 더 수행한다. 이는 2차원영상을 분할하기 위해 임의의 슬라이스가선택된 경우, 그 슬라이스에 대한 분할을 수행하기 위해 그 이전 슬라이스에 대한 분할정보를 참조할 수 있도록 하기 위함이다.That is, when the user selects a predetermined area and requests division of the area (s120), according to the user's work area (s130), if the work area is a two-dimensional image display area, two-dimensional image division is performed (s140). If the work area is a 3D image display area, 3D image segmentation is performed (S170). The respective image segmentation results are also applied to images of different dimensions (S150 and S180). In other words, the segmentation result of the 2D image is applied to the 3D image (s150), and the segmentation result of the 3D image is applied to the 2D image (s180). However, when segmentation is performed on the 2D image, the process of separately storing / managing the segmentation information in slice units is further performed. This is because when a slice is selected for dividing the 2D image, the split information of the previous slice can be referred to in order to divide the slice.

이와 같이 의료영상의 소정영역에 대한 분할이 이루어진 후, 사용자의 수작업에 의한 수정작업이 요청된 경우, 그에 대한 수정작업을 수행하는데, 이 때, 수정을 위해 선택된 모든 영역에 대한 수정을 수행하는 것이 아니라, 수정을 위해 선택된 영역 중 기 설정된 수정조건들을 만족하는 영역만을 분할에 적용한다. 즉, 조건부 수정을 수행한다(s190). 예를 들어, 밝기값이 수정조건으로 선택된 경우, 최대 밝기값과 최소 밝기값으로 설정된 밝기값의 범위 안에 있는 화소들만이 수정되는 것이다. 즉, 밝기값이 조건에 만족하는 화소만이 수정된다.In this way, after the division of the predetermined region of the medical image is made, if a correction operation is requested by a user's manual operation, the correction operation is performed. In this case, the correction for all regions selected for correction is performed. Rather, only the region satisfying the preset correction conditions among the regions selected for the correction is applied to the partition. That is, conditional correction is performed (s190). For example, when the brightness value is selected as the correction condition, only pixels within the range of the brightness value set to the maximum brightness value and the minimum brightness value are modified. That is, only pixels whose brightness value satisfies the condition are corrected.

도 5는 본 발명의 실시예에 따른 2차원영상 분할과정(s140)에 대한 처리 흐름도이다. 도 5를 참조하면, 2차원영상 분할과정(s140) 수행시 사용자가 분할하고자 하는 영역에 대한 영역보호 기능을 선택한 경우(s141), 그 분할대상영역의 인접영역을 먼저 분할하여(s142), 그 분할된 영역을 라벨링한 후, 보호영역으로 별도 관리한다(s143). 그 후, 분할대상영역으로 설정된 영역에 대한 분할을 수행한다(s144). 이 때, 상기 과정(s142, s143)에서 보호영역으로 관리되는 영역은 분할대상역역에서 제외한다. 이로써, 분할대상영역으로 설정된 영역을 분할하고자 할 때, 설정된 영역 이외의 영역이 분할에 포함되는 것을 방지할 수 있는 것이다.5 is a flowchart illustrating a two-dimensional image segmentation process s140 according to an embodiment of the present invention. Referring to FIG. 5, when the user selects an area protection function for a region to be divided when performing the 2D image segmentation process (S140) (S141), the adjacent region of the region to be divided is first divided (S142). After labeling the divided areas, the divided areas are separately managed (S143). Thereafter, division is performed on the area set as the division target area (s144). At this time, the area managed as the protected area in the process (s142, s143) is excluded from the division target area. Thus, when the area set as the division target area is to be divided, it is possible to prevent the area other than the set area from being included in the division.

도 5의 예에서는 2차원영상분할과정(s140)에 대한 설명만 언급되었지만, 이러한 과정은 3차원영상분할과정(s170)에서도 동일하게 수행된다.In the example of FIG. 5, only the description of the 2D image segmentation process s140 is mentioned, but this process is also performed in the 3D image segmentation process s170.

한편, 2차원영상분할 및 3차원영상분할시 서로 다른 종류의 분할을 수행한경우, 그 분할의 종류별로 각 분할을 수행하기 위해 설정된 분할정보들은 별도로 관리한다. 이는 분할을 위해 설정된 설정값들 중 각 분할의 종류별로 서로 다르게 설정되는 값들도 있지만, 모든 분할에 공통적으로 적용되는 값들도 있기 때문에 이들을 별도로 관리함으로써, 분할을 보다 효율적으로 수행할 수 있도록 하기 위함이다.Meanwhile, when different types of division are performed during 2D image segmentation and 3D image segmentation, segmentation information set to perform each segmentation according to the type of segmentation is separately managed. This is because some of the set values for division are set differently for each type of division, but there are values that are commonly applied to all divisions so that they can be managed more efficiently by managing them separately. .

도 6은 본 발명의 실시예에 따른 조건부수정과정(s190)에 대한 처리 흐름도이다. 도 6을 참조하면, 조건부수정을 위해서는 사용자가 수정작업을 수행한 경우(s191), 수정된 영역 중 조건에 맞는 영역을 선택하여(s192), 선택된 영역의 수정내용만을 분할에 포함시킨다(s193).6 is a flowchart illustrating a conditional modification process s190 according to an embodiment of the present invention. Referring to FIG. 6, when the user performs a correction operation (s191), the user selects an area suitable for a condition from the modified area (s192), and includes only the modifications of the selected area in the partition (s193). .

도 7 내지 도 12e는 본 발명의 실시예에 따른 의료영상분할장치의 동작과정을 설명하기 위한 예시화면들이다.7 to 12E are exemplary screens for describing an operation process of a medical image splitting apparatus according to an exemplary embodiment of the present invention.

먼저, 도 7은 2차원영상과 3차원영상을 동시에 디스플레이하는 화면에 대한 예시화면이다. 도 7을 참조하면, 화면 좌측의 영상표시 영역에는 2차원영상을 디스플레이하고, 화면 우측의 영상표시영역에는 3차원영상을 디스플레이하고 있다. 이처럼 2차원영상과 3차원영상을 동시에 디스플레이함으로써, 사용자는 해당 영상에 대한 진단을 보다 정확하게 할 수 있는 것이다.First, FIG. 7 is an exemplary screen of a screen displaying a 2D image and a 3D image simultaneously. Referring to FIG. 7, a 2D image is displayed in an image display area on the left side of the screen, and a 3D image is displayed in an image display area on the right side of the screen. By simultaneously displaying two-dimensional and three-dimensional images, the user can more accurately diagnose the image.

도 8a 내지 도 8c는 3차원영상의 분할결과를 2차원영상에 적용하는 화면에 대한 예시화면들이다. 먼저, 도 8a를 참조하면, 화면 우측의 3분할된 영역에는 CT 또는 MRI 등에 의해 스캐닝된 MPR 이미지가 디스플레이되고 있고, 화면 좌측의 영역에는 화면 우측의 MPR 이미지에 대한 3차원영상이 디스플레이되고 있다.8A to 8C are exemplary screens of a screen for applying a segmentation result of a 3D image to a 2D image. First, referring to FIG. 8A, an MPR image scanned by CT or MRI is displayed in a three-divided area on the right side of the screen, and a three-dimensional image of the MPR image on the right side of the screen is displayed in an area on the left side of the screen.

도 8b는 도 8a에 도시된 3차원영상에 대한 분할결과에 대한 예시화면이다. 도 8b를 참조하면, 도 8a의 3차원영상표시 영역에서 소정의 관심영역을 선택한 경우, 화면 좌측의 영역에 나타난 바와 같이, 해당 영역만을 분할하여 디스플레이하고 있다.FIG. 8B is an exemplary screen illustrating a segmentation result of the 3D image illustrated in FIG. 8A. Referring to FIG. 8B, when a predetermined ROI is selected from the 3D image display area of FIG. 8A, only the corresponding area is divided and displayed as shown in the area on the left side of the screen.

도 8c는 도 8b와 같은 3차원 분할결과를 2차원영상에 적용한 예를 나타내는 예시화면이다. 도 8c는 도 8b의 3차원 분할결과 표시영역에 표시된 3차원영상을 가로선으로 절단한 결과에 대한 2차원영상을 순차적으로 디스플레이하고 있다.FIG. 8C is an exemplary screen illustrating an example of applying the 3D division result as shown in FIG. 8B to a 2D image. FIG. 8C sequentially displays a two-dimensional image of a result of cutting the three-dimensional image displayed in the three-dimensional segmentation result display region of FIG. 8B by horizontal lines.

도 9는 연속된 두 개의 슬라이스 영상에 분할정보가 전달되는 예를 나타내기 위한 예시화면이다. 즉, 도 9의 화면 좌측에는 현재 슬라이스 영상이 디스플레이되고 있고, 화면 우측에는 다음 슬라이스 영상이 디스플레이되고 있다. 도 9를 참조하면, 현재 슬라이스(화면 좌측)에 적용된 분할방법인 SRG(Seeded Region Growing) 방법이 다음 슬라이스(화면 우측)에 전달된 경우, SRG 방법에 의한 분할을 수행하기 위해 화면 좌측에서 설정된 씨앗점(A)이 화면 우측에 전달되어 화면 우측의 화면이 그 씨앗점(A)에 의해 자동으로 분할되는 것을 알 수 있다.9 is an exemplary screen illustrating an example in which split information is transferred to two consecutive slice images. That is, the current slice image is displayed on the left side of the screen of FIG. 9, and the next slice image is displayed on the right side of the screen. 9, when the Seed Region Growing (SRG) method, which is the division method applied to the current slice (the left side of the screen), is transferred to the next slice (the right side of the screen), the seed set at the left side of the screen to perform the division by the SRG method It can be seen that the point A is delivered to the right side of the screen so that the screen on the right side of the screen is automatically divided by its seed point A. FIG.

도 10a 및 도 10b는 서로 다른 분할방법들 간 옵션을 공유하는 예를 나타내기 위한 예시화면들이다. 도 10a 및 도 10b를 참조하면, 도 10a에서 쓰레스홀딩(Thresholding)을 수행하기 위해 설정한 분할 옵션 변수들이 도 10b의 2차원 영역확장(region growing)을 수행하기 위해 그대로 사용됨을 알 수 있다. 즉, 도 10a 및 도 10b의 의료영상 표시영역 하단에 위치한 옵션 설정영역(B)에 설정된 옵션값들이 공통적으로 사용되고 있다.10A and 10B are exemplary screens illustrating an example of sharing options between different division methods. 10A and 10B, it can be seen that the segmentation option variables set for performing thresholding in FIG. 10A are used to perform 2D region growing of FIG. 10B. That is, option values set in the option setting area B located below the medical image display area of FIGS. 10A and 10B are commonly used.

도 11a 및 도 11b는 조건부 수정을 수행하는 예를 나타내기 위한 예시화면들이다. 도 11a는 관심영역을 설정한 경우에 대한 예시화면이고, 도 11b는 도 11a에서 설정한 관심영역 중 조건에 맞는 영역만을 분할에 포함한 경우에 대한 예시화면이다. 즉, 도 11a에서 하얀색으로 표시된 부분이 관심영역으로 설정된 부분으로서, 척추뼈와 근육 등이 관심영역에 포함되어 있고, 도 11b는 그 관심영역 중 척추뼈 만을 제외한 경우를 보여준다.11A and 11B are exemplary screens illustrating an example of performing conditional correction. FIG. 11A illustrates an example screen for setting a region of interest, and FIG. 11B illustrates an example screen for including only a region that meets a condition among the regions of interest set in FIG. 11A. That is, the portion marked in white in FIG. 11A is a region set as the region of interest, and vertebrae and muscles are included in the region of interest, and FIG. 11B illustrates a case in which only the vertebrae are excluded from the region of interest.

도 12a 내지 도 12e는 영역보호기능에 의한 영상분할의 예를 보여주는 예시화면들이다. 즉, 도 12a 내지 도 12e는 전체 의료영상 중 척추표시영역만을 분할하기 위해, 영역보호기능을 선택한 경우에 대한 예시화면이다. 먼저, 도 12a는 척추와 연결되어 있는 혈관표시영역을 분할한 결과를 나타내고, 도 12b는 도 12a에서 분할된 영역(혈관)을 보호(Protection)시킨 결과를 나타내고, 도 12c는 SRG 방법에 의해 척추표시영역을 3차원분할 한 결과를 나타내고, 도 12d는 도 12b에서 보호된 혈관표시영역을 해제시킨 결과를 나타내고, 도 12e는 척추표시영역만을 분할하여 제거한 최종결과를 나타낸다.12A to 12E are exemplary screens showing an example of image segmentation by the area protection function. That is, FIGS. 12A to 12E are exemplary screens of the case where the area protection function is selected to divide only the spine display area of the entire medical image. First, FIG. 12A shows a result of dividing a blood vessel display area connected to the spine, and FIG. 12B shows a result of protecting a divided area (vessel) in FIG. 12A, and FIG. 12C shows a spine by the SRG method. FIG. 12D shows the result of releasing the protected blood vessel display area in FIG. 12B, and FIG. 12E shows the final result by dividing and removing only the spine display area.

이상의 설명은 하나의 실시예를 설명한 것에 불과하고, 본 발명은 상술한 실시예에 한정되지 않으며 첨부한 특허청구범위 내에서 다양하게 변경 가능한 것이다. 예를 들어 본 발명의 실시예에 구체적으로 나타난 각 구성 요소의 형상 및 구조는 변형하여 실시할 수 있는 것이다.The above description is only for explaining one embodiment, and the present invention is not limited to the above-described embodiment and can be variously changed within the scope of the appended claims. For example, the shape and structure of each component specifically shown in the embodiment of the present invention can be modified.

이상에서 설명한 바와 같이 본 발명에 따른 의료영상분할장치 및 그 방법은각 차원의 영상을 분할할 때, 그 차원의 가시화정보 및 다른 차원의 가시화정보를 활용할 수 있도록 함으로써, 보다 광범위한 사용자 인터페이스를 제공한다는 장점이 있다. 예를 들어, 본 발명의 의료영상분할장치 및 그 방법을 이용하여 2차원영상을 분할하고자 하는 경우, 2차원영상의 가시화정보 및 3차원영상의 가시화정보를 모두 활용할 수 있다.As described above, the medical image splitting apparatus and the method according to the present invention provide a wider user interface by allowing the visualization information of the dimension and the visualization information of the other dimension to be utilized when dividing the image of each dimension. There is an advantage. For example, when the 2D image is to be divided using the medical image splitting apparatus and the method of the present invention, both the visualization information of the 2D image and the visualization information of the 3D image may be utilized.

또한, 분할종류별 분할도구들과 수정작업을 위한 그리기도구가 서로 유기적으로 동작하도록 함으로써, 영상의 분할 및 수정작업을 보다 능률적으로 수행할 수 있도록 한다는 장점이 있다. 예를 들어, 분할 종류별 분할도구들 및 그리기도구 각각의 동작환경을 동시에 설정할 수 있고, 각 분할도구 및 그리기도구의 처리결과를 통합 관리함으로써, 시너지효과를 극대화할 수 있다.In addition, there is an advantage that the segmentation tools for each type of division and the drawing tools for the correction operation can be organically operated, so that the segmentation and correction of the image can be performed more efficiently. For example, the operation environment of each of the division tools and the drawing tools for each division type can be set at the same time, and the synergy effect can be maximized by the integrated management of the processing results of the division tools and the drawing tools.

Claims (9)

의료영상분할장치에 있어서,In the medical image splitting apparatus, 사용자와의 인터페이스를 제공하는 사용자 인터페이스부와,A user interface unit providing an interface with a user, 의료영상에 대한 정보를 3차원적 위치의 함수로 표시되는 볼륨데이터로 입력하는 볼륨데이터입력부와,A volume data input unit for inputting information about the medical image as volume data displayed as a function of three-dimensional position; 상기 볼륨데이터입력부로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상의 소정위치에 대한 2차원영상을 생성하여 표시하고, 그 2차원영상에 대한 분할을 수행하는 2차원영상표시제어부와,A 2D image display control unit which receives volume data of a medical image from the volume data input unit, generates and displays a 2D image of a predetermined position of the medical image, and divides the 2D image; 상기 볼륨데이터입력부로부터 의료영상에 대한 볼륨데이터를 전달받아 그 의료영상에 대한 3차원영상을 생성하여 표시하고, 그 3차원영상에 대한 분할을 수행한 후 그 결과를 상기 2차원영상표시제어부로 전달하며, 상기 2차원영상표시제어부로부터 상기 2차원영상의 위치정보 및 2차원영상의 분할결과를 전달받아 상기 3차원영상에 표시하는 3차원영상표시제어부와,Receives the volume data of the medical image from the volume data input unit, generates and displays a 3D image of the medical image, divides the 3D image, and transfers the result to the 2D image display control unit. A 3D image display control unit which receives the position information of the 2D image and the division result of the 2D image from the 2D image display control unit and displays the 3D image on the 3D image; 상기 사용자 인터페이스부를 통해 입력되는 사용자의 조작신호에 의거하여 상기 2차원영상표시제어부 및 3차원영상표시제어부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 의료영상분할장치.And a controller configured to control operations of the 2D image display controller and the 3D image display controller based on a user's manipulation signal input through the user interface. 제1항에 있어서, 상기 2차원영상표시제어부는The display apparatus of claim 1, wherein the 2D image display control unit 상기 3차원영상표시제어부로부터 전달된 3차원영상에 대한 분할결과를 현재표시하고 있는 2차원영상에 표시하는 것을 특징으로 하는 의료영상분할장치.And a division result of the three-dimensional image transmitted from the three-dimensional image display control unit is displayed on the two-dimensional image currently displayed. 제1항에 있어서, 상기 2차원영상표시제어부는The display apparatus of claim 1, wherein the 2D image display control unit 상기 사용자 인터페이스부를 통해 선택된 선택정보에 의해 2차원영상에 대한 분할을 수행하는 2차원분할부와,A two-dimensional splitter for dividing the two-dimensional image by the selection information selected through the user interface unit; 분할의 종류별로 공통적으로 적용되는 상기 2차원분할부의 동작환경정보들 및 분할의 종류에 따른 2차원영상의 분할결과들을 별도로 관리하는 공통관리부를 포함하는 것을 특징으로 하는 의료영상분할장치.And a common manager which separately manages operation environment information of the two-dimensional division unit and division results of the two-dimensional image according to the type of division. 제3항에 있어서, 상기 2차원분할부는The method of claim 3, wherein the two-dimensional partition is 상기 선택정보에 의해 설정된 분할대상영역을 보호하기 위해, 상기 분할대상영역의 인접영역을 먼저 분할하고, 그 분할영역을 보호영역으로 설정한 후, 상기 분할대상영역에 대한 분할을 수행하는 것을 특징으로 하는 의료영상분할장치.In order to protect the segmentation target region set by the selection information, the neighboring region of the segmentation target region is first divided, the segmentation region is set as a protection region, and the segmentation is performed on the segmentation target region. Medical image splitting device. 제3항에 있어서, 상기 2차원영상표시제어부는The display apparatus of claim 3, wherein the 2D image display control unit 상기 사용자 인터페이스부를 통해 선택된 선택정보에 의해 2차원영상의 소정영역에 대한 영상이 수정된 경우, 그 수정된 영역 중 기 설정된 수정조건들을 만족하는 영역만을 분할에 적용하는 수정부와,A correction unit for applying to the partition only an area that satisfies preset correction conditions among the modified areas when the image of the predetermined area of the 2D image is modified by the selection information selected through the user interface unit; 상기 수정조건들을 저장 관리하고, 상기 수정부의 요청에 따라 그 수정조건들을 상기 수정부에게 제공하는 조건관리부를 더 포함하는 것을 특징으로 하는 의료영상분할장치.And a condition management unit for storing and managing the correction conditions and providing the correction conditions to the correction unit at the request of the correction unit. 의료영상분할방법에 있어서,In the medical image segmentation method, 의료영상에 대한 정보를 3차원적 위치함수로 표시되는 볼륨데이터로 입력받는 제1 과정과,A first process of receiving information about the medical image as volume data represented by a three-dimensional position function; 상기 볼륨데이터로부터 의료영상에 대한 2차원 및 3차원영상을 생성하여 화면에 디스플레이하는 제2 과정과,A second process of generating two-dimensional and three-dimensional images of the medical image from the volume data and displaying them on the screen; 상기 디스플레이된 2차원 및 3차원영상 중 어느 하나의 소정영역에 대한 분할이 요청되면, 그에 대한 응답으로 분할을 수행한 후, 그 분할결과를 2차원과 3차원영상 모두에게 적용하는 제3 과정과,When a segmentation of any one of the displayed 2D and 3D images is requested, the process is performed in response to the segmentation, and then the segmentation process is applied to both 2D and 3D images. , 상기 분할된 영상의 소정영역에 대한 수정 작업이 요청된 경우, 그에 대한 응답으로 수정을 수행한 후, 그 수정된 영역 중 기 설정된 수정조건들을 만족하는 영역만을 분할에 적용하는 제4 과정을 포함하는 것을 특징으로 하는 의료영상분할방법.If a correction operation is requested for a predetermined region of the divided image, performing a modification in response thereto, and then applying only a region of the modified region that satisfies preset modification conditions to the division; Medical image segmentation method characterized in that. 제6항에 있어서, 상기 제3 과정은The method of claim 6, wherein the third process is 분할이 요청된 분할대상영역을 보호하기 위해, 상기 분할대상영역의 인접영역을 먼저 분할하고, 그 분할영역을 보호영역으로 설정한 후, 상기 분할대상영역에 대한 분할을 수행하는 것을 특징으로 하는 의료영상분할방법.In order to protect the segmentation target area that is requested to be divided, the neighboring area of the segmentation target area is first divided, the segmentation area is set as a protection area, and then the segmentation is performed on the segmentation target area. Image segmentation method. 제6항에 있어서, 상기 제3 과정은The method of claim 6, wherein the third process is 2차원영상에 대한 분할을 수행한 경우, 상기 2차원영상에 대한 분할을 수행하기 위해 선택된 분할정보를, 다음 2차원영상 분할 수행시 참조하기 위해, 별도로 저장관리하는 과정을 더 포함하는 것을 특징으로 하는 의료영상분할방법.In the case of performing division on the 2D image, the method further includes separately storing and managing the divided information selected to perform the division on the 2D image for reference when performing the next 2D image segmentation. Medical image segmentation method. 제6항에 있어서, 상기 제3 과정은The method of claim 6, wherein the third process is 분할의 종류별로 각각의 분할을 수행하기 위해 선택된 분할정보 및 분할결과들을, 다음 분할 수행시 참조하기 위해, 별도로 저장관리하는 과정을 더 포함하는 것을 특징으로 하는 의료영상분할방법.And storing and managing the segmentation information and the segmentation results selected to perform each segmentation according to the type of segmentation separately for reference in the next segmentation.
KR10-2002-0015012A 2001-11-23 2002-03-20 Medical image segmentation apparatus and method thereof KR100428234B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2002/002106 WO2003043490A1 (en) 2001-11-23 2002-11-11 Medical image segmentation apparatus and method thereof
AU2002366041A AU2002366041A1 (en) 2001-11-23 2002-11-11 Medical image segmentation apparatus and method thereof
US10/466,884 US7386153B2 (en) 2001-11-23 2002-11-11 Medical image segmentation apparatus and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20010073512 2001-11-23
KR1020010073512 2001-11-23

Publications (2)

Publication Number Publication Date
KR20030043572A KR20030043572A (en) 2003-06-02
KR100428234B1 true KR100428234B1 (en) 2004-04-28

Family

ID=29571203

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0015012A KR100428234B1 (en) 2001-11-23 2002-03-20 Medical image segmentation apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR100428234B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102526487B1 (en) 2022-06-22 2023-04-27 주식회사 에어스메디컬 Method, program, and apparatus for processing medical data for training of deep learning model

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708835B1 (en) * 2003-10-23 2007-04-17 삼성에스디아이 주식회사 Image display device and displaying method
KR101015576B1 (en) * 2008-12-30 2011-02-17 홍성산업 주식회사 A metal tube for the ceiling
KR101864411B1 (en) * 2017-12-28 2018-06-04 (주)휴톰 Program and method for displaying surgical assist image
CN117224231B (en) * 2023-11-16 2024-02-13 四川大学华西医院 Vascular exposure analysis device for hepatectomy dissection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970027074U (en) * 1995-12-19 1997-07-24 Medical video signal transmission device
JPH11137532A (en) * 1997-11-12 1999-05-25 Ge Yokogawa Medical Systems Ltd Mr imaging method and mri apparatus
US5923789A (en) * 1996-08-07 1999-07-13 General Electric Company Band limited interpolation and projection of spatial 3-D images
KR20020041577A (en) * 2000-11-28 2002-06-03 송철규 Virtual reality endoscopy method using 3D image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970027074U (en) * 1995-12-19 1997-07-24 Medical video signal transmission device
US5923789A (en) * 1996-08-07 1999-07-13 General Electric Company Band limited interpolation and projection of spatial 3-D images
JPH11137532A (en) * 1997-11-12 1999-05-25 Ge Yokogawa Medical Systems Ltd Mr imaging method and mri apparatus
KR20020041577A (en) * 2000-11-28 2002-06-03 송철규 Virtual reality endoscopy method using 3D image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102526487B1 (en) 2022-06-22 2023-04-27 주식회사 에어스메디컬 Method, program, and apparatus for processing medical data for training of deep learning model

Also Published As

Publication number Publication date
KR20030043572A (en) 2003-06-02

Similar Documents

Publication Publication Date Title
US7386153B2 (en) Medical image segmentation apparatus and method thereof
US5166876A (en) System and method for detecting internal structures contained within the interior region of a solid object
US6396939B1 (en) Method and system for segmentation of medical images
US6771840B1 (en) Apparatus and method for identifying the points that lie on a surface of interest
US7924279B2 (en) Protocol-based volume visualization
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
US20180308291A1 (en) Contouring tool having automatic interpolation and extrapolation
US5671157A (en) Method and system for displaying three dimensional images
CN111063424B (en) Intervertebral disc data processing method and device, electronic equipment and storage medium
JP5399225B2 (en) Image processing apparatus and method, and program
US9129391B2 (en) Semi-automated preoperative resection planning
EP2116977A2 (en) Method for editing 3D image segmentation maps
US20060239523A1 (en) Radiographic imaging display apparatus and method
EP0420546A2 (en) Manipulating image data
CN109712252B (en) Image editing method, device, computer equipment and storage medium
US20180047168A1 (en) Image processing apparatus and image processing method
JP2011523147A (en) Image processing, in particular a method and apparatus for processing medical images
US20070237038A1 (en) Range-Peeling For Punching Masks in Volume Rendering
Nowinski et al. A 3D model of human cerebrovasculature derived from 3T magnetic resonance angiography
US20100034448A1 (en) Method And Apparatus For Frame Interpolation Of Ultrasound Image In Ultrasound System
KR100428234B1 (en) Medical image segmentation apparatus and method thereof
JP5122650B2 (en) Path neighborhood rendering
US6392646B1 (en) Iterative determination of the shortest path between two points on a polygonal surface
EP0373854B1 (en) Apparatus and method for detecting internal structures contained within the interior region of a solid object
JP2005050336A (en) Method for providing vector image with removed black bar

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130327

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140410

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160405

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20170404

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20190329

Year of fee payment: 16