KR20210080244A - Device and method for modeling three-dimensional organ by image segmentation - Google Patents

Device and method for modeling three-dimensional organ by image segmentation Download PDF

Info

Publication number
KR20210080244A
KR20210080244A KR1020200178173A KR20200178173A KR20210080244A KR 20210080244 A KR20210080244 A KR 20210080244A KR 1020200178173 A KR1020200178173 A KR 1020200178173A KR 20200178173 A KR20200178173 A KR 20200178173A KR 20210080244 A KR20210080244 A KR 20210080244A
Authority
KR
South Korea
Prior art keywords
region
image data
interest
blocks
organ
Prior art date
Application number
KR1020200178173A
Other languages
Korean (ko)
Other versions
KR102409464B1 (en
Inventor
서안나
이종민
정영진
Original Assignee
(주)시안솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)시안솔루션 filed Critical (주)시안솔루션
Priority to PCT/KR2020/018694 priority Critical patent/WO2021125889A1/en
Publication of KR20210080244A publication Critical patent/KR20210080244A/en
Application granted granted Critical
Publication of KR102409464B1 publication Critical patent/KR102409464B1/en
Priority to US17/844,517 priority patent/US20220392076A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

The present invention relates to a method for three-dimensional modeling of an organ through image segmentation performed by an apparatus. The method for three-dimensional modeling of an organ through image segmentation comprises the steps of: receiving medical image data for a specific body organ of an object; setting a region of interest for the body organ based on the medical image data; forming one or more blocks corresponding to the region of interest; setting a segmentation algorithm for each of the blocks; generating first image data of each of the three-dimensional modeling of the parts included in each block based on the algorithm set in each of the blocks; and merging each of the first image data to generate second image data in a three-dimensional form for the entire body.

Description

영상 분할을 통한 기관의 3차원 모델링 장치 및 방법{DEVICE AND METHOD FOR MODELING THREE-DIMENSIONAL ORGAN BY IMAGE SEGMENTATION}Device and method for 3D modeling of organs through image segmentation {DEVICE AND METHOD FOR MODELING THREE-DIMENSIONAL ORGAN BY IMAGE SEGMENTATION}

본 발명은 영상 분할을 통한 기관의 3차원 모델링 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for 3D modeling of an organ through image segmentation.

생체장기모사기술은 심장, 폐 간 등의 인체 내부의 장기를 모방하는 기술이다. 생체장기모사기술은 배양된 세포나 동물실험에 의존하는 기존의 임상시험의 단점을 보완할 수 있는 기술로 주목받고 있다. 생체장기모사기술을 통해 인체 내부 장기를 실제와 유사하게 제작하고 주변 환경을 재현하여 실제 장기가 작동하는 시스템을 구현하여 임상시험을 진행하면 안전성은 물론 실제 인체장기가 작동하는 생리환경을 보다 정확하게 반영할 수 있고, 동물실험에서 발생하는 윤리적 문제와 비용, 시간, 결과의 부정확함 등을 해결할 수 있는 장점이 있다.The living organ imitation technology is a technology that imitates internal organs such as the heart, lungs and liver. In vivo organ simulating technology is attracting attention as a technology that can compensate for the shortcomings of existing clinical trials that rely on cultured cells or animal experiments. Through biological organ simulating technology, internal organs of the human body are produced similarly to the real thing, and the surrounding environment is reproduced to implement a system in which the actual organs operate and conduct clinical trials to reflect safety as well as the physiological environment in which actual human organs operate more accurately. It has the advantage of being able to solve the ethical problems, cost, time, and inaccuracy of results that arise from animal experiments.

장기모형은 장기의 실제 형상과 유사하게 제작된 3D 형상으로서 정밀한 모사를 위해 모델링(Modeling) 및 렌더링(Rendering) 기술이 요구된다. 모델링(Modeling)은 컴퓨터 그래픽을 이용하여 컴퓨터 내부의 가상공간에 3차원 모형을 만들어내는 행위를 의미하며 주로 3D 그래픽 툴을 이용한다. 모델링된 3차원 모형을 현실의 물체가 아닌 데이터로 저장한다. 렌더링(Rendering)은 컴퓨터 프로그램을 사용하여 모델로부터 영상을 만들어내는 과정을 의미한다.The organ model is a 3D shape made similar to the actual shape of an organ, and modeling and rendering techniques are required for precise simulation. Modeling refers to the act of creating a 3D model in the virtual space inside a computer using computer graphics, and mainly uses 3D graphic tools. The modeled 3D model is stored as data, not as a real object. Rendering refers to the process of creating an image from a model using a computer program.

영상 분할(Image segmentation)은 디지털 영상을 복수의 픽셀 또는 복셀 집합으로 나누는 과정을 의미한다. 분할의 목적은 영상의 표현을 좀 더 의미있고 해석하기 쉬운 것으로 단순화하거나 변환하는 것이다. 영상 분할은 영상에서 물체와 경계를 찾는데 사용된다. 분할의 결과는 전체 영상을 집합적으로 포함하는 영역의 집합이거나, 영상으로부터 추출된 윤곽의 집합이다.Image segmentation refers to a process of dividing a digital image into a plurality of pixel or voxel sets. The purpose of segmentation is to simplify or transform the representation of the image into something more meaningful and easier to interpret. Image segmentation is used to find objects and boundaries in an image. The result of segmentation is a set of regions collectively including the entire image or a set of contours extracted from the image.

등록특허공보 제10-1986571호, 2019.05.31Registered Patent Publication No. 10-1986571, 2019.05.31

본 발명이 해결하고자 하는 과제는 영상 분할을 통한 기관의 3차원 모델링 장치 및 방법을 제공하는 것이다. An object of the present invention is to provide an apparatus and method for 3D modeling of an organ through image segmentation.

보다 상세하게는 생체 기관 모델링 과정에서 요구되는 수작업 영역 및 후처리 작업을 최소화하고 컴퓨터 프로그램을 이용하여 빠르게 처리할 수 있도록 하는 3차원 기관 형상을 모델링하는 방법 및 프로그램을 제공하는 것이다.More specifically, it is to provide a method and a program for modeling a three-dimensional organ shape that minimizes the manual work area and post-processing work required in the modeling process of a living body and enables rapid processing using a computer program.

또한, 본 발명이 해결하고자 하는 과제는 생체 장기 모델링 과정에서 장기의 부위별 차이를 최소화하고, 장기의 세세한 부분들까지 실제 장기와 유사하도록 정확하게 모델링할 수 있는 3차원 기관 형상을 모델링하는 방법 및 프로그램을 제공하는 것이다.In addition, the problem to be solved by the present invention is a method and program for modeling a three-dimensional organ shape that can be accurately modeled so as to minimize the difference between parts of an organ in the biological organ modeling process, and to accurately model even the detailed parts of an organ to be similar to an actual organ. is to provide

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 영상 분할을 통한 기관의 3차원 모델링 방법은, 장치에 의해 수행되는 방법으로, 대상체의 특정 신체 기관에 대한 의료영상데이터를 입력받는 단계, 상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 관심영역을 설정하는 단계, 상기 관심영역에 대응하는 하나 이상의 블록을 형성하는 단계-상기 블록 각각은, 상기 관심영역에 해당하는 상기 신체 기관의 일부분을 포함함-, 상기 블록 각각에 대한 세그먼테이션 알고리즘을 설정하는 단계, 상기 블록 각각에 설정된 알고리즘을 기초로, 상기 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하는 단계 및 상기 각각의 제1영상데이터를 병합하여 상기 신체 기관 전체에 대한 3차원 형태의 제2영상데이터를 생성하는 단계를 포함한다.A three-dimensional modeling method of an organ through image segmentation according to an embodiment of the present invention is a method performed by an apparatus, comprising: receiving medical image data for a specific body organ of an object; based on the medical image data , setting a region of interest for the body organ, forming one or more blocks corresponding to the region of interest, each of the blocks including a portion of the body organ corresponding to the region of interest, the block Setting a segmentation algorithm for each block, based on the algorithm set for each block, generating each first image data obtained by 3D modeling the parts included in each of the blocks, and each of the first images and generating second image data in a three-dimensional form for the entire body by merging the data.

본 발명의 일부 실시예에서, 상기 관심영역을 설정하는 단계는, 딥러닝 기반의 제1 모델을 기초로, 상기 신체 기관의 유형을 인식하여, 상기 신체 기관의 유형에 상응하는 관심영역을 자동 생성하는 것일 수 있다. In some embodiments of the present invention, the setting of the region of interest includes recognizing the type of the body organ based on a first model based on deep learning, and automatically generating the region of interest corresponding to the type of the body organ. may be doing

본 발명의 일부 실시예에서, 상기 병합은 영상 정합을 통해 수행되며, 상기 영상 정합은 특징 요소 정합 기법 및 템플릿 기반 정합 기법을 적어도 하나를 통해 수행될 수 있다. In some embodiments of the present invention, the merging may be performed through image registration, and the image registration may be performed through at least one of a feature element matching technique and a template-based matching technique.

본 발명의 일부 실시예에서, 상기 제1영상데이터를 생성하는 단계는, 상기 블록 간에 중복 영역이 존재하는 경우, 상기블록 각각에 설정된 세그멘테이션 알고리즘을 기반으로, 상기 중복 영역에 포함되는 상기 신체 부위를 탐색하는 것을 특징으로 할 수 있다.In some embodiments of the present invention, the generating of the first image data includes: if there is an overlapping area between the blocks, the body part included in the overlapping area is selected based on a segmentation algorithm set for each of the blocks. It can be characterized by exploring.

본 발명의 일부 실시예에서, 상기 관심 영역을 설정하는 단계는, 상기 신체 기관의 혈영 영역에 상응하는 제1 영역과 상기 신체 기관의 근육 영역에 상응하는 제2 영역으로 분할하는 단계와 상기 제1 영역과 제2 영역을 상기 신체 기관에 관한 관심영역으로 설정하는 단계를 더 포함하고, 상기 분할하는 단계는, 상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 명암값이 기 설정된 제1 값 이상인 경우 상기 혈액 영역에 상응하는 제1 영역으로 식별하고, 명암값이 기 설정된 제2 값 미만인 경우 상기 근육 영역에 상응하는 제2 영역으로 식별하여 분할하는 것일 수 있다. In some embodiments of the present invention, the setting of the region of interest includes dividing the first region into a first region corresponding to a blood region of the body organ and a second region corresponding to a muscle region of the body organ; The method may further include setting a region and a second region as the region of interest for the body organ, wherein the dividing may include: based on the medical image data, a contrast value of the body organ is equal to or greater than a preset first value In this case, the first region corresponding to the blood region may be identified, and if the contrast value is less than a preset second value, the blood region may be identified and divided into a second region corresponding to the muscle region.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 영상 분할을 통한 기관의 3차원 모델링하는 장치는, 의료영상데이터를 획득하는 수집부 및 상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 관심영역을 설정하고, 상기 관심영역에 대응하는 하나 이상의 블록을 형성하고, 상기 블록 각각에 대한 세그먼테이션 알고리즘을 설정하고, 상기 블록 각각에 설정된 알고리즘을 기초로, 상기 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하고, 상기 각각의 제1영상데이터를 병합하여 상기 신체 기관 전체에 대한 3차원 형태의 제2영상데이터를 생성하되, 상기 블록 각각은, 상기 관심영역에 해당하는 상기 신체 기관의 일부분을 포함한다.An apparatus for 3D modeling of an organ through image segmentation according to another aspect of the present invention for solving the above-mentioned problems is a collection unit that acquires medical image data and an interest in the body organs based on the medical image data Set a region, form one or more blocks corresponding to the region of interest, set a segmentation algorithm for each of the blocks, and based on the algorithm set in each of the blocks, 3D parts included in each of the blocks Each of the modeled first image data is generated, and the respective first image data is merged to generate the second image data in a three-dimensional form for the entire body, wherein each of the blocks corresponds to the region of interest. and parts of the body organs that

본 발명의 일부 실시예에서, 상기 블록 간에 중복 영역이 존재하는 경우, 상기블록 각각에 설정된 세그멘테이션 알고리즘을 기반으로, 상기 중복 영역에 포함되는 상기 신체 부위를 탐색하는 것을 특징으로 할 수 있다. In some embodiments of the present invention, when an overlapping region exists between the blocks, the body part included in the overlapping region may be searched based on a segmentation algorithm set in each of the blocks.

본 발명의 일부 실시예에서, 상기 관심영역을 설정하는 것은, 딥러닝 기반의 제1 모델을 기초로, 상기 신체 기관의 유형을 인식하여, 상기 신체 기관의 유형에 상응하는 관심영역을 자동 생성하는 것일 수 있다. In some embodiments of the present invention, setting the region of interest includes recognizing the type of the body organ based on a first model based on deep learning and automatically generating the region of interest corresponding to the type of the body organ. it could be

본 발명의 일부 실시예에서, 상기 영상 정합은 특징 요소 정합 기법 및 템플릿 기반 정합 기법을 적어도 하나를 통해 수행될 수 있다. In some embodiments of the present invention, the image registration may be performed through at least one of a feature element matching technique and a template-based matching technique.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 영상 분할을 통한 기관의 3차원 모델링하는 프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 영상 분할을 통한 기관의 3차원 모델링 방법을 실행시키기 위하여 매체에 저장된다. The program for 3D modeling of an organ through image segmentation according to another aspect of the present invention for solving the above-mentioned problems is combined with a computer which is hardware, and is stored in a medium in order to execute the 3D modeling method of the organ through image segmentation. is saved

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 기관을 구성하는 관심영역들에 대해 하나 이상의 블록을 지정하고 각각의 블록에 최적화된 알고리즘을 적용함으로써, 수작업 및 후처리를 줄이고, 복수의 관심영역에 대하여 동시에 세그먼테이션을 진행할 수 있게 되어 기관 모델링 작업을 더 빠르게 수행할 수 있다.According to the present invention, by designating one or more blocks for regions of interest constituting an organ and applying an optimized algorithm to each block, manual work and post-processing can be reduced, and segmentation can be performed simultaneously on a plurality of regions of interest. This allows for faster organ modeling work.

또한, 상기 본 발명에 의하면, 장기를 구성하는 관심영역들 각각에 배치된 블록마다 차별화된 알고리즘을 적용하여 세그먼테이션을 진행할 수 있게 되어 복잡한 기관에 대해서도 정밀하고 정확한 기관 모델링 작업이 가능하다.In addition, according to the present invention, it is possible to perform segmentation by applying a differentiated algorithm to each block arranged in each of the regions of interest constituting the organ, so that precise and accurate organ modeling work is possible even for complex organs.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 영상 분할을 통한 기관의 3차원 모델링 장치 의 블록도이다.
도 2은 본 발명의 일 실시예에 따른 영상 분할을 통한 기관의 3차원 모델링 방법의 과정을 개략적으로 나타내는 흐름도이다.
도 3는 본 발명의 일 실시예에 따른 3차원 기관 형상을 모델링하는 프로그램의 기본 화면을 나타내는 예시도이다.
도 4은 본 발명의 일 실시예에 따른, 관심 영역을 포함하는 하나 이상의 블록을 형성하여 출력한 것을 나타낸 예시도이다.
도 5는 대상 기관인 심장에 대해 전체 촬영 이미지를 대상으로 3차원 모델링을 수행하는 예시도이다..
도 6은 본 발명의 일 실시예에 따른 블록 각각에 대하여 설정된 세그먼테이션 알고리즘을 기반으로, 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하는 모습을 나타내는 예시도이다.
도 7은 각각의 제1영상데이터를 병합하여 심장 기관 전체에 대한 3차원 형태의 제2 영상데이터를 생성하는 것을 나타낸 예시도이다.
1 is a block diagram of an apparatus for 3D modeling of an organ through image segmentation according to an embodiment of the present invention.
2 is a flowchart schematically illustrating a process of a three-dimensional modeling method of an organ through image segmentation according to an embodiment of the present invention.
3 is an exemplary diagram illustrating a basic screen of a program for modeling a three-dimensional organ shape according to an embodiment of the present invention.
4 is an exemplary diagram illustrating output by forming one or more blocks including a region of interest according to an embodiment of the present invention.
5 is an exemplary diagram of performing three-dimensional modeling on the entire photographed image of the heart, which is a target organ.
6 is an exemplary diagram illustrating generation of respective first image data obtained by 3-D modeling parts included in each block based on a segmentation algorithm set for each block according to an embodiment of the present invention.
7 is an exemplary diagram illustrating generation of second image data in a three-dimensional form for the entire cardiac organ by merging respective first image data.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제 1", "제 2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 구성요소는 본 발명의 기술적 사상 내에서 제 2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

"예시적인"이라는 단어는 본 명세서에서 "예시 또는 예증으로서 사용된"의 의미로 사용된다. 본 명세서에서 "예시적인"것으로 설명된 임의의 실시예는 반드시 바람직한 것으로서 해석되거나 다른 실시예들보다 이점을 갖는 것으로 해석되어서는 안된다.The word "exemplary" is used herein in the sense of "used as an illustration or illustration." Any embodiment described herein as "exemplary" is not necessarily to be construed as preferred or advantageous over other embodiments.

또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 엘리먼트를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 엘리먼트들, 객체지향 소프트웨어 엘리먼트들, 클래스 엘리먼트들 및 태스크 엘리먼트들과 같은 엘리먼트들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 엘리먼트들과 "부"들 안에서 제공되는 기능은 더 작은 수의 엘리먼트들 및 "부"들로 결합되거나 추가적인 엘리먼트들과 "부"들로 더 분리될 수 있다.Also, as used herein, the term “unit” refers to a hardware element such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” refers to elements such as software elements, object-oriented software elements, class elements, and task elements, and processes, functions, properties, procedures, subroutines, and programs. It includes segments of code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functionality provided within elements and “parts” may be combined into a smaller number of elements and “parts” or further separated into additional elements and “parts”.

또한, 본 명세서의 모든 “부”는 적어도 하나의 프로세서에 의해 제어될 수 있으며 본 개시의 “부”가 수행하는 동작을 적어도 하나의 프로세서가 수행할 수도 있다.In addition, all “units” of the present specification may be controlled by at least one processor, and at least one processor may perform operations performed by the “units” of the present disclosure.

본 개시의 실시예들은 기능 또는 기능을 수행하는 블록의 관점에서 설명될 수 있다. 본 개시의 ‘부’ 또는 ‘모듈’ 등으로 지칭될 수 있는 블록은 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리, 수동 전자 부품, 능동 전자 부품, 광학 컴포넌트, 하드와이어드 회로(hardwired circuits) 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 선택적으로 펌웨어 및 소프트웨어에 의해 구동될 수 있다. Embodiments of the present disclosure may be described in terms of a function or a block performing a function. Blocks, which may be referred to as 'parts' or 'modules', etc. in the present disclosure include logic gates, integrated circuits, microprocessors, microcontrollers, memories, passive electronic components, active electronic components, optical components, hardwired circuits, and the like. It may be physically implemented by analog or digital circuitry, such as, and optionally driven by firmware and software.

본 개시의 실시예는 적어도 하나의 하드웨어 디바이스 상에서 실행되는 적어도 하나의 소프트웨어 프로그램을 사용하여 구현될 수 있고 엘리먼트를 제어하기 위해 네트워크 관리 기능을 수행할 수 있다.Embodiments of the present disclosure may be implemented using at least one software program running on at least one hardware device and may perform a network management function to control an element.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여 질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. A spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component is placed “above” the other component. can get Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

본 명세서에서 "기관"은 심장, 위, 간, 폐, 림프절, 치아, 안구, 갑상선, 난소, 피부, 뇌 등을 포함하나 이에 한정되는 것은 아니다. 특정 대상체, 예를 들어 사람 또는 동물의 몸을 구성하는 임의의 기관의 일부분 또는 전체 부분이다.As used herein, "organ" includes, but is not limited to, heart, stomach, liver, lung, lymph node, tooth, eye, thyroid, ovary, skin, brain, and the like. Part or all of any organ that makes up the body of a particular subject, eg, a human or animal.

본 명세서에서 "세그먼테이션(Segmetation)"은 영상 내에서 물체 및 경계를 찾는 작업을 의미한다. 예를 들어, 세그먼테이션은 밝기값을 조절하여 대상 부위 및 경계를 찾고 시각적으로 구별되도록 처리하는 작업을 포함할 수 있으나 이에 한정되는 것은 아니다.As used herein, “segmentation” refers to an operation of finding an object and a boundary in an image. For example, the segmentation may include, but is not limited to, an operation of finding a target part and a boundary by adjusting a brightness value and processing it to be visually distinguished.

본 명세서에서 '의료영상데이터'는 자기공명영상(Magnetic Resonance Imaging; MRI), 컴퓨터단층촬영(Computerized Tomography; CT), 양전자단층촬영(Positron Emission Tomography; PET), 초음파촬영(Ultrasonography)을 포함하나, 이에 제한되지 않고 의료용으로 환자의 신체를 촬영한 모든 영상데이터를 포함한다.In the present specification, 'medical image data' includes magnetic resonance imaging (MRI), computerized tomography (CT), positron emission tomography (PET), and ultrasonography, The present invention is not limited thereto, and includes all image data obtained by photographing a patient's body for medical purposes.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 분할을 통한 기관의 3차원 모델링 장치 의 블록도이다.1 is a block diagram of an apparatus for 3D modeling of an organ through image segmentation according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면, 영상 분할을 통한 기관의 3차원 모델링 장치(100)는 수집부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다.According to an embodiment of the present invention, the apparatus 100 for modeling an organ through image segmentation may include a collection unit 110 , a memory 120 , and a processor 130 .

영상 분할을 통한 기관의 3차원 모델링 장치(100)는 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.The three-dimensional modeling apparatus 100 of the institution through image segmentation is, for example, a computer, an Ultra Mobile PC (UMPC), a workstation, a net-book, a Personal Digital Assistants (PDA), a portable computer, As one of electronic devices such as a web tablet, a wireless phone, a mobile phone, a smart phone, and a portable multimedia player (PMP), the installation and It may include any executable electronic device. The electronic device may perform overall service operations such as, for example, configuration of a service screen, data input, data transmission/reception, data storage, and the like, under the control of the application.

영상 분할을 통한 기관의 3차원 모델링 장치(100)는 통신부(110)를 통해 의료영상데이터를 획득할 수 있다. 여기서, 상기 의료영상데이터는 MRI 또는 CT 촬영 영상을 포함할 수 있다.The apparatus 100 for 3D modeling of an institution through image segmentation may acquire medical image data through the communication unit 110 . Here, the medical image data may include an MRI or CT image.

본 발명의 메모리(120)는 의료영상데이터 및 프로세서(130)에 의해 추출된 제1영상데이터와 제2영상데이터를 저장할 수 있는 로컬 저장 매체이다. 필요한 경우 프로세서(130)는 메모리(120)에 저장된 데이터를 이용할 수 있다. 또한, 본 발명의 메모리(120)는 프로세서(130)가 동작하기 위한 인스트럭션, 프로그램 또는 어플리케이션 등을 저장할 수 있다.The memory 120 of the present invention is a local storage medium capable of storing medical image data and the first image data and the second image data extracted by the processor 130 . If necessary, the processor 130 may use data stored in the memory 120 . In addition, the memory 120 of the present invention may store instructions, programs, or applications for the processor 130 to operate.

또한, 본 발명의 메모리(120)는 영상 분할을 통한 기관의 3차원 모델링 장치에 공급되는 전원이 차단되더라도 데이터들이 남아있어야 하며, 변동사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(Writable Rom)로 구비될 수 있다. 즉, 메모리(120)는 플래쉬메모리(Flash Memory) 또는 EPROM 또는 EEPROM 중 어느 하나로 구비될 수 있다. 본 발명에서 설명의 편의를 위해 하나의 메모리(120)에 모든 인스트럭션 정보가 저장되는 것으로 설명하고 있으나, 이에 한정되는 것은 아니며, 영상 분할을 통한 기관의 3차원 모델링 장치(100)는 복수의 메모리를 구비할 수 있다.In addition, the memory 120 of the present invention must remain data even if the power supplied to the 3D modeling apparatus of the institution through image segmentation is cut off, and is a writable non-volatile memory (Writable Rom) to reflect the changes. can be provided. That is, the memory 120 may be provided with either a flash memory, an EPROM, or an EEPROM. In the present invention, it is described that all instruction information is stored in one memory 120 for convenience of explanation, but the present invention is not limited thereto. can be provided

본 발명의 일 실시예에 따르면, 프로세서(130)는 상술한 통신부(110)를 통해 획득한 또는 메모리(120)에 저장된 의료영상데이터를 기반으로, 의료영상데이터에 포함되어 있는, 특정 기관을 3차원 모델링한다. 이에 대해서는 자세히 후술하도록 한다. According to an embodiment of the present invention, the processor 130 selects 3 specific organs included in the medical image data based on the medical image data acquired through the above-described communication unit 110 or stored in the memory 120 . dimensional modeling. This will be described in detail later.

한편, 본 발명의 일 실시예로, 프로세서(130)은 각각의 블록에 포함되는 심체 기관에 대한 3차원 모델링 통해 생성된 복수의 제1영상데이터를 병합(Merge)하여 제2영상데이터를 획득할 수 있다. 이 경우, 제2영상데이터는 상기 의료영상데이터에 포함되는 기관에 대한 관심영역의 전체를 포함하는 데이터일 수 있다. On the other hand, in an embodiment of the present invention, the processor 130 acquires the second image data by merging a plurality of first image data generated through three-dimensional modeling of the body organs included in each block. can In this case, the second image data may be data including the entire region of interest for an organ included in the medical image data.

영상 분할을 통한 기관의 3차원 모델링 장치(100)에 대해 설명된 실시예들은 영상 분할을 통한 기관의 3차원 모델링 방법의 적어도 일부 또는 모두에 적용이 가능하고, 반대로 영상 분할을 통한 기관의 3차원 모델링 방법에 대해 설명된 실시예들은 영상 분할을 통한 기관의 3차원 모델링 장치(100)에 대한 실시예들에 적어도 일부 또는 모두 적용이 가능하다. 또한, 개시된 실시예들에 따른 영상 분할을 통한 기관의 3차원 모델링 방법은 본 명세서에 개시된 영상 분할을 통한 기관의 3차원 모델링 장치(100)에 의해 수행되는 것으로 그 실시 예가 한정되지 않고, 다양한 형태의 전자장치에 의해 수행될 수 있다.The embodiments described for the apparatus 100 for 3D modeling of an organ through image segmentation are applicable to at least some or all of the three-dimensional modeling methods of an organ through image segmentation, and conversely, 3D organ through image segmentation. At least some or all of the embodiments described for the modeling method may be applied to the embodiments of the 3D modeling apparatus 100 of an organ through image segmentation. In addition, the 3D modeling method of an organ through image segmentation according to the disclosed embodiments is performed by the 3D modeling apparatus 100 of an organ through image segmentation disclosed herein, and the embodiment is not limited, and various forms It can be performed by the electronic device of

이하, 도 2 내지 도 7을 참조하여, 본 발명에 따른 영상 분할을 통한 기관의 3차원 모델링 과정에 대해 상세히 설명한다. 이하에서 설명되는 장치(100)의 모든 동작은 장치(100)의 전반적인 동작을 제어하는 프로세서(130)에서도 동일하게 수행 가능하다.Hereinafter, a three-dimensional modeling process of an organ through image segmentation according to the present invention will be described in detail with reference to FIGS. 2 to 7 . All operations of the device 100 described below may be equally performed by the processor 130 that controls the overall operation of the device 100 .

도 2은 본 발명의 일 실시예에 따른 영상 분할을 통한 기관의 3차원 모델링 방법의 과정을 개략적으로 나타내는 흐름도이다. 도 3는 본 발명의 일 실시예에 따른 3차원 기관 형상을 모델링하는 프로그램의 기본 화면을 나타내는 예시도이다.2 is a flowchart schematically illustrating a process of a three-dimensional modeling method of an organ through image segmentation according to an embodiment of the present invention. 3 is an exemplary diagram illustrating a basic screen of a program for modeling a three-dimensional organ shape according to an embodiment of the present invention.

도 3을 참조하면, 기본 화면은 대상체의 신체 기관의 전체 형상이 표시되는 레이어와 3가지 평면(Axial plane, coronal plane, sagittal plane) 각각의 이미지를 표시하는 레이어를 포함할 수 있다.Referring to FIG. 3 , the basic screen may include a layer displaying the overall shape of an object's body and a layer displaying images of each of three planes (axial plane, coronal plane, and sagittal plane).

먼저 도 2를 참조하면, 프로세서(130)는 대상체의 특정 신체 기관에 대한 의료영상데이터를 입력받는다(S210). First, referring to FIG. 2 , the processor 130 receives medical image data for a specific body organ of an object ( S210 ).

여기서 의료영상데이터는 CT(Computed tomography) 촬영 데이터 또는 MRI(Magnetic resonance imaging) 촬영 데이터를 포함한다. 그러나 이에 제한되는 것은 아니다. Here, the medical image data includes computed tomography (CT) imaging data or magnetic resonance imaging (MRI) imaging data. However, the present invention is not limited thereto.

CT 촬영 데이터는 CT 스캐너를 이용한 컴퓨터단층촬영법(Computed tomography; CT)으로 인체 내부 단면의 모습을 촬영한 데이터이다. The CT scan data is data obtained by taking a cross-section of the inside of a human body using a computed tomography (CT) method using a CT scanner.

MRI 촬영 데이터는 자기공명영상법(Magnetic resonance imaging; MRI), 즉, 자력에 의하여 발생하는 자기장을 이용하여 생체의 임의의 첨단의학기계 또는 그 기계로 만든 영상법으로 촬영한 데이터이다.MRI imaging data is data captured by magnetic resonance imaging (MRI), that is, by using a magnetic field generated by magnetic force, any advanced medical device in the living body or an imaging method made by the machine.

CT 촬영 데이터 또는 MRI 촬영 데이터는 신체 기관을 3차원 모델링하는 과정의 기초 데이터로 활용된다. 즉, 입력된 CT 촬영 데이터 또는 MRI 촬영 데이터를 기초로 세그먼테이션 및 렌더링 작업을 수행하여 기관 형상을 3차원 모델링한다.CT scan data or MRI scan data are used as basic data in the process of 3D modeling of body organs. That is, the organ shape is 3D modeled by performing segmentation and rendering operations based on the input CT imaging data or MRI imaging data.

다시 도 2를 참조하면, 장치의 수집부(110)를 통해 입력받은 의료영상데이터를 기반으로, 프로세서(130)는 상기 신체 기관에 관한 관심영역을 설정한다(S220).Referring back to FIG. 2 , based on the medical image data received through the collection unit 110 of the device, the processor 130 sets the region of interest for the body organ ( S220 ).

관심영역(Region of interest; ROI)은 영상처리상의 방법으로서, 측정하고자 하는 기관, 장기, 조직 등이나 부위의 범위를 설정하는 것이다. 관심영역은 2차원 상의 영역 또는 3차원 상의 영역(Volume of interest; VOI)으로 설정될 수 있다.A region of interest (ROI) is an image processing method that sets the range of an organ, organ, tissue, etc. or region to be measured. The region of interest may be set as a two-dimensional region or a three-dimensional region (Volume of Interest; VOI).

S220 단계를 통해, 상기 프로세서(130)는 신체 기관에 관한 관심영역이 설정되면, 관심영역에 대응하는 하나 이상의 블록을 형성하여 출력한다(S230). 이때, 본 발명의 일 실시예로, 상기 블록 각각은, 상기 관심영역에 해당하는 상기 신체 기관의 일부분을 포함한다. In step S220, when a region of interest for a body organ is set, the processor 130 forms and outputs one or more blocks corresponding to the region of interest (S230). In this case, in an embodiment of the present invention, each of the blocks includes a portion of the body organ corresponding to the region of interest.

도 4은 본 발명의 일 실시예에 따른, 관심 영역을 포함하는 하나 이상의 블록을 형성하여 출력한 것을 나타낸 예시도이다. 4 is an exemplary diagram illustrating output by forming one or more blocks including a region of interest according to an embodiment of the present invention.

S230 단계는 프로세서(130)가 S220 단계에서 설정된 하나 이상의 관심영역 각각에 대응하는 블록을 형성하여 관심영역을 시각적으로 표시하는 단계이다.Step S230 is a step in which the processor 130 forms a block corresponding to each of the one or more ROIs set in step S220 to visually display the ROI.

도 4를 참조하면, 본 발명의 일 실시예로, 블록(Block)은 큐브(직육면체) 형상으로 구성될 수 있다. 그러나 이에 한정되는 것은 아니고 곡선을 포함하는 형상(예를 들어, 구형 또는 직육면체의 일부 면만 곡면으로 구성된 형상 등)으로 구성되는 것도 가능하다. 도 4에는 심장의 CT 촬영 데이터를 입력받고 복수의 관심영역을 설정하여 각각의 관심영역에 대하여 4개의 블록(200a, 200b, 200c, 200d)을 형성하여 출력된 모습이 도시되어 있다. 도면에는 편의상 4개의 큐브 형태의 블록을 도시하였지만, 블록의 형태 및 개수에는 제한이 없다.Referring to FIG. 4 , according to an embodiment of the present invention, a block may be configured in a cube (cuboid) shape. However, the present invention is not limited thereto, and it may be configured in a shape including a curve (eg, a shape in which only some surfaces of a spherical or rectangular parallelepiped are curved, etc.). 4 shows a state in which four blocks 200a, 200b, 200c, and 200d are output by receiving CT scan data of the heart, setting a plurality of ROIs, and forming four blocks 200a, 200b, 200c, and 200d for each ROI. Although the drawings show blocks in the form of four cubes for convenience, the shape and number of blocks are not limited.

예를 들어, 설정된 관심 영역이 인간의 심장이라고 가정하였을 때, 상기 심장에 대응하는 하나 이상의 큐브 형상의 블록을 사용자의 디바이스로 출력한다. 이때, 큐브 형상의 각각의 블록은 심장 기관의 전체 또는 일부분을 포함하게 된다. 구체적으로 각각의 블록이 심장의 좌심방, 좌심실, 우심방, 우심실, 대동맥, 폐동맥, 정맥, 대동맥판막, 폐동맥판막, 삼천판, 승모판, 관상동맥 등을 각각 포함되도록 형성될 수 있을 것이다. For example, assuming that the set ROI is a human heart, one or more cube-shaped blocks corresponding to the heart are output to the user's device. At this time, each block of the cube shape includes the whole or a part of the heart organ. Specifically, each block may be formed to include the left atrium, left ventricle, right atrium, right ventricle, aorta, pulmonary artery, vein, aortic valve, pulmonary valve, three-thousand plate, mitral valve, coronary artery, and the like of the heart, respectively.

본 발명의 일 실시예로 장치는 사용자에게 관심영역을 포함하도록 블록의 크기 및 위치를 조절할 수 있는 인터페이스를 제공할 수도 있다. 한편, 블록은 개수에 제한이 없으며 복수의 관심영역 각각에 대하여 복수의 블록이 형성될 수 있다. 또한, 형성된 복수의 블록 각각의 크기, 각도 및 위치는 상이할 수 있다.According to an embodiment of the present invention, the device may provide the user with an interface capable of adjusting the size and position of the block to include the region of interest. Meanwhile, the number of blocks is not limited, and a plurality of blocks may be formed for each of a plurality of regions of interest. In addition, the size, angle, and position of each of the plurality of blocks formed may be different.

도 4를 참조하면, 각각의 블록은 3개의 평면(Axial plane, coronal plane, sagittal plane)에 대한 축을 기준으로 크기가 조절될 수 있다. 또한, 상술한 바와 같이 블록간 겹치는 영역이 존재하거나 필요에 따라 블록을 이동 및 회전시키는 것이 가능하다.Referring to FIG. 4 , each block may be sized based on axes for three planes (axial plane, coronal plane, and sagittal plane). In addition, as described above, it is possible to move and rotate the blocks if there is an overlapping area between blocks or if necessary.

다른 실시예로, 블록은 다른 블록과 겹치는 영역이 존재하도록 생성 및 배치될 수 있다. 대부분의 기관에 포함되는 부위들은 일단면을 기준으로 완벽하게 분리되도록 구성되어 있지 않고, 다양한 형태 및 결합으로 구성되어 있다. 따라서, 관심영역으로 설정된 각각의 부위에 대해 블록을 형성할 경우 겹치는 영역이 발생할 수 있다. 본 발명의 블록은 겹쳐서 형성되는 것이 가능하므로 보다 정확하게 부위별 관심영역 설정 및 블록 형성이 가능하다. 또한, 각 부위의 경계면에 위치하는 조직(예를 들어, 심장의 판막)을 보다 정확하고 세밀하게 파악할 수 있다.In another embodiment, blocks may be created and arranged so that there is an area overlapping other blocks. The parts included in most organs are not configured to be completely separated based on one side, but are composed of various shapes and combinations. Accordingly, when a block is formed for each region set as a region of interest, an overlapping region may occur. Since the blocks of the present invention can be overlapped, it is possible to more accurately set the region of interest for each region and form the block. In addition, it is possible to more accurately and precisely grasp a tissue (eg, a heart valve) positioned at the boundary of each region.

또 다른 실시예로, 블록은 회전이 가능하도록 구성될 수 있다. 즉, 블록은 시스템의 조작에 따라 특정 축을 기준으로 회전할 수 있도록 구성될 수 있다. 이를 통해 복잡한 형상의 기관의 각 부위에 대하여 보다 정확하게 관심영역을 설정할 수 있다.In another embodiment, the block may be configured to be rotatable. That is, the block may be configured to rotate about a specific axis according to the manipulation of the system. Through this, a region of interest can be more accurately set for each part of an organ having a complex shape.

이때, 본 발명의 일 실시예로 블록은 각각의 관심영역에 대하여 인공지능 기술을 이용하여 자동으로 생성될 수 있다. 각 기관에 따라 주로 관심영역으로 설정되는 부위들에 대해 입력받을 수 있다. 또는 머신 러닝(Machine learning) 및 딥 러닝(Deep learning) 기술을 통해 의료영상데이터를 기초로, 신체 기관의 유형을 식별하고, 상기 신체 기관의 유형에 상응하는 관심영역을 자동으로 설정하고, 해당 관심영역에 대한 블록을 자동으로 형성하여 표시할 수 있다. In this case, according to an embodiment of the present invention, blocks may be automatically generated for each region of interest using artificial intelligence technology. An input may be received for regions mainly set as a region of interest according to each organ. Alternatively, a type of body organ is identified based on medical image data through machine learning and deep learning technology, an area of interest corresponding to the type of body organ is automatically set, and the interest Blocks for an area can be automatically formed and displayed.

구체적으로, 의료영상데이터를 딥러닝 기반의 제1 모델에 입력하였을 때, 상기 의료영상데이터에 포함되는 대상체의 신체 기관을 식별하여, 관심영역을 설정하고, 해당 관심영역에 따른 복수의 블록을 형성하도록 출력할 수 있을 것이다. 대상 기관이 심장인 경우, 좌심방, 좌심실, 우심방, 우심실, 대동맥, 폐동맥, 정맥, 대동맥판막, 폐동맥판막, 삼천판, 승모판, 관상동맥등을 등의 부위에 대한 관심영역을 자동으로 설정하고, 해당 관심영역들에 대한 블록을 자동으로 형성하여 표시할 수 있다.Specifically, when the medical image data is input to the first deep learning-based model, the body organs of the object included in the medical image data are identified, the region of interest is set, and a plurality of blocks are formed according to the region of interest. You will be able to print If the target organ is the heart, the region of interest for the region such as the left atrium, left ventricle, right atrium, right ventricle, aorta, pulmonary artery, vein, aortic valve, pulmonary valve, three-thousand plate, mitral valve, and coronary artery is automatically set and the corresponding Blocks for regions of interest can be automatically formed and displayed.

한편, 본 발명의 일 실시예로, 상기 신체 기관이 심장 기관인 경우, 프로세서(130)는 상기 심장 기관의 판막의 위치 정보를 추출하고, 상기 판막의 위치 정보에 기반하여 관심영역을 설정할 수 있다. Meanwhile, in an embodiment of the present invention, when the body organ is a heart organ, the processor 130 may extract location information of a valve of the heart organ and set a region of interest based on the location information of the valve.

구체적으로 프로세서(130)는 심장 기관의 삼천판(Tricuspid), 폐동맥판(Pulmonary Valve), 승모판(Mitral Valve)과 대동맥 판막(Aortic valve)의 식별하고, 각각의 판막의 위치 정보를 추출한다. 그리고 각각의 판막의 위치 정보에 기반하여 4개의 관심영역을 설정한다. 이때, 4개의 관심영역은 각각 좌심방, 좌심실, 우심방 및 우심실에 상응하여 설정될 수 있다. Specifically, the processor 130 identifies a tricuspid, a pulmonary valve, a mitral valve, and an aortic valve of a heart organ, and extracts location information of each valve. Then, based on the position information of each valve, four regions of interest are set. In this case, the four regions of interest may be set to correspond to the left atrium, left ventricle, right atrium, and right ventricle, respectively.

한편, 도면에 명확히 도시되지는 않았으나, 본 발명의 일 실시예로, 프로세서(130)는 관심 영역을 설정하는데 있어, 상기 신체 기관을 혈영 영역에 상응하는 제1 영역과 상기 신체 기관의 근육 영역에 상응하는 제2 영역으로 분할하고, 상기 제1 영역과 제2 영역을 상기 신체 기관에 관한 관심영역으로 각각 설정할 수 있다. 이때, 제1 영역과 제2 영역을 분할하는 단계는, 상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 명암값이 기 설정된 제1 값 이상인 경우 상기 혈액 영역에 상응하는 제1 영역으로 식별하고, 명암값이 기 설정된 제2 값 미만인 경우 상기 근육 영역에 상응하는 제2 영역으로 식별하여 분할하는 것일 수 있다. 이때, 제1 값은 제2 값보다 높은 값으로 설정될 수 있다. 그러나 이에 제한되는 것은 아니며, 제1 값과 제2 값은 동일한 값을 설정될 수도 있을 것이다.Meanwhile, although not clearly shown in the drawings, according to an embodiment of the present invention, in setting the region of interest, the processor 130 places the body organ into a first region corresponding to a blood-glomerular region and a muscle region of the body organ. The second region may be divided into corresponding second regions, and the first region and the second region may be set as regions of interest for the body organs, respectively. In this case, the dividing of the first region and the second region includes identifying the first region corresponding to the blood region when the contrast value of the body organ is greater than or equal to a preset first value based on the medical image data, , when the contrast value is less than a preset second value, the muscle region may be identified and divided into a second region corresponding to the muscle region. In this case, the first value may be set to be higher than the second value. However, the present invention is not limited thereto, and the first value and the second value may be set to the same value.

예를 들어, 상기 신체 기관이 심장이고, 상기 의료영상데이터가 심장이 대한 CT촬영데이터라고 가정하였을 때, 상기 심장 내 혈액(Lumen)영역은, CT 촬영을 위해, 조영제를 주입한 상태로 촬영된다. 따라서, 의료영상데이터 내에서 상기 혈액 영역은 근육 영역보다 상대적으로 밝은, 즉 높은 명암값을 갖게 된다. 따라서, 명암 값이 기 설정된 제1 값 이상인 경우에는, 심장 기관의 혈액 영역으로 식별하고, 명암 값이 기 설정된 제2 값 이상인 경우에는, 심장 기관의 근육 영역으로 식별하여 각각 분할할 수 있다. 그리고 분활된 혈액 영역(제1 영역)과 근육 영역(제2 영역)을 각각 심장 기관의 관심 영역으로 설정할 수 있을 것이다. 이때, 본 발명의 일 실시예로, 상기 심장 기관의 제2 영역인, 근육 영역은 상술한 바와 같이 판막의 위치 정보를 기반으로 4개의 관심영역으로 재설정될 수 있다. For example, assuming that the body organ is the heart and the medical image data is CT scan data of the heart, the blood (Lumen) region in the heart is taken with a contrast medium injected for CT scan. . Accordingly, the blood region in the medical image data is relatively brighter than the muscle region, ie, has a higher contrast value. Accordingly, when the contrast value is equal to or greater than the first preset value, it is identified as a blood region of the heart organ, and when the contrast value is equal to or greater than the preset second value, it is identified and divided as a muscle region of the heart organ. In addition, the divided blood region (the first region) and the muscle region (the second region) may be set as regions of interest of the heart organ, respectively. In this case, according to an embodiment of the present invention, the muscle region, which is the second region of the cardiac organ, may be reset to four regions of interest based on the valve position information as described above.

다시 도 2를 참조하면, S230 단계 이후, 장치는 상기 블록 각각에 대한 세그먼테이션 알고리즘을 설정한다(S240).Referring back to FIG. 2 , after step S230 , the device sets a segmentation algorithm for each block ( S240 ).

세그먼테이션 알고리즘(Segmentation algorithm)은 촬영 데이터의 특정한 변수(예를 들어, Hounsfield un(HU), 명암값, 밝기값 등)를 설정된 기준값을 기준으로 조절하는 알고리즘을 의미한다. 세그먼테이션 알고리즘은 각각의 관심영역에 대한 블록에 포함하는 신체 기관의 일부분의 경계를 탐색하거나 부각시키는데 이용된다. The segmentation algorithm refers to an algorithm that adjusts a specific variable (eg, Hounsfield un (HU), contrast value, brightness value, etc.) of photographed data based on a set reference value. The segmentation algorithm is used to search for or highlight the boundary of a part of the body included in the block for each ROI.

한편 본 발명의 일 실시예로 상기 제1 영상데이터를 생성하는 단계는, 상기 블록에 설정된 세그먼테이션 알고리즘을 기초로, 상기 블록 각각에 포함되는 상기 신체 기관을 동시에 3차원 모델링할 수 있다. 즉, 본 발명은 각 블록에 포함되는 신체 기관의 일부분에 적용되는 세그먼테이션 알고리즘의 변수, 명암 값 등을 설정하여 각각의 블록에 최적화된 3차원 모델링 환경을 설정한 후 각각의 블록에 포함되는 신체 기관의 일부분에 대한 3차원 모델링을 동시에 수행함으로써, 전체 신체 기관의 정확하고 신속한 모델링이 가능하도록 한다. Meanwhile, in the generating of the first image data according to an embodiment of the present invention, the body organs included in each block may be simultaneously 3D modeled based on a segmentation algorithm set in the block. That is, according to the present invention, a three-dimensional modeling environment optimized for each block is set by setting variables, contrast values, etc. of a segmentation algorithm applied to a part of a body organ included in each block, and then a body organ included in each block. By performing 3D modeling of a part of the body at the same time, accurate and rapid modeling of whole body organs is possible.

또한 본 발명의 일 실시예로 각 블록에 따라서 세그먼테이션 알고리즘은 상이하게 설정되어 적용될 수 있다. 즉, 복수의 블록이 형성된 경우, 블록들은 각각에 설정된 세그먼테이션 알고리즘을 기반으로 해당 블록에 포함된 관심영역에 대한 세그먼테이션 작업을 수행한다. 이를 통해 동일한 기관이라도 부위별로 최적화된 세그먼테이션 알고리즘을 적용할 수 있게 되어 보다 빠르고 정확하게 3차원 기관 형상을 모델링할 수 있다.Also, according to an embodiment of the present invention, a segmentation algorithm may be set differently and applied according to each block. That is, when a plurality of blocks are formed, the blocks perform a segmentation operation on the region of interest included in the block based on the segmentation algorithm set for each block. Through this, it is possible to apply the segmentation algorithm optimized for each part even for the same organ, so that the 3D organ shape can be modeled more quickly and accurately.

예를 들어, 대상체의 기관이 인간의 심장이라고 가정한다면, 심장은 수축기 및 이완기에 따라서 심장의 모양 및 형상에 변화가 발생된다. 또한 심장의 수축 및 이완은 심장 내의 혈액의 배치 및 혈류량을 달라지게 한다. 뿐만 아니라 검사나 시술 시 특정 조직이나 혈관이 잘 보이도록 인체에 투여되는 조영제의 이동에 따라 심자의 부위별로 밝기가 다르게 촬영될 수 있다. For example, if it is assumed that the organ of the object is a human heart, the shape and shape of the heart are changed according to the systolic and diastolic phases of the heart. Also, the contraction and relaxation of the heart changes the arrangement of blood and the amount of blood flow in the heart. In addition, depending on the movement of the contrast medium administered to the human body so that a specific tissue or blood vessel can be seen clearly during an examination or procedure, the brightness may be different for each part of the heart.

도 5는 대상 기관인 심장에 대해 전체 촬영 이미지를 대상으로 3차원 모델링을 수행하는 예시도이다..5 is an exemplary diagram of performing three-dimensional modeling on the entire photographed image of the heart, which is a target organ.

도 5를 참조하면, 전체 촬영 이미지에 대하여 하나의 세그먼테이션 알고리즘을 적용하였기 때문에 심장의 각 부위별로 정확한 세그먼테이션 작업이 수행되지 않았음을 확인할 수 있다.Referring to FIG. 5 , since one segmentation algorithm is applied to the entire photographed image, it can be confirmed that the correct segmentation operation is not performed for each part of the heart.

즉, 전체 심장을 3차원 모델링 하기 위하여, 하나의 알고리즘을 적용하는 경우에는, 심장 전체에 대한 정확한 모델링이 어렵다. 이러한 문제점을 해결하기 위하여 종래 기술은 심장 내 혈액 부분을 추출하고, 심장을 부위별, 즉 좌심방, 좌심실, 우심방, 우심실, 대동맥, 폐동맥, 정맥, 대동맥판막, 폐동맥판막, 삼천판, 승모판, 관상동맥등을 등으로 분리한 후 3차원 모델링을 수행하였다. 특히, 의료영상데이터 내에서 식별이 어려운 부위의 3차원 모델링을 위해서는 수작업 및 후처리하는 과정이 필요했다. 이러한 종래 개술은 개인의 능숙도에 따라 결과의 품질이 상이하게 되고, 무엇보다 많은 시간이 소요되는 문제가 발생하였다. That is, when one algorithm is applied to three-dimensionally model the entire heart, it is difficult to accurately model the entire heart. In order to solve this problem, the prior art extracts a portion of blood within the heart, and divides the heart by region, that is, left atrium, left ventricle, right atrium, right ventricle, aorta, pulmonary artery, vein, aortic valve, pulmonary artery valve, tricuspid valve, mitral valve, coronary artery After separating the back into the back, three-dimensional modeling was performed. In particular, manual and post-processing were required for 3D modeling of difficult-to-identify areas in medical image data. Such a conventional open art has a problem in that the quality of the results is different depending on the individual's proficiency, and above all, it takes a lot of time.

이러한 문제점을 해결하기 위하여 본 발명은 기관의 부위 별로(예를 들어, 심장의 경우, 좌심방, 좌심실, 우심방, 우심실, 대동맥, 폐동맥, 정맥, 대동맥판막, 폐동맥판막, 삼천판, 승모판, 관상동맥 등) 각각의 블록을 형성하고, 각각의 블록에 적용되는 세그먼트 알고리즘을 설정하여 동시에 복수의 부위에 대하여 세그멘테이션 작업을 수행한다. 이를 통해 정확하고 신속하게 기관의 3차원 형상을 모델링할 수 있는 효과를 발휘한다. In order to solve this problem, the present invention provides for each part of an organ (for example, in the case of heart, left atrium, left ventricle, right atrium, right ventricle, aorta, pulmonary artery, vein, aortic valve, pulmonary valve, tricuspid valve, mitral valve, coronary artery, etc. ) Each block is formed, and a segmentation algorithm applied to each block is set to perform a segmentation operation on a plurality of parts at the same time. This has the effect of accurately and quickly modeling the three-dimensional shape of the organ.

한편 본 발명의 일 실시예로, 상기 제1영상데이터를 생성하는 단계는, 상기 블록 간에 중복 영역이 존재하는 경우, 상기블록 각각에 설정된 세그멘테이션 알고리즘을 기반으로, 상기 중복 영역에 포함되는 상기 신체 부위를 탐색하는 것을 특징으로 할 수 있다. Meanwhile, in an embodiment of the present invention, in the generating of the first image data, when an overlapping region exists between the blocks, the body part included in the overlapping region is based on a segmentation algorithm set for each of the blocks. It can be characterized by exploring

구체적으로 장치에 의해 생성된 블록들 간에 겹치는 영역이 존재하는 경우, 각각의 블록에 설정된 세그먼테이션 알고리즘을 적용하여 대상 부위를 탐색한다. 또한, 각각의 블록으로부터 획득한 데이터들에 대하여 불리언 처리(Boolean operationl)을 활용하여 블록이 겹치는 영역에 위치한 부위들에 대해 정확한 분석이 가능하다. 즉, 각각의 블록에서 획득한 데이터들에 대하여 불리언 연산자(예를 들어, AND, OR, NOT, XOR 등)를 적용하여 겹쳐진 영역에 위치한 부위들을 논리적으로 분석 및 탐색할 수 있다.Specifically, when an overlapping region exists between blocks generated by the device, a target region is searched for by applying a segmentation algorithm set to each block. In addition, it is possible to accurately analyze the parts located in the area where the blocks overlap by using a Boolean operation on the data obtained from each block. That is, by applying a Boolean operator (eg, AND, OR, NOT, XOR, etc.) to the data obtained from each block, it is possible to logically analyze and search for parts located in the overlapping area.

구체적인 예로, 대상 기관이 심장인 경우, 심방 및 심실에 형성된 블록이 겹치는 영역에 존재하는 판막을 정확하게 모델링 할 수 있게 된다. 구체적인 다른 예로, 관심영역의 경계가 영역별로 상이한 두께의 근육으로 구성된 경우, 해당 근육으로 구성된 경계가 블록의 겹치는 영역에 위치하도록 블록을 형성하고, 각각의 블록에 특화된 알고리즘을 적용하여 실제 기관과 동일하게 모델링할 수 있다.As a specific example, when the target organ is a heart, it is possible to accurately model a valve existing in a region where blocks formed in the atrium and the ventricle overlap. As another specific example, if the boundary of the region of interest consists of muscles of different thickness for each region, a block is formed so that the boundary composed of the corresponding muscle is located in the overlapping region of the block, and an algorithm specialized for each block is applied to the same as the actual organ. can be modeled.

다시 도 2를 참조하면, 장치는 블록 각각에 설정된 알고리즘을 기초로, 상기 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성한다(S250).Referring back to FIG. 2 , the apparatus generates respective first image data obtained by three-dimensionally modeling parts included in each block based on an algorithm set in each block ( S250 ).

이때, 제1영상데이터를 생성하기 위하여, 각각의 블록에 포함되는 신체 기관의 일부분에 대한 부피 렌더링(Volume Rendring) 과정 및 표면 렌더링(Surface Rendering)과정을 수행한다. 상술한 렌더링 기법은 공지된 기술인 바 자세한 설명은 생략하도록 한다. At this time, in order to generate the first image data, a volume rendering process and a surface rendering process are performed on a part of a body organ included in each block. Since the above-described rendering technique is a known technique, a detailed description thereof will be omitted.

도 6은 본 발명의 일 실시예에 따른 블록 각각에 대하여 설정된 세그먼테이션 알고리즘을 기반으로, 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하는 모습을 나타내는 예시도이다.6 is an exemplary diagram illustrating generation of respective first image data obtained by 3-D modeling parts included in each block based on a segmentation algorithm set for each block according to an embodiment of the present invention.

도 6에는 대상 기관의 복수의 관심영역에 형성된 4개의 블록(200a, 200b, 200c, 200d) 각각에 대하여 동시에 세그먼테이션 작업을 수행하는 모습이 도시되어 있다.6 illustrates a state in which a segmentation operation is simultaneously performed on each of the four blocks 200a, 200b, 200c, and 200d formed in a plurality of ROIs of a target organ.

각각의 블록들은 블록 내 포함되는 관심영역에 대한 촬영 데이터에 최적화된 세그먼테이션 알고리즘이 설정된다. 블록들에 설정되는 세그먼테이션 알고리즘은 동일하거나 상이할 수 있다.For each block, a segmentation algorithm optimized for imaging data for a region of interest included in the block is set. Segmentation algorithms set in blocks may be the same or different.

각각의 블록은 설정된 세그먼테이션 알고리즘을 기반으로 세그먼테이션 작업이 수행된다. 즉, 설정된 세그먼테이션 알고리즘에 따라 조절하는 변수 또는 기준값 등이 상이하게 적용될 수 있다. 이에 따라 각각의 부위를 분리하여 별도로 작업할 필요없이 동일한 기관이라도 부위에 따라 차별화된 알고리즘을 적용하여 동시에 세그먼테이션 작업을 수행하여 보다 빠르고 정확하게 3차원 기관 형상 모델링 작업을 수행할 수 있다.Each block is segmented based on a set segmentation algorithm. That is, a variable or a reference value to be adjusted according to a set segmentation algorithm may be applied differently. Accordingly, it is possible to perform a 3D organ shape modeling work faster and more accurately by performing segmentation work at the same time by applying a differentiated algorithm according to the site even in the same organ, without the need to separate each area and work separately.

도 2를 참조하면, 블록 각각에 포함된 신체 기관의 일부분들을 각각 3차원 모델링하여 복수의 제1영상데이터를 생성하면, 각각의 제1영상데이터를 병합하여 상기 신체 기관 전체에 대한 3차원 형태의 제2영상데이터를 생성한다(S260).Referring to FIG. 2 , when a plurality of first image data is generated by three-dimensionally modeling parts of body organs included in each block, each of the first image data is merged to form a 3D shape of the entire body organ Generates second image data of (S260).

도 7은 각각의 제1영상데이터를 병합하여 심장 기관 전체에 대한 3차원 형태의 제2 영상데이터를 생성하는 것을 나타낸 예시도이다. 7 is an exemplary diagram illustrating generation of second image data in a three-dimensional form for the entire cardiac organ by merging respective first image data.

도 6 및 7을 참조하면, 프로세서(140)는 4개의 블록(200a, 200b, 200c, 200d) 각각에 대해 생성된 4개의 제1영상데이터를 병합하여 심장 기관 전체에 대한 3차원 형태의 제2 영상데이터를 생성한다.6 and 7 , the processor 140 merges the four first image data generated for each of the four blocks 200a, 200b, 200c, and 200d to form a second 3D shape of the entire cardiac organ. Create video data.

구체적으로 프로세서(120)는 복수의 제2영상데이터를 병합하여 제2영상데이터를 생성한다. 구체적으로, 프로세서(140)는 영상 정합(Image Registration)을 통해 제2영상데이터를 생성할 수 있다.Specifically, the processor 120 generates second image data by merging a plurality of second image data. Specifically, the processor 140 may generate the second image data through image registration.

상기 영상 정합은 제1영상데이터중 관심부위의 단면형상을 얻어 하나의 참조 좌표로 이동시켜 겹쳐보는 기술을 의미한다. The image registration refers to a technique for obtaining a cross-sectional shape of a region of interest from among the first image data and moving it to one reference coordinate to overlap it.

본 발명의 일 실시예에 따르면, 영상 정합은 영상의 주요 특징점을 추출하여 정합하는 특징 요소 정합 기법 또는 영상에서 일정 영역을 지정된 템플릿과 비교하여 가장 유사도가 높은 영역을 판별하는 템플릿 기반 정합 기법(Template-based Registration)을 포함할 수 있다.According to an embodiment of the present invention, image registration is a feature element matching technique for extracting and matching major feature points of an image or a template-based matching technique for determining a region with the highest similarity by comparing a predetermined region in an image with a specified template (Template) -based registration).

상기 특징 요소 정합 기법은 특징요소 추출(feature extraction), 특징 요소 간 정합(feature matching), 변환모델 구성(transformation model estimation), 그리고 기하보정(image registration)의 네 단계로 구성될 수 있다.The feature element matching technique may consist of four steps: feature extraction, feature matching, transformation model estimation, and image registration.

또한, 상기 특징 요소 정합 방법으로는 CC(Cross-Correlation), MI(Mutual Information) 또는 LSM(Least-Squares Matching) 등의 강도기반 정합기법(intensity-based matching method)과 SIFT(Scale-Invariant Feature Transform)나 SURF(Speeded Up Robust Features)등의 특징 기반 정합기법(feature-based matching method) 등이 있다.In addition, as the feature element matching method, an intensity-based matching method such as CC (Cross-Correlation), MI (Mutual Information) or LSM (Least-Squares Matching) and SIFT (Scale-Invariant Feature Transform) ) and feature-based matching methods such as Speeded Up Robust Features (SURF).

본 발명의 일 실시예에 따르면, 상기 영상 정합(Image Registration) 방법으로 특징 기반 정합기법을 이용하는 경우, 상기 제1영상데이터의 축을 정렬한다. 일 실시예에서, 상기 영상데이터의 축은 3차원 공간에서의 x, y, z축을 의미한다.According to an embodiment of the present invention, when a feature-based registration technique is used as the image registration method, the axes of the first image data are aligned. In an embodiment, the axis of the image data refers to x, y, and z axes in a three-dimensional space.

그리고, 복수의 제1영상데이터로부터 복수의 특징점을 추출하여 매칭함으로써 각 영상의 크기 및 위치를 조절할 수 있다. 일 실시예에서, 상기 특징점은 환자의 상태 변화(예를 들어, 호흡)에 따라 3차원 공간에서의 위치가 변화하지 않는 특정 지점을 포함한다.In addition, by extracting and matching a plurality of feature points from a plurality of first image data, the size and position of each image may be adjusted. In an embodiment, the feature point includes a specific point in which a position in a three-dimensional space does not change according to a change in a patient's state (eg, breathing).

일 실시예에서, 상기 특징점 추출은 머신러닝(Machine Learning) 또는 딥러닝(Deep Learning)을 포함하는 인공지능 알고리즘에 의해 구현될 수 있다.In an embodiment, the feature point extraction may be implemented by an artificial intelligence algorithm including machine learning or deep learning.

상기 복수의 특징점이 추출되면, 복수의 특징점 사이의 거리 또는 위치를 기초로 각각의 제1영상데이터의 크기 및 위치를 일치시킨 후 병합하여 제2영상데이터를 생성할 수 있다.When the plurality of feature points are extracted, the size and position of each of the first image data are matched based on the distance or location between the plurality of feature points, and then merged to generate the second image data.

한편, 상술한 본 발명의 일 실시예에 따라서 생성된 기관의 3차원 모델링 데이터는, 3차원 프린터 또는 3차원 프린팅 기법에 따라서 실체화되어 출력될 수 있다. 이와 같이 출력된 결과물은 시술훈련 및 수술 시뮬레이션 등에 이용될 수 있다.Meanwhile, the three-dimensional modeling data of the organ generated according to the embodiment of the present invention described above may be materialized and output according to a three-dimensional printer or a three-dimensional printing technique. The output results in this way can be used for surgical training and surgical simulation.

본 발명에서, 프로세서(130)를 통한 다양한 실시예들은 머신러닝 모델을 이용하여 구현될 수도 있다. 일 예로, 본 발명의 심층신경망(Deep Neural Network; DNN)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 포함할 수 있다. In the present invention, various embodiments via the processor 130 may be implemented using a machine learning model. As an example, the deep neural network (DNN) of the present invention may include a system or network that constructs one or more layers in one or more computers and performs a determination based on a plurality of data.

상기 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. The deep neural network may be implemented as a set of layers including a convolutional pooling layer, a locally-connected layer, and a fully-connected layer.

상기 컨볼루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성될 수 있다. The convolutional pooling layer or local connection layer may be configured to extract features in an image.

상기 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. The fully connected layer may determine a correlation between features of an image.

다른 예로, 본 발명의 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.As another example, the overall structure of the deep neural network of the present invention may be formed in a form in which a local access layer is connected to a convolutional pooling layer, and a fully connected layer is formed in the local access layer. The deep neural network may include various judgment criteria (ie, parameters), and may add new judgment criteria (ie, parameters) through input image analysis.

본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)이 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)과 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수도 있다. The deep neural network according to embodiments of the present invention is a structure called a convolutional neural network suitable for image analysis, and a feature extraction layer that learns by itself the feature with the greatest discriminative power from given image data. ) and a prediction layer that learns a prediction model to obtain the highest prediction performance based on the extracted features may be configured in an integrated structure.

상기 특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다. The feature extraction layer spatially integrates a convolution layer that creates a feature map by applying a plurality of filters to each region of the image and a feature map that is invariant to changes in position or rotation. It can be formed in a structure that alternately repeats the pooling layer for extracting . Through this, various level features can be extracted from low-level features such as points, lines, and planes to complex and meaningful high-level features.

상기 콘볼루션 층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상시킨다. The convolutional layer obtains a feature map by taking a nonlinear activation function on the dot product of the filter and the local receptive field for each patch of the input image. In comparison, CNNs are characterized by using filters with sparse connectivity and shared weights. This connection structure reduces the number of parameters to be learned, makes learning through the backpropagation algorithm efficient, and consequently improves prediction performance.

상기 통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘볼루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 상기 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 상기 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.The integration layer (Pooling Layer or Sub-sampling Layer) generates a new feature map by using local information of the feature map obtained from the previous convolutional layer. In general, the newly created feature map by the integration layer is reduced to a smaller size than the original feature map. Representative integration methods include Max Pooling, which selects the maximum value of the corresponding region in the feature map, and the corresponding feature map in the feature map. There is an average pooling method that calculates the average value of a region. In general, the feature map of the integrated layer may be less affected by the position of an arbitrary structure or pattern existing in the input image than the feature map of the previous layer. That is, the integration layer can extract features more robust to regional changes, such as noise or distortion, from the input image or previous feature map, and these features can play an important role in classification performance. Another role of the integration layer is to reflect the features of a wider area as you go up to the upper learning layer in the deep structure. As the feature extraction layers are piled up, the lower layers reflect local features and move up to the upper layers. More and more abstract features can be generated that reflect the features of the entire image.

이와 같이, 콘볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.As such, the features finally extracted through iteration of the convolutional layer and the integration layer are fully connected to the classification model such as multi-layer perception (MLP) or support vector machine (SVM). -connected layer) and can be used for classification model training and prediction.

또한, 본 발명의 일 실시예에 따르면, 기계학습을 위한 학습 데이터는 U-Net-dhSgement 모델에 기초하여 생성될 수 있다. 여기서, U-Net-dhSgement 모델은 종단 간(end-to-end)의 완전 연결 컨벌루션 네트워크 (Fully Convolutional Networks. FCN)를 기초로, 확장(expansive) 경로를 수축(contracting) 경로와 대칭(symmetric)으로 설정하여 각 레벨에 대한 스킵(skip) 연결이 있는 U 자형 아키텍처를 생성한 모델일 수 있다.Also, according to an embodiment of the present invention, learning data for machine learning may be generated based on the U-Net-dhSgement model. Here, the U-Net-dhSgement model is based on an end-to-end fully connected convolutional network (FCN), and contracts an expansive path and a symmetric path. It could be a model that created a U-shaped architecture with skip connections for each level by setting it to .

또한, 머신러닝 모델을 위한 학습 데이터는 의료영상데이터, 제1영상데이터 및 제2영상데이터로 구성될 수 있다.In addition, the training data for the machine learning model may be composed of medical image data, first image data, and second image data.

따라서, 프로세서(140)는 학습 데이터를 통해 학습한 머신러닝 모델을 이용하여, 도 2 및 도 7에서 상술한, 영상 분할을 통한 기관의 3차원 모델링하는 과정을 수행할 수 있다.Accordingly, the processor 140 may perform the three-dimensional modeling of the organ through image segmentation, as described above with reference to FIGS. 2 and 7 , using the machine learning model learned through the training data.

본 발명의 다양한 실시예들은 기기(machine)(예를 들어, 영상 분할을 통한 기관의 3차원 모델링 장치(100) 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(140))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예를 들어, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Various embodiments of the present invention may include a storage medium (eg, memory) readable by a machine (eg, an apparatus 100 for 3D modeling of an organ through image segmentation or a computer). It may be implemented as software including one or more instructions stored in the . For example, the processor (eg, the processor 140 ) of the device may call at least one of the one or more instructions stored from the storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not include a signal (eg, electromagnetic wave), and this term means that data is semi-permanently stored in the storage medium. and temporary storage. For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.

일 실시예에 따르면, 본 명세서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예를 들어, compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.According to one embodiment, the method according to various embodiments disclosed in the present specification may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as merchandise. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store™) or on two user devices. It can be distributed (eg downloaded or uploaded) directly or online between devices (eg smartphones). In the case of online distribution, at least a portion of a computer program product (eg, a downloadable app) is stored at least in a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. The present invention may be temporarily stored or temporarily created. The embodiments of the present invention have been described above with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains will appreciate the technical spirit or essential features of the present invention. It will be understood that the invention may be embodied in other specific forms without modification. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 영상 분할을 통한 기관의 3차원 모델링 장치
110 : 수집부
120 : 메모리
130 : 프로세서
100: 3D modeling device of an organ through image segmentation
110: collection unit
120: memory
130: processor

Claims (10)

장치에 의해 수행되는 방법에 있어서,
대상체의 특정 신체 기관에 대한 적어도 하나 이상의 의료영상데이터를 입력받는 단계;
상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 관심영역을 설정하는 단계;
상기 관심영역에 대응하는 하나 이상의 블록을 형성하는 단계-상기 블록 각각은, 상기 관심영역에 해당하는 상기 신체 기관의 일부분을 포함함-;
상기 블록 각각에 대한 세그먼테이션 알고리즘을 설정하는 단계;
상기 블록 각각에 설정된 알고리즘을 기초로, 상기 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하는 단계; 및
상기 각각의 제1영상데이터를 병합하여 상기 신체 기관 전체에 대한 3차원 형태의 제2영상데이터를 생성하는 단계를 포함하는,
영상 분할을 통한 기관의 3차원 모델링 방법.
A method performed by an apparatus comprising:
receiving at least one or more medical image data for a specific body organ of a subject;
setting a region of interest for the body organ based on the medical image data;
forming one or more blocks corresponding to the region of interest, each block including a portion of the body organ corresponding to the region of interest;
setting a segmentation algorithm for each of the blocks;
generating respective first image data obtained by three-dimensionally modeling parts included in each of the blocks based on an algorithm set in each of the blocks; and
Comprising the step of merging each of the first image data to generate a three-dimensional form of second image data for the entire body organ,
A three-dimensional modeling method of organs through image segmentation.
제 1 항에 있어서,
상기 관심영역을 설정하는 단계는,
딥러닝 기반의 제1 모델을 기초로, 상기 신체 기관의 유형을 인식하여, 상기 신체 기관의 유형에 상응하는 관심영역을 자동 생성하는 것인,
영상 분할을 통한 기관의 3차원 모델링 방법.
The method of claim 1,
The step of setting the region of interest comprises:
Based on the deep learning-based first model, by recognizing the type of the body organ, automatically generating a region of interest corresponding to the type of the body organ,
A three-dimensional modeling method of organs through image segmentation.
제 1 항에 있어서,
상기 병합은 영상 정합을 통해 수행되며,
상기 영상 정합은 특징 요소 정합 기법 및 템플릿 기반 정합 기법을 적어도 하나를 통해 수행되는,
영상 분할을 통한 기관의 3차원 모델링 방법
The method of claim 1,
The merging is performed through image registration,
The image registration is performed through at least one of a feature element matching technique and a template-based matching technique,
3D modeling method of organs through image segmentation
제 1 항에 있어서,
상기 제1영상데이터를 생성하는 단계는,
상기 블록 간에 중복 영역이 존재하는 경우, 상기블록 각각에 설정된 세그멘테이션 알고리즘을 기반으로, 상기 중복 영역에 포함되는 상기 신체 부위를 식별하는 것을 특징으로 하는,
영상 분할을 통한 기관의 3차원 모델링 방법
The method of claim 1,
The step of generating the first image data comprises:
When an overlapping region exists between the blocks, the body part included in the overlapping region is identified based on a segmentation algorithm set in each of the blocks.
3D modeling method of organs through image segmentation
제 1 항에 있어서,
상기 관심 영역을 설정하는 단계는,
상기 신체 기관의 혈영 영역에 상응하는 제1 영역과 상기 신체 기관의 근육 영역에 상응하는 제2 영역으로 분할하는 단계와
상기 제1 영역과 제2 영역을 상기 신체 기관에 관한 관심영역으로 설정하는 단계를 더 포함하고,
상기 분할하는 단계는,
상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 명암값이 기 설정된 제1 값 이상인 경우 상기 혈액 영역에 상응하는 제1 영역으로 식별하고, 명암값이 기 설정된 제2 값 미만인 경우 상기 근육 영역에 상응하는 제2 영역으로 식별하여 분할하는 것인,
영상 분할을 통한 기관의 3차원 모델링 방법.
The method of claim 1,
The step of setting the region of interest comprises:
dividing a first region corresponding to a blood region of the body organ and a second region corresponding to a muscle region of the body organ;
The method further comprising the step of setting the first region and the second region as regions of interest for the body organs,
The dividing step is
Based on the medical image data, when the contrast value of the body organ is greater than or equal to a preset first value, it is identified as a first region corresponding to the blood region, and when the contrast value is less than a preset second value, it is applied to the muscle region. which is to be identified and divided into a corresponding second region,
A three-dimensional modeling method of organs through image segmentation.
적어도 하나 이상의 의료영상데이터를 획득하는 수집부; 및
프로세서;를 포함하고,
상기 프로세서는,
상기 의료영상데이터를 기반으로, 상기 신체 기관에 관한 관심영역을 설정하고, 상기 관심영역에 대응하는 하나 이상의 블록을 형성하고, 상기 블록 각각에 대한 세그먼테이션 알고리즘을 설정하고, 상기 블록 각각에 설정된 알고리즘을 기초로, 상기 블록 각각에 포함된 일부분들을 3차원 모델링한 각각의 제1영상데이터를 생성하고, 상기 각각의 제1영상데이터를 병합하여 상기 신체 기관 전체에 대한 3차원 형태의 제2영상데이터를 생성하되,
상기 블록 각각은 상기 관심영역에 해당하는 상기 신체 기관의 일부분을 포함하는,
영상 분할을 통한 기관의 3차원 모델링 장치.
a collection unit for acquiring at least one or more medical image data; and
processor; including;
The processor is
Based on the medical image data, a region of interest for the body organ is set, one or more blocks corresponding to the region of interest are formed, a segmentation algorithm is set for each of the blocks, and an algorithm set for each of the blocks is set. Based on the three-dimensional modeling of the parts included in each block, each of the first image data is generated, and the respective first image data is merged to form the second image data in a three-dimensional form for the entire body. create, but
Each of the blocks comprises a portion of the body organ corresponding to the region of interest,
A 3D modeling device for organs through image segmentation.
제 6 항에 있어서,
상기 블록 간에 중복 영역이 존재하는 경우, 상기블록 각각에 설정된 세그멘테이션 알고리즘을 기반으로, 상기 중복 영역에 포함되는 상기 신체 부위를 식별하는 것을 특징으로 하는.
영상 분할을 통한 기관의 3차원 모델링 장치.
7. The method of claim 6,
When an overlapping region exists between the blocks, the body part included in the overlapping region is identified based on a segmentation algorithm set for each of the blocks.
A 3D modeling device for organs through image segmentation.
제 6 항에 있어서,
상기 관심영역을 설정하는 것은,
상기 프로세서가 상기 의료영상데이터를 딥러닝 기반의 제1 모델을 기초로, 상기 신체 기관의 유형을 인식하여, 상기 신체 기관의 유형에 상응하는 관심영역을 자동 생성하는 것인,
영상 분할을 통한 기관의 3차원 모델링 장치.
7. The method of claim 6,
Setting the region of interest is
The processor recognizes the type of the body organ based on the first model based on deep learning based on the medical image data, and automatically generates a region of interest corresponding to the type of the body organ.
A 3D modeling device for organs through image segmentation.
제 6 항에 있어서,
상기 영상 정합은 특징 요소 정합 기법 및 템플릿 기반 정합 기법을 적어도 하나를 통해 수행되는,
영상 분할을 통한 기관의 3차원 모델링 장치.
7. The method of claim 6,
The image registration is performed through at least one of a feature element matching technique and a template-based matching technique,
A 3D modeling device for organs through image segmentation.
컴퓨터와 결합하여 제1항 내지 제5항 중 어느 하나의 항의 영상 분할을 통한 기관의 3차원 모델링 방법을 수행하기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium to perform a three-dimensional modeling method of an organ through image segmentation of any one of claims 1 to 5 in combination with a computer.
KR1020200178173A 2019-12-20 2020-12-18 Device and method for modeling three-dimensional organ by image segmentation KR102409464B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2020/018694 WO2021125889A1 (en) 2019-12-20 2020-12-18 Device and method for 3d modeling organ by means of image segmentation
US17/844,517 US20220392076A1 (en) 2019-12-20 2022-06-20 Device and method for modeling three-dimensional organ by image segmentation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190171952 2019-12-20
KR20190171952 2019-12-20

Publications (2)

Publication Number Publication Date
KR20210080244A true KR20210080244A (en) 2021-06-30
KR102409464B1 KR102409464B1 (en) 2022-06-15

Family

ID=76602331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200178173A KR102409464B1 (en) 2019-12-20 2020-12-18 Device and method for modeling three-dimensional organ by image segmentation

Country Status (1)

Country Link
KR (1) KR102409464B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150108701A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 System and method for visualizing anatomic elements in a medical image
KR20150125436A (en) * 2014-04-30 2015-11-09 삼성전자주식회사 Apparatus and method for providing additional information according to each region of interest
KR101986571B1 (en) 2017-04-24 2019-06-10 주식회사 디엠에스 Method of manufacturing artificial organ model
KR101999785B1 (en) * 2018-02-09 2019-07-12 메디컬아이피 주식회사 Method and apparatus for providing 3D model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150108701A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 System and method for visualizing anatomic elements in a medical image
KR20150125436A (en) * 2014-04-30 2015-11-09 삼성전자주식회사 Apparatus and method for providing additional information according to each region of interest
KR101986571B1 (en) 2017-04-24 2019-06-10 주식회사 디엠에스 Method of manufacturing artificial organ model
KR101999785B1 (en) * 2018-02-09 2019-07-12 메디컬아이피 주식회사 Method and apparatus for providing 3D model

Also Published As

Publication number Publication date
KR102409464B1 (en) 2022-06-15

Similar Documents

Publication Publication Date Title
US11806189B2 (en) Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
US11393229B2 (en) Method and system for artificial intelligence based medical image segmentation
Xu et al. Evaluation of six registration methods for the human abdomen on clinically acquired CT
US20200194117A1 (en) Systems, methods, and media for remote trauma assessment
Tang et al. An augmentation strategy for medical image processing based on statistical shape model and 3D thin plate spline for deep learning
US20180174311A1 (en) Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
Xu et al. Predicting animation skeletons for 3d articulated models via volumetric nets
Girum et al. Learning with context feedback loop for robust medical image segmentation
KR102450931B1 (en) Image registration method and associated model training method, apparatus, apparatus
Dimas et al. Intelligent visual localization of wireless capsule endoscopes enhanced by color information
Avila-Montes et al. Segmentation of the thoracic aorta in noncontrast cardiac CT images
Xu et al. Deep reinforcement learning and its applications in medical imaging and radiation therapy: a survey
Morales et al. Reslicing ultrasound images for data augmentation and vessel reconstruction
KR102535865B1 (en) Method and program for modeling personalized breast implant
KR102409464B1 (en) Device and method for modeling three-dimensional organ by image segmentation
CN107230211A (en) A kind of image partition method and system
CN111724395A (en) Heart image four-dimensional context segmentation method, device, storage medium and device
Schwab et al. Multimodal medical image registration using particle swarm optimization with influence of the data's initial orientation
US20220392076A1 (en) Device and method for modeling three-dimensional organ by image segmentation
Kang et al. Simulating liver deformation during respiration using sparse local features
Lu et al. Three-dimensional multimodal image non-rigid registration and fusion in a high intensity focused ultrasound system
Shanmuganathan et al. Two-Step Rigid and Non-Rigid Image Registration for the Alignment of Three-Dimensional Echocardiography Sequences From Multiple Views
KR20210080232A (en) Method and program for modeling personalized breast implant
Lankton Localized statistical models in computer vision
Song et al. Abdominal Multi-Organ Segmentation Based on Feature Pyramid Network and Spatial Recurrent Neural Network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right