KR20220097697A - Method and system of medical image segmentation using fusion deep neural network model - Google Patents

Method and system of medical image segmentation using fusion deep neural network model Download PDF

Info

Publication number
KR20220097697A
KR20220097697A KR1020200188354A KR20200188354A KR20220097697A KR 20220097697 A KR20220097697 A KR 20220097697A KR 1020200188354 A KR1020200188354 A KR 1020200188354A KR 20200188354 A KR20200188354 A KR 20200188354A KR 20220097697 A KR20220097697 A KR 20220097697A
Authority
KR
South Korea
Prior art keywords
medical image
neural network
image data
model
deep neural
Prior art date
Application number
KR1020200188354A
Other languages
Korean (ko)
Inventor
정성문
우동원
Original Assignee
경북대학교 산학협력단
경북대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단, 경북대학교병원 filed Critical 경북대학교 산학협력단
Priority to KR1020200188354A priority Critical patent/KR20220097697A/en
Publication of KR20220097697A publication Critical patent/KR20220097697A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/007Transform coding, e.g. discrete cosine transform
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

The present invention relates to a method and a system for dividing a medical image by using a fusion deep-neural network model and, more specifically, to a method and a system for dividing a medical image by using a fusion deep-neural network model, capable of more accurately dividing an image by fusing shape characteristic information of the image extracted from a convolutional neural network-based model with brightness information of the image extracted from a Gaussian mixture model. In accordance with one embodiment of the present invention, the system for dividing a medical image by using a fusion deep-neural network model, includes: an input part receiving medical image data; a shape characteristic part extracting a shape characteristic value of an image through a convolutional neural network-based U-net from the medical image data; a brightness characteristic part extracting a brightness characteristic value of the image through a Gaussian mixture model from the medical image data; a combination part combining the shape characteristic value with the brightness characteristic value through a channel-wise, and fusing the values through a two-dimensional neural network; and a dividing part encoding or decoding the medical image data in which the shape characteristic value and the brightness characteristic value are fused, multiple times to divide the medical image data.

Description

융합 심층신경망 모델을 이용한 의료영상 분할 방법 및 시스템{Method and system of medical image segmentation using fusion deep neural network model}Method and system of medical image segmentation using fusion deep neural network model

본 발명은 융합 심층신경망 모델을 이용한 의료영상 분할 방법 및 시스템에 관한 것으로, 더욱 상게하게는 합성곱 신경망 기반의 모델에서 추출되는 영상의 형태 특징 정보와 가우시안 혼합 모델에서 추출되는 영상의 밝기 정보의 융합을 통해 영상을 보다 정확하게 분할할 수 있는 의료영상 분할 방법 및 시스템에 관한 것이다.The present invention relates to a medical image segmentation method and system using a convergence deep neural network model, and more specifically, the fusion of shape characteristic information of an image extracted from a convolutional neural network-based model and brightness information of an image extracted from a Gaussian mixture model. It relates to a medical image segmentation method and system capable of more accurately segmenting an image through

최근 의료영상판독을 통한 자동 진단 보조 시스템 개발에 있어서, 각종 CT나 MR영상에서 특정 병변이나 장기의 분할 문제는 환자의 현재 상태 판단이나 예후 예측에 필수적인 문제로 다뤄지고 있다.Recently, in the development of an automatic diagnosis assistance system through medical image reading, the problem of segmentation of a specific lesion or organ in various CT or MR images is being treated as an essential problem in determining the patient's current condition or predicting the prognosis.

인공지능이 발달함에 따라 다양한 장점을 가지는 인공지능의 보조를 통해 더 수월하고 정확한 진단을 시도하고 있다. 의료 분야에서 인공지능은 최종 진단이 아닌 진단을 위한 보조 수단으로써의 역할을 수행할 수 있다.As artificial intelligence develops, easier and more accurate diagnosis is attempted through the assistance of artificial intelligence, which has various advantages. In the medical field, artificial intelligence can play a role as an auxiliary means for diagnosis rather than final diagnosis.

이와 관련한 선행기술로, 한국공개특허 제2015-0098119호는 의료영상 내 거짓양성 병변 후보 제거 시스템 및 방법 에 관한 것으로, 의료영상 내에서 검출된 병변 후보를 해부학적 맥락정보를 이용하여 검증함으로써, 거짓양성 병 변 후보를 제거하는 것을 제시하고 있다.As a prior art in this regard, Korean Patent Application Laid-Open No. 2015-0098119 relates to a system and method for removing false-positive lesion candidates in medical images. Elimination of benign lesion candidates is suggested.

그러나, 기계학습을 통해 의료영상에 대한 분류를 자동으로 수행하는 것에 그치고, 의료영상에서 진단에 필요한 부분을 정확하게 분할해 내는 기술에 대하여는 전혀 제시하고 있지 않다.However, there is no suggestion of a technique for automatically classifying medical images through machine learning, and for accurately segmenting parts necessary for diagnosis in medical images.

본 발명에서는 영상의 형태 특징 정보와 밝기 특징 정보를 융합하여 의료영상에서 진단에 필요한 부분을 분할함으로써, 최종 진단까지 걸리는 시간을 줄여 의료영상을 이용한 질병 진단의 효율성을 높이고 오진의 가능성을 줄이기 위한 의료영상 분할 방법 및 시스템을 제시하고자 한다.In the present invention, by fusing the shape characteristic information and the brightness characteristic information of the image to segment the parts necessary for diagnosis in the medical image, the time taken to the final diagnosis is reduced to increase the efficiency of disease diagnosis using the medical image and to reduce the possibility of misdiagnosis. An image segmentation method and system are presented.

KR 10-2015-0098119KR 10-2015-0098119

상기 전술한 문제점을 해결하기 위하여 본 발명은 합성곱 신경망 기반의 모델에서 추출되는 영상의 형태 특징 정보와 가우시안 혼합 모델에서 추출되는 영상의 밝기 특징 정보의 융합을 통해 보다 더 정확하게 의료영상을 분할하는 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above-mentioned problems, the present invention provides a system for more accurately segmenting a medical image through the fusion of shape characteristic information of an image extracted from a convolutional neural network-based model and brightness characteristic information of an image extracted from a Gaussian mixture model. and to provide a method.

본 발명의 일 실시 예로써, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템이 제공된다.As an embodiment of the present invention, a medical image segmentation system using a fusion deep neural network model is provided.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템은, 의료영상 데이터를 입력 받는 입력부, 상기 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하는 형태 특징부, 상기 의료영상 데이터로부터 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출하는 밝기 특징부, 상기 형태 특징값과 상기 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합하는 결합부 및 상기 형태 특징값과 상기 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할하는 분할부를 포함할 수 있다.A medical image segmentation system using a convergence deep neural network model according to an embodiment of the present invention extracts shape feature values of an image through an input unit receiving medical image data and a convolutional neural network-based U-net from the medical image data a shape feature, a brightness feature for extracting a brightness feature value of an image from the medical image data through a Gaussian mixture model, and combining the shape feature value and the brightness feature value through channel-wise, 2 It may include a combining unit that converges through a dimensional convolutional neural network, and a division unit that divides the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템에서, 상기 입력부는, 상기 의료영상 데이터가 3D 영상인 경우, 상기 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환하는 전처리부를 더 포함할 수 있다.In the medical image segmentation system using the convergence deep neural network model according to an embodiment of the present invention, the input unit includes a preprocessing unit that converts the medical image data into a combination of a plurality of 2D images when the medical image data is a 3D image may include more.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템에서, 상기 형태 특징부는, 상기 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징 값을 추출할 수 있다.In the medical image segmentation system using the convergence deep neural network model according to an embodiment of the present invention, the shape feature may extract a shape feature value by encoding or decoding the medical image data a plurality of times.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템에서, 상기 밝기 특징부는, 상기 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출하고, 상기 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성하며, EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 상기 혼합 확률 모델을 학습하고, 상기 혼합 확률 모델의 파라미터를 추정할 수 있다.In the medical image segmentation system using a convergence deep neural network model according to an embodiment of the present invention, the brightness feature unit extracts a plurality of Gaussian distributions for brightness information of an image from the medical image data, and calculates the plurality of Gaussian distributions. A mixed probabilistic model may be generated using the EM algorithm, the mixed probabilistic model may be trained using an EM algorithm (Expectation-maximixation algorithm), and parameters of the mixed probabilistic model may be estimated.

본 발명의 일 실시 예로써, 융합 심층신경망 모델을 이용한 의료영상 분할방법이 제공된다.As an embodiment of the present invention, a medical image segmentation method using a fusion deep neural network model is provided.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법은, 의료영상 데이터를 입력 받는 영상 입력 단계, 상기 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하고, 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출하는 특징 추출 단계, 상기 형태 특징값과 상기 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합하는 특징 결합 단계 및 상기 형태 특징값과 상기 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할하는 영상 분할 단계를 포함할 수 있다.A medical image segmentation method using a convergence deep neural network model according to an embodiment of the present invention includes an image input step of receiving medical image data, and a shape feature value of an image through a convolutional neural network-based U-net from the medical image data. A feature extraction step of extracting . The method may include combining features of fusion and segmenting the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times to divide the medical image data.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법에서, 상기 영상 입력 단계는, 상기 의료영상 데이터가 3D 영상인 경우, 상기 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환하는 전처리 단계를 더 포함할 수 있다.In the medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention, the image input step includes converting the medical image data into a combination of a plurality of 2D images when the medical image data is a 3D image. It may further include a pretreatment step.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법에서, 상기 특징 추출 단계는, 상기 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징 값을 추출하는 형태 특징 추출단계를 더 포함할 수 있다.In the medical image segmentation method using the convergence deep neural network model according to an embodiment of the present invention, the feature extraction step further includes a shape feature extraction step of extracting shape feature values by encoding or decoding the medical image data a plurality of times. can do.

본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법에서, 상기 특징 추출 단계는, 상기 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출하는 가우시안 분포 추출 단계, 상기 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성하는 확률모델 생성단계 및 EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 상기 혼합 확률 모델을 학습하고, 상기 혼합 확률 모델의 파라미터를 추정하는 파라미터 추정단계를 더 포함할 수 있다.In the medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention, the feature extraction step includes extracting a plurality of Gaussian distributions for brightness information of an image from the medical image data, the Gaussian distribution extraction step, the A probability model generation step of generating a mixed probability model using a plurality of Gaussian distributions and a parameter estimation step of learning the mixed probability model using an EM algorithm (Expectation-maximixation algorithm) and estimating the parameters of the mixed probability model may include more.

본 발명의 일 실시 예로써, 전술한 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.As an embodiment of the present invention, a computer-readable recording medium in which a program for implementing the above-described method is recorded is provided.

본 발명에 따르면, 영상의 형태적 특징뿐만 아니라 밝기 정보까지 함께 고려할 수 있으므로 의료 영상의 정확한 분할이 가능하며, 심층 신경망을 이용한 분석으로써 진단에 걸리는 시간을 단축시킬 수 있다는 이점이 있다.According to the present invention, since not only the morphological features of the image but also the brightness information can be considered together, it is possible to accurately segment a medical image, and there is an advantage that the time taken for diagnosis can be shortened by analysis using a deep neural network.

또한, 본 발명은 특정 분야에 한정되지 않고 의료 영상을 이용하여 질병을 진단하는 다양한 분야에의 적용이 가능하다는 점에서 이점이 있다.In addition, the present invention is advantageous in that it is not limited to a specific field and can be applied to various fields of diagnosing a disease using a medical image.

본 개시에서 얻을 수 있는 효과는 이상에서 언급된 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 방법의 순서도이다.
도 2는 본 발명의 일 실시 예에 따른 융합 심층신경망의 구조의 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 방법의 특징 추출 단계의 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템 및 방법의 성능을 보여주는 예시도이다.
1 is a flowchart of a medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention.
2 is an exemplary diagram of the structure of a fusion deep neural network according to an embodiment of the present invention.
3 is a flowchart of a feature extraction step of a medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention.
4 is a block diagram of a medical image segmentation system using a fusion deep neural network model according to an embodiment of the present invention.
5 is an exemplary diagram showing the performance of a medical image segmentation system and method using a fusion deep neural network model according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고"연결되어 있는 경우도 포함한다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. . In addition, throughout the specification, when a part is "connected" with another part, this includes not only the case of "directly connected" but also the case of "connecting with another element in the middle".

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 방법의 순서도이고, 도 2는 본 발명의 일 실시 예에 따른 융합 심층신경망의 구조의 예시도이다.1 is a flowchart of a medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention, and FIG. 2 is an exemplary diagram of the structure of a fused deep neural network according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법은, 영상 입력 단계(100), 특징 추출 단계(S200), 특징 결합 단계(S300) 및 영상 분할 단계(S400)를 포함할 수 있다.Referring to FIG. 1 , the medical image segmentation method using the fused deep neural network model according to an embodiment of the present invention includes an image input step 100 , a feature extraction step S200 , a feature combining step S300 , and an image segmentation step (S400) may be included.

영상 입력 단계(100)는, 의료영상 데이터를 입력 받는 것으로서, X-ray, 초음파, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), PET(Positron Emission Tomography) 등의 진단기기들로부터 획득된 영상을 수신하고, 기록할 수 있다.The image input step 100 receives medical image data, and images obtained from diagnostic devices such as X-ray, ultrasound, computed tomography (CT), magnetic resonance imaging (MRI), and positive emission tomography (PET). can be received and recorded.

일 실시예에 따라, 융합 심층 신경망 모델을 이용한 의료영상 분할방법의 영상 입력 단계(100)는 전처리 단계(S110)를 더 포함할 수 있다.According to an embodiment, the image input step 100 of the medical image segmentation method using the fused deep neural network model may further include a pre-processing step S110.

전처리 단계(S110)는 의료영상 데이터가 3D 영상인 경우, 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환할 수 있다. 또한, 의료영상 데이터에 대한 잡음 제거, 비균질성 보정과 명암 표준화, 패치 기반 세분화 등을 수행할 수 있다.In the pre-processing step S110, when the medical image data is a 3D image, the medical image data may be converted into a combination of a plurality of 2D images. In addition, noise removal, non-homogeneity correction, contrast standardization, and patch-based segmentation can be performed on medical image data.

특징 추출 단계(S200)는 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하고, 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출한다.In the feature extraction step (S200), the shape feature value of the image is extracted from the medical image data through the U-net based on the convolutional neural network, and the brightness feature value of the image is extracted through the Gaussian mixture model.

형태 특징값은 의료영상 데이터의 공간상의 정보를 포함한 화소값들의 조합으로, 진단하려는 질병의 종류 및 사용하는 심층 신경망의 구조에 의해 추출된다The shape feature value is a combination of pixel values including spatial information of medical image data, and is extracted by the type of disease to be diagnosed and the structure of the deep neural network used.

밝기 특징값은 의료영상 데이터의 밝기 정보 즉, 밝은 부분과 어두운 부분에 대한 정보를 의미하며 하나의 픽셀(pixel)이 갖는 수치로, 표현될 수 있다.The brightness feature value refers to brightness information of medical image data, that is, information about a bright part and a dark part, and may be expressed as a numerical value of one pixel.

U-net은 이미지의 분할을 목적으로 제안된 End-to-End 방식의 Fully-Convolutional Network기반의 모델로서, 네트워크 구성의 형태가 알파벳 U와 유사하여 U-net으로 정의된다. 또한, 이미지의 전반적인 컨텍스트 정보를 얻기 위한 네트워크와 정확한 지역화를 위한 네트워크가 대칭 형태로 구성되는 것을 특징으로 한다.U-net is a model based on Fully-Convolutional Network of End-to-End method proposed for the purpose of image segmentation, and is defined as U-net because its network configuration is similar to the letter U. In addition, it is characterized in that the network for obtaining the overall context information of the image and the network for accurate localization are configured in a symmetrical form.

가우시안 혼합 모델은 복잡한 형태의 확률분포를 복수 개의 단일 가우시안 분포의 혼합으로 표현할 수 있는 모델로, 데이터의 분포를 좀 더 자세하게 표현할 수 있다. 이때, 단일 가우시안 분포의 개수는 사용자에 의해 임의로 설정된다.The Gaussian mixture model is a model that can express a complex-shaped probability distribution as a mixture of a plurality of single Gaussian distributions, and can express data distribution in more detail. In this case, the number of single Gaussian distributions is arbitrarily set by the user.

일 실시예에 따라, 융합 심층신경망 모델을 이용한 의료영상 분할방법의 특징 추출 단계(S200)는 형태 특징 추출 단계(S210)를 더 포함할 수 있다.According to an embodiment, the feature extraction step ( S200 ) of the medical image segmentation method using the fusion deep neural network model may further include the shape feature extraction step ( S210 ).

형태 특징 추출 단계(S210)는 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징값을 추출한다.The shape feature extraction step S210 extracts shape feature values by encoding or decoding the medical image data a plurality of times.

특징 결합 단계(S300)는 상기 형태 특징값과 상기 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합한다.In the feature combining step ( S300 ), the shape feature value and the brightness feature value are combined through channel-wise and fused through a two-dimensional convolutional neural network.

영상 분할 단계(S400)는 형태 특징값과 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할한다.The image segmentation step (S400) divides the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times.

이때, 인코딩-디코딩 과정을 통해 의료영상을 분할하는 기준은 진단하려는 질병의 종류에 따라 달라질 것이며, 의료진 또는 사용자에 의해 설정될 것이다.In this case, the criterion for dividing the medical image through the encoding-decoding process will vary depending on the type of disease to be diagnosed, and will be set by a medical staff or a user.

일 실시 예에 따른 융합 심층 신경망 모델을 도 2와 같은 구조의 모델 아키텍처로 구현될 수 있다.The convergence deep neural network model according to an embodiment may be implemented as a model architecture having a structure as shown in FIG. 2 .

도 3은 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 방법의 특징 추출 단계(S200)의 순서도이다.3 is a flowchart of a feature extraction step (S200) of a medical image segmentation method using a fused deep neural network model according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할방법의 특징 추출 단계(S200)는 가우시안 분포 추출단계(S221), 확률모델 생성단계(S222) 및 파라미터 추정단계(S223)를 더 포함할 수 있다.Referring to FIG. 3 , the feature extraction step (S200) of the medical image segmentation method using the fused deep neural network model according to an embodiment of the present invention includes the Gaussian distribution extraction step (S221), the probability model generation step (S222), and parameter estimation. Step S223 may be further included.

가우시안 분포 추출단계(S221)는 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출한다. 가우시안 분포의 추출 이전에 의료영상 데이터를 이용하여 가우시안 혼합 모델의 사전학습을 수행한다.In the Gaussian distribution extraction step S221, a plurality of Gaussian distributions for image brightness information are extracted from the medical image data. Prior to extraction of the Gaussian distribution, pre-training of the Gaussian mixture model is performed using medical image data.

확률모델 생성단계(S222)는 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성한다. 이때, 복수 개의 가우시안 분포의 평균, 분산, 가중치를 이용하여 혼합 확률 모델을 생성한다.In the probabilistic model generation step S222, a mixed probabilistic model is generated using a plurality of Gaussian distributions. In this case, a mixed probability model is generated using the average, variance, and weight of a plurality of Gaussian distributions.

파라미터 추정단계(S223)는 EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 상기 혼합 확률 모델을 학습하고, 상기 혼합 확률 모델의 파라미터를 추정한다. 파라미터들은 하기의 [수학식 1]을 통해 추출되며, 의료영상 데이터의 밝기 특징값을 포함한다.In the parameter estimation step S223, the mixed probabilistic model is learned by using an EM algorithm (Expectation-maximixation algorithm), and parameters of the mixed probabilistic model are estimated. The parameters are extracted through [Equation 1] below, and include brightness feature values of medical image data.

Figure pat00001
Figure pat00001

(여기서, K는 가우시안 개수,

Figure pat00002
는 평균,
Figure pat00003
는 분산,
Figure pat00004
는 가중치이다.)(where K is the number of Gaussians,
Figure pat00002
is the average,
Figure pat00003
is distributed,
Figure pat00004
is the weight.)

실시예에 따라, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.According to an embodiment, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium.

또한, 상술한 방법에서 사용된 데이터는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매치(예를 들면, 시디롬, DVD등)와 같은 저장 매체를 포함할 수 있다.In addition, the data used in the above-described method may be recorded in a computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be construed as including temporary objects such as carrier waves or signals. The computer-readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable match (eg, a CD-ROM, a DVD, etc.).

도 4는 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템의 블록도이다.4 is a block diagram of a medical image segmentation system using a fusion deep neural network model according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템은, 입력부(100), 형태 특징부(200), 밝기 특징부(300), 결합부(400) 및 분할부(500)를 포함할 수 있다.Referring to FIG. 4 , the medical image segmentation system using the fused deep neural network model according to an embodiment of the present invention includes an input unit 100 , a shape feature 200 , a brightness feature 300 , and a combiner 400 . and a division unit 500 .

입력부(100)는 의료영상 데이터를 입력 받는 것으로서, CT 또는 MR 영상을 수신하고 이를 저장할 수 있는 장치이다.The input unit 100 receives medical image data, and is a device capable of receiving and storing a CT or MR image.

형태 특징부(200)는 입력부(100)에 수신된 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하는 것으로서, U-net 블록으로 구성될 수 있다. 또한, 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징 값을 추출할 수 있다.The shape feature 200 extracts shape feature values of an image through a convolutional neural network-based U-net from the medical image data received by the input unit 100 , and may be configured as a U-net block. In addition, shape feature values may be extracted by encoding or decoding medical image data a plurality of times.

밝기 특징부(300)는 상기 의료영상 데이터로부터 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출하는 것으로서,The brightness feature unit 300 extracts the brightness feature value of the image from the medical image data through a Gaussian mixture model,

또한, 밝기 특징부(300)는 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출하고, 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성하며, EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 혼합 확률 모델을 학습하고, 혼합 확률 모델의 파라미터를 추정할 수 있다.In addition, the brightness feature unit 300 extracts a plurality of Gaussian distributions for the brightness information of the image from the medical image data, generates a mixed probability model using the plurality of Gaussian distributions, and performs an EM algorithm (Expectation-maximixation algorithm) It is used to learn a mixed probabilistic model and estimate parameters of the mixed probabilistic model.

결합부(400)는 형태 특징값과 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합한다.The combining unit 400 combines the shape feature value and the brightness feature value through channel-wise, and converges through a two-dimensional convolutional neural network.

분할부(500)는 상기 형태 특징값과 상기 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할한다. 이때, 인코딩-디코딩 과정을 거쳐 의료영상을 분할하는 기준은 진단하려는 질병의 종류에 따라 달라질 것이며, 의료진 또는 사용자에 의해 설정될 것이다.The dividing unit 500 divides the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times. In this case, the criterion for dividing the medical image through the encoding-decoding process will vary depending on the type of disease to be diagnosed, and will be set by a medical staff or a user.

전처리부는 입력부(100)는, 상기 의료영상 데이터가 3D 영상인 경우, 상기 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환하는 전처리부를 더 포함할 수 있다.The pre-processing unit 100 may further include a pre-processing unit that converts the medical image data into a combination of a plurality of 2D images when the medical image data is a 3D image.

일 실시예에 따라, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템은 후술하는 기능을 수행할 수 있는 기기로써, 예를 들어 서버 컴퓨터, 개인 컴퓨터 등으로 구성될 수 있다. 일 실시예에로써, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템은 하나 이상의 프로세서 및/또는 하나 이상의 메모리를 더 포함할 수 있다.According to an embodiment, the medical image segmentation system using the convergence deep neural network model is a device capable of performing a function to be described later, and may include, for example, a server computer, a personal computer, and the like. As an embodiment, the medical image segmentation system using the fused deep neural network model may further include one or more processors and/or one or more memories.

하나 이상의 메모리는 다양한 데이터를 저장할 수 있다. 메모리에 저장되는 데이터는, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템의 적어도 하나의 구성요소에 의해 획득되거나, 철되거나, 사용되는 데이터로서, 소프트웨어를 포함할 수 있다. 또한, 메모리는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다.The one or more memories may store various data. Data stored in the memory is data acquired, collected, or used by at least one component of a medical image segmentation system using a fusion deep neural network model, and may include software. Memory may also include volatile and/or non-volatile memory.

하나 이상의 메모리는 하나 이상의 프로세서에 의한 실행 시, 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들을 저장할 수 있다.The one or more memories may store instructions that, when executed by the one or more processors, cause the one or more processors to perform an operation.

하나 이상의 프로세서는 소프트웨어를 구동하여 프로세서에 연결된 융합 심층신경망 모델을 이용한 의료영상 분할 시스템의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한, 프로세서는 데이터 등을 메모리로부터 로드하거나 메모리에 저장할 수 있다.One or more processors may drive software to control at least one component of a medical image segmentation system using a fused deep neural network model connected to the processor. In addition, the processor may perform various operations, processing, data generation, processing, etc. related to the present disclosure. In addition, the processor may load data or the like from or store to the memory.

도 5는 본 발명의 일 실시 예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템 및 방법의 성능을 보여주는 예시도이다. 5 is an exemplary diagram showing the performance of a medical image segmentation system and method using a fusion deep neural network model according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 융합 심층신경망 모델의 정성적 평가를 알 수 있다. 가우시안 혼합 모델의 가우시안 개수 K는 2, 3 두 가지를 이용하였다.Referring to FIG. 5 , it can be seen a qualitative evaluation of the convergence deep neural network model according to an embodiment of the present invention. 2 and 3 were used for the Gaussian number K of the Gaussian mixture model.

도 5의 (a)는 입력영상 데이터, (b)는 대조군으로써 의료영상 데이터에서 분할되어야 하는 부분을 표시한 것, (c)는 U-net 모델을 이용하여 의료영상을 분할한 것 (d)는 가우시안 개수가 2인 가우시안 혼합 모델을 이용하여 의료영상을 분할한 것, (e)는 가우시안 개수가 3인 가우시안 혼합 모델을 이용하여 의료영상을 분할한 것이다.(a) of FIG. 5 is input image data, (b) is a control that indicates the part to be segmented in the medical image data, (c) is a medical image segmented using a U-net model (d) is a medical image segmented using a Gaussian mixture model with a Gaussian number of 2, and (e) is a medical image segmented using a Gaussian mixture model with a Gaussian number of 3.

도 5의 정성적 평가에 대한 정량적 평가는 아래의 [표 1]과 같다. 정량적 평가에서는 도 5(b)와 도 5 (c), (d), (e)의 유사도를 산출하였으며, 유사도 지수(Dice Score)로 나타냈다. 유사도 지수는 0에서 1의 값을 가질 수 있으며, 1에 가까울수록 유사한 것을 의미한다.Quantitative evaluation of the qualitative evaluation of FIG. 5 is shown in [Table 1] below. In the quantitative evaluation, the similarity of FIGS. 5(b) and 5(c), (d), and (e) was calculated and expressed as a similarity index (Dice Score). The similarity index may have a value from 0 to 1, and the closer to 1, the more similar.

모델Model U-netU-net K = 2K = 2 K = 3K = 3 Dice scoreDice score 0.7120.712 0.7230.723 0.7150.715

상기 [표 1]에 따르면, 본 발명의 일 실시예에 따른 융합 심층신경망 모델을 이용한 의료영상 분할 시스템 및 방법의 U-net모델의 유사도 계수(Dice score)는 0.712, 가우시안 개수(K)가 2인 경우의 제안하는 모델의 유사도 계수는 0.723, 가우시안 개수(K)가 3인 경우의 제안하는 모델의 유사도 계수는 0.715의 유사도 계수가 나온 것을 알 수 있다.전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.According to [Table 1], the similarity coefficient (Dice score) of the U-net model of the medical image segmentation system and method using the fused deep neural network model according to an embodiment of the present invention is 0.712, and the number of Gaussians (K) is 2 It can be seen that the similarity coefficient of the proposed model is 0.723 in the case of , and the similarity coefficient of the proposed model is 0.715 when the number of Gaussians (K) is 3. And, those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위게 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be interpreted as being included in the scope of the present invention. do.

100: 입력부
110: 전처리부
200: 형태 특징부
300: 밝기 특징부
400: 결합부
500: 분할부
100: input unit
110: preprocessor
200: shape feature
300: brightness feature
400: coupling part
500: division

Claims (9)

의료영상 데이터를 입력 받는 입력부;
상기 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하는 형태 특징부;
상기 의료영상 데이터로부터 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출하는 밝기 특징부;
상기 형태 특징값과 상기 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합하는 결합부; 및
상기 형태 특징값과 상기 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할하는 분할부를 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할 시스템.
an input unit for receiving medical image data;
a shape feature for extracting shape feature values of an image from the medical image data through a convolutional neural network-based U-net;
a brightness feature for extracting a brightness feature value of an image from the medical image data through a Gaussian mixture model;
a combining unit for combining the shape feature value and the brightness feature value through a channel-wise method and fusion through a two-dimensional convolutional neural network; and
A medical image segmentation system using a convergence deep neural network model, comprising a segmentation unit for dividing the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times.
제 1 항에 있어서,
상기 입력부는,
상기 의료영상 데이터가 3D 영상인 경우, 상기 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환하는 전처리부를 더 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할 시스템.
The method of claim 1,
The input unit,
When the medical image data is a 3D image, the medical image segmentation system using a convergence deep neural network model further comprising a preprocessor for converting the medical image data into a combination of a plurality of 2D images.
제 1 항에 있어서,
상기 형태 특징부는,
상기 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징 값을 추출하는 것인, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템.
The method of claim 1,
The shape characteristic is,
A medical image segmentation system using a fusion deep neural network model, which extracts shape feature values by encoding or decoding the medical image data multiple times.
제 1 항에 있어서,
상기 밝기 특징부는,
상기 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출하고, 상기 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성하며, EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 상기 혼합 확률 모델을 학습하고, 상기 혼합 확률 모델의 파라미터를 추정하는 것인, 융합 심층신경망 모델을 이용한 의료영상 분할 시스템.
The method of claim 1,
The brightness feature is
Extracting a plurality of Gaussian distributions for image brightness information from the medical image data, generating a mixed probability model using the plurality of Gaussian distributions, and using the EM algorithm (Expectation-maximixation algorithm) to obtain the mixed probability model A medical image segmentation system using a fusion deep neural network model that learns and estimates the parameters of the mixed probabilistic model.
의료영상 데이터를 입력 받는 영상 입력 단계;
상기 의료영상 데이터로부터 합성곱 신경망 기반의 U-net을 통해 영상의 형태 특징값을 추출하고, 가우시안 혼합 모델을 통해 영상의 밝기 특징값을 추출하는 특징 추출 단계;
상기 형태 특징값과 상기 밝기 특징값을 채널 와이즈(channel-wise)를 통해 결합하고, 2차원 합성곱 신경망을 통해 융합하는 특징 결합 단계; 및
상기 형태 특징값과 상기 밝기 특징값이 융합된 의료영상 데이터를 복수 회 인코딩 또는 디코딩 하여 상기 의료영상 데이터를 분할하는 영상 분할 단계를 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할방법.
an image input step of receiving medical image data;
a feature extraction step of extracting a shape feature value of an image through a convolutional neural network-based U-net from the medical image data, and extracting a brightness feature value of the image through a Gaussian mixture model;
a feature combining step of combining the shape feature value and the brightness feature value through channel-wise and fusion through a two-dimensional convolutional neural network; and
A medical image segmentation method using a fusion deep neural network model, comprising an image segmentation step of segmenting the medical image data by encoding or decoding the medical image data in which the shape feature value and the brightness feature value are fused multiple times.
제 5 항에 있어서,
상기 영상 입력 단계는,
상기 의료영상 데이터가 3D 영상인 경우, 상기 의료영상 데이터를 복수 개의 2D 영상의 조합으로 변환하는 전처리 단계를 더 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할 방법.
6. The method of claim 5,
In the video input step,
When the medical image data is a 3D image, the medical image segmentation method using a convergence deep neural network model further comprising a pre-processing step of converting the medical image data into a combination of a plurality of 2D images.
제 5 항에 있어서,
상기 특징 추출 단계는,
상기 의료영상 데이터를 복수 회 인코딩 또는 디코딩하여 형태 특징 값을 추출하는 형태 특징 추출단계를 더 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할 방법.
6. The method of claim 5,
The feature extraction step is
A medical image segmentation method using a convergence deep neural network model, further comprising a shape feature extraction step of extracting shape feature values by encoding or decoding the medical image data a plurality of times.
제 5 항에 있어서,
상기 특징 추출 단계는,
상기 의료영상 데이터로부터 영상의 밝기 정보에 대한 복수 개의 가우시안 분포를 추출하는 가우시안 분포 추출 단계;
상기 복수 개의 가우시안 분포를 이용하여 혼합 확률 모델을 생성하는 확률모델 생성단계; 및
EM 알고리즘(Expectation-maximixation algorithm)을 이용하여 상기 혼합 확률 모델을 학습하고, 상기 혼합 확률 모델의 파라미터를 추정하는 파라미터 추정단계를 더 포함하는 융합 심층신경망 모델을 이용한 의료영상 분할 방법.
6. The method of claim 5,
The feature extraction step is
a Gaussian distribution extraction step of extracting a plurality of Gaussian distributions for image brightness information from the medical image data;
a probabilistic model generating step of generating a mixed probabilistic model using the plurality of Gaussian distributions; and
A medical image segmentation method using a convergence deep neural network model, further comprising a parameter estimation step of learning the mixed probabilistic model using an EM algorithm (Expectation-maximixation algorithm) and estimating the parameters of the mixed probabilistic model.
제 5 항 내지 제 8 항 중 어느 한 항에 따른 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium in which a program for implementing the method according to any one of claims 5 to 8 is recorded.
KR1020200188354A 2020-12-30 2020-12-30 Method and system of medical image segmentation using fusion deep neural network model KR20220097697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200188354A KR20220097697A (en) 2020-12-30 2020-12-30 Method and system of medical image segmentation using fusion deep neural network model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200188354A KR20220097697A (en) 2020-12-30 2020-12-30 Method and system of medical image segmentation using fusion deep neural network model

Publications (1)

Publication Number Publication Date
KR20220097697A true KR20220097697A (en) 2022-07-08

Family

ID=82407468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200188354A KR20220097697A (en) 2020-12-30 2020-12-30 Method and system of medical image segmentation using fusion deep neural network model

Country Status (1)

Country Link
KR (1) KR20220097697A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150098119A (en) 2014-02-19 2015-08-27 삼성전자주식회사 System and method for removing false positive lesion candidate in medical image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150098119A (en) 2014-02-19 2015-08-27 삼성전자주식회사 System and method for removing false positive lesion candidate in medical image

Similar Documents

Publication Publication Date Title
Farhat et al. Deep learning applications in pulmonary medical imaging: recent updates and insights on COVID-19
US9968257B1 (en) Volumetric quantification of cardiovascular structures from medical imaging
CN109919928B (en) Medical image detection method and device and storage medium
CN109978037B (en) Image processing method, model training method, device and storage medium
US20230281809A1 (en) Connected machine-learning models with joint training for lesion detection
US11464491B2 (en) Shape-based generative adversarial network for segmentation in medical imaging
CN112150428A (en) Medical image segmentation method based on deep learning
Veeramuthu et al. A neural network based deep learning approach for efficient segmentation of brain tumor medical image data
CN112862830B (en) Multi-mode image segmentation method, system, terminal and readable storage medium
CN111667478A (en) Method and system for identifying carotid plaque through CTA-MRA cross-modal prediction
Jung et al. Deep learning for medical image analysis: Applications to computed tomography and magnetic resonance imaging
Maicas et al. Pre and post-hoc diagnosis and interpretation of malignancy from breast DCE-MRI
KR102258756B1 (en) Determination method for stage of cancer based on medical image and analyzing apparatus for medical image
CN115496771A (en) Brain tumor segmentation method based on brain three-dimensional MRI image design
CN114565761A (en) Deep learning-based method for segmenting tumor region of renal clear cell carcinoma pathological image
Aja-Fernandez et al. Soft thresholding for medical image segmentation
CN112837296A (en) Focus detection method, device and equipment based on ultrasonic video and storage medium
CN115018863A (en) Image segmentation method and device based on deep learning
KR20200087427A (en) The diagnostic method of lymph node metastasis in thyroid cancer using deep learning
US20230222771A1 (en) Method and system for automatic classification of radiographic images having different acquisition characteristics
CN116228731A (en) Multi-contrast learning coronary artery high-risk plaque detection method, system and terminal
KR20220097697A (en) Method and system of medical image segmentation using fusion deep neural network model
CN113379770B (en) Construction method of nasopharyngeal carcinoma MR image segmentation network, image segmentation method and device
CN115294023A (en) Liver tumor automatic segmentation method and device
Ta et al. Simultaneous segmentation and motion estimation of left ventricular myocardium in 3d echocardiography using multi-task learning

Legal Events

Date Code Title Description
A201 Request for examination