KR20180021635A - Method and system for analyzing feature representation of lesions with depth directional long-term recurrent learning in 3d medical images - Google Patents

Method and system for analyzing feature representation of lesions with depth directional long-term recurrent learning in 3d medical images Download PDF

Info

Publication number
KR20180021635A
KR20180021635A KR1020170014827A KR20170014827A KR20180021635A KR 20180021635 A KR20180021635 A KR 20180021635A KR 1020170014827 A KR1020170014827 A KR 1020170014827A KR 20170014827 A KR20170014827 A KR 20170014827A KR 20180021635 A KR20180021635 A KR 20180021635A
Authority
KR
South Korea
Prior art keywords
sectional images
lesion
neural network
lesion feature
objective function
Prior art date
Application number
KR1020170014827A
Other languages
Korean (ko)
Other versions
KR101980955B1 (en
Inventor
노용만
김대회
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20180021635A publication Critical patent/KR20180021635A/en
Application granted granted Critical
Publication of KR101980955B1 publication Critical patent/KR101980955B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

According to an embodiment, a lesion feature representation analyzing method using depth direction recurrent study in 3D medical images comprises the following steps of: extracting a lesion space feature representation of each of a plurality of sectional images by using a convolution neural network (CNN) wherein the plurality of sectional images are included in the 3D medical images which photograph a lesion; and extracting a lesion feature representation of each of the plurality of sectional images along a depth direction of the plurality of sectional images by using a recurrent neural network based on the lesion space feature representation of each of the plurality of sectional images.

Description

3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 방법 및 시스템{METHOD AND SYSTEM FOR ANALYZING FEATURE REPRESENTATION OF LESIONS WITH DEPTH DIRECTIONAL LONG-TERM RECURRENT LEARNING IN 3D MEDICAL IMAGES}TECHNICAL FIELD [0001] The present invention relates to a method and system for analyzing a lesion in a three-dimensional medical image using depth direction recursive learning,

아래의 실시예들은 깊이 방향 재귀 학습(Depth Directional Long-Term Recurrent Learning)을 이용하여 병변 특징 표현(Feature Representation of Lesions)을 분석하는 시스템 및 그 분석 방법에 관한 것으로, 컨벌루션 신경망(Convolutional Neural Network) 및 재귀 신경망(Recurrent Neural Network)을 이용하여 3차원 의료 영상에 포함되는 병변의 공간 및 깊이 특징 표현을 추출하여 분석하는 기술에 대한 것이다.The following embodiments relate to a system for analyzing Feature Representation of Lesions using Depth Directional Long-Term Recurrent Learning and a method for analyzing the Feature Representation of Lesions, including a Convolutional Neural Network The present invention relates to a technology for extracting and analyzing spatial and depth feature expressions included in a 3D medical image using a Recurrent Neural Network.

최근 3차원 디지털 토모신테시스(Digital Breast Tomosynthesis; DBT)가 유방의 3차원 구조 정보를 영상화하여, 기존 2차원 마모그래피(Mammography)의 조직 중첩 문제를 해결할 새로운 영상 기술로 주목 받고 있다. DBT는 일련의 제한된 각도 범위에서 X선 촬영으로 얻어진 복수 개의 저선량 투영영상(Low-dose Projection Views)으로부터 3차원 단면영상(Reconstructed Slices)을 재구성하여, 유방의 3차원 구조정보를 제공한다. 이러한 DBT는, 임상연구를 통해 활용될 경우, 기존 마모그램(Mammogram)과 비교하여 유방암 병변의 검출율을 높일 수 있음이 보고되고 있다. 하지만 DBT는 일반적으로 35내지 80장 내외의 단면영상들을 제공하기 때문에, 기존 마모그램이 1장의 영상을 제공하던 것과 비교하여 분석할 영상의 수가 매우 많다는 단점을 갖는다. 또한, 이와 같은 단점은DBT를 활용한 유방암 진단 시, 방사선 전문의의 진단 시간과 부담을 증가시키는 문제점을 발생시킨다.In recent years, Digital Breast Tomosynthesis (DBT) has been attracting attention as a new image technology that solves the tissue overlap problem of conventional two dimensional (2D) Mammography by imaging the 3D structure information of the breast. DBT reconstructs 3D reconstructed slices from multiple low-dose projection views obtained by X-ray imaging over a limited range of angles to provide three-dimensional structure information of the breast. It has been reported that this DBT can increase the detection rate of breast cancer lesion compared with existing Mammogram when used through clinical research. However, since the DBT generally provides about 35 to 80 frames of sectional images, it has a disadvantage that the number of images to be analyzed is very large compared with the case where the existing weargram provides one image. These disadvantages also raise the problem of increasing the diagnosis time and burden of the radiologist when diagnosing breast cancer using DBT.

이에, 진단 부담 증가를 해결하기 위하여 다양한 컴퓨터 보조 진단(Computer-Aided Detection)이 연구 되었다. 컴퓨터 보조 진단은 의사에게 유방암으로 의심되는 영역을 보여주어 진단에 도움을 주는 것이 목적으로, 여러 임상 연구에서 의사의 진단에 도움을 주는 것으로 보고되고 있다. 그러나, 컴퓨터 보조 진단은 상대적으로 위양성(False Positive) 검출율이 높기 때문에, 불필요한 조직 검사를 야기하고, 이는 환자의 진단 부담을 증가시킬 수 있다.A variety of computer-aided detection techniques have been studied to overcome the increased diagnostic burden. Computer assisted diagnosis has been reported to help doctors diagnose various clinical studies with the purpose of helping doctors to show suspected areas of breast cancer to the doctor. However, since computer-assisted diagnosis has a relatively high false positive detection rate, it causes unnecessary biopsy, which may increase the diagnostic burden on the patient.

이러한 위양성과 실제 유방암 병변을 구분하기 위하여, 다양한 Hand-Crafted 특징이 개발되었다. 그러나, Hand-Crafted 특징은 의사의 지식과 경험에 의존하여 35 내지80 장 내외의 수 많은 단면영상에 감추어져 있는 특징을 개발하기 어려운 한계점이 존재한다.To distinguish these false positives from actual breast cancer lesions, various hand-crafted features have been developed. However, the hand-crafted feature depends on the physician's knowledge and experience, and there are limitations that it is difficult to develop features that are hidden in many cross-sectional images of about 35-80 sheets.

따라서, 방대한 영상 데이터에서 병변의 특징을 효과적으로 추출하고 분류할 수 있는 기술의 필요성이 대두되는 바, 아래의 실시예들은 재귀 신경망(Recurrent Neural Network) 기반의 딥 러닝을 이용하여, 의료 영상으로부터 병변의 공간 및 깊이 특징 표현을 분석하는 기술을 제안한다.Accordingly, there is a need for a technique capable of efficiently extracting and classifying lesion characteristics in massive image data, and the following embodiments are based on Recurrent Neural Network-based deep learning, We propose a technique to analyze spatial and depth feature expressions.

일실시예들은 3차원 의료 영상에 포함되는 복수의 단면영상들에서 병변의 공간 및 깊이 특징 표현을 분석하는 방법 및 시스템을 제공한다.One embodiment provides a method and system for analyzing spatial and depth feature representations of a lesion in a plurality of cross-sectional images included in a three-dimensional medical image.

구체적으로, 일실시예들은 복수의 단면영상들로 구성된 병변 의심 영역에 대해, 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여 복수의 단면영상들 각각의 병변 공간 특징 표현을 추출하고, 재귀 신경망(Recurrent Neural Network)을 이용하여 복수의 단면영상들의 깊이 방향에 따른 복수의 단면영상들 각각의 병변 특징 표현을 추출함으로써, 주어진 병변 의심 영역을 분류하는 방법 및 시스템을 제공한다.Specifically, one embodiment extracts a lesion spatial feature representation of each of a plurality of sectional images using a Convolution Neural Network (CNN) for a lesion suspected region composed of a plurality of sectional images, A method and system for classifying a given lesion suspicious region by extracting a lesion feature expression of each of a plurality of sectional images along a depth direction of a plurality of sectional images using a Recurrent Neural Network.

또한, 일실시예들은 병변 특징 표현을 추출하는 과정에서 이용되는 재귀 신경망을 병변 특징 표현이 효율적으로 추출되도록 학습시키는 방법 및 시스템을 제공한다.In addition, one embodiment provides a method and system for learning a recursive neural network used in a process of extracting a lesion feature expression so that a lesion feature expression is efficiently extracted.

일실시예에 따르면, 3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 방법은 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출하는 단계; 및 상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 상기 복수의 단면영상들의 깊이 방향에 따라 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계를 포함한다.According to one embodiment, a method of analyzing a lesion feature representation using depth directional recursion in a three-dimensional medical image comprises using a Convolution Neural Network (CNN), wherein a plurality of cross-sectional images- Extracting each of the lesion space feature expressions included in one taken three-dimensional medical image; And extracting a lesion feature expression of each of the plurality of sectional images along a depth direction of the plurality of sectional images using a recurrent neural network based on a lesion spatial feature representation of each of the plurality of sectional images. .

상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계는 상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계; 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계; 및 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는 단계를 포함할 수 있다.Wherein the extracting of the lesion feature expressions of each of the plurality of sectional images includes recognizing a lesion feature vector of each of the plurality of sectional images based on the depth direction of the plurality of sectional images; Acquiring lesion feature expressions of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images; And classifying lesions of each of the plurality of sectional images based on a lesion feature representation of each of the plurality of sectional images.

상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계는 상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 그룹핑하는 단계; 및 상기 그룹 별로 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계를 포함할 수 있다.Wherein recognizing a lesion feature vector of each of the plurality of sectional images comprises grouping lesion spatial feature representations of each of the plurality of sectional images based on a depth direction of the plurality of sectional images; And recognizing a lesion feature vector of each of the plurality of sectional images for each group.

상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는 상기 그룹 사이에서 서로 대응되는 단면영상들 각각의 병변 특징 벡터를 융합하여, 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계를 포함할 수 있다.Wherein acquiring the lesion feature expressions of each of the plurality of sectional images comprises acquiring lesion feature expressions of each of the plurality of sectional images by fusing lesion feature vectors of each of the sectional images corresponding to each other between the groups . ≪ / RTI >

상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식하는 단계; 및 상기 인식된 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계를 포함할 수 있다.Wherein acquiring the lesion feature expressions of each of the plurality of sectional images comprises: recognizing depth direction symmetry of lesions of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images; And obtaining a lesion feature representation of each of the plurality of sectional images based on the depth direction symmetry of the lesion of each of the recognized plurality of sectional images.

상기 재귀 신경망은 상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 학습될 수 있다.Wherein the recursive neural network comprises a first objective function for minimizing classification errors that classify lesions of each of the plurality of sectional images, a correspondence between lesion feature vectors of each of the plurality of sectional images to be fused And a third objective function for minimizing the intra-class variance in which the lesion of each of the plurality of sectional images is classified.

상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는 상기 제2 목적 함수가 최대화되도록 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식하는 단계를 포함할 수 있다.Wherein the obtaining of the lesion feature expressions of each of the plurality of sectional images comprises fusing the lesion feature vectors of each of the plurality of sectional images so that the second objective function is maximized, And recognizing the symmetry.

상기 복수의 단면영상들 각각의 병변을 분류하는 단계는 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 제1 목적 함수가 최소화되도록 상기 복수의 단면영상들 각각의 병변을 분류하는 단계를 포함할 수 있다.Wherein classifying lesions of each of the plurality of sectional images comprises classifying lesions of each of the plurality of sectional images so that the first objective function is minimized based on a lesion feature representation of each of the plurality of sectional images .

상기 복수의 단면영상들 각각의 병변을 분류하는 단계는 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 제3 목적 함수가 최소화되도록 상기 복수의 단면영상들 각각의 병변을 분류하는 단계를 포함할 수 있다.Wherein classifying lesions of each of the plurality of sectional images comprises classifying lesions of each of the plurality of sectional images so that the third objective function is minimized based on a lesion feature representation of each of the plurality of sectional images .

일실시예에 따르면, 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각에서 추출된 병변 공간 특징 표현을 기초로 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는데 이용되는 깊이 방향 재귀 학습 방법은 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수를 최적화하도록 재귀 신경망(Recurrent Neural Network)을 학습하는 단계; 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하기 위하여 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수를 최적화하도록 상기 재귀 신경망을 학습하는 단계; 및 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수를 최적화하도록 상기 재귀 신경망을 학습하는 단계를 포함한다.According to one embodiment, a plurality of sectional images using the Convolution Neural Network (CNN), wherein the plurality of sectional images are included in one 3D medical image capturing a lesion, A depth direction recursion learning method for extracting a lesion feature representation of each of the plurality of sectional images based on a representation of a plurality of sectional images comprises calculating a lesion feature of each of the plurality of sectional images based on a lesion feature expression of each of the plurality of sectional images Learning a Recurrent Neural Network to optimize a first objective function to minimize classifying classification errors; To optimize a second objective function to maximize correspondence between lesion feature vectors of each of the plurality of cross-sectional images to be fused, to extract a lesion feature representation of each of the plurality of cross-sectional images, Learning a neural network; And learning the recursive neural network to optimize a third objective function to minimize intra-class variance in which lesions of each of the plurality of sectional images are classified based on a lesion feature representation of each of the plurality of sectional images do.

일실시예에 따르면, 3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 시스템은 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출하는 컨벌루션 신경망 적용부; 및 상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 상기 복수의 단면영상들의 깊이 방향에 따라 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 재귀 신경망 적용부를 포함한다.According to one embodiment, a lesion feature expression analysis system that uses depth direction recursion in a three-dimensional medical image uses a Convolution Neural Network (CNN) to generate a plurality of cross-sectional images- A convolutional neural network application for extracting each lesion space feature representation included in one photographed 3D medical image; And extracting a lesion feature expression of each of the plurality of sectional images along a depth direction of the plurality of sectional images using a recurrent neural network based on a lesion spatial feature representation of each of the plurality of sectional images. And a recursive neural network application unit.

상기 재귀 신경망 적용부는 상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하고, 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하며, 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류할 수 있다.Wherein the recursive neural network application unit recognizes a lesion feature vector of each of the plurality of sectional images based on a depth direction of the plurality of sectional images and fuses the lesion feature vectors of each of the plurality of sectional images, And to classify the lesion of each of the plurality of sectional images based on the lesion feature expression of each of the plurality of sectional images.

상기 재귀 신경망은 상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 학습될 수 있다.Wherein the recursive neural network comprises a first objective function for minimizing classification errors that classify lesions of each of the plurality of sectional images, a correspondence between lesion feature vectors of each of the plurality of sectional images to be fused And a third objective function for minimizing the intra-class variance in which the lesion of each of the plurality of sectional images is classified.

일실시예들은 3차원 의료 영상에 포함되는 복수의 단면영상들에서 병변의 공간 및 깊이 특징 표현을 분석하는 방법 및 시스템을 제공할 수 있다.One embodiment may provide a method and system for analyzing spatial and depth feature representations of a lesion in a plurality of cross-sectional images included in a three-dimensional medical image.

구체적으로, 일실시예들은 컨벌루션 신경망을 이용하여 복수의 단면영상들 각각의 병변 공간 특징 표현을 추출하고, 재귀 신경망을 이용하여 복수의 단면영상들의 깊이 방향에 따른 복수의 단면영상들 각각의 병변 특징 표현을 추출함으로써, 복수의 단면영상들 각각의 병변을 분류하는 방법 및 시스템을 제공할 수 있다.More specifically, one embodiment extracts a lesion spatial feature representation of each of a plurality of sectional images using a convolutional neural network, and calculates a lesion characteristic of each of a plurality of sectional images along a depth direction of a plurality of sectional images using a recurrent neural network By extracting the expression, a method and system for classifying lesions of each of a plurality of sectional images can be provided.

또한, 일실시예들은 병변 특징 표현을 추출하는 과정에서 이용되는 재귀 신경망을 병변 특징 표현이 효율적으로 추출되도록 학습시키는 방법 및 시스템을 제공할 수 있다.In addition, one embodiment can provide a method and system for learning a recursive neural network used in a process of extracting a lesion feature expression so that a lesion feature expression is efficiently extracted.

따라서, 일실시예들은 병변의 공간 및 깊이 특징 표현을 효과적으로 분석함으로써, CT 또는 MRI 등 다양한 3차원 영상 분석 기술에서 폭 넓게 응용될 수 있는 방법 및 시스템을 제공할 수 있다.Accordingly, one embodiment can provide a method and system that can be widely applied in various 3D image analysis techniques such as CT or MRI by effectively analyzing spatial and depth feature expressions of a lesion.

도 1은 일실시예에 따른 병변 특징 표현 분석 시스템을 설명하기 위한 개념도이다.
도 2는 일실시예에 따른 병변 특징 표현 분석 방법을 구체적으로 설명하기 위한 개념도이다.
도 3a 내지 3c는 일실시예에 따른 재귀 신경망을 학습하는데 이용되는 목적 함수들을 설명하기 위한 도면이다.
도 4a 내지 4b는 일실시예에 따른 병변 특징 표현 분석 방법을 나타낸 플로우 차트이다.
도 5는 일실시예에 따른 병변 특징 표현 분석 시스템을 나타낸 블록도이다.
도 6은 일실시예에 따른 깊이 방향 재귀 학습 방법을 나타낸 플로우 차트이다.
도 7은 일실시예에 따른 깊이 방향 재귀 학습 시스템을 나타낸 블록도이다.
1 is a conceptual diagram for explaining a lesion feature expression analysis system according to an embodiment.
2 is a conceptual diagram for explaining a method of analyzing a lesion feature expression according to an embodiment.
3A to 3C are diagrams for explaining objective functions used for learning a recursive neural network according to an embodiment.
4A and 4B are flowcharts illustrating a method of analyzing a lesion feature according to an exemplary embodiment of the present invention.
5 is a block diagram illustrating a lesion feature expression analysis system according to an embodiment.
6 is a flowchart illustrating a depth direction recursive learning method according to an embodiment.
7 is a block diagram illustrating a depth direction recursion learning system according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Also, terms used in this specification are terms used to appropriately express the preferred embodiment of the present invention, and this may vary depending on the user, the intention of the operator, or the practice of the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

도 1은 일실시예에 따른 병변 특징 표현 분석 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a lesion feature expression analysis system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 병변 특징 표현 분석 시스템(100)은 딥 러닝 기반의 병변 특징 표현 분석 방법을 수행하여, 3차원 의료 영상(110)에서 병변의 특징 표현을 공간 및 깊이를 고려하여 인식할 수 있다. 여기서, 병변은 3차원 의료 영상(110)에서 촬영되는, 질병으로 변화된 인체 조직을 의미한다.Referring to FIG. 1, a lesion feature expression analysis system 100 according to an exemplary embodiment of the present invention performs a deep-run based lesion feature expression analysis method to detect a lesion feature expression in a 3D medical image 110, Can be recognized. Here, the lesion refers to a human tissue changed into a disease, which is photographed in the three-dimensional medical image 110.

구체적으로, 병변 특징 표현 분석 시스템(100)은 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여 3차원 의료 영상(110)에 포함되는 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 추출하는 단계 및 재귀 신경망(Recurrent Neural Network)을 이용하여 깊이 방향에 따른 복수의 단면영상들(120) 각각의 병변 특징 표현을 추출하는 단계를 포함하는 병변 특징 표현 분석 방법을 수행하여, 3차원 의료 영상(110)에서 병변을 인식하고 분류할 수 있다.Specifically, the lesion feature expression analysis system 100 extracts lesion spatial feature expressions of each of a plurality of sectional images 120 included in the 3D medical image 110 using a Convolution Neural Network (CNN) And extracting a lesion feature expression of each of the plurality of sectional images 120 along the depth direction using a recurrent neural network, The lesion can be recognized and classified in the tumor 110.

이하, 병변 특징 표현 분석 방법이 병변 특징 표현 분석 시스템(100)에 의해, 상술한 두 단계들을 통해 수행되는 것으로 설명하나, 이에 제한되거나 한정되지 않고, 컨벌루션 신경망을 이용하여 병변의 공간적 특징을 인식하는 단계 및 재귀 신경망을 이용하여 깊이 방향에 따른 병변의 특징을 인식하는 단계를 필수적으로 포함하는 복수의 단계들로 구성될 수 있다.Hereinafter, the lesion feature expression analysis method is described as being performed by the lesion feature expression analysis system 100 through the two steps described above. However, the present invention is not limited thereto, And recognizing the feature of the lesion along the depth direction using a recursive neural network.

또한, 이하, 병변 특징 표현 분석 시스템(100)은 전자 기기를 구현하는 컴퓨터와 같은 하드웨어 모듈로 구현되는 것으로 설명하나, 이에 제한되거나 한정되지 않고, 컴퓨터와 결합 가능하도록 비일시적인 매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.Hereinafter, the lesion feature expression analysis system 100 will be described as being implemented as a hardware module such as a computer that implements an electronic device. However, the present invention is not limited thereto and may be applied to a computer program stored in a non- . ≪ / RTI >

이 때, 복수의 단면영상들(120)은 하나의 3차원 의료 영상(110)이 깊이 방향에 따라 분할된 영상들로서, 3차원 의료 영상(110) 전체에 대한 깊이 방향에 따라 분할된 영상일 수 있다. 그러나 이에 제한되거나 한정되지 않고, 도면과 같이, 3차원 의료 영상(110) 중 일부분(Volume-Of-Interest; VOI)에 대한 깊이 방향에 따라 분할된 영상일 수도 있다. 따라서, 이하, 복수의 단면영상들(120)이 3차원 의료 영상(110) 중 적어도 일부분이 깊이 방향에 따라 분할된 영상을 의미하는 것으로 설명한다.At this time, the plurality of sectional images 120 are images in which one three-dimensional medical image 110 is divided according to the depth direction, have. However, the present invention is not limited thereto, and it may be an image segmented according to the depth direction with respect to a volume-of-interest (VOI) of the three-dimensional medical image 110, as shown in the figure. Hereinafter, it is assumed that a plurality of sectional images 120 are images in which at least a part of the three-dimensional medical images 110 is divided along the depth direction.

이와 같은 병변 특징 표현 분석 방법의 두 단계는 병변 특징 표현 분석 시스템(100)의 두 구성부에 의해 각각 수행될 수 있다.The two steps of the method for analyzing the lesion feature expression can be performed by the two components of the lesion feature expression analysis system 100, respectively.

보다 상세하게, 병변 특징 표현 분석 시스템(100)에 포함되는 컨벌루션 신경망 적용부(130)는 컨벌루션 신경망을 이용하여 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 추출한다.More specifically, the convolution neural network application unit 130 included in the lesion feature expression analysis system 100 extracts lesion space feature expressions of each of the plurality of sectional images 120 using the convolutional neural network.

여기서, 컨벌루션 신경망은 영상 내 공간적 정보를 이용하여 영상을 분석하고, 영상 내 공간적 특징(Feature)을 추출하는 신경망 기법으로서, 컨벌루션 레이어(Convolution Layer), 맥스폴링 레이어(Pooling Layer) 및 풀리 커넥티드 레이어(Fully Connected Layer)로 설계된다. 이에 대한 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.The convolution neural network is a neural network technique for analyzing an image using spatial information in an image and extracting spatial features in the image. The convolution neural network includes a convolution layer, a max polling layer and a pulley connected layer (Fully Connected Layer). The detailed description thereof will be omitted because it goes beyond the technical idea of the present invention.

예를 들어, 컨벌루션 신경망 적용부(130)는 아래 표 1과 같은 구조를 갖는 컨벌루션 신경망을 적용함으로써, 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 추출할 수 있다. 그러나 컨벌루션 신경망은 표 1의 구조에 제한되거나 한정되지 않고, 파라미터(레이어, 입력 형태(Input Shape), 커널 사이즈(Kernel Size), 스트라이드(Stride), 패드(Pad) 또는 출력 형태(Output Shape) 등)의 변형을 통하여 다양한 구조를 가질 수 있다.For example, the convolutional neural network application unit 130 can extract the lesion spatial feature expressions of each of the plurality of sectional images 220 by applying the convolution neural network having the structure shown in Table 1 below. However, the convolutional neural network is not limited to or limited to the structure shown in Table 1, but may be a parameter, such as a layer, an input shape, a kernel size, a stride, a pad, or an output shape ) Can have various structures.

LayerLayer Input shapeInput shape Kernel sizeKernel size StrideStride PadPad Output shapeOutput shape InputInput 64x64x164x64x1 -- -- -- 64x64x164x64x1 C1C1 64x64x164x64x1 3x33x3 1One 1One 64x64x6464x64x64 C2C2 64x64x6464x64x64 3x33x3 1One 1One 64x64x6464x64x64 M2M2 64x64x6464x64x64 2x22x2 22 00 32x32x6432x32x64 C3C3 32x32x6432x32x64 3x33x3 1One 1One 32x32x12832x32x128 C4C4 32x32x12832x32x128 3x33x3 1One 1One 32x32x12832x32x128 M4M4 32x32x12832x32x128 2x22x2 22 00 16x16x12816x16x128 C5C5 16x16x12816x16x128 3x33x3 1One 1One 16x16x25616x16x256 C6C6 16x16x25616x16x256 3x33x3 1One 1One 16x16x25616x16x256 C7C7 16x16x25616x16x256 3x33x3 1One 1One 16x16x25616x16x256 M7M7 16x16x25616x16x256 2x22x2 22 00 8x8x2568x8x256 C8C8 8x8x2568x8x256 3x33x3 1One 1One 8x8x5128x8x512 C9C9 8x8x5128x8x512 3x33x3 1One 1One 8x8x5128x8x512 C10C10 8x8x5128x8x512 3x33x3 1One 1One 8x8x5128x8x512 M10M10 8x8x5128x8x512 2x22x2 22 00 4x4x5124x4x512 C11C11 4x4x5124x4x512 3x33x3 1One 1One 4x4x5124x4x512 C12C12 4x4x5124x4x512 3x33x3 1One 1One 4x4x5124x4x512 C13C13 4x4x5124x4x512 3x33x3 1One 1One 4x4x5124x4x512 M13M13 4x4x5124x4x512 2x22x2 22 00 2x2x5122x2x512 F14F14 2x2x5122x2x512 -- -- -- 1024x11024x1 F15F15 1024x11024x1 -- -- -- 1024x11024x1

표 1에서, C, M 및 F는 각각 컨벌루션 레이어, 맥스폴링 레이어 및 풀리 커넥티드 레이어를 의미한다.In Table 1, C, M, and F denote a convolution layer, a max polling layer, and a pulley connected layer, respectively.

이 때, 컨벌루션 신경망 적용부(130)는 복수의 단면영상들(120) 각각에 동일한 가중치를 부여함으로써, 후술되는 병변 특징 표현 분석시스템(100)에 포함되는 재귀 신경망 적용부(140)가 복수의 단면영상들(120)의 깊이 방향에 따른 병변의 깊이 방향 대칭성을 인식하는 과정에서, 복수의 단면영상들(120) 각각의 병변 특징 벡터에 동일한 가중치를 적용하여 고려하도록 할 수 있다.In this case, the convolution neural network application unit 130 assigns the same weight to each of the plurality of sectional images 120, so that the recursive neural network application unit 140 included in the later described lesion feature expression analysis system 100 includes a plurality of In recognizing the depth direction symmetry of the lesion along the depth direction of the sectional images 120, it is possible to consider applying the same weight to the lesion feature vectors of each of the plurality of sectional images 120.

도면에는, 컨벌루션 신경망 적용부(130)가 깊이 방향에 따라 두 개의 그룹(위-중심 방향 단면영상들을 포함하는 제1 그룹 및 아래-중심 방향 단면영상들을 포함하는 제2 그룹)으로 그룹핑되어, 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 추출하는 것으로 도시되었으나, 이는, 후술되는 재귀 신경망 적용부(140)가 복수의 단면영상들(120) 각각의 특징 벡터를 인식하는 과정에서, 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 그룹핑하여 병변의 깊이 방향 대칭성을 인식하기 때문에, 편의상 도면과 같이 도시된 것이다.In the drawing, the convolution neural network application unit 130 is grouped into two groups along the depth direction (a first group including the up-centered sectional images and a second group including the down-centered sectional images) Sectional images of each of the sectional images 120 of the sectional images 120 in the process of recognizing the feature vectors of each of the sectional images 120 by the recursive neural network application unit 140, The lesion spatial feature representation of each of the plurality of sectional images 120 is grouped to recognize the depth direction symmetry of the lesion, so that it is shown as a drawing for convenience.

즉, 컨벌루션 신경망 적용부(130)는 복수의 단면영상들(120)을 그룹핑하는 대신에, 개별적으로 복수의 단면영상들 각각의 병변 공간 특징 표현을 추출함으로써, 복수의 단면영상들(120) 각각의 병변에 대한 공간적 구조를 인코딩할 수 있다.That is, instead of grouping the plurality of sectional images 120, the convolution neural network application unit 130 extracts the lesion space feature expressions of each of the plurality of sectional images separately, Lt; RTI ID = 0.0 > lesions. ≪ / RTI >

재귀 신경망 적용부(140)는 재귀 신경망을 이용하여, 복수의 단면영상들(120)의 깊이 방향에 따라 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 기초로 복수의 단면영상들(120) 각각의 병변 특징 표현을 추출한다.The recursive neural network application unit 140 uses the recursive neural network to generate a plurality of sectional images based on the lesion spatial feature representation of each of the plurality of sectional images 120 along the depth direction of the plurality of sectional images 120 120), respectively.

다시 말해, 재귀 신경망 적용부(140)는 컨벌루션 신경망 적용부(130)에서 추출한 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을, 재귀 신경망을 이용하여 깊이 방향에 따라 학습함으로써, 공간 및 깊이를 고려하여 복수의 단면영상들(120) 각각의 병변 특징 표현을 추출할 수 있다. 이하, 재귀 신경망 적용부(140)가 이용하는 재귀 신경망 알고리즘으로서, LSTM(Long Short-Term Memory)가 이용되는 것으로 설명하나, 이에 제한되거나 한정되지 않고, Simple RNN(Recurrent Neural Network) 또는GRU(Gated Recurrent Unit) 등이 이용될 수 있다.In other words, the recursive neural network application unit 140 learns the lesion space feature expressions of each of the plurality of sectional images 120 extracted by the convolution neural network application unit 130 according to the depth direction using the recursive neural network, The lesion feature expressions of each of the plurality of sectional images 120 can be extracted in consideration of the depth. Hereinafter, it is described that a recursive neural network algorithm used by the recursive neural network application unit 140 uses a long short-term memory (LSTM). However, the present invention is not limited to this and is applicable to a simple RNN (Recurrent Neural Network) Unit) can be used.

여기서, LSTM을 포함하는 재귀 신경망은 데이터를 처리하는 스테이트(State)를 순환적으로 구성함으로써, 이전 스테이트를 기반으로 현재 스테이트를 수행하는 신경망 기법으로서, 이에 대한 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.Here, the reflexive neural network including the LSTM is a neural network technique for performing a current state based on a previous state by cyclically constructing a state for processing data, and a detailed description thereof will be omitted from the technical idea of the present invention Therefore, it is omitted.

특히, 재귀 신경망 적용부(140)는 복수의 단면영상들(120)의 깊이 방향에 따라 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 분석하는 과정을 두 단계로 나누어 수행할 수 있다.In particular, the recursive neural network application unit 140 may perform the process of analyzing the lesion space feature expressions of each of the plurality of sectional images 120 along the depth direction of the plurality of sectional images 120 in two steps .

예를 들어, 재귀 신경망 적용부(140)는 복수의 단면영상들(120)의 깊이 방향에 기초하여 복수의 단면영상들(120) 각각의 병변 특징 벡터를 인식하는 제1 단계와, 복수의 단면영상들(120) 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들(120) 각각의 병변 특징 표현을 획득하는 제2 단계를 수행할 수 있다. 이하, 복수의 단면영상들(120) 각각의 병변 특징 벡터를 인식한다는 것은 복수의 단면영상들(120) 각각의 병변 공간 특징 표현의 변화를 인식한다는 것을 의미한다.For example, the recursive neural network application unit 140 may include a first step of recognizing a lesion feature vector of each of the plurality of sectional images 120 based on the depth direction of the plurality of sectional images 120, A second step of acquiring lesion feature expressions of each of the plurality of sectional images 120 by fusing the lesion feature vectors of the images 120 may be performed. Hereinafter, the recognition of the lesion feature vector of each of the plurality of sectional images 120 means that the change of the lesion spatial feature representation of each of the plurality of sectional images 120 is recognized.

따라서, 재귀 신경망 적용부(140)는 복수의 단면영상들(120) 각각의 병변의 텍스처 변형을 깊이 방향에 따라 인코딩함으로써, 복수의 단면영상들(120) 각각의 병변 특징 벡터를 인식하는 하위 재귀 신경망 적용부(141) 및 복수의 단면영상들(120) 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들(120)의 깊이 방향 대칭성을 인코딩함으로써, 복수의 단면영상들(120) 각각의 병변 특징 표현을 획득하는 상위 재귀 신경망 적용부(142)로 구성될 수 있다.Accordingly, the recursive neural network application unit 140 encodes the texture transformations of the lesions of each of the plurality of sectional images 120 in the depth direction, thereby generating a sub-recursion function for recognizing the lesion feature vectors of each of the plurality of sectional images 120 The neural network application unit 141 and the lesion feature vectors of the plurality of sectional images 120 are fused to encode the depth direction symmetry of the plurality of sectional images 120 so that the lesion of each of the plurality of sectional images 120 And an upper recursive neural network application unit 142 for acquiring feature expressions.

이 때, 재귀 신경망 적용부(140)는 복수의 단면영상들(120)의 깊이 방향에 기초하여, 복수의 단면영상들(120) 각각의 병변 공간 특징 표현을 복수의 그룹들(위-중심 방향 단면영상들을 포함하는 제1 그룹 및 아래-중심 방향 단면영상들을 포함하는 제2 그룹)로 그룹핑한 뒤, 그룹 별로 복수의 단면영상들(120) 각각의 병변 특징 벡터를 인식할 수 있다. 이에 대한 상세한 설명은 도 2를 참조하여 기재하기로 한다.At this time, the recursive neural network application unit 140 applies the lesion spatial feature representation of each of the plurality of sectional images 120 to the plurality of groups (the up-center direction A first group including the sectional images and a second group including the lower-center direction sectional images), and then recognize the lesion feature vector of each of the plurality of sectional images 120 for each group. A detailed description thereof will be described with reference to Fig.

이와 같은 재귀 신경망 적용부(140)는 복수의 단면영상들(120) 각각의 병변 특징 표현이 효율적으로 추출되도록 복수의 목적 함수들을 기반으로 학습될 수 있다. 이에 대한 상세한 설명은 도 3a 내지 3c 및 도 6 내지 7을 참조하여 설명하기로 한다.The recursive neural network application unit 140 can be learned based on a plurality of objective functions so that the lesion feature expressions of each of the plurality of sectional images 120 can be efficiently extracted. A detailed description thereof will be made with reference to FIGS. 3A to 3C and FIGS. 6 to 7. FIG.

상술한 바와 같이 복수의 단면영상들(120) 각각의 병변 특징 표현이 추출되면, 재귀 신경망 적용부(140)는 복수의 단면영상들(120) 각각의 병변 특징 표현에 기초하여 복수의 단면영상들(120) 각각의 병변을 분류함으로써, 복수의 단면영상들(120)이 나타내는 병변이 종괴인지 여부를 판단할 수 있다.When the lesion feature expressions of each of the plurality of sectional images 120 are extracted as described above, the recurrent neural network application unit 140 applies a plurality of sectional images based on the lesion feature expressions of the plurality of sectional images 120 It is possible to judge whether the lesion represented by the plurality of sectional images 120 is a mass or not by classifying each lesion.

예를 들어, 재귀 신경망 적용부(140)는 복수의 단면영상들(120) 각각의 병변 특징 표현을 종괴(Mass) 클래스 또는 위양성(False Positive) 클래스로 분류한 뒤, 복수의 단면영상들(120) 각각의 병변 특징 표현이 종괴 클래스 또는 위양성 클래스 중 어느 클래스에 더 많이 속하는지를 판단함으로써, 해당 병변이 종괴인지 여부를 판단할 수 있다.For example, the recursive neural network application unit 140 classifies the lesion feature expressions of each of the plurality of sectional images 120 into Mass class or False Positive class, ) It is possible to judge whether the lesion is a mass or not by judging whether each lesion characteristic expression belongs more to the mass class or the false positive class.

이 때, 재귀 신경망 적용부(140)는 다양한 목적 함수들을 최적화시키며 복수의 단면영상들(120) 각각의 병변을 분류함으로써, 병변의 오분류를 최소화하며, 병변 검출 성능을 향상시킬 수 있다. 이에 대한 상세한 설명은 도 3a 내지 3c를 참조하여 설명하기로 한다.At this time, the recursive neural network application unit 140 optimizes various objective functions and classifies the lesions of each of the plurality of sectional images 120, thereby minimizing misclassification of lesions and improving lesion detection performance. A detailed description thereof will be made with reference to FIGS. 3A to 3C.

도 2는 일실시예에 따른 병변 특징 표현 분석 방법을 구체적으로 설명하기 위한 개념도이다. 보다 상세하게는, 도 2는 도 1에 도시된 병변 특징 표현 시스템에 포함되는 재귀 신경망 적용부의 동작을 구체적으로 설명하기 위한 개념도이다.2 is a conceptual diagram for explaining a method of analyzing a lesion feature expression according to an embodiment. More specifically, FIG. 2 is a conceptual diagram for explaining the operation of the recursive neural network application unit included in the lesion feature presentation system shown in FIG. 1 in detail.

도 2를 참조하면, 일실시예에 따른 병변 특징 표현 분석 시스템(200)에 포함되는 컨벌루션 신경망 적용부(210)에서 컨벌루션 신경망을 이용하여 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 추출하면, 병변 특징 표현 분석 시스템(200)에 포함되는 재귀 신경망 적용부(230)는 재귀 신경망을 이용하여, 복수의 단면영상들(220)의 깊이 방향에 따라 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 기초로 복수의 단면영상들(220) 각각의 병변 특징 표현을 추출한다.2, in the convolution neural network application unit 210 included in the lesion feature expression analysis system 200 according to an exemplary embodiment, a lesion space feature expression of each of the plurality of sectional images 220 is calculated using the convolutional neural network The recursive neural network application unit 230 included in the lesion feature expression analysis system 200 generates a plurality of sectional images 220 along the depth direction of the plurality of sectional images 220 using the recursive neural network The lesion feature expressions of each of the plurality of sectional images 220 are extracted based on the lesion spatial feature representation of the lesion space feature.

이 때, 재귀 신경망 적용부(230)는 복수의 단면영상들(220)의 깊이 방향에 기초하여 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 그룹핑한 뒤, 그룹 별로 복수의 단면영상들(220) 각각의 병변 특징 벡터를 인식함으로써, 복수의 단면영상들(220) 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들(220) 각각의 병변 특징 표현을 획득할 수 있다.At this time, the recursive neural network application unit 230 groups the lesion spatial feature expressions of each of the plurality of sectional images 220 based on the depth direction of the plurality of sectional images 220, The lesion feature vectors of each of the plurality of sectional images 220 can be acquired by fusing the lesion feature vectors of each of the plurality of sectional images 220 by recognizing the lesion feature vectors of the respective lesion feature vectors 220.

예를 들어, 재귀 신경망 적용부(230)에 포함되는 제1 하위 재귀 신경망 적용부(231) 및 제2 하위 재귀 신경망 적용부(232)는 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 위-중심 방향 단면영상들을 포함하는 제1 그룹 및 아래-중심 방향 단면영상들을 포함하는 제2 그룹으로 각각 그룹핑함으로써, 식 1 및 2와 같이, 제1 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 인식하고, 제2 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 인식할 수 있다.For example, the first sub recursion neural network application unit 231 and the second sub recursion neural network application unit 232 included in the recursive neural network application unit 230 may calculate the lesion space feature expressions Sectional images of the cross-sectional images belonging to the first group are grouped into a first group including the up-center direction sectional images and a second group including the down-center direction sectional images, respectively, And recognizes the lesion feature vector of each of the sectional images belonging to the second group.

<식 1><Formula 1>

Figure pat00001
Figure pat00001

<식 2><Formula 2>

Figure pat00002
Figure pat00002

식 1 및 2에서,

Figure pat00003
은 제1 하위 재귀 신경망 적용부(231)가 적용하는 재귀 신경망 함수를 의미하고,
Figure pat00004
은 제2 하위 재귀 신경망 적용부(232)가 적용하는 재귀 신경망 함수를 의미하며,
Figure pat00005
는 복수의 단면영상들(220) 중 k번째 단면영상의 병변 공간 특징 표현을 의미하고,
Figure pat00006
은 제1 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 의미하며,
Figure pat00007
은 제2 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 의미하고,
Figure pat00008
는 복수의 단면영상들(220)의 개수를 의미한다.In Equations 1 and 2,
Figure pat00003
Denotes a recursive neural network function applied by the first sub recursive neural network application unit 231,
Figure pat00004
Refers to a recursive neural network function applied by the second sub recursive neural network application unit 232,
Figure pat00005
Represents a lesion spatial feature representation of a k-th sectional image of a plurality of sectional images 220,
Figure pat00006
Is a lesion feature vector of each of the sectional images belonging to the first group,
Figure pat00007
Denotes a lesion feature vector of each of the sectional images belonging to the second group,
Figure pat00008
The number of the cross-sectional images 220 is determined.

이상, 하위 재귀 신경망 적용부(231, 232)가 두 개의 구성부로 형성되어, 복수의 단면영상들(220) 각각의 병변 공간 특징 표현이 두 개의 그룹으로 그룹핑되는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 그룹핑하고자 하는 그룹의 개수에 따라 하위 재귀 신경망 적용부(231, 232)의 구성부의 개수가 결정될 수 있다.In the above description, the sub-recursive neural network applying units 231 and 232 are formed of two constituent units, and the lesion spatial feature expressions of the plurality of sectional images 220 are grouped into two groups. However, The number of constituent parts of the sub recursive neural network application units 231 and 232 can be determined according to the number of groups to which the lesion spatial feature representation of each of the plurality of sectional images 220 is to be grouped.

이에, 재귀 신경망 적용부(230)에 포함되는 상위 재귀 신경망 적용부(233)는 식 3과 같이, 제1 하위 재귀 신경망 적용부(231)에서 인식된 제1 그룹에 속하는 단면영상들 각각의 병변 특징 벡터와 제2 하위 재귀 신경망 적용부(232)에서 인식된 제2 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 융합함으로써, 복수의 단면영상들(220) 각각의 병변의 깊이 방향 대칭성을 인식하고, 복수의 단면영상들(220) 각각의 병변의 깊이 방향 대칭성에 기초하여 복수의 단면영상들(220) 각각의 병변 특징 표현을 획득할 수 있다.The upper recursive neural network application unit 233 included in the recursive neural network application unit 230 calculates the number of lesions of each of the sectional images belonging to the first group recognized by the first sub recursive neural network application unit 231, The feature vector and the lesion feature vector of each of the sectional images belonging to the second group recognized by the second lower recurrent neural network application unit 232 are fused to recognize the depth direction symmetry of each lesion of the plurality of sectional images 220 And obtain a lesion feature representation of each of the plurality of sectional images 220 based on the depth direction symmetry of the lesion of each of the plurality of sectional images 220.

<식 3><Formula 3>

Figure pat00009
Figure pat00009

식 3에서,

Figure pat00010
은 상위 재귀 신경망 적용부(233)가 적용하는 재귀 신경망 함수를 의미하고,
Figure pat00011
은 제1 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 의미하며,
Figure pat00012
은 제2 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 의미하고,
Figure pat00013
는 복수의 단면영상들(220) 각각의 병변 특징 표현을 의미하며,
Figure pat00014
는 복수의 단면영상들(220)의 개수를 의미한다.In Equation 3,
Figure pat00010
Denotes a recursive neural network function applied by the upper recursive neural network application unit 233,
Figure pat00011
Is a lesion feature vector of each of the sectional images belonging to the first group,
Figure pat00012
Denotes a lesion feature vector of each of the sectional images belonging to the second group,
Figure pat00013
Means a lesion feature representation of each of the plurality of sectional images 220,
Figure pat00014
The number of the cross-sectional images 220 is determined.

이 때, 상위 재귀 신경망 적용부(233)는 제1 하위 재귀 신경망 적용부(231)에서 인식된 제1 그룹에 속하는 단면영상들 각각의 병변 특징 벡터와 제2 하위 재귀 신경망 적용부(232)에서 인식된 제2 그룹에 속하는 단면영상들 각각의 병변 특징 벡터를 융합하는 과정에서, 그룹 사이에서 서로 대응되는 단면영상들(제1 그룹에 포함되는 특정 단면영상과 이에 대응하는 제2 그룹에 포함되는 단면영상) 각각의 병변 특징 벡터를 융합할 수 있다.In this case, the upper recursion neural network application unit 233 applies the lesion feature vector of each of the sectional images belonging to the first group recognized by the first lower recurrent neural network application unit 231 and the feature vector of the second lower recurrent neural network application unit 232 In the process of fusing the lesion feature vectors of each of the cross-sectional images belonging to the recognized second group, the cross-sectional images corresponding to each other between the groups (the specific cross-sectional images included in the first group and the second cross- Sectional images) can be fused.

예를 들어, 상위 재귀 신경망 적용부(233)는 제1 그룹에 포함되는 최상위 단면영상의 병변 특징 벡터와 제2 그룹에 포함되는 최하위 단면영상의 병변 특징 벡터를 융합하고, 제1 그룹에 포함되는 중심 단면영상의 병변 특징 벡터와 제2 그룹에 포함되는 중심 단면영상의 병변 특징 벡터를 융합함으로써, 복수의 단면영상들(220) 각각의 병변 특징 표현을 획득할 수 있다.For example, the upper recursion neural network application unit 233 fuses the lesion feature vector of the highest-level sectional image included in the first group and the lesion feature vector of the lowest-level sectional image included in the second group, A lesion characteristic expression of each of the plurality of sectional images 220 can be obtained by fusing the lesion characteristic vector of the central sectional image and the lesion characteristic vector of the central sectional image included in the second group.

이와 같이, 상위 재귀 신경망 적용부(233)는 복수의 단면영상들(220)의 깊이 방향을 고려하여 복수의 단면영상들(220) 각각의 병변 특징 벡터를 융합함으로써, 병변 특징 표현이 공간 및 깊이를 고려하여 추출되도록 할 수 있다.In this manner, the upper recursion neural network applying unit 233 fuses the lesion feature vectors of each of the plurality of sectional images 220 in consideration of the depth direction of the plurality of sectional images 220, To be extracted.

여기서, 상술한 융합 과정에 의해 획득되는 병변 특징 표현은 복수의 단면영상들(220)의 개수의 절반에 그치게 된다. 그러나, 이러한 병변 특징 표현은 복수의 단면영상들(220) 각각의 병변 특징 벡터가 융합되어 획득되기 때문에, 복수의 단면영상들(220) 각각의 병변이 갖는 특징 표현을 나타낼 수 있다. 따라서, 이하, 상술한 융합 과정에 의해 획득되는 병변 특징 표현을 복수의 단면영상들(220) 각각의 병변 특징 표현으로 기재한다.Here, the lesion characteristic expression obtained by the fusion process described above is limited to half of the number of the plurality of sectional images 220. However, since the lesion feature vector of each of the plurality of sectional images 220 is acquired by fusion, the lesion feature expression can represent the feature expression of each lesion of the plurality of sectional images 220. Therefore, hereinafter, a lesion feature expression obtained by the above-described fusion process is described as a lesion characteristic expression of each of the plurality of sectional images 220.

또한, 도 1을 참조하여 상술한 바와 같이, 복수의 단면영상들(220) 각각에 동일한 가중치가 부여됨으로써, 상위 재귀 신경망 적용부(233)는 동일한 가중치가 부여된 복수의 단면영상들(220) 각각의 병변 특징 벡터를 융합함으로써, 복수의 단면영상들(220) 각각의 병변의 깊이 방향 대칭성을 인식할 수 있다.1, the same weight is given to each of the plurality of sectional images 220, so that the upper recursive neural network applying unit 233 applies a plurality of sectional images 220 having the same weight to each other, By fusing each lesion feature vector, the depth direction symmetry of lesions of each of the plurality of sectional images 220 can be recognized.

또한, 상위 재귀 신경망 적용부(233)는 복수의 단면영상들(220) 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성과 관련된 목적 함수가 최대화되도록 복수의 단면영상들(220) 각각의 병변 특징 벡터를 융합할 수 있다.The upper recursion neural network applying unit 233 may be configured to apply the recursive neural network 220 to each of the plurality of sectional images 220 so that the objective function related to the correspondence between the lesion feature vectors of each of the plurality of sectional images 220, Can be fused.

재귀 신경망 적용부(230)이 하위 재귀 신경망 적용부(231, 232) 및 상위 재귀 신경망 적용부(233)로 분할되어 구성되는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 하위 재귀 신경망 적용부(231, 232) 및 상위 재귀 신경망 적용부(233) 각각의 동작을 모두 수행하는 하나의 구성부로 형성될 수도 있다.The recursive neural network application unit 230 is divided into the lower recursive neural network application units 231 and 232 and the upper recursive neural network application unit 233. However, the present invention is not limited thereto, 231, and 232 and the upper recursive neural network application unit 233, respectively.

또한, 복수의 단면영상들(220) 각각의 병변 특징 표현이 획득되면, 재귀 신경망 적용부(230)는 획득된 복수의 단면영상들(220) 각각의 병변 특징 표현에 기초하여 복수의 단면영상들(220) 각각의 병변을 분류할 수 있다. 이러한 경우, 재귀 신경망 적용부(230)는 복수의 단면영상들(220) 각각의 병변을 분류하는 분류 에러와 관련된 목적 함수가 최소화되도록 복수의 단면영상들(220) 각각의 병변을 분류할 수 있다.In addition, when a lesion feature representation of each of the plurality of sectional images 220 is obtained, the recursive neural network application unit 230 applies a plurality of sectional images 220 based on lesion feature expressions of each of the obtained plurality of sectional images 220 The lesion of each of the lesions 220 can be classified. In this case, the recursive neural network application unit 230 may classify lesions of each of the plurality of sectional images 220 so that the objective function related to classification errors that classify the lesions of each of the plurality of sectional images 220 is minimized .

또한, 재귀 신경망 적용부(230)는 복수의 단면영상들(220) 각각의 병변을 분류하는 과정에서, 복수의 단면영상들(220) 각각의 병변이 분류되는 클래스 내 분산과 관련된 목적 함수가 최소화되도록 복수의 단면영상들(220) 각각의 병변을 분류할 수도 있다.In addition, the recursive neural network application unit 230 minimizes the objective function related to intra-class variance in which lesions of each of the plurality of sectional images 220 are classified in the process of classifying lesions of each of the plurality of sectional images 220 The lesion of each of the plurality of sectional images 220 may be classified.

이와 같은 목적 함수들에 대한 상세한 설명은 도 3a 내지 3c를 참조하여 기재하기로 한다.A detailed description of such objective functions will be described with reference to FIGS. 3A to 3C.

상술한 바와 같은 컨벌루션 신경망 적용부(210) 및 재귀 신경망 적용부(230)의 동작들은 아래 표 2와 같은 구조를 갖는 신경망에 의해 수행될 수 있다. 그러나, 병변 특징 표현 분석 시스템(200)은 표 2의 구조에 제한되거나 한정되지 않고, 파라미터(레이어, 입력 형태, 커널 사이즈, 스트라이드, 패드 또는 출력 형태 등)의 변형을 통하여 다양한 구조를 가질 수 있다.Operations of the convolutional neural network application unit 210 and the recurrent neural network application unit 230 as described above can be performed by a neural network having the structure shown in Table 2 below. However, the lesion feature expression analysis system 200 is not limited to or limited to the structure of Table 2, and can have various structures through modification of parameters (layer, input type, kernel size, stride, pad, .

TypeType LayerLayer Input shapeInput shape Output shapeOutput shape InputInput InputInput

Figure pat00015
x (64x64x1)
Figure pat00015
x (64x64x1)
Figure pat00016
x (64x64x1)
Figure pat00016
x (64x64x1)
Slice feature representationSlice feature representation C1~F15 in Table 1C1 ~ F15 in Table 1
Figure pat00017
x (64x64x1)
Figure pat00017
x (64x64x1)
Figure pat00018
x (1024x1)
Figure pat00018
x (1024x1)
Depth directional feature representationDepth directional feature representation L16 / L'16L16 / L16
Figure pat00019
x (1024x1)
Figure pat00019
x (1024x1)
Figure pat00020
x (1024x1)
Figure pat00020
x (1024x1)
L17L17
Figure pat00021
x (2048x1)
Figure pat00021
x (2048x1)
Figure pat00022
x (1024x1)
Figure pat00022
x (1024x1)
F18F18
Figure pat00023
x (1024x1)
Figure pat00023
x (1024x1)
Figure pat00024
x (
Figure pat00025
x1)
Figure pat00024
x (
Figure pat00025
x1)

표2에서, Slice feature representation은 컨벌루션 신경망 적용부(210)에 의해 표 1과 같이 수행되어 추출되는 복수의 단면영상들(220) 각각의 병변 공간 특징 표현을 의미하고, Depth directional feature representation은 재귀 신경망 적용부(230)에 의해 추출되는 복수의 단면영상들(220) 각각의 병변 특징 표현을 의미한다. 따라서, L16 및 L16'은 각각 제1 하위 재귀 신경망 적용부(231), 제2 하위 재귀 신경망 적용부(232)를 의미하고, L17은 상위 재귀 신경망 적용부(233)를 의미한다. 또한, F18은 재귀 신경망 적용부(230)에서 복수의 단면영상들(220) 각각의 병변 특징 표현에 기초하여 복수의 단면영상들(220) 각각의 병변을 분류하는 역할을 하는 구성부(도면에는 도시되지 않음)를 의미한다.In Table 2, Slice feature representation refers to a lesion spatial feature representation of each of a plurality of sectional images 220 extracted and performed by the convolutional neural network application 210 as shown in Table 1, Means a lesion feature expression of each of a plurality of sectional images 220 extracted by the application unit 230. [ Therefore, L16 and L16 'mean the first sub recursive neural network applying unit 231 and the second lower recursive neural network applying unit 232, respectively, and L17 means the upper recursive neural network applying unit 233. In addition, F18 is a constituent unit for classifying the lesions of each of the plurality of sectional images 220 based on the lesion characteristic expressions of the plurality of sectional images 220 in the recursive neural network application unit 230 Not shown).

도 3a 내지 3c는 일실시예에 따른 재귀 신경망을 학습하는데 이용되는 목적 함수들을 설명하기 위한 도면이다.3A to 3C are diagrams for explaining objective functions used for learning a recursive neural network according to an embodiment.

도 3a 내지 3c를 참조하면, 일실시예에 따른 병변 특징 표현 분석 시스템은 도 1 내지 2를 참조하여 상술한 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 과정에서 최적화된 재귀 신경망을 이용하기 위하여, 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 재귀 신경망을 미리 학습시킬 수 있다.3A to 3C, the lesion feature expression analysis system according to an exemplary embodiment uses an optimized reflexive neural network in the process of extracting lesion feature expressions of each of the plurality of sectional images described above with reference to FIGS. A first objective function for minimizing a classification error for classifying lesions of each of a plurality of sectional images, a second objective function for maximizing correspondence between lesion feature vectors of the center sectional images to be fused among the plurality of sectional images, The objective function or the third objective function for minimizing the intra-class variance in which the lesion of each of the plurality of sectional images is classified can be pre-learned to optimize the reflexive neural network.

이하, 재귀 신경망이 병변 특징 표현 분석 시스템에 의해 학습되는 것으로 설명하나, 병변 특징 표현 분석 시스템과 별도로 구비되는 깊이 방향 재귀 학습 시스템에 의해 학습될 수도 있다. 여기서, 깊이 방향 재귀 학습 시스템은 도 1 내지 2를 참조하여 상술한 병변 특징 표현 분석 시스템의 동작을 기반으로 재귀 신경망을 학습시키도록 병변 특징 표현 분석 시스템과 연동될 수 있다.Hereinafter, it is described that the recurrent neural network is learned by the lesion feature expression analysis system, but it can be learned by the depth direction recursive learning system separately provided from the lesion feature expression analysis system. Here, the depth direction recursion learning system can be interlocked with the lesion feature expression analysis system to learn the recurrent neural network based on the operation of the lesion feature expression analysis system described above with reference to FIGS.

구체적으로, 병변 특징 표현 분석 시스템은 도 1 내지 2를 참조하여 상술한 병변 특징 표현을 분석하는 방법을 복수의 학습 샘플 의료 영상들(상기 복수의 학습 샘플 의료 영상들 각각은 복수의 단면영상들을 포함함)에 대해 반복적으로 수행하면서, 제1 목적 함수, 제2 목적 함수 또는 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 재귀 신경망을 학습시킬 수 있다.Specifically, the lesion feature expression analysis system includes a method of analyzing a lesion feature expression described above with reference to FIGS. 1 and 2, in which a plurality of learning sample medical images (each of the plurality of learning sample medical images includes a plurality of sectional images , It is possible to learn the recursive neural network to optimize at least one of the first objective function, the second objective function or the third objective function.

예를 들어, 병변 특징 표현 분석 시스템은 도 3a와 같이, i번째 학습 샘플 의료 영상에 포함되는 k'번째 단면영상의 병변이 종괴 클래스 또는 위양성 클래스 중 어느 하나의 클래스로 분류되는 결과 값의 에러를 나타내는 식 4를 통하여 제1 목적 함수

Figure pat00026
을최소화하도록 재귀 신경망을 학습시킬 수 있다.For example, as shown in FIG. 3A, the lesion characteristic expression analysis system calculates an error of a result value in which a lesion of a k'th sectional image included in an i-th learning sample medical image is classified into a class of a mass class or a false class The first objective function &lt; RTI ID = 0.0 &gt;
Figure pat00026
It is possible to learn the recursive neural network to minimize.

<식 4><Formula 4>

Figure pat00027
Figure pat00027

식 4에서,

Figure pat00028
는 i번째 학습 샘플 의료 영상에 포함되는 k'번째 단면영상의 병변이 분류되는 클래스가 참값 클래스(종괴 클래스)일 확률이다.In Equation 4,
Figure pat00028
Is a probability that the class in which the lesion of the k'th sectional image included in the i-th learning sample medical image is classified is a true value class (mass class).

다른 예를 들면, 병변 특징 표현 분석 시스템은 도 3b와 같이, 복수의 단면영상들 중 융합될 중심 단면영상들(깊이 방향에 따라 서로 다른 그룹에 그룹핑된 중심 단면영상들) 각각의 병변 특징 벡터 사이의 일치성을 나타내는 식 5를 통하여 제2 목적 함수

Figure pat00029
를 최대화하도록 재귀 신경망을 학습시킬 수 있다.As another example, the lesion feature expression analysis system may include a plurality of lesion feature vectors between each of the plurality of cross-sectional images to be fused (each of the central cross-sectional images grouped into different groups according to the depth direction) The second objective function &lt; RTI ID = 0.0 &gt;
Figure pat00029
It is possible to learn the recursive neural network to maximize.

<식 5>&Lt; EMI ID =

Figure pat00030
Figure pat00030

식 5에서,

Figure pat00031
Figure pat00032
은 각각 i번째 학습 샘플 의료 영상에 포함되는 k'번째 단면영상(중심 단면영상)에서 위-중심 방향 단면영상들 각각의 병변 특징 벡터 및 아래-중심 방향 단면영상들 각각의 병변 특징 벡터를 의미하고, 함수
Figure pat00033
는 Rectified Linear unit(
Figure pat00034
의 근사 함수로서,
Figure pat00035
로 정의된다.In Equation 5,
Figure pat00031
And
Figure pat00032
Represents the lesion feature vector of each of the lesion feature vector and the lower-center direction sectional image of each of the up-center directional sectional images in the k 'th sectional image (central sectional image) included in the i-th learning sample medical image , function
Figure pat00033
Rectified Linear unit (
Figure pat00034
As an approximate function of &lt; RTI ID =
Figure pat00035
.

또 다른 예를 들면, 병변 특징 표현 분석 시스템은 도 3c와 같이, 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 나타내는 식 6을 통하여 제3 목적 함수

Figure pat00036
를 최소화하도록 재귀 신경망을 학습시킬 수 있다.As another example, the lesion feature expression analysis system may calculate the third objective function &lt; RTI ID = 0.0 &gt;
Figure pat00036
Can be learned by minimizing the recursive neural network.

<식 6>&Lt; EMI ID =

Figure pat00037
Figure pat00037

식 6에서,

Figure pat00038
는 i번째 학습 샘플 의료 영상에 포함되는 k'번째 단면영상의 병변 특징 표현을 의미하고, 함수
Figure pat00039
는 Rectified Linear unit(
Figure pat00040
의 근사 함수로서,
Figure pat00041
로 정의되며,
Figure pat00042
는i번째 학습 샘플 의료 영상에서 종괴 클래스(참값 클래스)에 분류된 모든 병변 특징 표현의 평균 벡터를 의미하고,
Figure pat00043
은 종괴 클래스와 위양성 클래스 각각의 평균 특징 표현 벡터간 거리의 절반을 의미한다.In Equation 6,
Figure pat00038
Represents a lesion characteristic expression of the k 'th sectional image included in the i-th learning sample medical image,
Figure pat00039
Rectified Linear unit (
Figure pat00040
As an approximate function of &lt; RTI ID =
Figure pat00041
Lt; / RTI &gt;
Figure pat00042
Means the mean vector of all lesion feature expressions classified in the mass class (true value class) in the i-th learning sample medical image,
Figure pat00043
Means half the distance between the mean feature representation vectors of the mass class and the false positive class, respectively.

이와 같이, 재귀 신경망은 제1 목적 함수, 제2 목적 함수 및 제3 목적 함수를 최적화하도록 학습됨으로써, 병변 특징 표현 분석 시스템이 제1 목적 함수, 제2 목적 함수 및 제3 목적 함수를 최적화하면서 재귀 신경망을 이용하도록 할 수 있다.Thus, the recursive neural network is learned to optimize the first objective function, the second objective function, and the third objective function so that the lesion feature expression analysis system can optimize the first objective function, the second objective function, Neural networks can be used.

예를 들어, 병변 특징 표현 분석 시스템은 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성과 관련된 제2 목적 함수가 최대화되도록 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식할 수 있다.For example, the lesion feature expression analysis system may include a lesion feature vector for each of a plurality of sectional images so that a second objective function related to the correspondence between lesion feature vectors of each of the plurality of cross- And the depth direction symmetry of the lesion of each of the plurality of sectional images can be recognized by fusion.

다른 예를 들면, 병변 특징 표현 분석 시스템은 복수의 단면영상들 각각의 병변을 분류하는 분류 에러와 관련된 제1 목적 함수가 최소화되고, 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산과 관련된 제3 목적 함수가 최소화되도록 복수의 단면영상들 각각의 병변을 분류할 수 있다.In another example, the lesion feature expression analysis system may be configured to detect a lesion in a lesion that is associated with a variance within a class where a first objective function associated with a classification error classifying lesions of each of the plurality of sectional views is minimized, Lesions of each of the plurality of sectional images can be classified so that the third objective function is minimized.

도 4a 내지 4b는 일실시예에 따른 병변 특징 표현 분석 방법을 나타낸 플로우 차트이다.4A and 4B are flowcharts illustrating a method of analyzing a lesion feature according to an exemplary embodiment of the present invention.

도 4a를 참조하면, 일실시예에 따른 병변 특징 표현 분석 방법은 병변 특징 표현 분석 시스템에 의해 수행된다.Referring to FIG. 4A, a method for analyzing a lesion feature expression according to an embodiment is performed by a lesion feature expression analysis system.

병변 특징 표현 분석 시스템은 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출한다(410).The lesion feature expression analysis system uses a Convolution Neural Network (CNN), and a plurality of cross-sectional images-a plurality of cross-sectional images are included in one 3D medical image of a lesion- (410).

그 다음, 병변 특징 표현 분석 시스템은 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 복수의 단면영상들의 깊이 방향에 따라 복수의 단면영상들 각각의 병변 특징 표현을 추출한다(420).Next, the lesion feature expression analysis system calculates a lesion characteristic expression expression of each of the plurality of sectional images along the depth direction of the plurality of sectional images, using a recurrent neural network based on the lesion spatial feature representation of each of the plurality of sectional images A lesion feature expression is extracted (420).

420 단계를 구체적으로 나타낸 도 4b를 참조하면, 병변 특징 표현 분석 시스템은 420 단계에서, 복수의 단면영상들의 깊이 방향에 기초하여 복수의 단면영상들 각각의 병변 특징 벡터를 인식하고(421), 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변 특징 표현을 획득함으로써(422), 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변을 분류할 수 있다(423).4B, the lesion feature expression analysis system recognizes (421) a lesion feature vector of each of a plurality of sectional images based on the depth direction of a plurality of sectional images at step 420, (422) a lesion feature expression of each of the plurality of sectional images by fusing the lesion feature vectors of each of the sectional images of the plurality of sectional images based on the lesion characteristic expressions of each of the plurality of sectional images, (423).

또한, 421 단계에서, 병변 특징 표현 분석 시스템은 복수의 단면영상들의 깊이 방향에 기초하여 복수의 단면영상들 각각의 병변 공간 특징 표현을 그룹핑함으로써, 그룹 별로 복수의 단면영상들 각각의 병변 특징 벡터를 인식할 수 있다.In step 421, the lesion feature expression analysis system groups the lesion spatial feature expressions of the plurality of sectional images based on the depth directions of the plurality of sectional images, Can be recognized.

따라서, 422 단계에서, 병변 특징 표현 분석 시스템은 그룹 사이에서 서로 대응되는 단면영상들 각각의 병변 특징 벡터를 융합하여, 복수의 단면영상들 각각의 병변 특징 표현을 획득할 수 있다.Accordingly, in step 422, the lesion feature expression analysis system may acquire a lesion feature expression of each of the plurality of sectional images by fusing lesion feature vectors of the respective sectional images corresponding to each other between the groups.

또한, 422 단계에서, 병변 특징 표현 분석 시스템은 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식함으로써, 인식된 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성에 기초하여 복수의 단면영상들 각각의 병변 특징 표현을 획득할 수 있다.In addition, in step 422, the lesion feature expression analysis system fuses the lesion feature vectors of each of the plurality of sectional images to recognize the depth direction symmetry of each lesion of the plurality of sectional images, A lesion feature representation of each of the plurality of sectional images can be obtained based on the depth direction symmetry of the lesion.

특히, 420 단계에서 이용되는 재귀 신경망은 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 420 단계 이전에 미리 학습될 수 있다.In particular, the recursive neural network used in step 420 includes a first objective function for minimizing a classification error for classifying lesions of each of a plurality of sectional images, a second objective function for minimizing a classification error between lesion feature vectors of respective center sectional images to be fused May be pre-learned before step 420 so as to optimize at least one of the second objective function for maximizing the correspondence of the plurality of sectional images or the third objective function for minimizing the intra-class variance in which the lesion of each of the plurality of sectional images is classified .

따라서, 422 단계에서, 병변 특징 표현 분석 시스템은 제2 목적 함수가 최대화되도록 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식할 수 있다.Accordingly, in step 422, the lesion feature expression analysis system can recognize the depth direction symmetry of lesions of each of the plurality of sectional images by fusing the lesion feature vectors of the plurality of sectional images so that the second objective function is maximized.

또한, 432 단계에서, 병변 특징 표현 분석 시스템은 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 제1 목적 함수가 최소화되도록 복수의 단면영상들 각각의 병변을 분류하거나, 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 제3 목적 함수가 최소화되도록 복수의 단면영상들 각각의 병변을 분류할 수 있다.In addition, in step 432, the lesion feature expression analysis system may classify the lesions of each of the plurality of sectional images so that the first objective function is minimized based on the lesion feature expressions of the plurality of sectional images, The lesion of each of the plurality of sectional images may be classified so that the third objective function is minimized.

도 5는 일실시예에 따른 병변 특징 표현 분석 시스템을 나타낸 블록도이다.5 is a block diagram illustrating a lesion feature expression analysis system according to an embodiment.

도 5를 참조하면, 도 5를 참조하면, 일실시예에 따른 병변 특징 표현 분석 시스템은 컨벌루션 신경망 적용부(510) 및 재귀 신경망 적용부(520)를 포함한다.Referring to FIG. 5, a lesion feature expression analysis system according to an embodiment includes a convolutional neural network application unit 510 and a recurrent neural network application unit 520. Referring to FIG.

컨벌루션 신경망 적용부(510)는 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출한다.The convolutional neural network application unit 510 includes a plurality of sectional images-a plurality of sectional images, which are included in one 3D medical image of a lesion, using a Convolution Neural Network (CNN) Expression is extracted.

재귀 신경망 적용부(520)는 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 복수의 단면영상들의 깊이 방향에 따라 복수의 단면영상들 각각의 병변 특징 표현을 추출한다.The recursive neural network application unit 520 uses a recurrent neural network based on the lesion spatial feature representation of each of the plurality of sectional images to calculate a lesion of each of the plurality of sectional images along the depth direction of the plurality of sectional images Extract feature expressions.

구체적으로, 재귀 신경망 적용부(520)는 복수의 단면영상들의 깊이 방향에 기초하여 복수의 단면영상들 각각의 병변 특징 벡터를 인식하고, 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변 특징 표현을 획득함으로써, 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변을 분류할 수 있다.Specifically, the recursive neural network application unit 520 recognizes the lesion feature vector of each of the plurality of sectional images based on the depth direction of the plurality of sectional images, fuses the lesion feature vectors of each of the plurality of sectional images, By obtaining a lesion feature representation of each of the cross-sectional images, the lesion of each of the plurality of cross-sectional images can be sorted based on the lesion feature representation of each of the plurality of cross-sectional images.

이 때, 재귀 신경망 적용부(520)는 복수의 단면영상들의 깊이 방향에 기초하여 복수의 단면영상들 각각의 병변 공간 특징 표현을 그룹핑함으로써, 그룹 별로 복수의 단면영상들 각각의 병변 특징 벡터를 인식할 수 있다.At this time, the recursive neural network application unit 520 groups the lesion spatial feature expressions of the plurality of sectional images based on the depth directions of the plurality of sectional images, thereby recognizing the lesion feature vectors of each of the plurality of sectional images for each group can do.

따라서, 재귀 신경망 적용부(520)는 그룹 사이에서 서로 대응되는 단면영상들 각각의 병변 특징 벡터를 융합하여, 복수의 단면영상들 각각의 병변 특징 표현을 획득할 수 있다.Accordingly, the recursive neural network application unit 520 may acquire the lesion feature expressions of each of the plurality of sectional images by fusing the lesion feature vectors of the respective sectional images corresponding to each other among the groups.

또한, 재귀 신경망 적용부(520)는 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식함으로써, 인식된 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성에 기초하여 복수의 단면영상들 각각의 병변 특징 표현을 획득할 수 있다.In addition, the recursive neural network application unit 520 fuses the lesion feature vectors of each of the plurality of sectional images to recognize the depth direction symmetry of the lesion of each of the plurality of sectional images, A lesion feature representation of each of the plurality of sectional images can be obtained based on the depth direction symmetry.

특히, 재귀 신경망 적용부(520)에 의해 이용되는 재귀 신경망은 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 420 단계 이전에 미리 학습될 수 있다.In particular, the recursive neural network used by the recursive neural network application 520 includes a first objective function for minimizing classification errors that classify lesions of each of a plurality of sectional images, a first objective function for minimizing classification errors for classifying lesions of each of the plurality of sectional images, The second objective function for maximizing the correspondence between the lesion feature vectors or the third objective function for minimizing the intra-class variance in which the lesion of each of the plurality of sectional images is classified is optimized prior to step 420 As shown in FIG.

이와 같이 재귀 신경망을 학습시키는 것은 재귀 신경망 적용부(520)에 의해 수행될 수 있다. 그러나 이에 제한되거나 한정되지 않고, 별도의 구성부에 의해 수행될 수도 있다. 이에 대한 상세한 설명은 도 6 내지 7을 참조하여 기재하기로 한다.The learning of the recursive neural network can be performed by the recursive neural network application unit 520 as described above. However, the present invention is not limited thereto, and may be performed by a separate component. A detailed description thereof will be described with reference to Figs. 6 to 7. Fig.

따라서, 재귀 신경망 적용부(520)는 제2 목적 함수가 최대화되도록 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식할 수 있다.Accordingly, the recursive neural network application unit 520 can recognize the depth direction symmetry of the lesion of each of the plurality of sectional images by fusing the lesion feature vectors of the plurality of sectional images so that the second objective function is maximized.

또한, 재귀 신경망 적용부(520)는 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 제1 목적 함수가 최소화되도록 복수의 단면영상들 각각의 병변을 분류하거나, 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 제3 목적 함수가 최소화되도록 복수의 단면영상들 각각의 병변을 분류할 수 있다.In addition, the recursive neural network application unit 520 classifies the lesions of each of the plurality of sectional images so that the first objective function is minimized based on the lesion feature expression of each of the plurality of sectional images, The lesion of each of the plurality of sectional images can be classified so that the third objective function is minimized based on the feature expression.

도 6은 일실시예에 따른 깊이 방향 재귀 학습 방법을 나타낸 플로우 차트이다.6 is a flowchart illustrating a depth direction recursive learning method according to an embodiment.

도 6을 참조하면, 일실시예에 따른 깊이 방향 재귀 학습 방법은 컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여 복수의 단면영상들-복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각에서 추출된 병변 공간 특징 표현을 기초로 복수의 단면영상들 각각의 병변 특징 표현을 추출하는데 이용된다.Referring to FIG. 6, the depth direction recursion learning method according to an exemplary embodiment uses a Convolution Neural Network (CNN) to generate a plurality of sectional images-a plurality of sectional images, - are used to extract the lesion feature expressions of each of the plurality of sectional images based on the lesion spatial feature expressions extracted from each.

이에, 깊이 방향 재귀 학습 방법은 도 1 내지 5를 참조하여 설명한 병변 특징 표현 분석 방법을 복수의 학습 샘플 의료 영상들에 대해 반복적으로 수행함으로써, 목적 함수들을 최적화하여 재귀 신경망을 학습할 수 있다. 따라서, 깊이 방향 재귀 학습 방법은 도 1 내지 5를 참조하여 설명한 병변 특징 표현 분석 방법을 기반으로 수행된다. 즉, 후술되는 610 단계 내지 630 단계는 도 4를 참조하여 기재된 병변 특징 표현 분석 방법의 각 단계들을 수행한 이후, 또는 그 도중에 순서에 상관없이 적응적으로 수행될 수 있다.Thus, the depth direction recursion learning method can learn the recursive neural network by optimizing the objective functions by repeatedly performing the lesion feature expression analysis method described with reference to FIGS. 1 to 5 on a plurality of learning sample medical images. Accordingly, the depth direction recursion learning method is performed based on the lesion feature expression analysis method described with reference to Figs. 1-5. That is, steps 610 to 630 described below may be performed adaptively after or without performing the steps of the method for analyzing a lesion feature described with reference to FIG.

이하, 깊이 방향 재귀 학습 방법은 깊이 방향 재귀 학습 시스템에 의해 수행되는 것으로 설명하나, 이에 제한되거나 한정되지 않고, 병변 특징 표현 분석 방법을 수행하는 병변 특징 표현 분석 시스템에 의해 수행될 수도 있다.Hereinafter, the depth direction recursion learning method is described as being performed by the depth direction recursive learning system. However, the depth direction recursion learning method may be performed by a lesion feature expression analysis system that performs a lesion feature expression analysis method.

깊이 방향 재귀 학습 시스템은 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수를 최적화하도록 재귀 신경망(Recurrent Neural Network)을 학습한다(610).The depth direction recursion learning system includes a Recurrent Neural Network (hereinafter referred to as &quot; Recurrent Neural Network &quot;) for optimizing a first objective function for minimizing a classification error for classifying lesions of each of a plurality of sectional images based on a lesion characteristic expression of each of a plurality of sectional images, (610).

그 다음, 깊이 방향 재귀 학습 시스템은 복수의 단면영상들 각각의 병변 특징 표현을 추출하기 위하여 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수를 최적화하도록 재귀 신경망을 학습한다(620).The depth direction recursion learning system then calculates a depth direction recursion learning system for extracting a lesion feature representation of each of the plurality of sectional images, The reflexive neural network is learned to optimize the objective function (620).

그 후, 깊이 방향 재귀 학습 시스템은 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수를 최적화하도록 재귀 신경망을 학습한다(630).The depth direction recursion learning system then calculates a recursion neural network to optimize a third objective function for minimizing intra-class variance in which the lesion of each of the plurality of sectional images is classified based on the lesion feature representation of each of the plurality of sectional images (630).

도 7은 일실시예에 따른 깊이 방향 재귀 학습 시스템을 나타낸 블록도이다.7 is a block diagram illustrating a depth direction recursion learning system according to an embodiment.

도 7을 참조하면, 일실시예에 따른 깊이 방향 재귀 학습 시스템은 제1 목적 함수 최적화부(710), 제2 목적 함수 최적화부(720) 및 제3 목적 함수 최적화부(730)를 포함한다. 여기서, 제1 목적 함수 최적화부(710), 제2 목적 함수 최적화부(720) 및 제3 목적 함수 최적화부(730)는 도 5를 참조하여 기재된 병변 특징 표현 분석 시스템의 각 구성부와 연동되어 동작할 수 있다.Referring to FIG. 7, the depth direction recursion learning system according to an embodiment includes a first objective function optimizer 710, a second objective function optimizer 720, and a third objective function optimizer 730. Here, the first objective function optimizing unit 710, the second objective function optimizing unit 720, and the third objective function optimizing unit 730 are interlocked with each component of the lesion feature expression analysis system described with reference to FIG. 5 Can operate.

제1 목적 함수 최적화부(710)는 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수를 최적화하도록 재귀 신경망(Recurrent Neural Network)을 학습한다.The first objective function optimizer 710 may be configured to optimize a first objective function for minimizing classification errors that classify lesions of each of a plurality of sectional images based on a lesion feature representation of each of the plurality of sectional images, Recurrent Neural Network.

제2 목적 함수 최적화부(720)는 복수의 단면영상들 각각의 병변 특징 표현을 추출하기 위하여 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수를 최적화하도록 재귀 신경망을 학습한다.The second objective function optimizing unit 720 may include a second objective function optimization unit 720 for maximizing correspondence between lesion feature vectors of each of the plurality of cross-sectional images to be fused, 2 Recursive neural networks are studied to optimize objective functions.

제3 목적 함수 최적화부(730)는 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수를 최적화하도록 재귀 신경망을 학습한다.The third objective function optimizing unit 730 optimizes the third objective function for minimizing intra-class variance in which the lesion of each of the plurality of sectional images is classified based on the lesion characteristic expression of each of the plurality of sectional images, .

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (16)

3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 방법에 있어서,
컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출하는 단계; 및
상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 상기 복수의 단면영상들의 깊이 방향에 따라 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계
를 포함하는 병변 특징 표현 분석 방법.
A method for analyzing a lesion feature using depth direction recursive learning in a three-dimensional medical image,
Extracting a plurality of sectional images using the Convolution Neural Network (CNN), wherein each of the plurality of sectional images is included in one 3D medical image of a lesion; And
Extracting a lesion feature expression of each of the plurality of sectional images along a depth direction of the plurality of sectional images using a recurrent neural network based on a lesion spatial feature representation of each of the plurality of sectional images step
The method comprising the steps of:
제1항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계는
상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계;
상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계; 및
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는 단계
를 포함하는 병변 특징 표현 분석 방법.
The method according to claim 1,
The step of extracting a lesion feature representation of each of the plurality of sectional images
Recognizing a lesion feature vector of each of the plurality of sectional images based on a depth direction of the plurality of sectional images;
Acquiring lesion feature expressions of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images; And
Classifying a lesion of each of the plurality of sectional images based on a lesion characteristic expression of each of the plurality of sectional images
The method comprising the steps of:
제2항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계는
상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 그룹핑하는 단계; 및
상기 그룹 별로 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계
를 포함하는 병변 특징 표현 분석 방법.
3. The method of claim 2,
The step of recognizing a lesion feature vector of each of the plurality of sectional images
Grouping a lesion spatial feature representation of each of the plurality of sectional images based on a depth direction of the plurality of sectional images; And
Recognizing a lesion feature vector of each of the plurality of sectional images for each group
The method comprising the steps of:
제3항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는
상기 그룹 사이에서 서로 대응되는 단면영상들 각각의 병변 특징 벡터를 융합하여, 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계
를 포함하는 병변 특징 표현 분석 방법.
The method of claim 3,
Wherein acquiring a lesion feature representation of each of the plurality of cross-
Acquiring lesion feature expressions of each of the plurality of sectional images by fusing lesion feature vectors of each of the sectional images corresponding to each other among the groups
The method comprising the steps of:
제2항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는
상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식하는 단계; 및
상기 인식된 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계
를 포함하는 병변 특징 표현 분석 방법.
3. The method of claim 2,
Wherein acquiring a lesion feature representation of each of the plurality of cross-
Recognizing depth direction symmetry of lesions of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images; And
Obtaining a lesion feature representation of each of the plurality of sectional images based on a depth direction symmetry of the lesion of each of the recognized plurality of sectional views
The method comprising the steps of:
제2항에 있어서,
상기 재귀 신경망은
상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 학습되는, 병변 특징 표현 분석 방법.
3. The method of claim 2,
The recursive neural network
A first objective function for minimizing a classification error for classifying lesions of each of the plurality of sectional images, a second objective function for minimizing a classification error of each of the plurality of sectional images, 2 objective function or a third objective function for minimizing intra-class variance in which lesions of each of the plurality of sectional images are classified.
제6항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계는
상기 제2 목적 함수가 최대화되도록 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변의 깊이 방향 대칭성을 인식하는 단계
를 포함하는 병변 특징 표현 분석 방법.
The method according to claim 6,
Wherein acquiring a lesion feature representation of each of the plurality of cross-
Recognizing the depth direction symmetry of the lesion of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images so that the second objective function is maximized
The method comprising the steps of:
제6항에 있어서,
상기 복수의 단면영상들 각각의 병변을 분류하는 단계는
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 제1 목적 함수가 최소화되도록 상기 복수의 단면영상들 각각의 병변을 분류하는 단계
를 포함하는 병변 특징 표현 분석 방법.
The method according to claim 6,
The step of classifying lesions of each of the plurality of sectional images
Classifying lesions of each of the plurality of sectional images so that the first objective function is minimized based on a lesion feature expression of each of the plurality of sectional images
The method comprising the steps of:
제6항에 있어서,
상기 복수의 단면영상들 각각의 병변을 분류하는 단계는
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 제3 목적 함수가 최소화되도록 상기 복수의 단면영상들 각각의 병변을 분류하는 단계
를 포함하는 병변 특징 표현 분석 방법.
The method according to claim 6,
The step of classifying lesions of each of the plurality of sectional images
Classifying lesions of each of the plurality of sectional images so that the third objective function is minimized based on a lesion feature expression of each of the plurality of sectional images
The method comprising the steps of:
컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각에서 추출된 병변 공간 특징 표현을 기초로 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는데 이용되는 깊이 방향 재귀 학습 방법에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수를 최적화하도록 재귀 신경망(Recurrent Neural Network)을 학습하는 단계;
상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하기 위하여 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수를 최적화하도록 상기 재귀 신경망을 학습하는 단계; 및
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수를 최적화하도록 상기 재귀 신경망을 학습하는 단계
를 포함하는 깊이 방향 재귀 학습 방법.
A plurality of cross-sectional images using a Convolution Neural Network (CNN), the plurality of cross-sectional images being included in a single three-dimensional medical image of a lesion, In a depth direction recursive learning method used to extract a lesion feature expression of each of cross-sectional images of a cross-
Learning a Recurrent Neural Network to optimize a first objective function for minimizing classification errors that classify lesions of each of the plurality of sectional images based on a lesion feature expression of each of the plurality of sectional images; ;
To optimize a second objective function to maximize correspondence between lesion feature vectors of each of the plurality of cross-sectional images to be fused, to extract a lesion feature representation of each of the plurality of cross-sectional images, Learning a neural network; And
Learning the recursive neural network to optimize a third objective function for minimizing intra-class variance in which lesions of each of the plurality of sectional images are classified based on a lesion feature expression of each of the plurality of sectional images
The depth direction recursion learning method comprising:
전자 기기를 구현하는 컴퓨터와 결합하여, 3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 방법을 실행시키기 위해 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 병변 특징 표현 분석 방법은
컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출하는 단계; 및
상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 상기 복수의 단면영상들의 깊이 방향에 따라 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계
를 포함하는 컴퓨터 프로그램.
A computer program stored in a medium for executing a method of analyzing a lesion feature expression using depth directional recursion in a three-dimensional medical image in combination with a computer implementing an electronic device,
The lesion feature expression analysis method
Extracting a plurality of sectional images using the Convolution Neural Network (CNN), wherein each of the plurality of sectional images is included in one 3D medical image of a lesion; And
Extracting a lesion feature expression of each of the plurality of sectional images along a depth direction of the plurality of sectional images using a recurrent neural network based on a lesion spatial feature representation of each of the plurality of sectional images step
&Lt; / RTI &gt;
제11항에 있어서,
상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 단계는
상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하는 단계;
상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하는 단계; 및
상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는 단계
를 포함하는 컴퓨터 프로그램.
12. The method of claim 11,
The step of extracting a lesion feature representation of each of the plurality of sectional images
Recognizing a lesion feature vector of each of the plurality of sectional images based on a depth direction of the plurality of sectional images;
Acquiring lesion feature expressions of each of the plurality of sectional images by fusing lesion feature vectors of each of the plurality of sectional images; And
Classifying a lesion of each of the plurality of sectional images based on a lesion characteristic expression of each of the plurality of sectional images
&Lt; / RTI &gt;
제12항에 있어서,
상기 재귀 신경망은
상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 학습되는, 컴퓨터 프로그램.
13. The method of claim 12,
The recursive neural network
A first objective function for minimizing a classification error for classifying lesions of each of the plurality of sectional images, a second objective function for minimizing a classification error of each of the plurality of sectional images, 2 objective function or a third objective function for minimizing intra-class variance in which lesions of each of the plurality of sectional images are classified.
3차원 의료 영상에서 깊이 방향 재귀 학습을 이용하는 병변 특징 표현 분석 시스템에 있어서,
컨벌루션 신경망(Convolution Neural Network; CNN)을 이용하여, 복수의 단면영상들-상기 복수의 단면영상들은 병변을 촬영한 하나의 3차원 의료 영상에 포함됨- 각각의 병변 공간 특징 표현을 추출하는 컨벌루션 신경망 적용부; 및
상기 복수의 단면영상들 각각의 병변 공간 특징 표현을 기초로 재귀 신경망(Recurrent Neural Network)을 이용하여, 상기 복수의 단면영상들의 깊이 방향에 따라 상기 복수의 단면영상들 각각의 병변 특징 표현을 추출하는 재귀 신경망 적용부
를 포함하는 병변 특징 표현 분석 시스템.
A lesion feature expression analysis system using depth direction recursion learning in a three-dimensional medical image,
A plurality of sectional images using the Convolution Neural Network (CNN), wherein the plurality of sectional images are included in one 3D medical image of the lesion, and a convolution neural network extracting each lesion spatial feature representation is applied part; And
Extracting a lesion feature expression of each of the plurality of sectional images along a depth direction of the plurality of sectional images using a recurrent neural network based on a lesion spatial feature representation of each of the plurality of sectional images The recurrent neural network application
Wherein the lesion feature expression analysis system comprises:
제14항에 있어서,
상기 재귀 신경망 적용부는
상기 복수의 단면영상들의 깊이 방향에 기초하여 상기 복수의 단면영상들 각각의 병변 특징 벡터를 인식하고, 상기 복수의 단면영상들 각각의 병변 특징 벡터를 융합하여 상기 복수의 단면영상들 각각의 병변 특징 표현을 획득하며, 상기 복수의 단면영상들 각각의 병변 특징 표현에 기초하여 상기 복수의 단면영상들 각각의 병변을 분류하는, 병변 특징 표현 분석 시스템.
15. The method of claim 14,
The recurrent neural network application unit
Recognizing a lesion feature vector of each of the plurality of sectional images based on a depth direction of the plurality of sectional images, and fusing lesion feature vectors of the plurality of sectional images to detect lesion characteristics And classifies lesions of each of the plurality of sectional images based on a lesion feature representation of each of the plurality of sectional images.
제15항에 있어서,
상기 재귀 신경망은
상기 복수의 단면영상들 각각의 병변을 분류하는 분류 에러를 최소화하기 위한 제1 목적 함수, 상기 복수의 단면영상들 중 융합될 중심 단면영상들 각각의 병변 특징 벡터 사이의 일치성을 최대화하기 위한 제2 목적 함수 또는 상기 복수의 단면영상들 각각의 병변이 분류되는 클래스 내 분산을 최소화하기 위한 제3 목적 함수 중 적어도 어느 하나를 최적화하도록 학습되는, 병변 특징 표현 분석 시스템.
16. The method of claim 15,
The recursive neural network
A first objective function for minimizing a classification error for classifying lesions of each of the plurality of sectional images, a second objective function for minimizing a classification error of each of the plurality of sectional images, 2 objective function or a third objective function for minimizing intra-class variance in which lesions of each of the plurality of sectional images are classified.
KR1020170014827A 2016-08-22 2017-02-02 Method and system for analyzing feature representation of lesions with depth directional long-term recurrent learning in 3d medical images KR101980955B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160106355 2016-08-22
KR20160106355 2016-08-22

Publications (2)

Publication Number Publication Date
KR20180021635A true KR20180021635A (en) 2018-03-05
KR101980955B1 KR101980955B1 (en) 2019-05-21

Family

ID=61726770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170014827A KR101980955B1 (en) 2016-08-22 2017-02-02 Method and system for analyzing feature representation of lesions with depth directional long-term recurrent learning in 3d medical images

Country Status (1)

Country Link
KR (1) KR101980955B1 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887595A (en) * 2019-01-16 2019-06-14 成都蓝景信息技术有限公司 Heartbeat anomalous identification algorithm based on depth learning technology
KR102021515B1 (en) * 2018-12-27 2019-09-16 (주)제이엘케이인스펙션 Apparatus for learning brain disease model, apparatus for detecting brain disease using the brain disease model, method for learning brain disease model, and method for detecting brain disease using the brain disease model
KR102041906B1 (en) * 2019-03-06 2019-11-07 주식회사 에프앤디파트너스 API engine for discrimination of facial skin disease based on artificial intelligence that discriminates skin disease by using image captured through facial skin photographing device
WO2019235827A1 (en) * 2018-06-04 2019-12-12 주식회사 딥바이오 Disease diagnosis system for supporting dual class, and method therefor
WO2019235828A1 (en) * 2018-06-04 2019-12-12 주식회사 딥바이오 Two-face disease diagnosis system and method thereof
KR20190139781A (en) * 2018-06-08 2019-12-18 연세대학교 산학협력단 CNN-based high resolution image generating apparatus for minimizing data acquisition time and method therefor
KR102056989B1 (en) * 2018-12-24 2020-02-11 (주)제이엘케이인스펙션 Method and system for classifying blood clot in gradient echo images based on machine learning
KR20200017188A (en) 2018-08-08 2020-02-18 부산대학교 산학협력단 Apparatus for Enhancing Contrast and Resolution in a Grating Interferometer by Machine Learning
WO2020060196A1 (en) * 2018-09-18 2020-03-26 서울대학교산학협력단 Apparatus and method for reconstructing three-dimensional image
WO2020106631A1 (en) * 2018-11-20 2020-05-28 Arterys Inc. Machine learning-based automated abnormality detection in medical images and presentation thereof
KR20200088204A (en) * 2019-01-14 2020-07-22 주식회사 에이아이인사이트 Deep learning architecture system for automatic interpretation of fundus image and method for automatic interpretation of fundus image thereof
WO2020149518A1 (en) * 2019-01-14 2020-07-23 주식회사 에이아이인사이트 Deep learning architecture system for automatic fundus image reading and automatic fundus image reading method using deep learning architecture system
KR20200101772A (en) * 2019-02-20 2020-08-28 주식회사 메디픽셀 Apparatus and method for displaying consecutive nodule images automatically based on machine learning
KR20200103196A (en) 2019-02-18 2020-09-02 부산대학교 산학협력단 Apparatus and Method for Manufacturing Customized Implant Guide Stent
KR102180922B1 (en) * 2020-04-13 2020-11-19 주식회사 룰루랩 Distributed edge computing-based skin disease analyzing device comprising multi-modal sensor module
KR20210042267A (en) * 2018-05-27 2021-04-19 엘루시드 바이오이미징 아이엔씨. Method and system for using quantitative imaging
WO2021141187A1 (en) * 2020-01-08 2021-07-15 주식회사 에프앤디파트너스 Skin image-based skin disease identification apparatus
WO2022005090A1 (en) * 2020-07-03 2022-01-06 주식회사 뷰노 Method and apparatus for providing diagnosis result
KR20220147756A (en) * 2021-04-27 2022-11-04 (주)에프에이솔루션 Methods for analyzing images
KR20230016324A (en) * 2021-07-26 2023-02-02 고려대학교 산학협력단 Transfer Learning method and apparatus based on self-supervised learning for 3D MRI analysis

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11646119B2 (en) 2020-06-09 2023-05-09 Annalise AI Pty Ltd Systems and methods for automated analysis of medical images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623431B1 (en) * 2015-08-06 2016-05-23 주식회사 루닛 Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623431B1 (en) * 2015-08-06 2016-05-23 주식회사 루닛 Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hao Chen 외 6명. Automatic Fetal Ultrasound Standard Plane Detection Using Knowledge Transferred Recurrent Neural Networks, Springer International Publishing Switzerland, 2015, pp. 507-514* *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210042267A (en) * 2018-05-27 2021-04-19 엘루시드 바이오이미징 아이엔씨. Method and system for using quantitative imaging
KR20190143509A (en) * 2018-06-04 2019-12-31 주식회사 딥바이오 System and method for medical diagnosis supporting dual class
WO2019235827A1 (en) * 2018-06-04 2019-12-12 주식회사 딥바이오 Disease diagnosis system for supporting dual class, and method therefor
WO2019235828A1 (en) * 2018-06-04 2019-12-12 주식회사 딥바이오 Two-face disease diagnosis system and method thereof
KR20190139781A (en) * 2018-06-08 2019-12-18 연세대학교 산학협력단 CNN-based high resolution image generating apparatus for minimizing data acquisition time and method therefor
KR20200017188A (en) 2018-08-08 2020-02-18 부산대학교 산학협력단 Apparatus for Enhancing Contrast and Resolution in a Grating Interferometer by Machine Learning
WO2020060196A1 (en) * 2018-09-18 2020-03-26 서울대학교산학협력단 Apparatus and method for reconstructing three-dimensional image
US11978146B2 (en) 2018-09-18 2024-05-07 Seoul National University R&Db Foundation Apparatus and method for reconstructing three-dimensional image
WO2020106631A1 (en) * 2018-11-20 2020-05-28 Arterys Inc. Machine learning-based automated abnormality detection in medical images and presentation thereof
WO2020138932A1 (en) * 2018-12-24 2020-07-02 주식회사 제이엘케이인스펙션 Machine learning-based method and system for classifying thrombi using gre image
KR102056989B1 (en) * 2018-12-24 2020-02-11 (주)제이엘케이인스펙션 Method and system for classifying blood clot in gradient echo images based on machine learning
KR102021515B1 (en) * 2018-12-27 2019-09-16 (주)제이엘케이인스펙션 Apparatus for learning brain disease model, apparatus for detecting brain disease using the brain disease model, method for learning brain disease model, and method for detecting brain disease using the brain disease model
WO2020139009A1 (en) * 2018-12-27 2020-07-02 (주)제이엘케이 Cerebrovascular disease learning device, cerebrovascular disease detection device, cerebrovascular disease learning method, and cerebrovascular disease detection method
WO2020149518A1 (en) * 2019-01-14 2020-07-23 주식회사 에이아이인사이트 Deep learning architecture system for automatic fundus image reading and automatic fundus image reading method using deep learning architecture system
KR20200088204A (en) * 2019-01-14 2020-07-22 주식회사 에이아이인사이트 Deep learning architecture system for automatic interpretation of fundus image and method for automatic interpretation of fundus image thereof
CN109887595A (en) * 2019-01-16 2019-06-14 成都蓝景信息技术有限公司 Heartbeat anomalous identification algorithm based on depth learning technology
KR20200103196A (en) 2019-02-18 2020-09-02 부산대학교 산학협력단 Apparatus and Method for Manufacturing Customized Implant Guide Stent
KR20200101772A (en) * 2019-02-20 2020-08-28 주식회사 메디픽셀 Apparatus and method for displaying consecutive nodule images automatically based on machine learning
KR102041906B1 (en) * 2019-03-06 2019-11-07 주식회사 에프앤디파트너스 API engine for discrimination of facial skin disease based on artificial intelligence that discriminates skin disease by using image captured through facial skin photographing device
WO2021141187A1 (en) * 2020-01-08 2021-07-15 주식회사 에프앤디파트너스 Skin image-based skin disease identification apparatus
KR102180922B1 (en) * 2020-04-13 2020-11-19 주식회사 룰루랩 Distributed edge computing-based skin disease analyzing device comprising multi-modal sensor module
KR20220004476A (en) * 2020-07-03 2022-01-11 주식회사 뷰노 Method or apparatus for providing diagnostic results
WO2022005090A1 (en) * 2020-07-03 2022-01-06 주식회사 뷰노 Method and apparatus for providing diagnosis result
KR20220147756A (en) * 2021-04-27 2022-11-04 (주)에프에이솔루션 Methods for analyzing images
KR20230016324A (en) * 2021-07-26 2023-02-02 고려대학교 산학협력단 Transfer Learning method and apparatus based on self-supervised learning for 3D MRI analysis

Also Published As

Publication number Publication date
KR101980955B1 (en) 2019-05-21

Similar Documents

Publication Publication Date Title
KR101980955B1 (en) Method and system for analyzing feature representation of lesions with depth directional long-term recurrent learning in 3d medical images
Saraiva et al. Classification of Images of Childhood Pneumonia using Convolutional Neural Networks.
JP6993371B2 (en) Computed tomography lung nodule detection method based on deep learning
Guan et al. Breast cancer detection using transfer learning in convolutional neural networks
US9536316B2 (en) Apparatus and method for lesion segmentation and detection in medical images
US10039501B2 (en) Computer-aided diagnosis (CAD) apparatus and method using consecutive medical images
Pang et al. Tumor attention networks: Better feature selection, better tumor segmentation
Sun et al. Attention-embedded complementary-stream CNN for false positive reduction in pulmonary nodule detection
US20230154007A1 (en) Few-shot semantic image segmentation using dynamic convolution
KR20200082660A (en) Pathological diagnosis method and apparatus based on machine learning
Chagas et al. A new approach for the detection of pneumonia in children using CXR images based on an real-time IoT system
Liu et al. Accurate and robust pulmonary nodule detection by 3D feature pyramid network with self-supervised feature learning
Yang et al. A multi-stage progressive learning strategy for COVID-19 diagnosis using chest computed tomography with imbalanced data
Nazia Fathima et al. Diagnosis of Osteoporosis using modified U-net architecture with attention unit in DEXA and X-ray images
Velliangiri et al. Investigation of deep learning schemes in medical application
US20220301154A1 (en) Medical image analysis using navigation processing
Khademi et al. Spatio-temporal hybrid fusion of cae and swin transformers for lung cancer malignancy prediction
Nazir et al. Machine Learning-Based Lung Cancer Detection Using Multiview Image Registration and Fusion
Sangeetha et al. Diagnosis of Pneumonia using Image Recognition Techniques
Xie et al. Attention mechanisms in medical image segmentation: A survey
JP2023516651A (en) Class-wise loss function to deal with missing annotations in training data
Ngo et al. Slice-level detection of intracranial hemorrhage on ct using deep descriptors of adjacent slices
Agrawal et al. ReSE‐Net: Enhanced UNet architecture for lung segmentation in chest radiography images
Kadhim et al. Computer-aided diagnostic system kinds and pulmonary nodule detection efficacy
US20220378395A1 (en) Image-processing method and apparatus for object detection or identification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant