KR20190136577A - Method for classifying images using deep neural network and apparatus using the same - Google Patents

Method for classifying images using deep neural network and apparatus using the same Download PDF

Info

Publication number
KR20190136577A
KR20190136577A KR1020180062480A KR20180062480A KR20190136577A KR 20190136577 A KR20190136577 A KR 20190136577A KR 1020180062480 A KR1020180062480 A KR 1020180062480A KR 20180062480 A KR20180062480 A KR 20180062480A KR 20190136577 A KR20190136577 A KR 20190136577A
Authority
KR
South Korea
Prior art keywords
layer
image
classification
neural network
computing device
Prior art date
Application number
KR1020180062480A
Other languages
Korean (ko)
Other versions
KR102220109B1 (en
Inventor
손재민
배웅
강주영
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020180062480A priority Critical patent/KR102220109B1/en
Priority to PCT/KR2019/004436 priority patent/WO2019231104A1/en
Publication of KR20190136577A publication Critical patent/KR20190136577A/en
Application granted granted Critical
Publication of KR102220109B1 publication Critical patent/KR102220109B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/00718
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Abstract

The present invention relates to a method for classifying images using a deep neural network and an apparatus using the same. More specifically, by the method according to the present invention, a computing device obtains images, generates classification information of the images based on a deep neural network, and provides the classification information to an external entity. The classification information includes the classification to which the images belong and an active map supporting the classification.

Description

심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치{METHOD FOR CLASSIFYING IMAGES USING DEEP NEURAL NETWORK AND APPARATUS USING THE SAME}Method for classifying images using deep neural network and apparatus using same {METHOD FOR CLASSIFYING IMAGES USING DEEP NEURAL NETWORK AND APPARATUS USING THE SAME}

본 발명은 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 상기 영상을 획득하고, 심층 신경망에 기초하여 그 영상의 분류 정보를 생성하며, 그 분류 정보를 외부 엔티티에 제공한다. 분류 정보는 영상이 속한 분류 및 그 분류를 지지하는 활성 맵을 포함한다.The present invention relates to a method for classifying an image using a deep neural network and an apparatus using the same. Specifically, according to the method according to the present invention, the computing device obtains the image, generates classification information of the image based on the deep neural network, and provides the classification information to an external entity. The classification information includes a classification to which the image belongs and an active map supporting the classification.

근래에 합성곱 신경망이 영상의 분류에 있어서 많은 성공적 사례를 남기고 있는데, 예를 들어 의료 영상, 특히 안저 영상과 같은 특수 목적으로 촬영하는 영상을 정확하게 분류하는 것이 가능해지고 있다. 그런데, 이러한 특수 목적의 촬영 영상은 그 촬영 영상이 속한 클래스(class)의 분류, 예컨대, 특정 질환의 정확한 진단을 목표로 하는 것에 불과하고, 그 분류의 타당성을 뒷받침하는 적절한 시각화 및 국소화(localization; 영상에서 관련 영역을 특정하는 것)는 제공되지 않는 단점이 있다. 본 개시서에서는 영상을 구체적으로 분류할 수 있고, 동시에 그 분류의 근거를 영상 내에서 국소화할 수 있는 합성곱 신경망의 아키텍처를 제공하고자 한다. 본 발명자에 따르면, 그 신경망 아키텍처는 몇몇 클래스의 분류에서 더 나은 국소화 및 분류를 가능하게 하는 영역 주석(regional annotations)으로써 훈련될 수 있다.Recently, multiplication neural networks have left many successful cases in classifying images. For example, it is possible to accurately classify images photographed for special purposes such as medical images, especially fundus images. However, such a special purpose photographed image is merely to classify the class to which the photographed image belongs, for example, to accurately diagnose a specific disease, and to provide appropriate visualization and localization to support the validity of the classification. Specifying the relevant area in the image) is not provided. In the present disclosure, it is intended to provide an architecture of a convolutional neural network capable of classifying images in detail and simultaneously localizing the basis of the classification in the images. According to the inventors, the neural network architecture can be trained with regional annotations that allow for better localization and classification in some classes of classifications.

예를 들어, 안저 영상은 안구의 상태에 관한 시각적 단서를 풍부하게 제공한다. 분석에 있어서 안과의는 그 영상으로부터 소견(findings)이라 지칭되는 비정상적인 시각적 특징들을 찾고, 그 발견된 소견들에 기초하여 그 영상을 분류하는바, 즉, 그 분류의 내용이 진단 내용이다.For example, fundus images provide a wealth of visual cues about the state of the eye. In the analysis, the ophthalmologist looks for abnormal visual features called findings from the image and classifies the image based on the found findings, that is, the content of the classification is the diagnostic content.

요즘 들어, 합성곱 신경망(convolutional neural network; CNN)은 당뇨망막병증(DR) 및 당뇨황반부종(DME)를 진단하는 데 있어 직업 안과의의 수준에 도달하였다. 그런데, 문헌들에서 나타나는 CNN은 진단 내용을 직접 도출해내도록 훈련되었는데, 이는 실제 안과의가 진단하는 것과는 상이한 방식이다. 안과의는 시각적 단서부터 찾은 다음에 그 시각적 단서에 근거하여 진단을 내린다. 그런데, 지금까지는 의료 영상의 판정에 기여하는 소견들을 시각화하기 위한 여러 연구가 있었지만, 개별 소견들이 서로 구분되지 않았다.Nowadays, convolutional neural networks (CNNs) have reached the level of occupational ophthalmologists in diagnosing diabetic retinopathy (DR) and diabetic macular edema (DME). However, the CNNs in the literature have been trained to derive the diagnosis directly, which is different from what an ophthalmologist actually diagnoses. The ophthalmologist looks for visual cues first and then makes a diagnosis based on those visual cues. By the way, there have been several studies for visualizing the findings contributing to the determination of medical images, but the individual findings were not distinguished from each other.

종전에는 핸드크래프티드 특징 추출기(hand-crafted feature-extractors)를 이용한 분할 방법들이 출혈, 경성삼출물, 드루젠 침착물(drusen deposits) 및 면화반의 검출을 위하여 제안되었다. 그런데 경험적(heuristic) 특징-추출기들에는 표적 소견들의 시각적 속성들을 고려하는 인간 설계자의 편견이 담겨있어서 예측불가한 패턴들은 잘 검출되지 않는 등 실세계 적용에서는 그 성능이 심각하게 제한되었다. 분할 또는 검출을 위한 CNN은 성능을 향상시킬 수 있겠지만, 병변에 대한 수동적인 주석 달기는 굉장히 노동집약적인 것으로서, 특히 영상들에서 그 병변들이 분산되어 있을 때 더 그러하다. 따라서 데이터 수집의 절차가 매우 값비싸진다.Previously, segmentation methods using hand-crafted feature-extractors have been proposed for the detection of bleeding, hard exudates, drusen deposits, and cotton plaques. However, heuristic feature-extractors contain human designer biases that take into account the visual properties of target findings, so that unpredictable patterns are rarely detected, and their performance is severely limited in real-world applications. CNN for segmentation or detection may improve performance, but passive annotation of lesions is very labor intensive, especially when the lesions are dispersed in images. Therefore, the procedure of data collection becomes very expensive.

본 개시서에서는 영상으로부터 시각적 단서에 관한 영역 주석을 통하여 영상을 분류하고 그 분류의 근거(예컨대 의료 영상에서의 병변들)를 국소화할 수 있는 CNN 아키텍처를 제안하고자 한다.In this disclosure, we propose a CNN architecture that can classify an image through local annotation on visual cues from the image and localize the basis of the classification (eg, lesions in a medical image).

KRKR 10-184832110-1848321 BB

본 발명은 영역적 단서를 통한 안내를 이용한 훈련을 통하여 분류에 대한 근거를 더 정확하게 국소화할 수 있을 뿐만 아니라 분류 자체의 성능도 향상시키는 것을 목적으로 한다.The present invention aims to more accurately localize the basis for classification through training using guidance through regional cues, as well as to improve the performance of the classification itself.

이를 위하여 본 발명은 영상에서의 편향 대신에 분류 판정에 관한 올바른 패턴들을 신경망으로 하여금 학습할 수 있도록 영역적 안내를 가능하게 하는 것을 목적으로 한다.To this end, the present invention aims to enable regional guidance so that the neural network can learn the correct patterns of classification determination instead of the bias in the image.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic constitution of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.

본 발명의 일 태양(aspect)에 따르면, 심층 신경망을 이용하여 영상을 분류하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 상기 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계; 및 (c) 상기 컴퓨팅 장치가, 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 단계를 포함하고, 상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함한다.According to an aspect of the present invention, there is provided a method for classifying an image using a deep neural network, the method comprising: (a) another device in which a computing device obtains the image or is linked to the computing device; Assisting to obtain; (b) supporting, by the computing device, generating or generating classification information of the image based on the deep neural network; And (c) supporting, by the computing device, providing or providing the classification information to an external entity, wherein the classification information includes a classification to which the image belongs and an activation map supporting the classification. ).

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program, stored on a machine-readable non-transitory recording medium comprising instructions implemented to perform a method according to the invention.

본 발명의 또 다른 태양에 따르면, 심층 신경망을 이용하여 영상을 분류하는 컴퓨팅 장치가 제공되는바, 그 장치는, 상기 영상을 획득하는 통신부; 및 (i) 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스, 및 (ii) 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 프로세스를 수행하는 프로세서를 포함하고, 상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함한다.According to another aspect of the present invention, there is provided a computing device for classifying an image using a deep neural network, the apparatus comprising: a communication unit for acquiring the image; And (i) a process for generating classification information of the image based on the deep neural network or for supporting other devices to be linked through the communication unit, and (ii) providing the classification information to an external entity. And a processor that performs a process of supporting the other device to provide the classification information, wherein the classification information includes a classification to which the image belongs and an activation map supporting the classification.

본 발명의 일 실시 예에 의하면, 영역적 단서를 통한 안내를 이용한 훈련으로써 신경망의 분류 성능이 향상되는 효과가 있다.According to an embodiment of the present invention, there is an effect of improving the classification performance of the neural network by training using guidance through regional cues.

이와 같은 본 발명의 실시 예에 따른 효과는 안저 영상과 같은 의료 영상뿐만 아니라 널리 다양한 형식(modality)의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식 또는 특수 목적의 영상이나 플랫폼에 종속되지 않음은 물론이다.Such an effect according to an embodiment of the present invention can be applied not only to medical images such as fundus images but also to 2D or 3D images of various formats. Of course, it is not dependent on the video or platform.

본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따라 영상을 분류하는 방법(이하 "영상 분류 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다.
도 6은 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The following drawings, which are attached to be used in the description of the embodiments of the present invention, are merely some of the embodiments of the present invention, and to those skilled in the art to which the present invention pertains based on these drawings without efforts to reach novel invention Other drawings can be obtained.
1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device that performs a method of classifying images (hereinafter, referred to as an "image classification method") according to the present invention.
2 is an exemplary block diagram illustrating hardware or software components of a computing device performing an image classification method in accordance with the present invention.
3 is a flowchart illustrating an image classification method according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an example of a neural network architecture according to an embodiment of the present invention.
5 is a table showing the results of comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.
6 is an exemplary diagram qualitatively comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.The term "image" or "image data" as used throughout the description and claims of the present invention refers to multidimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image), in other words, ( For example, the term refers to a visually visible object (eg, a file corresponding to a pixel output of a CT, MRI detector, etc.) or a digital representation of that object (as shown on a video screen).

예를 들어 "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니고 비의료적 맥락의 것일 수도 있다.For example, an "image" may be a subject collected by computed tomography (CT), magnetic resonance imaging (MRI), ultrasound or any other medical imaging system known in the art. It may be a medical image of a subject. Imaging is not necessarily provided in a medical context, but may be in a non-medical context.

설명의 편의를 위하여 제시된 도면에서는 예시적인 일부의 영상 형식(modality)이 도시되어 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 특정의 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.In the drawings presented for convenience of description, some exemplary image formats are shown, but a person skilled in the art will understand that the image formats used in various embodiments of the present disclosure are not limited to a specific format. .

본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.Throughout the description and claims of the present invention, the DICOM (Digital Imaging and Communications in Medicine) standard is a term used to collectively refer to various standards used for digital image representation and communication in medical devices. The standard is published by a coalition committee composed of the American Academy of Radiology (ACR) and the American Electrical Industry Association (NEMA).

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.In addition, throughout the description and claims of the present invention, 'PACS (Picture Archiving and Communication System)' is a term for a system for storing, processing, and transmitting in accordance with the DICOM standard. The medical image obtained using a digital medical imaging device such as MRI may be stored in DICOM format and transmitted to a terminal inside or outside a hospital through a network, and reading results and medical records may be added thereto.

그리고 본 발명의 상세한 설명 및 청구항들에 있어 '국소화(localization)'라는 단어 및 그 변형은 위치의 파악, 특정 내지 구체화를 지칭하도록 의도된 것이다. 예를 들어 '영역을 국소화하다'는 그 영역의 위치를 구체화하는 것을 지칭한다.And in the description and claims of the invention the word 'localization' and variations thereof are intended to refer to the identification, specification or specification of a location. For example, 'localize an area' refers to specifying the location of that area.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims of this invention, the word 'comprises' and variations thereof are not intended to exclude other technical features, additives, components or steps. In addition, "one" or "one" is used in more than one sense, and "other" is limited to at least a second or more.

통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 개시서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and features of the present invention will become apparent to those skilled in the art, in part from this description and in part from the practice of the invention. The following examples and drawings are provided by way of illustration and are not intended to limit the invention. Accordingly, the details disclosed in this disclosure with respect to particular structures or functions are not to be interpreted in a limiting sense, but merely to provide a guide for a person skilled in the art to variously implement the present invention with any suitable structures. It should be interpreted as representative basic data.

더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of the embodiments indicated in this disclosure. It is to be understood that the various embodiments of the invention are different, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.

본 개시서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated in the present disclosure or clearly contradicted by context, the item referred to in the singular encompasses the plural unless the context otherwise requires. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

이제부터 설명하는 본 발명에 따른 방법의 검증에 이용된 영상들인 황반 중심(macular-centered) 영상들에 대한 분류를 담은 영역 주석은 주석자(annotator)가 소정의 인터페이스를 통하여 분류(즉, 소견의 유형)을 선택하고 이에 대응되는 영역들을 선택함으로써 얻어졌다. 영상에 나타난 안구가 정상인 경우에는 그 영상에 어떠한 소견의 주석도 달리지 않으므로 정상으로 분류된다. 예컨대, 대한민국 등록특허 제10-1848321호에 개시된 바와 같이 영상은 8개의 영역들로 분할될 수 있는바, 해당 특허문서에 따르면 그 각각이 안구의 해부학적 구조 및 소견들의 영역적 특성들을 반영하고 있다. 예를 들어, 그러한 영역들은 황반 영역, 시신경 유두 상측 영역, 시신경 유두 하측 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역을 포함할 수 있다.Area annotations containing classifications for macular-centered images, which are images used in the verification of the method according to the present invention described hereinafter, are classified by the annotator through a predetermined interface (ie, type of findings). ) And the corresponding regions. If the eye shown in the image is normal, no comments are made on the image, so it is classified as normal. For example, as disclosed in Korean Patent No. 10-1848321, an image may be divided into eight regions, each of which reflects the regional characteristics of the anatomy and features of the eye according to the patent document. . For example, such areas may include macular area, optic nerve papillary area, optic nerve papillary area, lateral (temporal) area, superotemporal area, inferotemporal area, superonasal area and hyponasal area ( inferonasal) region.

도 1은 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device for performing an image classification method according to the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1, the computing device 100 according to an embodiment of the present invention includes a communication unit 110 and a processor 120, and directly or indirectly with an external computing device (not shown) through the communication unit 110. Can communicate with each other.

구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, the computing device 100 may comprise typical computer hardware (eg, a computer processor, memory, storage, input and output devices, devices that may include components of other conventional computing devices; routers, switches, etc.). Electronic communication devices; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SANs) and computer software (ie, enabling computing devices to function in a particular manner). Combination of instructions) to achieve the desired system performance.

이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.The communication unit 110 of such a computing device may transmit and receive a request and a response with another computing device to which the computing device is interworked. As an example, the request and response may be made by the same transmission control protocol (TCP) session. However, the present invention is not limited thereto, and may be transmitted and received as, for example, a user datagram protocol (UDP) datagram. In addition, in a broad sense, the communication unit 110 may include a keyboard, a mouse, other external input devices, a printer, a display, and other external output devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 120 of the computing device may include a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU) or a tensor processing unit (TPU), and a cache memory. ), And a hardware configuration such as a data bus. In addition, the operating system may further include a software configuration of an application performing a specific purpose.

도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.2 is an exemplary block diagram illustrating hardware or software components of a computing device performing an image classification method in accordance with the present invention.

도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 영상을 획득하도록 구성된다. 영상 판독 모듈(220)은 상기 영상 획득 모듈(210)에 의하여 획득된 영상을 판독하는 데 이용된다.2, a brief overview of the configuration of a method and apparatus according to the present invention, the computing device 100 may include an image acquisition module 210 as a component thereof. The image acquisition module 210 is configured to acquire an image to which the method according to the present invention is applied. The image reading module 220 is used to read an image acquired by the image obtaining module 210.

도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.The individual modules illustrated in FIG. 2 may be implemented by, for example, the communication unit 110 or the processor 120 included in the computing device 100, or by interworking with the communication unit 110 and the processor 120. The technician will understand.

영상은, 예를 들어, 통신부(110)를 통하여 연동되는 촬영 기기 또는 의료영상 저장 전송 시스템(PACS)과 같은 외부 영상 저장 시스템으로부터 획득되는 것일 수 있으나 이에 한정되지는 않는다. 예를 들어, 영상은 (의료) 영상 촬영 기기에 의하여 촬영되어 DICOM 표준에 따라 PACS에 전송된 후 컴퓨팅 장치(100)의 영상 획득 모듈(210)에 의하여 획득된 것일 수 있다.For example, the image may be obtained from an external image storage system such as a photographing device or a medical image storage transmission system (PACS) interlocked through the communication unit 110, but is not limited thereto. For example, the image may be obtained by the image acquisition module 210 of the computing device 100 after being photographed by the (medical) imaging apparatus and transmitted to the PACS according to the DICOM standard.

영상 판독 모듈(220)의 모델에 대한 학습을 위하여, 영상과 함께 그 영상에 대한 레이블링 정보가 함께 획득될 수 있는데, 학습시에 이 영상 및 레이블링 정보는 영상 판독 모듈(220)에 포함된 영상 판독 모델을 미리 훈련하는 데 이용된다. 레이블링 정보는, 영상에 나타난 분류의 내용 및 그 분류를 지지하는 영역에 관한 정보를 포함할 수 있다.In order to learn about the model of the image reading module 220, the image and the labeling information for the image may be obtained together with the image. In the learning, the image and the labeling information may be read. It is used to train the model in advance. The labeling information may include information about the contents of the classification displayed on the image and an area supporting the classification.

이와 같은 훈련이 종료된 영상 판독 모델은 영상 판독 모듈(220)에서 영상의 분류 정보를 생성하여 이를 결과 저장 및 출력 모듈(230)에 전달할 수 있는바, 결과 저장 및 출력 모듈(230)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 상기 영상에 대한 분류 결과를 외부 엔티티(entity)에 제공할 수 있다. 사용자의 편의를 위하여 앞서 생성된 분류 정보의 편집이 가능한 결과 편집 모듈(240)이 추가로 제공될 수도 있다.The image reading model in which the training is completed may generate the classification information of the image in the image reading module 220 and transfer the information to the result storing and output module 230. The result storing and output module 230 may have a predetermined value. The classification result of the image may be provided to an external entity through an output device such as a user interface displayed on a display. For convenience of the user, a result editing module 240 capable of editing the previously generated classification information may be further provided.

여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 영상의 분류, 즉 분류의 판정(판독)을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. Herein, an external entity is to be understood as including a user, a manager of the computing device 100, and any subject that requires classification (ie, reading) of the image, that is, classification.

도 2에 나타난 각각의 구성요소들의 구체적인 기능 및 효과에 관하여는 상세히 후술하기로 한다. 도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다.Specific functions and effects of the respective components shown in FIG. 2 will be described later in detail. Although the components illustrated in FIG. 2 are illustrated as being realized in one computing device for convenience of description, the computing device 100 performing the method of the present invention may be configured such that a plurality of devices are interworked with each other. It will be understood that it may be covered by the claims appended hereto.

이제 본 발명에 따른 영상 분류 방법의 일 실시 예를 도 3을 참조하여 더 구체적으로 설명하기로 한다.An embodiment of an image classification method according to the present invention will now be described in more detail with reference to FIG. 3.

도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다. 3 is a flowchart illustrating an image classification method according to an exemplary embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 영상 분류 방법은, 우선, 컴퓨팅 장치(100)에 의하여 구현되는 영상 획득 모듈(210)이, 영상을 획득하거나 컴퓨팅 장치(100)의 통신부(110)를 통하여 연동되는 타 장치(미도시)로 하여금 획득하도록 지원하는 단계(S100)를 포함한다.Referring to FIG. 3, in the image classification method according to the present invention, first, an image acquisition module 210 implemented by the computing device 100 acquires an image or receives the image through the communication unit 110 of the computing device 100. And supporting another device (not shown) to be acquired (S100).

다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 영상 판독 모듈(220)이, 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계(S200)를 더 포함하는바, 그 심층 신경망은 하기에서 예시하는 바와 같다. 여기에서 분류 정보는 영상의 분류 및 그 분류를 지지하는 시각화 정보를 포함할 수 있다. 이 시각화 정보는 후술할 활성 맵(activation map)으로서 제공될 수도 있다. 영상의 분류는 단수일 수 있을 뿐만 아니라 복수일 수도 있다.Next, in the image classification method according to the present invention, the image reading module 220 implemented by the computing device 100 supports generating or generating classification information of the image based on a deep neural network (S200). Further comprising, the deep neural network is as exemplified below. The classification information may include classification of an image and visualization information supporting the classification. This visualization information may be provided as an activation map to be described later. The classification of the images may be singular or plural.

일 실시예에서, 단계(S200)는, 구체적으로, 영상 판독 모듈(220)이, 상기 영상의 판독 가능 여부를 판정하거나 통신부(110)를 통하여 상기 타 장치로 하여금 판정하도록 지원하는 단계(S220; 미도시)를 포함한다. In one embodiment, step (S200), specifically, the image reading module 220, the step of supporting the other device to determine whether or not the image is readable or through the communication unit 110 (S220); Not shown).

본 발명에 따른 방법을 수행하기 위하여 소정의 사용자 인터페이스가 제공될 수 있으며, 그 사용자 인터페이스를 통하여 영상 및 그 영상에 대한 판독 가능 여부가 표시될 수 있다. 이 판독 가능 여부는 분류 정보에 포함될 수 있다.In order to perform the method according to the present invention, a predetermined user interface may be provided, and an image and whether or not the image may be read may be displayed through the user interface. Whether or not this can be read may be included in the classification information.

단계(S220)에서, 상기 영상이 판독 불가능하면, 판독 불가능하다는 분류가 생성될 수 있다.In step S220, if the image is not readable, a classification may be generated that is not readable.

그리고, 단계(S200)는, 상기 영상이 판독 가능하면, 영상 판독 모듈(220)이, 상기 영상에서 검출되는 개별 분류에 대한 판독 결과 정보를 그 개별 분류의 신뢰 수준(confidential level)과 함께 상기 분류 정보로서 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S240)를 더 포함할 수 있다.In operation S200, when the image is readable, the image reading module 220 displays the read result information on the individual classification detected in the image together with the confidence level of the individual classification. The method may further include generating as information or supporting the other device to generate (S240).

단계(S240)에서 그 개별 분류를 지지하는 상기 영상에서의 시각화 정보는 하기에서 그 산출 방식이 아래에서 상술될 활성 맵(activation map)으로서 산출될 수 있는바, 예를 들어 아래에서 설명하는 도 6에 나타난 바와 같다.In step S240, the visualization information in the image supporting the individual classification may be calculated as an activation map whose calculation scheme will be described below in detail below, for example, FIG. 6 described below. As shown in

다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 결과 저장 및 출력 모듈(230)이, 상기 분류 정보를 외부 엔티티에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S300)를 더 포함할 수 있다. 전술한 바와 같이 그 분류 정보는 영상이 속한 분류 및 상기 분류를 지지하는 시각화 정보, 예컨대, 활성 맵(activation map)을 포함할 수 있다.Next, in the image classification method according to the present invention, the result storage and output module 230 implemented by the computing device 100 may provide the classification information to an external entity or support the other device to provide. It may further include (S300). As described above, the classification information may include a classification to which the image belongs and visualization information supporting the classification, for example, an activation map.

그런데, 생성된 분류 정보는 수정 혹은 편집되어야 할 필요성도 있을 것이므로, 본 발명에 따른 영상 분류 방법은, 단계(S300) 후에, 컴퓨팅 장치(100)에 의하여 구현되는 결과 편집 모듈(240)이 소정의 사용자 인터페이스를 제공함으로써 그 사용자 인터페이스를 통하여 사용자로 하여금 상기 분류 정보를 편집 또는 수정할 수 있도록 지원하는 단계(S400; 미도시)를 더 포함할 수 있다. 단계(S400)에서는 수정 입력이 획득되면, 결과 편집 모듈(240)이 그 수정 입력에 응하여 상기 분류 정보를 수정하거나 상기 타 장치로 하여금 수정하도록 지원할 수 있다.However, since the generated classification information may need to be modified or edited, in the image classification method according to the present invention, after the step S300, the result editing module 240 implemented by the computing device 100 may be predetermined. Providing a user interface may further include a step (S400; not shown) for supporting a user to edit or modify the classification information through the user interface. In operation S400, when a correction input is obtained, the result editing module 240 may modify the classification information or support the other device to correct the classification information in response to the correction input.

본 개시서에서 이용되는 사용자 인터페이스의 일 예시로서, 그래픽 사용자 인터페이스(graphical user interface; GUI)는 디스플레이 프로세서(display processor)에 의하여 생성된 하나 이상의 디스플레이 영상들(display images)을 포함하는바, 이는 프로세서 또는 다른 장치와의 사용자 상호작용(user interaction) 및 연관된 데이터 획득 및 프로세싱 기능들을 가능하게 하는 것이다. 또한 상기 GUI는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션을 포함한다. 상기 실행 가능한 프로시저 또는 실행 가능한 애플리케이션은 조건에 따라 상기 디스플레이 프로세서로 하여금 상기 GUI 디스플레이 영상들을 표현하는 신호들을 생성한다. 이 신호들은 상기 사용자가 보기 위한 영상들 디스플레이하는 디스플레이 장치에 전달된다. 상기 프로세서는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션의 제어 하에 입력 장치들로부터 수신된 신호들에 응하여 상기 GUI 디스플레이 영상들을 조작(manipulate)한다. 이러한 방식으로, 사용자는 입력 장치들을 이용하여 상기 디스플레이 영상과 상호작용할 수 있는바, 상기 프로세서 또는 다른 장치와의 사용자 상호작용이 가능해짐을 통상의 기술자는 이해할 수 있을 것이다.As an example of a user interface used in the present disclosure, a graphical user interface (GUI) includes one or more display images generated by a display processor, which includes a processor Or user interaction with other devices and associated data acquisition and processing functions. The GUI also includes an executable procedure or executable application. The executable procedure or executable application causes the display processor to generate signals representing the GUI display images according to a condition. These signals are transmitted to a display device displaying images for viewing by the user. The processor manipulates the GUI display images in response to signals received from input devices under the control of an executable procedure or an executable application. In this manner, a user may understand that the user may interact with the display image using input devices, thereby enabling user interaction with the processor or other device.

본 발명에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 의료 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적으로 복수의 사용자를 지칭할 수도 있는바, 이에는 영상을 분류하는 심층 신경망의 학습 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.The user referred to in the present invention may not only refer to the singular but also may refer to a plurality of users for the purpose of obtaining abundant and overlapping medical images and their related data, which includes learning a deep neural network for classifying images. Alternatively, there may be a purpose to secure the integrity of the image in actual use.

본 발명에 따른 방법에 이용되는 영상 판독 모듈(220)의 판독 모델로는 다양한 종류의 분류기(classifier)가 이용될 수 있는데, 예컨대, 딥 러닝 모델, 랜덤 포레스트, 베이지안 영상 획득 모듈 등일 수 있다. 아래에서는 본 발명자들에 의하여 판독 모델로 이용된 예시적 신경망 아키텍처를 도 4을 참조하여 설명한다.Various kinds of classifiers may be used as the reading model of the image reading module 220 used in the method according to the present invention, for example, a deep learning model, a random forest, a Bayesian image acquisition module, or the like. The following describes an exemplary neural network architecture used by the inventors as a readout model with reference to FIG. 4.

본 발명의 예시적 신경망 아키텍처. 도 4은 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다. Exemplary neural network architecture of the present invention. 4 is a diagram illustrating an example of a neural network architecture according to an embodiment of the present invention.

도 4에 도시된 바와 같이 본 발명의 일 실시 예에 따른 신경망 아키텍처는 레지듀얼 층(residual layer; 412, 422, 432, 440, 458, 470)(residual unit 후의 특징 맵들), 중간 리덕션 층(intermediate reduction layer; 414, 416, 424, 426, 428, 433, 434, 435, 436){스트라이드 2의 3x3 합성곱, 배치-노름(batch-norm), ReLU 후의 특징 맵들}, 평균 풀링 층(452, 454, 456), 아트러스 피라미드 풀링 층(atrous pyramid pooling layer; 460), 최종 리덕션 층(final reduction layer; 470) 및 1x1 합성곱(깊이=1; 480) 층을 포함할 수 있다. 여기에서 레지듀얼 층 혹은 레지듀얼 유닛(residual unit)은 {합성곱, 배치-노름(batch-norm), ReLU} x 2에 입력층이 출력층에 더해진 특징 맵들을 지칭한다.As shown in FIG. 4, the neural network architecture according to an embodiment of the present invention includes a residual layer (412, 422, 432, 440, 458, 470) (characteristic maps after a residual unit), and an intermediate reduction layer (intermediate). reduction layer; 414, 416, 424, 426, 428, 433, 434, 435, 436) {3x3 product of stride 2, batch-norm, feature maps after ReLU}, average pooling layer 452, 454, 456), an atrous pyramid pooling layer 460, a final reduction layer 470, and a 1 × 1 composite product (depth = 1; 480) layer. Here, the residual layer or the residual unit refers to feature maps in which an input layer is added to an output layer in {synthesis product, batch-norm, ReLU} x 2.

층이 깊어질수록 합성곱 블록(convolution block; 410, 420, 430) 각각을 이루는 층 개수가 단조 증가하도록 하는 것이 유리하다. 개수가 같거나 더 적은 경우에는 동일 파라미터를 가지는 때에 성능이 낮아지는 경향이 있다. 한편, 도 4의 예에서는 합성곱 블록의 총 개수가 3개인 것으로 도시되었으나 그보다 많은 개수도 무방하다.As the layers become deeper, it is advantageous to monotonically increase the number of layers forming each of the convolution blocks 410, 420, and 430. If the number is the same or less, the performance tends to be lowered when they have the same parameters. Meanwhile, in the example of FIG. 4, the total number of convolutional blocks is illustrated as three, but more than that.

높이 및 폭이 절반이 되면 층들의 깊이는 두 배가 된다. 상이한 크기를 가진 첫 4개 또는 그 이상의 리덕션 층들은 평균 풀링과 결합(concatenation)되어 저수준 특징과 고수준 특징을 모두 활용한다. 즉, 실시 예의 신경망 아키텍처에 의하면 복수의 합성곱을 거쳐 특징을 추출한 후에 크기를 조절하면서 정보를 압축하는 연산, 즉, 크기 조절 연산(예컨대, 평균 풀링 연산)으로 해상도를 동일하게 맞춰주어 깊이 방향으로 결합(concatenation)함으로써 다양한 수준의 특징들을 추출할 수 있다. 도 4의 예시를 참조하면, 참조부호 412, 422, 432의 리덕션 층은 해상도를 조절하여 각각 참조부호 452, 454, 456으로 결합되고, 여기에 참조부호 440의 리덕션 층이 결합된다.Half the height and width double the depth of the layers. The first four or more reduction layers of different sizes are concatenated with average pooling to utilize both low and high level features. That is, according to the neural network architecture of the embodiment, the feature is extracted through a plurality of composite products, and then the information is compressed by adjusting the size, that is, by adjusting the size equally (e.g., the average pooling operation) and matching the resolution in the same direction. By concatenation, various levels of features can be extracted. Referring to the example of FIG. 4, the reduction layers of reference numerals 412, 422, and 432 are combined with reference numerals 452, 454, and 456, respectively, by adjusting the resolution, and the reduction layers of reference numeral 440 are coupled thereto.

그 후, 결합된 특징 맵들은 1, 2, 4, 8(큰 크기에 대한 소견들)의 확장률(dilation rate), 1, 2, 4(중간 크기에 대한 소견들)의 확장률, 또는 1, 2(작은 크기에 대한 소견들)의 확장률로 아트러스-피라미드-풀링(atrous-pyramid-pooled; 460)된다. 이는 효과적으로 2배로 수용 필드(receptive fields)를 키워나가기 위한 것이다. 즉, 아트러스 피라미드 풀링은 다양한 크기의 수용 필드로 특징들을 결합하기 위하여 채용되었다. 아트러스 풀링 층의 다음 층은 스트라이드 2의 합성곱으로 해상도를 1/2로 줄여 특징을 뽑아낸다. The combined feature maps then have a dilation rate of 1, 2, 4, 8 (findings for large size), an expansion rate of 1, 2, 4 (findings for medium size), or 1 , Atrous-pyramid-pooled (460) with an expansion rate of 2 (findings for small size). This is for effectively doubling the receptive fields. That is, atlas pyramid pooling has been employed to combine features into accommodation fields of various sizes. The next layer of the atlas pulling layer is the composite product of stride 2, reducing the resolution to 1/2 to characterize it.

마지막 층(480)은 1x1 합성곱 층으로서, 직전의 최종 리덕션 층(470)의 1x1 합성곱을 연산하는바, 이는 분류 활성 맵(CAM; class activation map)에서와 같은 이전 특징 맵들의 선형 결합이라는 점이 주목된다. 시그모이드 함수로써 상기 층의 값들은 (0, 1)로 정규화되고, 따라서 후속의 층은 정규화된 활성 맵으로 간주될 수 있다. 본 발명자에 의한 안출된 활성 맵(490a)은 CAM과는 상이한데, 추가적인 손실 함수가 바람직한 영역들에서만 활성이 나타나도록 안내한다는 점에서 그러하다.The last layer 480 is a 1x1 composite product layer, which computes the 1x1 composite product of the last final reduction layer 470, which is a linear combination of previous feature maps, such as in a class activation map (CAM). It is noted. With the sigmoid function the values of the layer are normalized to (0, 1), so that subsequent layers can be considered normalized active maps. The devised activity map 490a by the inventor differs from the CAM, in that an additional loss function guides the activity to appear only in the desired areas.

본 발명자에 의한 실험에서는 16x16 크기의 특징들을 결합하는 것이 가장 정확한 활성 맵(activation map)을 보여주었다. 바람직하게는 마지막 층은 8x8에서 32x32 사이의 크기가 될 수 있는데, 이는 1x1에 대응되는 실제 안저 영상에서의 크기가 유의미한 병변 식별 크기와 일치하도록 하기 위한 것이었다.In our experiments, combining 16x16 sized features showed the most accurate activation map. Preferably the last layer may be between 8x8 and 32x32 in size so that the size in the actual fundus image corresponding to 1x1 matches the significant lesion identification size.

또한, 1x1 합성곱 층은 한 쪽으로는 전역 평균-풀링(GAP; global average pooling)되고 시그모이드 함수로써 정규화됨으로써 분류 결과(classification result), 즉, 존재 여부를 고려하는 예측값이 산출되는 제1 출력층에 이어진다. 1x1 합성곱 층은 다른 한 쪽으로는 시그모이드를 통하여 정규화된 활성 맵이 산출되는 제2 출력층에 이어진다. 따라서 활성 맵은 본 발명에 따른 신경망 아키텍처에서의 예측에 직접적으로 연관되며 시각화를 위한 외부의 별도 연산이 요구되지 않는다.In addition, the 1 × 1 convolutional layer is global average pooled (GAP) on one side and normalized with a sigmoid function to yield a classification result, that is, a first output layer that yields a prediction that takes into account its presence. Leads to. The 1 × 1 convolutional layer is followed by a second output layer from which the normalized active map is calculated via sigmoid. Therefore, the activity map is directly related to the prediction in the neural network architecture according to the present invention and no external computation is required for visualization.

의료 영상에 있어 작은 병변 영역의 경우에는 활성 맵에서 같은 위치에 위양성으로서 활성이 생성되는 경우{편향(bias)이 나타남}가 있는데, 이를 방지하기 위하여 전역 평균-풀링(GAP) 전에 최대 풀링처럼 지정된 구역 내의 활성 값의 최댓값에 관한 비감소함수값을 출력하는 연산을 시행할 수 있다.In the case of small lesions in medical images, there is a case where the activity is generated as a false positive (bias appears) at the same location on the activity map, which is specified as maximum pooling before global average-pooling (GAP) to prevent this. An operation can be performed to output a non-reduced function value with respect to the maximum value of the active values in the zone.

본 발명의 실시 예에 따른 목적 함수는 다음과 같다. 영상

Figure pat00001
이 주어지면, 그 영상 I에서의 표적 소견의 존재는
Figure pat00002
로 인코딩되고, 존재 확률
Figure pat00003
이 신경망으로부터 출력된다. K개의 이미지가 미니 배치(mini-batch)로서 주어지는 때에, 도 4의 분류 손실에 대한 이진 교차 엔트로피는 아래 수학식 1과 같이 주어진다.An objective function according to an embodiment of the present invention is as follows. video
Figure pat00001
Given this, the presence of the target findings in that image I
Figure pat00002
Encoded with a probability of existence
Figure pat00003
It is output from this neural network. When K images are given as mini-batch, the binary cross entropy for classification loss in FIG. 4 is given by Equation 1 below.

Figure pat00004
Figure pat00004

여기에서,

Figure pat00005
이고
Figure pat00006
이다.From here,
Figure pat00005
ego
Figure pat00006
to be.

마지막 특징 맵들이

Figure pat00007
의 크기를 가지는 때에, 표적 소견
Figure pat00008
에 대한 영역 마스크(region mask; 490b)가 레이블로서 주어지고, 활성 맵(
Figure pat00009
)이 신경망으로부터 생성된다. 크기 k의 미니 매치를 가지고 도 4에서의 안내 손실(guidance loss)은 다음 수학식 2와 같이 주어진다.The last feature map
Figure pat00007
When we have size, target findings
Figure pat00008
The region mask 490b for is given as a label, and the active map (
Figure pat00009
) Is generated from neural networks. Guidance loss in FIG. 4 with a mini-match of size k is given by Equation 2 below.

Figure pat00010
Figure pat00010

여기에서

Figure pat00011
이고,
Figure pat00012
이며,
Figure pat00013
Figure pat00014
Figure pat00015
에 대하여 Mi 및 Ai의 l 번째 픽셀에서의 값이다.
Figure pat00016
인 때에 수치적인 안정성(numerical stability)을 위하여 로그의 안쪽에
Figure pat00017
이 추가된다는 점이 주목된다. 간명하게 설명하면, 안내 손실은 마스크의 값이 0인 영역들에서의 어떠한 활성도 억제하며, 마스크 내부의 활성에 대하여는 어떠한 영향도 미치지 않는다. 수학식 2에서
Figure pat00018
대신에
Figure pat00019
를 이용하여도 무방하다.
Figure pat00020
또는
Figure pat00021
Figure pat00022
로 일반화될 수 있는데, 이
Figure pat00023
는 치역이 양수에 속하는
Figure pat00024
에 대한 비감소함수(non-decreasing function; weakly increasing function) 중에서 선택될 수 있다.From here
Figure pat00011
ego,
Figure pat00012
Is,
Figure pat00013
and
Figure pat00014
Is
Figure pat00015
For the l th pixel of M i and A i .
Figure pat00016
Inside the log for numerical stability
Figure pat00017
It is noted that this is added. In short, the guidance loss inhibits any activity in areas where the value of the mask is zero, and has no effect on the activity inside the mask. In equation (2)
Figure pat00018
Instead of
Figure pat00019
You can also use.
Figure pat00020
or
Figure pat00021
Is
Figure pat00022
Can be generalized to
Figure pat00023
The range is positive
Figure pat00024
It can be chosen from a non-decreasing function (weakly increasing function).

안내 손실은 마스크의 값이 0일 때 나오는 활성 값을 줄여주는 역할을 한다. W 값의 역전파 계산식은 이전 층의 출력값을 out이라고 했을 때, (1-a)*out인바, 각 픽셀의 활성 값인 a 값이 작을수록 커진다. 이는 분류 손실이 패턴을 찾아나가는 과정에서 변두리에 발생하는 아티팩트(artifact)를 제거하는 효과를 지닌다.The loss of guidance reduces the active value when the value of the mask is zero. The backpropagation equation of the W value is (1-a) * out when the output value of the previous layer is called out, so that the smaller the value of a, the active value of each pixel, is larger. This has the effect of eliminating artifacts on the edges of the classification loss as it searches for patterns.

그렇다면, 전체의 손실값은 예컨대 이진 분류 엔트로피 등의 손실 함수를 이용한 분류 손실과, 이 분류 손실과의 절충용 하이퍼 파라미터인 λ를 곱한 안내 손실을 결합함으로써 얻어지는바, 아래 수학식 3과 같다.Then, the total loss value is obtained by combining a classification loss using a loss function such as binary classification entropy and a guide loss multiplied by lambda, a hyperparameter for compromise with this classification loss, as shown in Equation 3 below.

Figure pat00025
Figure pat00025

다시 말하자면, λ는 2개의 목적 함수들의 균형을 잡기 위한 값이다.In other words, [lambda] is a value for balancing two objective functions.

본 발명의 예시적 신경망 아키텍처의 훈련 예시. 본 발명에 따른 심층 신경망의 훈련 방법은 전술한 안내 손실을 이용한다는 점이 종래의 기술과 차별화되는 기술적 특징이다. 개괄적으로 설명하면, 본 발명에 따른 심층 신경망의 훈련 방법은, 우선, 컴퓨팅 장치(100)가, 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch)로서 추출하고, 그 추출된 미니 배치의 심층 신경망에 대한 손실 함수 값을 수학식 3과 같이 산출한다. 손실 함수 값이 구해지면, 컴퓨팅 장치(100)는, 손실 함수 값이 작아지는 방향의 기울기를 산출하고, 그 기울기의 방향으로 심층 신경망의 가중치 매개변수를 갱신한다. 이는 소정의 훈련 종료 조건을 만족할 때까지 반복될 수 있다. Training example of an exemplary neural network architecture of the present invention. The training method of the deep neural network according to the present invention is a technical feature that is different from the conventional technology using the above-described guide loss. In general, in the method for training a deep neural network according to the present invention, first, the computing device 100 extracts at least a portion of training image data as a mini-batch, and then extracts the extracted mini batch. The loss function value for the deep neural network is calculated as in Equation 3. When the loss function value is obtained, the computing device 100 calculates the slope of the direction in which the loss function value decreases, and updates the weight parameter of the deep neural network in the direction of the slope. This may be repeated until the predetermined end of training condition is met.

한편, 가중치 매개변수의 갱신에는 소정의 학습률(learning rate)을 적용하여 이루어질 수 있다는 점이 알려져 있다.On the other hand, it is known that the updating of the weight parameter can be achieved by applying a predetermined learning rate.

이 훈련된 심층 신경망을 이용하여, 본 발명의 방법에 따라 컴퓨팅 장치가, 입력 영상의 분류를 수행하고, 그 분류에 대응되는 입력 영상의 영역을 국소화할 수 있다.Using this trained deep neural network, a computing device may classify an input image and localize an area of the input image corresponding to the classification in accordance with the method of the present invention.

안내 손실을 이용한 훈련할 수 있는 심층 신경망은 도 4에 예시한 것에 한정되지 않고, (i) 최초의 입력층, (ii) 그 입력층에 이어지는 다수의 합성곱층, (iii) 그 합성곱층 사이에 개재되는 적어도 하나의 풀링 층 및 (iv) 최후의 출력층을 포함하는 심층 신경망에 널리 이용될 수 있을 것이다.The deep neural network that can be trained using intraocular loss is not limited to that illustrated in FIG. 4, and is defined between (i) the first input layer, (ii) a number of composite product layers following the input layer, and (iii) the composite product layer. It may be widely used in a deep neural network comprising at least one intervening pooling layer and (iv) the last output layer.

성능의 검증을 위한 본 발명의 예시적 신경망 아키텍처의 구현례. 본 발명자들은 DR 및 DME (출혈, 경성삼출물, 드루젠, 면화반(CWP)), 황반원공(macular hole), membrane 및 망막신경섬유층결손(retinal nerve fiber layer defect; RNFL defect)와 연관된 임상적으로 중요한 소견들에 관한 분류 결과를 선택적으로 보이기로 하였다. Implementation of an exemplary neural network architecture of the present invention for verification of performance. We have clinically associated DR and DME (bleeding, hard exudates, drusen, cotton plaques (CWP)), macular holes, membranes and retinal nerve fiber layer defects (RNFL defects). The results of the classification on the important findings were chosen as optional.

본 발명자들은 신경망 아키텍처의 성능을 측정하기 위한 용도로 주석자들의 전문지식에 기초하여 주석 처리된 영상 세트를 이용하였다. 그 중, 훈련 세트와 테스트 세트에 포함된 영상의 총량은 각각 66,473과 15,451이었다.We used an annotated set of images based on the expertise of annotators for the purpose of measuring the performance of the neural network architecture. Among them, the total amount of images included in the training set and the test set was 66,473 and 15,451, respectively.

훈련 세트는 도출 세트(derivation set) 90%와 검증 세트 10%로 나뉘었다. 본 발명에 따른 예시적 신경망 아키텍처의 모델은 검증 손실이 정체(stagnate)되고 악화(exacerbate)될 때까지 상기 도출 세트를 가지고 최적화되었다. 가장 낮은 검증 손실을 가지는 모델이 골드 스탠더드(gold standards)로 간주된 테스트 세트를 가지고 테스트되었다. 본 발명자들은 안과의 모두가 주석을 달지 않은 때에는 표적 소견이 없는 것으로 정하고, 안과의 3명 중 2명 이상이 주석을 단 경우에는 표적 소견이 존재하는 것으로 정하였다. 주석이 달린 영역들의 합집합은 훈련 중에 영역적 단서로서 제공되었다.The training set was divided into 90% of the derivation set and 10% of the verification set. The model of an exemplary neural network architecture in accordance with the present invention has been optimized with this set of derivations until the verification loss is stagnated and exacerbated. The model with the lowest verification loss was tested with the test set considered gold standards. The present inventors determined that there was no target finding when all of the ophthalmologists did not annotate, and that the target finding was present when two or more of three ophthalmologists annotated. The union of annotated areas was provided as regional clues during training.

본 발명자들은 영역적 안내가 제공되거나 제공되지 않은 본 발명의 예시적 CNN 아키텍처들을 실험하고, AU-ROC(Area Under Receiver Operating Characteristic curve), 특이도, 민감도 및 영역적 단서에서의 활성(AIR)의 측면에서 그 결과들을 비교함으로써 상기 안내 손실의 효과를 측정하는 것을 목표로 하였다. AIR은 상기 영역적 단서들 내부의 활성들의 합산값을 모든 활성들의 합산값으로 나눈 값으로 정의된다. AIR은 영역적 단서들이 가용한 경우에 분류시 진양성 및 위음성 둘 모두에 대하여 측정되었다. 본 발명자들은 도 4에 예시적으로 도시된 신경망 아키텍처를 이용하여 수학식 3에서의 λ 값을 변경함으로써 영역적 안내가 있거나 없는 신경망을 구현하였다(λ=0인 때에는 영역적 안내가 없음).We have experimented with exemplary CNN architectures of the present invention with or without regional guidance, and have shown that the area under receiver operating characteristic curve (AU-ROC), specificity, sensitivity and activity in regional cues (AIR) The aim was to measure the effect of the guidance loss by comparing the results in terms of. AIR is defined as the sum of the activities within the regional clues divided by the sum of all the activities. AIR was measured for both true and false negatives in the classification when regional cues were available. The inventors have implemented a neural network with or without regional guidance by changing the value of λ in Equation 3 using the neural network architecture illustrated in FIG. 4 (there is no regional guidance when λ = 0).

실험에 쓰인 영상인 원본 컬러 안저 영상들은 안저(fundus) 부위가 중심에 오도록 절단(cropped)되어 검은 배경이 제거되었으며, 신경망 입력을 위한 512x512의 크기로 재조정되었다. 바람직하게는 256x256 내지 1024x1024 사이의 크기로 재조정될 수 있을 것이다. 영상을 이루는 픽셀들의 픽셀 값들은 255로 나누어서 [0,1] 범위로 오게 만드는데, 다른 전처리는 하지 않아도 무방하다. 충분히 많은 데이터가 주어진 상황에서 학습을 진행할 때에는 RGB(red-green-blue)의 경우 전처리를 전혀 하지 않고 픽셀 값의 범위만 제어(control)하는 것이 의미 있을 수 있다.The original color fundus images, which were used in the experiments, were cropped to center the fundus area, removing black background, and resized to 512x512 for neural network input. Preferably it may be readjusted to a size between 256x256 and 1024x1024. The pixel values of the pixels that make up the image are divided by 255 so that they are in the [0,1] range. No other preprocessing is required. When learning in a situation where enough data is given, it may be meaningful to control only a range of pixel values without any preprocessing in the case of red-green-blue (RGB).

그 재조정된 영상들은 아핀 변환{뒤집기, 크기 변경, 회전, 평행이동, 전단(shear)}에 의하여 무작위적으로 데이터 확대(data-augmented)되었고, 그 강도(intensity)는 무작위적으로 스케일 조정(re-scaled)되었다. 가중치 및 편향치(biases)들은 사비에르 초기화(Xavier initialization)를 이용하여 초기화되었다. 본 발명자들은 최적화기(optimizer)로서, nestrov 모멘텀이 0.9이고 감쇠하는 학습률(decaying learning rate)를 가진 SGD를 이용하였다. 배치 크기는 작은 배치 크기가 일반화에 더 좋다는 추천에 따라 32로 정하였다. 또한 수학식 2에서 ε=10-3로 두어 수치적 안정성을 도모하였으며, 수학식 3에서 λ=1로 두어 분류 손실 및 안내 손실을 동일하게 취급하였다.The readjusted images were randomly data-augmented by affine transformation (flip, resize, rotate, translate, shear), and the intensity was randomly scaled (re -scaled). Weights and biases were initialized using Xavier initialization. We used SGD as an optimizer, with nestrov momentum 0.9 and a decaying learning rate. The batch size was set at 32 according to the recommendation that smaller batch sizes are better for generalization. In addition, numerical stability was achieved by setting ε = 10 −3 in Equation 2, and λ = 1 in Equation 3 to treat classification loss and guide loss in the same manner.

한편, 512x512 이상의 크기를 가진 영상에 대하여는 연속적인 스트라이드 2의 합성곱을 통하여 해상도를 절반으로 줄이는 것이 바람직한바, 이는 효율적인 계산을 하기 위한 것이다.On the other hand, for an image having a size of 512x512 or more, it is desirable to reduce the resolution by half through a composite product of successive strides 2, which is for efficient calculation.

다만, 통상의 기술자들은 이와 같은 예시적 신경망에 나타난 구체적인 수치에 본 발명이 한정되지 않는다는 점을 이해할 수 있을 것이다.However, those skilled in the art will understand that the present invention is not limited to the specific numerical values shown in the exemplary neural network.

본 발명의 예시적 신경망 아키텍처의 구현례에 의한 실험 결과. 도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다. Experimental results by implementation of exemplary neural network architecture of the present invention. 5 is a table showing the results of comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.

도 5에는 안내 손실이 도입된 모델과 안내 손실이 없는 모델 간의 성능을 비교한 결과가 표로서 요약되어 있다. 본 발명자은 모든 소견의 분류들에 걸쳐 TP (진양성) 및 FN (위음성)의 AIR에 대한 안내 손실의 긍정적 영향을 확인할 수 있었다. 이는 바람직한데, 신경망이 분류를 위한 영역적 단서 안에 주의를 기울일 수 있다는 점에서 그러하며, 따라서 신경망은 데이터세트의 편향들을 덜 학습하려는 경향을 보인다. 또한, FN보다 TP의 경우에 2개의 모델 간의 AIR의 차이가 더 크다. 이는 FN이 신경망의 분류가 어려운 경우들로 구성되는 반면 TP는 높은 신뢰도(confidence)로 상대적으로 쉽게 분류될 수 있기 때문에 합리적이다.FIG. 5 summarizes the results of comparing the performance between the model with guide loss introduced and the model without guide loss. The inventors were able to identify the positive effects of guiding loss on AIR of TP (true positive) and FN (false negative) across all categories of findings. This is desirable, as the neural network can pay attention to the regional cues for classification, so the neural network tends to learn less of the dataset biases. Also, the difference in AIR between the two models is larger in the case of TP than in FN. This is reasonable because FN consists of cases where neural network is difficult to classify, whereas TP can be classified relatively easily with high confidence.

AU-ROC에 대하여는, 황반원공 및 망막신경섬유층결손에서 현저한 개선이 이루어졌다. 이들 소견이 특정 영역들에서 관찰되므로 영역적 단서들에 의하여 가장 큰 이점이 나타나는 것은 흥미롭게 눈여겨 볼 만하다. 이는 분류에 중요한 영역들에 신경망이 주의를 기울일 수 있도록 안내됨으로써 학습이 더 쉬워진다는 것으로 설명될 수 있다. 한편, 출혈, 경성삼출물 및 드루젠 과 같은 광범위한 면적에 걸쳐 분산된 소견들은 분류에 있어서 영역적 단서의 이점을 거의 누리지 못할 수 있다. 본 발명자는 이들 소견들에 대한 분류가 넓은 영역적 단서를 가져 본 발명에 따른 안내가 다소 잉여적인데, 병변이 작으면 안내가 더 중요해질 것이라고 짐작한다. AU-ROC가 더 높은 때에는 민감도도 더 높고, 특이도가 더 낮은 것으로 관측된다. 그런데 황반원공 및 망막신경섬유층결손에 대해서는 현저한 차이가 보인다.For AU-ROC, significant improvements were made in macular holes and retinal nerve fiber layer defects. Since these findings are observed in certain areas, it is interesting to note that the greatest advantage is given by the regional cues. This can be explained by the fact that the neural network is guided to pay attention to the areas important for classification, making learning easier. On the other hand, findings distributed over a wide area such as bleeding, hard exudates and drusen may have little benefit of regional cues in classification. The inventors assume that the classification of these findings has broad regional cues and that the guidance according to the present invention is somewhat redundant, but that the smaller the lesion, the more important the guidance will be. At higher AU-ROCs, higher sensitivity and lower specificity are observed. However, there is a significant difference in macular hole and retinal nerve fiber layer defect.

도 6는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.6 is an exemplary diagram qualitatively comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.

도 6에는 안내 손실이 있는 신경망과 없는 신경망의 활성 맵들이 서로 비교되어 있다. 원본 영상 위에 중첩되기 전에 활성 맵들은 이중 선형 보간에 의하여 업스케일(upscaled)되고, 자연스러운 시각화를 위하여 32x32 가우시안 필터로써 블러링(blurred)되며, [0, 1]로 정규화된다. 도면에 명확하게 나타난 바와 같이 영역적 단서를 가지고 훈련되는 때에 신경망이 더 정확한 활성 맵을 생성한다. 픽셀별로 분할될 정도로 두드러지게 분할되지 않았고 몇몇 경우에 있어서는 소수의 위양성이 나타났더라도 본 발명에 의하여 도출된 활성 맵들은 임상의에게 유익하게 이용될 수 있는 소견의 위치에 관한 유의미한 정보를 제공한다. 안내 손실 없이는 활성 맵들은 병변의 주변부보다 훨씬 크게 퍼지고 종종 관련 없는 구역들을 강조한다.6, the activity maps of the neural network with and without guide loss are compared with each other. Before superimposing on the original image, the active maps are upscaled by double linear interpolation, blurred with a 32x32 Gaussian filter for natural visualization, and normalized to [0, 1]. As clearly shown in the figure, the neural network produces a more accurate activity map when trained with regional cues. The activity maps derived by the present invention provide significant information about the location of the findings that may be beneficial to the clinician, even if they are not markedly divided by pixel and in some cases a small number of false positives are present. Without loss of guidance, the active maps spread far larger than the periphery of the lesion and often highlight unrelated areas.

전술한 바와 같이 본 발명은 그 모든 실시 예 및 변형례에 걸쳐, 국소화 및 분류를 위하여 영상들에서의 분류에 관한 영역적 정보를 활용하고 있다. 분류에 관한 영역적 주석을 수집할 수 있는 효과적인 레이블링이 가능해졌으므로 그 분류를 지지하는 영역(즉, 안저 영상에 있어서는 병변들)의 국소화와 함께 분류가 가능한 신경망 아키텍처가 제안될 수 있었으며, 이로써 사용자가 영상을 분류하는 성능이 개선된다.As described above, the present invention utilizes regional information on classification in images for localization and classification, in all embodiments and modifications thereof. Efficient labeling to collect regional annotations on classification has been made possible, so that a neural network architecture that can be classified with localization of the area supporting the classification (ie lesions in fundus images) could be proposed, thereby allowing the user to The performance of classifying images is improved.

위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. Based on the description of the above embodiments, those skilled in the art can realize that the methods and / or processes of the present invention and the steps can be realized in hardware, software or any combination of hardware and software suitable for a particular application. The point can be clearly understood.

위에서 설명된 기능들 및 프로세스 단계들은 자동으로 수행되거나 전부 또는 일부 사용자 명령(user command)에 대한 응답으로서 수행될 수 있다. 자동으로 수행되는 (단계를 포함하는) 작용(activity)은 상기 작용의 사용자에 의한 직접 개시(direct initiation) 없이 하나 이상의 실행 가능한 명령어들(instructions) 또는 장치 작동(device operation)에 대한 응답으로서 수행된다.The functions and process steps described above may be performed automatically or in response to all or some user commands. Activity (including steps) performed automatically is performed in response to one or more executable instructions or device operation without direct initiation by the user of the action. .

상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. The hardware may include a general purpose computer and / or a dedicated computing device or a particular aspect or component of a particular computing device or a specific computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and / or external memory. In addition, or alternatively, the processes may be configured to process an application specific integrated circuit (ASIC), a programmable gate array, a programmable array logic (PAL), or electronic signals. It can be implemented in any other device or combination of devices that are present. Furthermore, the objects of the technical solutions of the present invention or the parts contributing to the prior art can be implemented in the form of program instructions that can be executed by various computer components and recorded in a machine-readable recording medium. The machine-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the machine-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, Blu-rays, and magnetic-optical media such as floptical disks. (magneto-optical media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include, but are not limited to storing and compiling or interpreting for execution on any one of the foregoing devices, as well as on a machine capable of executing a heterogeneous combination of a processor, processor architecture or combinations of different hardware and software, or any other program instructions. Can be made using a structural programming language such as C, an object-oriented programming language such as C ++, or a high or low level programming language (assembly, hardware description languages and database programming languages and technologies), including machine code, This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter.

따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Thus, in one aspect according to the present invention, when the methods and combinations described above are performed by one or more computing devices, the methods and combinations of methods can be implemented as executable code that performs each step. In another aspect, the method may be practiced as systems that perform the steps, and the methods may be distributed in various ways across the devices or all the functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any hardware and / or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to operate as one or more software modules to perform a process according to the present invention, and vice versa. The hardware device may comprise a processor, such as an MPU, CPU, GPU, TPU, coupled with a memory, such as a ROM / RAM for storing program instructions, and configured to execute the instructions stored in the memory, the external device and the signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving instructions written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 첨부된 도면들의 시스템 및 프로세스들은 배타적인 것이 아니다. 다른 시스템들, 프로세스들 및 메뉴들이 동일한 목적을 달성하기 위하여 본 발명의 원리에 따라 도출될 수 있다. 비록 본 발명이 특정 실시 예들을 참조하여 설명되었지만, 본 개시서에서 도시되고 설명된 실시 예들 및 변형례들이 설명을 위한 목적만을 가진 것임이 이해될 것이다. 본 발명의 보호범위에서 일탈됨 없이 본 개시서의 설계에 대한 변경물이 통상의 기술자에 의하여 구현될 수 있을 것이다. 본 개시서에서 설명된 바와 같이 다양한 시스템들, 부수 시스템들, 에이전트들(agents), 관리자들(managers) 및 프로세스들이 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 그것들의 조합을 이용하여 구현될 수 있다.Although the present invention has been described in terms of specific embodiments such as specific components and the like, and limited embodiments and drawings, the systems and processes of the accompanying drawings are not exclusive. Other systems, processes and menus may be derived in accordance with the principles of the present invention to achieve the same purpose. Although the present invention has been described with reference to specific embodiments, it will be understood that the embodiments and variations shown and described herein are for illustrative purposes only. Modifications to the design of the present disclosure may be implemented by those skilled in the art without departing from the scope of protection of the present invention. Various systems, ancillary systems, agents, managers, and processes as described in this disclosure can be implemented using hardware components, software components, and / or combinations thereof. .

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods capable of producing the same results as those of the method according to the invention, the spirit and scope of the invention being Is not to be limited by the foregoing examples, but is to be understood in the broadest sense acceptable by law.

Claims (13)

심층 신경망을 이용하여 영상을 분류하는 방법에 있어서,
상기 방법은,
(a) 컴퓨팅 장치가, 상기 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계;
(b) 상기 컴퓨팅 장치가, 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계; 및
(c) 상기 컴퓨팅 장치가, 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 단계
를 포함하되,
상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함하는 것을 특징으로 하는 영상 분류 방법.
In the method for classifying images using a deep neural network,
The method,
(a) allowing a computing device to acquire the image or to allow another device to interoperate with the computing device;
(b) supporting, by the computing device, generating or generating classification information of the image based on the deep neural network; And
(c) supporting, by the computing device, providing or providing the classification information to an external entity.
Including,
And the classification information includes a classification to which the image belongs and an activation map supporting the classification.
제1항에 있어서,
상기 심층 신경망은,
연이은 적어도 3개의 합성곱 블록(convolution block)으로서, 적어도 하나의 리덕션 층 및 상기 리덕션 층에 이어지는 적어도 하나의 레지듀얼 층(residual layer)를 포함하는 합성곱 블록;
상기 합성곱 블록에 이어지는 중간 리덕션 층(intermediate reduction layer);
상기 합성곱 블록 각각의 리덕션 층으로부터 크기 조절 연산을 통하여 산출된 동일 크기의 해상도를 가진 층들과 상기 중간 리덕션 층을 깊이(depth) 방향으로 결합(concatenate)한 결합 층(concatenation layer);
상기 결합 층에 이어지는 아트러스 피라미드 풀링 층(atrous pyramid pooling layer);
상기 아트러스 피라미드 풀링 층에 이어지는 최종 리덕션 층;
상기 최종 리덕션 층에 이어지는 1x1 합성곱 층; 및
상기 1x1 합성곱 층에 이어지는 적어도 2개의 출력층으로서, 안내 손실을 출력하는 제1 출력층 및 분류 손실을 출력하는 제2 출력층을 포함하는 출력층(output layer)
을 포함하고,
상기 적어도 3개의 합성곱 블록 중 최초의 합성곱 블록의 상기 리덕션 층은 상기 영상이 입력되는 입력층(input layer)인 것을 특징으로 하는 영상 분류 방법.
The method of claim 1,
The deep neural network,
A convolution block comprising at least three convolution blocks, the convolution block comprising at least one reduction layer and at least one residual layer subsequent to the reduction layer;
An intermediate reduction layer subsequent to the convolutional block;
A concatenation layer that concatenates layers having the same size and the intermediate reduction layer in a depth direction calculated from a reduction layer of each convolution block;
An atlas pyramid pooling layer subsequent to the bonding layer;
A final reduction layer following the atlas pyramid pulling layer;
A 1 × 1 convolutional layer followed by the final reduction layer; And
An output layer including at least two output layers subsequent to the 1x1 composite product layer, the first output layer outputting guide loss and the second output layer outputting classification loss;
Including,
And the reduction layer of the first product block of the at least three product blocks is an input layer into which the image is input.
제2항에 있어서,
상기 (b) 단계에서,
(b1) 상기 영상이 상기 입력층에 입력되기 전에, 상기 컴퓨팅 장치가, (i) 상기 영상에 대한 절단(crop) 및 크기 재조정(resize)을 수행함으로써 상기 영상의 중심에 안저(fundus) 부위가 위치하고 상기 영상의 크기가 256x256 내지 1024x1024 사이로 재조정되는 프로세스; 및 (ii) 상기 영상의 각 채널(channel)의 픽셀 값(pixel value)이 0 이상 1 이하의 범위에 속하도록 상기 픽셀 값을 정규화(normalize)하는 프로세스를 수행하는 단계를
더 포함하는 영상 분류 방법.
The method of claim 2,
In step (b),
(b1) Before the image is input to the input layer, the computing device performs (i) cropping and resizing the image so that a fundus region is located at the center of the image. Positioning and resizing the image between 256x256 and 1024x1024; And (ii) normalizing the pixel value such that a pixel value of each channel of the image falls within a range of 0 or more.
Video classification method further comprising.
제3항에 있어서,
상기 영상의 크기가 512x512를 초과하면, 상기 (i) 프로세스에서 연속적인 스트라이드(stride) 2의 합성곱을 통하여 상기 영상의 해상도를 256x256 크기의 방향으로 감소시키는 것을 특징으로 하는 영상 분류 방법.
The method of claim 3,
If the size of the image exceeds 512x512, the resolution of the image is reduced in the direction of a size of 256x256 through a continuous product of stride 2 in the process (i).
제2항에 있어서,
연이은 적어도 3개의 합성곱 블록 각각에 속한 층의 개수는 후속 층일수록 단조 증가하도록 구성되는 것을 특징으로 하는 영상 분류 방법.
The method of claim 2,
And the number of layers belonging to each of the at least three convolutional block blocks is monotonically increased with subsequent layers.
제2항에 있어서,
상기 아트러스 피라미드 풀링 층의 확장률(dilation rate)은 (i) 1, 2, (ii) 1, 2, 4 및 (iii) 1, 2, 4, 8을 포함하는 군에서 선택된 하나인 것을 특징으로 하는 영상 분류 방법.
The method of claim 2,
The dilation rate of the atlas pyramid pooling layer is one selected from the group comprising (i) 1, 2, (ii) 1, 2, 4 and (iii) 1, 2, 4, 8. Image classification method.
제2항에 있어서,
상기 아트러스 피라미드 풀링 층과 상기 최종 리덕션 층 사이에서 스트라이드(stride) 2의 합성곱이 수행됨으로써 상기 아트러스 피라미드 풀링 층으로부터 특징이 추출됨과 동시에 상기 아트러스 피라미드 풀링 층을 통과한 데이터의 해상도가 1/2로 감소하는 것을 특징으로 하는 영상 분류 방법.
The method of claim 2,
By performing a composite product of stride 2 between the atlas pyramid pooling layer and the final reduction layer, features are extracted from the atlas pyramid pooling layer and resolution of data passing through the atlas pyramid pooling layer is 1 /. The image classification method characterized by decreasing to 2.
제2항에 있어서,
상기 1x1 합성곱 층의 크기는 8x8 내지 32x32인 것을 특징으로 하는 영상 분류 방법.
The method of claim 2,
The size of the 1x1 composite product layer is characterized in that the 8x8 to 32x32.
제2항에 있어서,
상기 제1 출력층은 상기 1x1 합성곱 층의 전역 평균 풀링(global average pooling; GAP) 후에 시그모이드(sigmoid) 함수의 적용을 통하여 상기 분류를 산출하고,
상기 제2 출력층은 상기 1x1 합성곱 층의 상기 시그모이드 함수 적용을 통하여 상기 분류를 지지하는 상기 활성맵을 산출하는 것을 특징으로 하는 영상 분류 방법.
The method of claim 2,
The first output layer calculates the classification by applying a sigmoid function after a global average pooling (GAP) of the 1x1 composite product layer,
And the second output layer calculates the activity map supporting the classification by applying the sigmoid function of the 1 × 1 composite product layer.
컴퓨팅 장치로 하여금, 제1항 내지 제9항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.A computer program stored in a machine-readable non-transitory recording medium comprising instructions implemented to cause a computing device to perform the method of any one of claims 1-9. 심층 신경망을 이용하여 영상을 분류하는 컴퓨팅 장치에 있어서,
상기 영상을 획득하는 통신부; 및
(i) 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스; 및 (ii) 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 프로세스를 수행하는 프로세서
를 포함하되,
상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함하는 것을 특징으로 하는 영상 분류 장치.
A computing device for classifying images using a deep neural network,
A communication unit for acquiring the image; And
(i) a process of generating classification information of the image based on the deep neural network or supporting other devices which are interworked through the communication unit; And (ii) a process for providing or assisting to provide the classification information to an external entity.
Including,
And the classification information includes a classification to which the image belongs and an activation map for supporting the classification.
제11항에 있어서,
상기 심층 신경망은,
연이은 적어도 3개의 합성곱 블록(convolution block)으로서, 적어도 하나의 리덕션 층 및 상기 리덕션 층에 이어지는 적어도 하나의 레지듀얼 층(residual layer)를 포함하는 합성곱 블록;
상기 합성곱 블록에 이어지는 중간 리덕션 층(intermediate reduction layer);
상기 합성곱 블록 각각의 리덕션 층으로부터 크기 조절 연산을 통하여 산출된 동일 크기의 해상도를 가진 층들과 상기 중간 리덕션 층을 깊이(depth) 방향으로 결합(concatenate)한 결합 층(concatenation layer);
상기 결합 층에 이어지는 아트러스 피라미드 풀링 층(atrous pyramid pooling layer);
상기 아트러스 피라미드 풀링 층에 이어지는 최종 리덕션 층;
상기 최종 리덕션 층에 이어지는 1x1 합성곱 층; 및
상기 1x1 합성곱 층에 이어지는 적어도 2개의 출력층으로서, 안내 손실을 출력하는 제1 출력층 및 분류 손실을 출력하는 제2 출력층을 포함하는 출력층(output layer)
을 포함하고,
상기 적어도 3개의 합성곱 블록 중 최초의 합성곱 블록의 상기 리덕션 층은 상기 영상이 입력되는 입력층(input layer)인 것을 특징으로 하는 영상 분류 장치.
The method of claim 11,
The deep neural network,
A convolution block comprising at least three convolution blocks, the convolution block comprising at least one reduction layer and at least one residual layer subsequent to the reduction layer;
An intermediate reduction layer subsequent to the convolutional block;
A concatenation layer that concatenates layers having the same size and the intermediate reduction layer in a depth direction calculated from a reduction layer of each convolution block;
An atlas pyramid pooling layer subsequent to the bonding layer;
A final reduction layer following the atlas pyramid pulling layer;
A 1 × 1 convolutional layer followed by the final reduction layer; And
An output layer including at least two output layers subsequent to the 1x1 composite product layer, the first output layer outputting guide loss and the second output layer outputting classification loss;
Including,
And the reduction layer of the first product block of the at least three product blocks is an input layer to which the image is input.
제12항에 있어서,
상기 제1 출력층은 상기 1x1 합성곱 층의 전역 평균 풀링(global average pooling; GAP) 후에 시그모이드(sigmoid) 함수의 적용을 통하여 상기 분류를 산출하고,
상기 제2 출력층은 상기 1x1 합성곱 층의 상기 시그모이드 함수 적용을 통하여 상기 분류를 지지하는 상기 활성맵을 산출하는 것을 특징으로 하는 영상 분류 장치.
The method of claim 12,
The first output layer calculates the classification by applying a sigmoid function after a global average pooling (GAP) of the 1x1 composite product layer,
And the second output layer calculates the activity map supporting the classification by applying the sigmoid function of the 1 × 1 composite product layer.
KR1020180062480A 2018-05-31 2018-05-31 Method for classifying images using deep neural network and apparatus using the same KR102220109B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180062480A KR102220109B1 (en) 2018-05-31 2018-05-31 Method for classifying images using deep neural network and apparatus using the same
PCT/KR2019/004436 WO2019231104A1 (en) 2018-05-31 2019-04-12 Method for classifying images by using deep neural network and apparatus using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180062480A KR102220109B1 (en) 2018-05-31 2018-05-31 Method for classifying images using deep neural network and apparatus using the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210021562A Division KR102234139B1 (en) 2021-02-18 2021-02-18 Method for classifying images using deep neural network and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20190136577A true KR20190136577A (en) 2019-12-10
KR102220109B1 KR102220109B1 (en) 2021-02-25

Family

ID=68698259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180062480A KR102220109B1 (en) 2018-05-31 2018-05-31 Method for classifying images using deep neural network and apparatus using the same

Country Status (2)

Country Link
KR (1) KR102220109B1 (en)
WO (1) WO2019231104A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253119B1 (en) * 2020-02-10 2021-05-18 대구대학교 산학협력단 Method of cartoon style summary for vedio using deep learning
WO2021125539A1 (en) * 2019-12-20 2021-06-24 주식회사 케이티 Device, method, and computer program for classifying objects included in image
WO2021230500A1 (en) * 2020-05-12 2021-11-18 부산대학교병원 Deep learning architecture system for real-time optogram quality reading
KR20210155191A (en) * 2020-06-15 2021-12-22 한국생산기술연구원 Method of performing defect inspection of inspection object at high speed and apparatuses performing the same
KR20220053208A (en) 2020-10-22 2022-04-29 순천향대학교 산학협력단 Deep learning based fundus image classification device and method for diagnosis of ophthalmic diseases

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753961B (en) * 2020-06-26 2023-07-28 北京百度网讯科技有限公司 Model training method and device, prediction method and device
CN112613574B (en) * 2020-12-30 2022-07-19 清华大学 Training method of image classification model, image classification method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101848321B1 (en) 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same
KR20180057420A (en) * 2016-11-22 2018-05-30 주식회사 루닛 Method and Apparatus for Recognizing Objects in a Weakly Supervised Learning Manner

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101782914B1 (en) * 2016-02-29 2017-09-28 한국항공대학교산학협력단 Apparatus and method for aerial scene labeling
US10032067B2 (en) * 2016-05-28 2018-07-24 Samsung Electronics Co., Ltd. System and method for a unified architecture multi-task deep learning machine for object recognition
KR101843066B1 (en) * 2017-08-23 2018-05-15 주식회사 뷰노 Method for classifying data via data augmentation of the data for machine-learning and apparatus using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180057420A (en) * 2016-11-22 2018-05-30 주식회사 루닛 Method and Apparatus for Recognizing Objects in a Weakly Supervised Learning Manner
KR101848321B1 (en) 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021125539A1 (en) * 2019-12-20 2021-06-24 주식회사 케이티 Device, method, and computer program for classifying objects included in image
KR102253119B1 (en) * 2020-02-10 2021-05-18 대구대학교 산학협력단 Method of cartoon style summary for vedio using deep learning
WO2021230500A1 (en) * 2020-05-12 2021-11-18 부산대학교병원 Deep learning architecture system for real-time optogram quality reading
KR20210155191A (en) * 2020-06-15 2021-12-22 한국생산기술연구원 Method of performing defect inspection of inspection object at high speed and apparatuses performing the same
KR20220053208A (en) 2020-10-22 2022-04-29 순천향대학교 산학협력단 Deep learning based fundus image classification device and method for diagnosis of ophthalmic diseases

Also Published As

Publication number Publication date
KR102220109B1 (en) 2021-02-25
WO2019231104A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
KR102220109B1 (en) Method for classifying images using deep neural network and apparatus using the same
KR101953752B1 (en) Method for classifying and localizing images using deep neural network and apparatus using the same
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
WO2019231102A1 (en) Method for classifying fundus image of subject and device using same
KR101919866B1 (en) Method for aiding determination of presence of bone metastasis from bone scan image and apparatus using the same
Adegun et al. Deep learning approach for medical image analysis
Guo et al. Retinal vessel segmentation combined with generative adversarial networks and dense U-Net
CN113506310B (en) Medical image processing method and device, electronic equipment and storage medium
Derwin et al. A novel automated system of discriminating Microaneurysms in fundus images
JP2020010805A (en) Specification device, program, specification method, information processing device, and specifier
CN113793345B (en) Medical image segmentation method and device based on improved attention module
CN110246109A (en) Merge analysis system, method, apparatus and the medium of CT images and customized information
KR20200082660A (en) Pathological diagnosis method and apparatus based on machine learning
CN110858399A (en) Method and apparatus for providing virtual tomographic stroke follow-up detection images
CN116848588A (en) Automatic labeling of health features in medical images
KR20200131020A (en) Medical machine learning system
CN113034507A (en) CCTA image-based coronary artery three-dimensional segmentation method
Al-Khasawneh et al. Alzheimer’s Disease Diagnosis Using MRI Images
KR102234139B1 (en) Method for classifying images using deep neural network and apparatus using the same
KR102267219B1 (en) Method for Blood Vessel Segmentation
JP2020010804A (en) Medical image diagnosis support apparatus, program, and medical image diagnosis support method
Khalid et al. FGR-Net: Interpretable fundus image gradeability classification based on deep reconstruction learning
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
Anand et al. Automated classification of intravenous contrast enhancement phase of CT scans using residual networks
Keshavamurthy et al. Weakly supervised pneumonia localization in chest X‐rays using generative adversarial networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent