WO2019231104A1 - 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치 - Google Patents

심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치 Download PDF

Info

Publication number
WO2019231104A1
WO2019231104A1 PCT/KR2019/004436 KR2019004436W WO2019231104A1 WO 2019231104 A1 WO2019231104 A1 WO 2019231104A1 KR 2019004436 W KR2019004436 W KR 2019004436W WO 2019231104 A1 WO2019231104 A1 WO 2019231104A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
image
classification
neural network
computing device
Prior art date
Application number
PCT/KR2019/004436
Other languages
English (en)
French (fr)
Inventor
손재민
배웅
강주영
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Publication of WO2019231104A1 publication Critical patent/WO2019231104A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Definitions

  • Area annotations containing classifications for macular-centered images which are images used in the verification of the method according to the present invention described hereinafter, are classified by the annotator through a predetermined interface (ie, type of findings). ) And the corresponding regions. If the eye shown in the image is normal, no comments are made on the image, so it is classified as normal. For example, as disclosed in Korean Patent Registration No. 10-1848321, an image may be divided into eight regions, each of which reflects the regional characteristics of the anatomy and features of the eye according to the patent document. .
  • an image acquisition module 210 implemented by the computing device 100 acquires an image or receives the image through the communication unit 110 of the computing device 100. And supporting another device (not shown) to be acquired (S100).
  • the layers become deeper, it is advantageous to monotonically increase the number of layers forming each of the convolution blocks 410, 420, and 430. If the number is the same or less, the performance tends to be lowered when they have the same parameters. Meanwhile, in the example of FIG. 4, the total number of convolutional blocks is illustrated as three, but more than that.
  • Training example of an exemplary neural network architecture of the present invention is a technical feature that is different from the conventional technology using the above-described guide loss.
  • the computing device 100 extracts at least a portion of training image data as a mini-batch, and then extracts the extracted mini batch.
  • the loss function value for the deep neural network is calculated as in Equation 3.
  • the computing device 100 calculates the slope of the direction in which the loss function value decreases, and updates the weight parameter of the deep neural network in the direction of the slope. This may be repeated until a certain training end condition is met.
  • the updating of the weight parameter can be achieved by applying a predetermined learning rate.
  • a computing device may classify an input image and localize an area of the input image corresponding to the classification in accordance with the method of the present invention.
  • the deep neural network that can be trained using intraocular loss is not limited to that illustrated in FIG. 4, and is defined between (i) the first input layer, (ii) a number of composite product layers following the input layer, and (iii) the composite product layer. It may be widely used in a deep neural network comprising at least one intervening pooling layer and (iv) the last output layer.
  • the training set was divided into 90% of the derivation set and 10% of the verification set.
  • the model of an exemplary neural network architecture in accordance with the present invention has been optimized with this set of derivations until the verification loss is stagnated and exacerbated.
  • the model with the lowest verification loss was tested with the test set considered gold standards.
  • the present inventors determined that there was no target finding when all of the ophthalmologists did not annotate, and that the target finding was present when two or more of three ophthalmologists annotated. The union of annotated areas was provided as regional clues during training.
  • AU-ROC area under receiver operating characteristic curve
  • AIR sensitivity and activity in regional cues
  • the aim was to measure the effect of the guidance loss by comparing the results in terms of.
  • AIR is defined as the sum of the activities within the regional clues divided by the sum of all the activities. AIR was measured for both true and false negatives in the classification when regional cues were available.
  • the original color fundus images which were used in the experiment, were cropped to center the fundus area, removing the black background, and resized to 512x512 for neural network input. Preferably it may be readjusted to a size between 256x256 and 1024x1024.
  • the pixel values of the pixels that make up the image are divided by 255 so that they are in the [0,1] range. No other preprocessing is required.
  • it may be meaningful to control only a range of pixel values without any preprocessing in the case of red-green-blue (RGB).
  • RGB red-green-blue
  • FIG. 5 is a table showing the results of comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.
  • FIG. 5 summarizes the results of comparing the performance between the model with guide loss introduced and the model without guide loss.
  • the inventors were able to identify the positive effects of guiding loss on AIR of TP (true positive) and FN (false negative) across all categories of findings. This is desirable, as the neural network can pay attention to the regional cues for classification, so the neural network tends to learn less of the dataset biases. Also, the difference in AIR between the two models is larger in the case of TP than in FN. This is reasonable because FN consists of cases where neural networks are difficult to classify, whereas TP can be classified relatively easily with high confidence.
  • FIG. 6 is an exemplary diagram qualitatively comparing the performance of the neural network architecture provided according to an embodiment of the present invention with the conventional architecture.
  • the objects of the technical solution of the present invention or the portions contributing to the prior art can be embodied in the form of program instructions that can be executed by various computer components and recorded in a machine-readable recording medium.
  • the machine-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the machine-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, Blu-rays, and magnetic-optical media such as floptical disks.
  • magnetic-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include, but are not limited to storing and compiling or interpreting for execution on any one of the foregoing devices, as well as on a machine capable of executing a heterogeneous combination of a processor, processor architecture or combinations of different hardware and software, or any other program instructions.
  • a structural programming language such as C
  • an object-oriented programming language such as C ++
  • a high or low level programming language asssembly, hardware description languages and database programming languages and technologies
  • machine code This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter.
  • the hardware device may be configured to operate as one or more software modules to perform a process according to the present invention, and vice versa.
  • the hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled with a memory, such as a ROM / RAM for storing program instructions, and configured to execute the instructions stored in the memory, the external device and the signal It may include a communication unit that can send and receive.
  • the hardware device may include a keyboard, a mouse, and other external input devices for receiving instructions written by developers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 상기 영상을 획득하고, 심층 신경망에 기초하여 그 영상의 분류 정보를 생성하며, 그 분류 정보를 외부 엔티티에 제공한다. 분류 정보는 영상이 속한 분류 및 그 분류를 지지하는 활성 맵을 포함한다.

Description

심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
본 발명은 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 상기 영상을 획득하고, 심층 신경망에 기초하여 그 영상의 분류 정보를 생성하며, 그 분류 정보를 외부 엔티티에 제공한다. 분류 정보는 영상이 속한 분류 및 그 분류를 지지하는 활성 맵을 포함한다.
근래에 합성곱 신경망이 영상의 분류에 있어서 많은 성공적 사례를 남기고 있는데, 예를 들어 의료 영상, 특히 안저 영상과 같은 특수 목적으로 촬영하는 영상을 정확하게 분류하는 것이 가능해지고 있다. 그런데, 이러한 특수 목적의 촬영 영상은 그 촬영 영상이 속한 클래스(class)의 분류, 예컨대, 특정 질환의 정확한 진단을 목표로 하는 것에 불과하고, 그 분류의 타당성을 뒷받침하는 적절한 시각화 및 국소화(localization; 영상에서 관련 영역을 특정하는 것)는 제공되지 않는 단점이 있다. 본 개시서에서는 영상을 구체적으로 분류할 수 있고, 동시에 그 분류의 근거를 영상 내에서 국소화할 수 있는 합성곱 신경망의 아키텍처를 제공하고자 한다. 본 발명자에 따르면, 그 신경망 아키텍처는 몇몇 클래스의 분류에서 더 나은 국소화 및 분류를 가능하게 하는 영역 주석(regional annotations)으로써 훈련될 수 있다.
예를 들어, 안저 영상은 안구의 상태에 관한 시각적 단서를 풍부하게 제공한다. 분석에 있어서 안과의는 그 영상으로부터 소견(findings)이라 지칭되는 비정상적인 시각적 특징들을 찾고, 그 발견된 소견들에 기초하여 그 영상을 분류하는바, 즉, 그 분류의 내용이 진단 내용이다.
요즘 들어, 합성곱 신경망(convolutional neural network; CNN)은 당뇨망막병증(DR) 및 당뇨황반부종(DME)를 진단하는 데 있어 직업 안과의의 수준에 도달하였다. 그런데, 문헌들에서 나타나는 CNN은 진단 내용을 직접 도출해내도록 훈련되었는데, 이는 실제 안과의가 진단하는 것과는 상이한 방식이다. 안과의는 시각적 단서부터 찾은 다음에 그 시각적 단서에 근거하여 진단을 내린다. 그런데, 지금까지는 의료 영상의 판정에 기여하는 소견들을 시각화하기 위한 여러 연구가 있었지만, 개별 소견들이 서로 구분되지 않았다.
종전에는 핸드크래프티드 특징 추출기(hand-crafted feature-extractors)를 이용한 분할 방법들이 출혈, 경성삼출물, 드루젠 침착물(drusen deposits) 및 면화반의 검출을 위하여 제안되었다. 그런데 경험적(heuristic) 특징-추출기들에는 표적 소견들의 시각적 속성들을 고려하는 인간 설계자의 편견이 담겨있어서 예측불가한 패턴들은 잘 검출되지 않는 등 실세계 적용에서는 그 성능이 심각하게 제한되었다. 분할 또는 검출을 위한 CNN은 성능을 향상시킬 수 있겠지만, 병변에 대한 수동적인 주석 달기는 굉장히 노동집약적인 것으로서, 특히 영상들에서 그 병변들이 분산되어 있을 때 더 그러하다. 따라서 데이터 수집의 절차가 매우 값비싸진다.
본 개시서에서는 영상으로부터 시각적 단서에 관한 영역 주석을 통하여 영상을 분류하고 그 분류의 근거(예컨대 의료 영상에서의 병변들)를 국소화할 수 있는 CNN 아키텍처를 제안하고자 한다.
선행기술문헌
(특허문헌 1) KR10-1848321 B
본 발명은 영역적 단서를 통한 안내를 이용한 훈련을 통하여 분류에 대한 근거를 더 정확하게 국소화할 수 있을 뿐만 아니라 분류 자체의 성능도 향상시키는 것을 목적으로 한다.
이를 위하여 본 발명은 영상에서의 편향 대신에 분류 판정에 관한 올바른 패턴들을 신경망으로 하여금 학습할 수 있도록 영역적 안내를 가능하게 하는 것을 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양(aspect)에 따르면, 심층 신경망을 이용하여 영상을 분류하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 상기 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계; 및 (c) 상기 컴퓨팅 장치가, 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 단계를 포함하고, 상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함한다.
본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.
본 발명의 또 다른 태양에 따르면, 심층 신경망을 이용하여 영상을 분류하는 컴퓨팅 장치가 제공되는바, 그 장치는, 상기 영상을 획득하는 통신부; 및 (i) 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스, 및 (ii) 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 프로세스를 수행하는 프로세서를 포함하고, 상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함한다.
본 발명의 일 실시 예에 의하면, 영역적 단서를 통한 안내를 이용한 훈련으로써 신경망의 분류 성능이 향상되는 효과가 있다.
이와 같은 본 발명의 실시 예에 따른 효과는 안저 영상과 같은 의료 영상뿐만 아니라 널리 다양한 형식(modality)의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식 또는 특수 목적의 영상이나 플랫폼에 종속되지 않음은 물론이다.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따라 영상을 분류하는 방법(이하 "영상 분류 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다.
도 6은 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.
예를 들어 "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니고 비의료적 맥락의 것일 수도 있다.
설명의 편의를 위하여 제시된 도면에서는 예시적인 일부의 영상 형식(modality)이 도시되어 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 특정의 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.
그리고 본 발명의 상세한 설명 및 청구항들에 있어 '국소화(localization)'라는 단어 및 그 변형은 위치의 파악, 특정 내지 구체화를 지칭하도록 의도된 것이다. 예를 들어 '영역을 국소화하다'는 그 영역의 위치를 구체화하는 것을 지칭한다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 개시서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 개시서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이제부터 설명하는 본 발명에 따른 방법의 검증에 이용된 영상들인 황반 중심(macular-centered) 영상들에 대한 분류를 담은 영역 주석은 주석자(annotator)가 소정의 인터페이스를 통하여 분류(즉, 소견의 유형)을 선택하고 이에 대응되는 영역들을 선택함으로써 얻어졌다. 영상에 나타난 안구가 정상인 경우에는 그 영상에 어떠한 소견의 주석도 달리지 않으므로 정상으로 분류된다. 예컨대, 대한민국 등록특허 제10-1848321호에 개시된 바와 같이 영상은 8개의 영역들로 분할될 수 있는바, 해당 특허문서에 따르면 그 각각이 안구의 해부학적 구조 및 소견들의 영역적 특성들을 반영하고 있다. 예를 들어, 그러한 영역들은 황반 영역, 시신경 유두 상측 영역, 시신경 유두 하측 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역을 포함할 수 있다.
도 1은 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 영상을 획득하도록 구성된다. 영상 판독 모듈(220)은 상기 영상 획득 모듈(210)에 의하여 획득된 영상을 판독하는 데 이용된다.
도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.
영상은, 예를 들어, 통신부(110)를 통하여 연동되는 촬영 기기 또는 의료영상 저장 전송 시스템(PACS)과 같은 외부 영상 저장 시스템으로부터 획득되는 것일 수 있으나 이에 한정되지는 않는다. 예를 들어, 영상은 (의료) 영상 촬영 기기에 의하여 촬영되어 DICOM 표준에 따라 PACS에 전송된 후 컴퓨팅 장치(100)의 영상 획득 모듈(210)에 의하여 획득된 것일 수 있다.
영상 판독 모듈(220)의 모델에 대한 학습을 위하여, 영상과 함께 그 영상에 대한 레이블링 정보가 함께 획득될 수 있는데, 학습시에 이 영상 및 레이블링 정보는 영상 판독 모듈(220)에 포함된 영상 판독 모델을 미리 훈련하는 데 이용된다. 레이블링 정보는, 영상에 나타난 분류의 내용 및 그 분류를 지지하는 영역에 관한 정보를 포함할 수 있다.
이와 같은 훈련이 종료된 영상 판독 모델은 영상 판독 모듈(220)에서 영상의 분류 정보를 생성하여 이를 결과 저장 및 출력 모듈(230)에 전달할 수 있는바, 결과 저장 및 출력 모듈(230)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 상기 영상에 대한 분류 결과를 외부 엔티티(entity)에 제공할 수 있다. 사용자의 편의를 위하여 앞서 생성된 분류 정보의 편집이 가능한 결과 편집 모듈(240)이 추가로 제공될 수도 있다.
여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 영상의 분류, 즉 분류의 판정(판독)을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다.
도 2에 나타난 각각의 구성요소들의 구체적인 기능 및 효과에 관하여는 상세히 후술하기로 한다. 도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다.
이제 본 발명에 따른 영상 분류 방법의 일 실시 예를 도 3을 참조하여 더 구체적으로 설명하기로 한다.
도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다.
도 3을 참조하면, 본 발명에 따른 영상 분류 방법은, 우선, 컴퓨팅 장치(100)에 의하여 구현되는 영상 획득 모듈(210)이, 영상을 획득하거나 컴퓨팅 장치(100)의 통신부(110)를 통하여 연동되는 타 장치(미도시)로 하여금 획득하도록 지원하는 단계(S100)를 포함한다.
다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 영상 판독 모듈(220)이, 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계(S200)를 더 포함하는바, 그 심층 신경망은 하기에서 예시하는 바와 같다. 여기에서 분류 정보는 영상의 분류 및 그 분류를 지지하는 시각화 정보를 포함할 수 있다. 이 시각화 정보는 후술할 활성 맵(activation map)으로서 제공될 수도 있다. 영상의 분류는 단수일 수 있을 뿐만 아니라 복수일 수도 있다.
일 실시예에서, 단계(S200)는, 구체적으로, 영상 판독 모듈(220)이, 상기 영상의 판독 가능 여부를 판정하거나 통신부(110)를 통하여 상기 타 장치로 하여금 판정하도록 지원하는 단계(S220; 미도시)를 포함한다.
본 발명에 따른 방법을 수행하기 위하여 소정의 사용자 인터페이스가 제공될 수 있으며, 그 사용자 인터페이스를 통하여 영상 및 그 영상에 대한 판독 가능 여부가 표시될 수 있다. 이 판독 가능 여부는 분류 정보에 포함될 수 있다.
단계(S220)에서, 상기 영상이 판독 불가능하면, 판독 불가능하다는 분류가 생성될 수 있다.
그리고, 단계(S200)는, 상기 영상이 판독 가능하면, 영상 판독 모듈(220)이, 상기 영상에서 검출되는 개별 분류에 대한 판독 결과 정보를 그 개별 분류의 신뢰 수준(confidential level)과 함께 상기 분류 정보로서 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S240)를 더 포함할 수 있다.
단계(S240)에서 그 개별 분류를 지지하는 상기 영상에서의 시각화 정보는 하기에서 그 산출 방식이 아래에서 상술될 활성 맵(activation map)으로서 산출될 수 있는바, 예를 들어 아래에서 설명하는 도 6에 나타난 바와 같다.
다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 결과 저장 및 출력 모듈(230)이, 상기 분류 정보를 외부 엔티티에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S300)를 더 포함할 수 있다. 전술한 바와 같이 그 분류 정보는 영상이 속한 분류 및 상기 분류를 지지하는 시각화 정보, 예컨대, 활성 맵(activation map)을 포함할 수 있다.
그런데, 생성된 분류 정보는 수정 혹은 편집되어야 할 필요성도 있을 것이므로, 본 발명에 따른 영상 분류 방법은, 단계(S300) 후에, 컴퓨팅 장치(100)에 의하여 구현되는 결과 편집 모듈(240)이 소정의 사용자 인터페이스를 제공함으로써 그 사용자 인터페이스를 통하여 사용자로 하여금 상기 분류 정보를 편집 또는 수정할 수 있도록 지원하는 단계(S400; 미도시)를 더 포함할 수 있다. 단계(S400)에서는 수정 입력이 획득되면, 결과 편집 모듈(240)이 그 수정 입력에 응하여 상기 분류 정보를 수정하거나 상기 타 장치로 하여금 수정하도록 지원할 수 있다.
본 개시서에서 이용되는 사용자 인터페이스의 일 예시로서, 그래픽 사용자 인터페이스(graphical user interface; GUI)는 디스플레이 프로세서(display processor)에 의하여 생성된 하나 이상의 디스플레이 영상들(display images)을 포함하는바, 이는 프로세서 또는 다른 장치와의 사용자 상호작용(user interaction) 및 연관된 데이터 획득 및 프로세싱 기능들을 가능하게 하는 것이다. 또한 상기 GUI는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션을 포함한다. 상기 실행 가능한 프로시저 또는 실행 가능한 애플리케이션은 조건에 따라 상기 디스플레이 프로세서로 하여금 상기 GUI 디스플레이 영상들을 표현하는 신호들을 생성한다. 이 신호들은 상기 사용자가 보기 위한 영상들 디스플레이하는 디스플레이 장치에 전달된다. 상기 프로세서는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션의 제어 하에 입력 장치들로부터 수신된 신호들에 응하여 상기 GUI 디스플레이 영상들을 조작(manipulate)한다. 이러한 방식으로, 사용자는 입력 장치들을 이용하여 상기 디스플레이 영상과 상호작용할 수 있는바, 상기 프로세서 또는 다른 장치와의 사용자 상호작용이 가능해짐을 통상의 기술자는 이해할 수 있을 것이다.
본 발명에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 의료 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적으로 복수의 사용자를 지칭할 수도 있는바, 이에는 영상을 분류하는 심층 신경망의 학습 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.
본 발명에 따른 방법에 이용되는 영상 판독 모듈(220)의 판독 모델로는 다양한 종류의 분류기(classifier)가 이용될 수 있는데, 예컨대, 딥 러닝 모델, 랜덤 포레스트, 베이지안 영상 획득 모듈 등일 수 있다. 아래에서는 본 발명자들에 의하여 판독 모델로 이용된 예시적 신경망 아키텍처를 도 4을 참조하여 설명한다.
본 발명의 예시적 신경망 아키텍처. 도 4은 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다.
도 4에 도시된 바와 같이 본 발명의 일 실시 예에 따른 신경망 아키텍처는 레지듀얼 층(residual layer; 412, 422, 432, 440, 458, 470)(residual unit 후의 특징 맵들), 중간 리덕션 층(intermediate reduction layer; 414, 416, 424, 426, 428, 433, 434, 435, 436){스트라이드 2의 3x3 합성곱, 배치-노름(batch-norm), ReLU 후의 특징 맵들}, 평균 풀링 층(452, 454, 456), 아트러스 피라미드 풀링 층(atrous pyramid pooling layer; 460), 최종 리덕션 층(final reduction layer; 470) 및 1x1 합성곱(깊이=1; 480) 층을 포함할 수 있다. 여기에서 레지듀얼 층 혹은 레지듀얼 유닛(residual unit)은 {합성곱, 배치-노름(batch-norm), ReLU} x 2에 입력층이 출력층에 더해진 특징 맵들을 지칭한다.
층이 깊어질수록 합성곱 블록(convolution block; 410, 420, 430) 각각을 이루는 층 개수가 단조 증가하도록 하는 것이 유리하다. 개수가 같거나 더 적은 경우에는 동일 파라미터를 가지는 때에 성능이 낮아지는 경향이 있다. 한편, 도 4의 예에서는 합성곱 블록의 총 개수가 3개인 것으로 도시되었으나 그보다 많은 개수도 무방하다.
높이 및 폭이 절반이 되면 층들의 깊이는 두 배가 된다. 상이한 크기를 가진 첫 4개 또는 그 이상의 리덕션 층들은 평균 풀링과 결합(concatenation)되어 저수준 특징과 고수준 특징을 모두 활용한다. 즉, 실시 예의 신경망 아키텍처에 의하면 복수의 합성곱을 거쳐 특징을 추출한 후에 크기를 조절하면서 정보를 압축하는 연산, 즉, 크기 조절 연산(예컨대, 평균 풀링 연산)으로 해상도를 동일하게 맞춰주어 깊이 방향으로 결합(concatenation)함으로써 다양한 수준의 특징들을 추출할 수 있다. 도 4의 예시를 참조하면, 참조부호 412, 422, 432의 리덕션 층은 해상도를 조절하여 각각 참조부호 452, 454, 456으로 결합되고, 여기에 참조부호 440의 리덕션 층이 결합된다.
그 후, 결합된 특징 맵들은 1, 2, 4, 8(큰 크기에 대한 소견들)의 확장률(dilation rate), 1, 2, 4(중간 크기에 대한 소견들)의 확장률, 또는 1, 2(작은 크기에 대한 소견들)의 확장률로 아트러스-피라미드-풀링(atrous-pyramid-pooled; 460)된다. 이는 효과적으로 2배로 수용 필드(receptive fields)를 키워나가기 위한 것이다. 즉, 아트러스 피라미드 풀링은 다양한 크기의 수용 필드로 특징들을 결합하기 위하여 채용되었다. 아트러스 풀링 층의 다음 층은 스트라이드 2의 합성곱으로 해상도를 1/2로 줄여 특징을 뽑아낸다.
마지막 층(480)은 1x1 합성곱 층으로서, 직전의 최종 리덕션 층(470)의 1x1 합성곱을 연산하는바, 이는 분류 활성 맵(CAM; class activation map)에서와 같은 이전 특징 맵들의 선형 결합이라는 점이 주목된다. 시그모이드 함수로써 상기 층의 값들은 (0, 1)로 정규화되고, 따라서 후속의 층은 정규화된 활성 맵으로 간주될 수 있다. 본 발명자에 의한 안출된 활성 맵(490a)은 CAM과는 상이한데, 추가적인 손실 함수가 바람직한 영역들에서만 활성이 나타나도록 안내한다는 점에서 그러하다.
본 발명자에 의한 실험에서는 16x16 크기의 특징들을 결합하는 것이 가장 정확한 활성 맵(activation map)을 보여주었다. 바람직하게는 마지막 층은 8x8에서 32x32 사이의 크기가 될 수 있는데, 이는 1x1에 대응되는 실제 안저 영상에서의 크기가 유의미한 병변 식별 크기와 일치하도록 하기 위한 것이었다.
또한, 1x1 합성곱 층은 한 쪽으로는 전역 평균-풀링(GAP; global average pooling)되고 시그모이드 함수로써 정규화됨으로써 분류 결과(classification result), 즉, 존재 여부를 고려하는 예측값이 산출되는 제1 출력층에 이어진다. 1x1 합성곱 층은 다른 한 쪽으로는 시그모이드를 통하여 정규화된 활성 맵이 산출되는 제2 출력층에 이어진다. 따라서 활성 맵은 본 발명에 따른 신경망 아키텍처에서의 예측에 직접적으로 연관되며 시각화를 위한 외부의 별도 연산이 요구되지 않는다.
의료 영상에 있어 작은 병변 영역의 경우에는 활성 맵에서 같은 위치에 위양성으로서 활성이 생성되는 경우{편향(bias)이 나타남}가 있는데, 이를 방지하기 위하여 전역 평균-풀링(GAP) 전에 최대 풀링처럼 지정된 구역 내의 활성 값의 최댓값에 관한 비감소함수값을 출력하는 연산을 시행할 수 있다.
본 발명의 실시 예에 따른 목적 함수는 다음과 같다. 영상
Figure PCTKR2019004436-appb-I000001
이 주어지면, 그 영상 I에서의 표적 소견의 존재는
Figure PCTKR2019004436-appb-I000002
로 인코딩되고, 존재 확률
Figure PCTKR2019004436-appb-I000003
이 신경망으로부터 출력된다. K개의 이미지가 미니 배치(mini-batch)로서 주어지는 때에, 도 4의 분류 손실에 대한 이진 교차 엔트로피는 아래 수학식 1과 같이 주어진다.
Figure PCTKR2019004436-appb-M000001
여기에서,
Figure PCTKR2019004436-appb-I000004
이고
Figure PCTKR2019004436-appb-I000005
이다.
마지막 특징 맵들이
Figure PCTKR2019004436-appb-I000006
의 크기를 가지는 때에, 표적 소견
Figure PCTKR2019004436-appb-I000007
에 대한 영역 마스크(region mask; 490b)가 레이블로서 주어지고, 활성 맵(
Figure PCTKR2019004436-appb-I000008
)이 신경망으로부터 생성된다. 크기 k의 미니 매치를 가지고 도 4에서의 안내 손실(guidance loss)은 다음 수학식 2와 같이 주어진다.
Figure PCTKR2019004436-appb-M000002
여기에서
Figure PCTKR2019004436-appb-I000009
이고,
Figure PCTKR2019004436-appb-I000010
이며,
Figure PCTKR2019004436-appb-I000011
Figure PCTKR2019004436-appb-I000012
Figure PCTKR2019004436-appb-I000013
에 대하여 Mi 및 Ai의 l 번째 픽셀에서의 값이다.
Figure PCTKR2019004436-appb-I000014
인 때에 수치적인 안정성(numerical stability)을 위하여 로그의 안쪽에
Figure PCTKR2019004436-appb-I000015
이 추가된다는 점이 주목된다. 간명하게 설명하면, 안내 손실은 마스크의 값이 0인 영역들에서의 어떠한 활성도 억제하며, 마스크 내부의 활성에 대하여는 어떠한 영향도 미치지 않는다. 수학식 2에서
Figure PCTKR2019004436-appb-I000016
대신에
Figure PCTKR2019004436-appb-I000017
를 이용하여도 무방하다.
Figure PCTKR2019004436-appb-I000018
또는
Figure PCTKR2019004436-appb-I000019
Figure PCTKR2019004436-appb-I000020
로 일반화될 수 있는데, 이
Figure PCTKR2019004436-appb-I000021
는 치역이 양수에 속하는
Figure PCTKR2019004436-appb-I000022
에 대한 비감소함수(non-decreasing function; weakly increasing function) 중에서 선택될 수 있다.
안내 손실은 마스크의 값이 0일 때 나오는 활성 값을 줄여주는 역할을 한다. W 값의 역전파 계산식은 이전 층의 출력값을 out이라고 했을 때, (1-a)*out인바, 각 픽셀의 활성 값인 a 값이 작을수록 커진다. 이는 분류 손실이 패턴을 찾아나가는 과정에서 변두리에 발생하는 아티팩트(artifact)를 제거하는 효과를 지닌다.
그렇다면, 전체의 손실값은 예컨대 이진 분류 엔트로피 등의 손실 함수를 이용한 분류 손실과, 이 분류 손실과의 절충용 하이퍼 파라미터인 λ를 곱한 안내 손실을 결합함으로써 얻어지는바, 아래 수학식 3과 같다.
Figure PCTKR2019004436-appb-M000003
다시 말하자면, λ는 2개의 목적 함수들의 균형을 잡기 위한 값이다.
본 발명의 예시적 신경망 아키텍처의 훈련 예시. 본 발명에 따른 심층 신경망의 훈련 방법은 전술한 안내 손실을 이용한다는 점이 종래의 기술과 차별화되는 기술적 특징이다. 개괄적으로 설명하면, 본 발명에 따른 심층 신경망의 훈련 방법은, 우선, 컴퓨팅 장치(100)가, 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch)로서 추출하고, 그 추출된 미니 배치의 심층 신경망에 대한 손실 함수 값을 수학식 3과 같이 산출한다. 손실 함수 값이 구해지면, 컴퓨팅 장치(100)는, 손실 함수 값이 작아지는 방향의 기울기를 산출하고, 그 기울기의 방향으로 심층 신경망의 가중치 매개변수를 갱신한다. 이는 소정의 훈련 종료 조건을 만족할 때까지 반복될 수 있다.
한편, 가중치 매개변수의 갱신에는 소정의 학습률(learning rate)을 적용하여 이루어질 수 있다는 점이 알려져 있다.
이 훈련된 심층 신경망을 이용하여, 본 발명의 방법에 따라 컴퓨팅 장치가, 입력 영상의 분류를 수행하고, 그 분류에 대응되는 입력 영상의 영역을 국소화할 수 있다.
안내 손실을 이용한 훈련할 수 있는 심층 신경망은 도 4에 예시한 것에 한정되지 않고, (i) 최초의 입력층, (ii) 그 입력층에 이어지는 다수의 합성곱층, (iii) 그 합성곱층 사이에 개재되는 적어도 하나의 풀링 층 및 (iv) 최후의 출력층을 포함하는 심층 신경망에 널리 이용될 수 있을 것이다.
성능의 검증을 위한 본 발명의 예시적 신경망 아키텍처의 구현례. 본 발명자들은 DR 및 DME (출혈, 경성삼출물, 드루젠, 면화반(CWP)), 황반원공(macular hole), membrane 및 망막신경섬유층결손(retinal nerve fiber layer defect; RNFL defect)와 연관된 임상적으로 중요한 소견들에 관한 분류 결과를 선택적으로 보이기로 하였다.
본 발명자들은 신경망 아키텍처의 성능을 측정하기 위한 용도로 주석자들의 전문지식에 기초하여 주석 처리된 영상 세트를 이용하였다. 그 중, 훈련 세트와 테스트 세트에 포함된 영상의 총량은 각각 66,473과 15,451이었다.
훈련 세트는 도출 세트(derivation set) 90%와 검증 세트 10%로 나뉘었다. 본 발명에 따른 예시적 신경망 아키텍처의 모델은 검증 손실이 정체(stagnate)되고 악화(exacerbate)될 때까지 상기 도출 세트를 가지고 최적화되었다. 가장 낮은 검증 손실을 가지는 모델이 골드 스탠더드(gold standards)로 간주된 테스트 세트를 가지고 테스트되었다. 본 발명자들은 안과의 모두가 주석을 달지 않은 때에는 표적 소견이 없는 것으로 정하고, 안과의 3명 중 2명 이상이 주석을 단 경우에는 표적 소견이 존재하는 것으로 정하였다. 주석이 달린 영역들의 합집합은 훈련 중에 영역적 단서로서 제공되었다.
본 발명자들은 영역적 안내가 제공되거나 제공되지 않은 본 발명의 예시적 CNN 아키텍처들을 실험하고, AU-ROC(Area Under Receiver Operating Characteristic curve), 특이도, 민감도 및 영역적 단서에서의 활성(AIR)의 측면에서 그 결과들을 비교함으로써 상기 안내 손실의 효과를 측정하는 것을 목표로 하였다. AIR은 상기 영역적 단서들 내부의 활성들의 합산값을 모든 활성들의 합산값으로 나눈 값으로 정의된다. AIR은 영역적 단서들이 가용한 경우에 분류시 진양성 및 위음성 둘 모두에 대하여 측정되었다. 본 발명자들은 도 4에 예시적으로 도시된 신경망 아키텍처를 이용하여 수학식 3에서의 λ 값을 변경함으로써 영역적 안내가 있거나 없는 신경망을 구현하였다(λ=0인 때에는 영역적 안내가 없음).
실험에 쓰인 영상인 원본 컬러 안저 영상들은 안저(fundus) 부위가 중심에 오도록 절단(cropped)되어 검은 배경이 제거되었으며, 신경망 입력을 위한 512x512의 크기로 재조정되었다. 바람직하게는 256x256 내지 1024x1024 사이의 크기로 재조정될 수 있을 것이다. 영상을 이루는 픽셀들의 픽셀 값들은 255로 나누어서 [0,1] 범위로 오게 만드는데, 다른 전처리는 하지 않아도 무방하다. 충분히 많은 데이터가 주어진 상황에서 학습을 진행할 때에는 RGB(red-green-blue)의 경우 전처리를 전혀 하지 않고 픽셀 값의 범위만 제어(control)하는 것이 의미 있을 수 있다.
그 재조정된 영상들은 아핀 변환{뒤집기, 크기 변경, 회전, 평행이동, 전단(shear)}에 의하여 무작위적으로 데이터 확대(data-augmented)되었고, 그 강도(intensity)는 무작위적으로 스케일 조정(re-scaled)되었다. 가중치 및 편향치(biases)들은 사비에르 초기화(Xavier initialization)를 이용하여 초기화되었다. 본 발명자들은 최적화기(optimizer)로서, nestrov 모멘텀이 0.9이고 감쇠하는 학습률(decaying learning rate)를 가진 SGD를 이용하였다. 배치 크기는 작은 배치 크기가 일반화에 더 좋다는 추천에 따라 32로 정하였다. 또한 수학식 2에서 ε=10-3로 두어 수치적 안정성을 도모하였으며, 수학식 3에서 λ=1로 두어 분류 손실 및 안내 손실을 동일하게 취급하였다.
한편, 512x512 이상의 크기를 가진 영상에 대하여는 연속적인 스트라이드 2의 합성곱을 통하여 해상도를 절반으로 줄이는 것이 바람직한바, 이는 효율적인 계산을 하기 위한 것이다.
다만, 통상의 기술자들은 이와 같은 예시적 신경망에 나타난 구체적인 수치에 본 발명이 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 발명의 예시적 신경망 아키텍처의 구현례에 의한 실험 결과. 도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다.
도 5에는 안내 손실이 도입된 모델과 안내 손실이 없는 모델 간의 성능을 비교한 결과가 표로서 요약되어 있다. 본 발명자은 모든 소견의 분류들에 걸쳐 TP (진양성) 및 FN (위음성)의 AIR에 대한 안내 손실의 긍정적 영향을 확인할 수 있었다. 이는 바람직한데, 신경망이 분류를 위한 영역적 단서 안에 주의를 기울일 수 있다는 점에서 그러하며, 따라서 신경망은 데이터세트의 편향들을 덜 학습하려는 경향을 보인다. 또한, FN보다 TP의 경우에 2개의 모델 간의 AIR의 차이가 더 크다. 이는 FN이 신경망의 분류가 어려운 경우들로 구성되는 반면 TP는 높은 신뢰도(confidence)로 상대적으로 쉽게 분류될 수 있기 때문에 합리적이다.
AU-ROC에 대하여는, 황반원공 및 망막신경섬유층결손에서 현저한 개선이 이루어졌다. 이들 소견이 특정 영역들에서 관찰되므로 영역적 단서들에 의하여 가장 큰 이점이 나타나는 것은 흥미롭게 눈여겨 볼 만하다. 이는 분류에 중요한 영역들에 신경망이 주의를 기울일 수 있도록 안내됨으로써 학습이 더 쉬워진다는 것으로 설명될 수 있다. 한편, 출혈, 경성삼출물 및 드루젠 과 같은 광범위한 면적에 걸쳐 분산된 소견들은 분류에 있어서 영역적 단서의 이점을 거의 누리지 못할 수 있다. 본 발명자는 이들 소견들에 대한 분류가 넓은 영역적 단서를 가져 본 발명에 따른 안내가 다소 잉여적인데, 병변이 작으면 안내가 더 중요해질 것이라고 짐작한다. AU-ROC가 더 높은 때에는 민감도도 더 높고, 특이도가 더 낮은 것으로 관측된다. 그런데 황반원공 및 망막신경섬유층결손에 대해서는 현저한 차이가 보인다.
도 6는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.
도 6에는 안내 손실이 있는 신경망과 없는 신경망의 활성 맵들이 서로 비교되어 있다. 원본 영상 위에 중첩되기 전에 활성 맵들은 이중 선형 보간에 의하여 업스케일(upscaled)되고, 자연스러운 시각화를 위하여 32x32 가우시안 필터로써 블러링(blurred)되며, [0, 1]로 정규화된다. 도면에 명확하게 나타난 바와 같이 영역적 단서를 가지고 훈련되는 때에 신경망이 더 정확한 활성 맵을 생성한다. 픽셀별로 분할될 정도로 두드러지게 분할되지 않았고 몇몇 경우에 있어서는 소수의 위양성이 나타났더라도 본 발명에 의하여 도출된 활성 맵들은 임상의에게 유익하게 이용될 수 있는 소견의 위치에 관한 유의미한 정보를 제공한다. 안내 손실 없이는 활성 맵들은 병변의 주변부보다 훨씬 크게 퍼지고 종종 관련 없는 구역들을 강조한다.
전술한 바와 같이 본 발명은 그 모든 실시 예 및 변형례에 걸쳐, 국소화 및 분류를 위하여 영상들에서의 분류에 관한 영역적 정보를 활용하고 있다. 분류에 관한 영역적 주석을 수집할 수 있는 효과적인 레이블링이 가능해졌으므로 그 분류를 지지하는 영역(즉, 안저 영상에 있어서는 병변들)의 국소화와 함께 분류가 가능한 신경망 아키텍처가 제안될 수 있었으며, 이로써 사용자가 영상을 분류하는 성능이 개선된다.
위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다.
위에서 설명된 기능들 및 프로세스 단계들은 자동으로 수행되거나 전부 또는 일부 사용자 명령(user command)에 대한 응답으로서 수행될 수 있다. 자동으로 수행되는 (단계를 포함하는) 작용(activity)은 상기 작용의 사용자에 의한 직접 개시(direct initiation) 없이 하나 이상의 실행 가능한 명령어들(instructions) 또는 장치 작동(device operation)에 대한 응답으로서 수행된다.
상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 첨부된 도면들의 시스템 및 프로세스들은 배타적인 것이 아니다. 다른 시스템들, 프로세스들 및 메뉴들이 동일한 목적을 달성하기 위하여 본 발명의 원리에 따라 도출될 수 있다. 비록 본 발명이 특정 실시 예들을 참조하여 설명되었지만, 본 개시서에서 도시되고 설명된 실시 예들 및 변형례들이 설명을 위한 목적만을 가진 것임이 이해될 것이다. 본 발명의 보호범위에서 일탈됨 없이 본 개시서의 설계에 대한 변경물이 통상의 기술자에 의하여 구현될 수 있을 것이다. 본 개시서에서 설명된 바와 같이 다양한 시스템들, 부수 시스템들, 에이전트들(agents), 관리자들(managers) 및 프로세스들이 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 그것들의 조합을 이용하여 구현될 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.

Claims (13)

  1. 심층 신경망을 이용하여 영상을 분류하는 방법에 있어서,
    상기 방법은,
    (a) 컴퓨팅 장치가, 상기 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계;
    (b) 상기 컴퓨팅 장치가, 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계; 및
    (c) 상기 컴퓨팅 장치가, 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 단계
    를 포함하되,
    상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함하는 것을 특징으로 하는 영상 분류 방법.
  2. 제1항에 있어서,
    상기 심층 신경망은,
    연이은 적어도 3개의 합성곱 블록(convolution block)으로서, 적어도 하나의 리덕션 층 및 상기 리덕션 층에 이어지는 적어도 하나의 레지듀얼 층(residual layer)를 포함하는 합성곱 블록;
    상기 합성곱 블록에 이어지는 중간 리덕션 층(intermediate reduction layer);
    상기 합성곱 블록 각각의 리덕션 층으로부터 크기 조절 연산을 통하여 산출된 동일 크기의 해상도를 가진 층들과 상기 중간 리덕션 층을 깊이(depth) 방향으로 결합(concatenate)한 결합 층(concatenation layer);
    상기 결합 층에 이어지는 아트러스 피라미드 풀링 층(atrous pyramid pooling layer);
    상기 아트러스 피라미드 풀링 층에 이어지는 최종 리덕션 층;
    상기 최종 리덕션 층에 이어지는 1x1 합성곱 층; 및
    상기 1x1 합성곱 층에 이어지는 적어도 2개의 출력층으로서, 안내 손실을 출력하는 제1 출력층 및 분류 손실을 출력하는 제2 출력층을 포함하는 출력층(output layer)
    을 포함하고,
    상기 적어도 3개의 합성곱 블록 중 최초의 합성곱 블록의 상기 리덕션 층은 상기 영상이 입력되는 입력층(input layer)인 것을 특징으로 하는 영상 분류 방법.
  3. 제2항에 있어서,
    상기 (b) 단계에서,
    (b1) 상기 영상이 상기 입력층에 입력되기 전에, 상기 컴퓨팅 장치가, (i) 상기 영상에 대한 절단(crop) 및 크기 재조정(resize)을 수행함으로써 상기 영상의 중심에 안저(fundus) 부위가 위치하고 상기 영상의 크기가 256x256 내지 1024x1024 사이로 재조정되는 프로세스; 및 (ii) 상기 영상의 각 채널(channel)의 픽셀 값(pixel value)이 0 이상 1 이하의 범위에 속하도록 상기 픽셀 값을 정규화(normalize)하는 프로세스를 수행하는 단계를
    더 포함하는 영상 분류 방법.
  4. 제3항에 있어서,
    상기 영상의 크기가 512x512를 초과하면, 상기 (i) 프로세스에서 연속적인 스트라이드(stride) 2의 합성곱을 통하여 상기 영상의 해상도를 256x256 크기의 방향으로 감소시키는 것을 특징으로 하는 영상 분류 방법.
  5. 제2항에 있어서,
    연이은 적어도 3개의 합성곱 블록 각각에 속한 층의 개수는 후속 층일수록 단조 증가하도록 구성되는 것을 특징으로 하는 영상 분류 방법.
  6. 제2항에 있어서,
    상기 아트러스 피라미드 풀링 층의 확장률(dilation rate)은 (i) 1, 2, (ii) 1, 2, 4 및 (iii) 1, 2, 4, 8을 포함하는 군에서 선택된 하나인 것을 특징으로 하는 영상 분류 방법.
  7. 제2항에 있어서,
    상기 아트러스 피라미드 풀링 층과 상기 최종 리덕션 층 사이에서 스트라이드(stride) 2의 합성곱이 수행됨으로써 상기 아트러스 피라미드 풀링 층으로부터 특징이 추출됨과 동시에 상기 아트러스 피라미드 풀링 층을 통과한 데이터의 해상도가 1/2로 감소하는 것을 특징으로 하는 영상 분류 방법.
  8. 제2항에 있어서,
    상기 1x1 합성곱 층의 크기는 8x8 내지 32x32인 것을 특징으로 하는 영상 분류 방법.
  9. 제2항에 있어서,
    상기 제1 출력층은 상기 1x1 합성곱 층의 전역 평균 풀링(global average pooling; GAP) 후에 시그모이드(sigmoid) 함수의 적용을 통하여 상기 분류를 산출하고,
    상기 제2 출력층은 상기 1x1 합성곱 층의 상기 시그모이드 함수 적용을 통하여 상기 분류를 지지하는 상기 활성맵을 산출하는 것을 특징으로 하는 영상 분류 방법.
  10. 컴퓨팅 장치로 하여금, 제1항 내지 제9항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.
  11. 심층 신경망을 이용하여 영상을 분류하는 컴퓨팅 장치에 있어서,
    상기 영상을 획득하는 통신부; 및
    (i) 상기 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스; 및 (ii) 상기 분류 정보를 외부 엔티티(entity)에 제공하거나 제공하도록 지원하는 프로세스를 수행하는 프로세서
    를 포함하되,
    상기 분류 정보는 상기 영상이 속한 분류 및 상기 분류를 지지하는 활성 맵(activation map)을 포함하는 것을 특징으로 하는 영상 분류 장치.
  12. 제11항에 있어서,
    상기 심층 신경망은,
    연이은 적어도 3개의 합성곱 블록(convolution block)으로서, 적어도 하나의 리덕션 층 및 상기 리덕션 층에 이어지는 적어도 하나의 레지듀얼 층(residual layer)를 포함하는 합성곱 블록;
    상기 합성곱 블록에 이어지는 중간 리덕션 층(intermediate reduction layer);
    상기 합성곱 블록 각각의 리덕션 층으로부터 크기 조절 연산을 통하여 산출된 동일 크기의 해상도를 가진 층들과 상기 중간 리덕션 층을 깊이(depth) 방향으로 결합(concatenate)한 결합 층(concatenation layer);
    상기 결합 층에 이어지는 아트러스 피라미드 풀링 층(atrous pyramid pooling layer);
    상기 아트러스 피라미드 풀링 층에 이어지는 최종 리덕션 층;
    상기 최종 리덕션 층에 이어지는 1x1 합성곱 층; 및
    상기 1x1 합성곱 층에 이어지는 적어도 2개의 출력층으로서, 안내 손실을 출력하는 제1 출력층 및 분류 손실을 출력하는 제2 출력층을 포함하는 출력층(output layer)
    을 포함하고,
    상기 적어도 3개의 합성곱 블록 중 최초의 합성곱 블록의 상기 리덕션 층은 상기 영상이 입력되는 입력층(input layer)인 것을 특징으로 하는 영상 분류 장치.
  13. 제12항에 있어서,
    상기 제1 출력층은 상기 1x1 합성곱 층의 전역 평균 풀링(global average pooling; GAP) 후에 시그모이드(sigmoid) 함수의 적용을 통하여 상기 분류를 산출하고,
    상기 제2 출력층은 상기 1x1 합성곱 층의 상기 시그모이드 함수 적용을 통하여 상기 분류를 지지하는 상기 활성맵을 산출하는 것을 특징으로 하는 영상 분류 장치.
PCT/KR2019/004436 2018-05-31 2019-04-12 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치 WO2019231104A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0062480 2018-05-31
KR1020180062480A KR102220109B1 (ko) 2018-05-31 2018-05-31 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치

Publications (1)

Publication Number Publication Date
WO2019231104A1 true WO2019231104A1 (ko) 2019-12-05

Family

ID=68698259

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004436 WO2019231104A1 (ko) 2018-05-31 2019-04-12 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치

Country Status (2)

Country Link
KR (1) KR102220109B1 (ko)
WO (1) WO2019231104A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613574A (zh) * 2020-12-30 2021-04-06 清华大学 一种图像分类模型的训练方法、图像分类方法和装置
US20210406599A1 (en) * 2020-06-26 2021-12-30 Beijing Baidu Netcom Science And Technology Co., Ltd. Model training method and apparatus, and prediction method and apparatus

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102566614B1 (ko) * 2019-12-20 2023-08-14 주식회사 케이티 영상에 포함된 객체를 분류하는 장치, 방법 및 컴퓨터 프로그램
KR102253119B1 (ko) * 2020-02-10 2021-05-18 대구대학교 산학협력단 딥러닝을 이용한 영상의 만화 스타일 요약 방법
KR102538848B1 (ko) * 2020-05-12 2023-05-31 부산대학교병원 실시간 안저사진 품질 판독을 위한 딥러닝 아키텍처 시스템
KR102434442B1 (ko) * 2020-06-15 2022-08-22 한국생산기술연구원 검사 대상의 결함 검사를 고속으로 수행하는 방법 및 이를 수행하는 장치들
KR102443982B1 (ko) 2020-10-22 2022-09-16 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170101723A (ko) * 2016-02-29 2017-09-06 한국항공대학교산학협력단 항공 영상 분류 장치 및 그 방법
KR20170134158A (ko) * 2016-05-28 2017-12-06 삼성전자주식회사 이미지 내의 물체 인식 시스템 및 방법
KR101848321B1 (ko) * 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR101843066B1 (ko) * 2017-08-23 2018-05-15 주식회사 뷰노 기계 학습에 있어서 데이터 확대를 이용하여 데이터의 분류를 수행하는 방법 및 이를 이용한 장치
KR20180057420A (ko) * 2016-11-22 2018-05-30 주식회사 루닛 약한 지도 학습 방식의 객체 인식 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170101723A (ko) * 2016-02-29 2017-09-06 한국항공대학교산학협력단 항공 영상 분류 장치 및 그 방법
KR20170134158A (ko) * 2016-05-28 2017-12-06 삼성전자주식회사 이미지 내의 물체 인식 시스템 및 방법
KR20180057420A (ko) * 2016-11-22 2018-05-30 주식회사 루닛 약한 지도 학습 방식의 객체 인식 방법 및 장치
KR101843066B1 (ko) * 2017-08-23 2018-05-15 주식회사 뷰노 기계 학습에 있어서 데이터 확대를 이용하여 데이터의 분류를 수행하는 방법 및 이를 이용한 장치
KR101848321B1 (ko) * 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210406599A1 (en) * 2020-06-26 2021-12-30 Beijing Baidu Netcom Science And Technology Co., Ltd. Model training method and apparatus, and prediction method and apparatus
US11841921B2 (en) * 2020-06-26 2023-12-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Model training method and apparatus, and prediction method and apparatus
CN112613574A (zh) * 2020-12-30 2021-04-06 清华大学 一种图像分类模型的训练方法、图像分类方法和装置
CN112613574B (zh) * 2020-12-30 2022-07-19 清华大学 一种图像分类模型的训练方法、图像分类方法和装置

Also Published As

Publication number Publication date
KR20190136577A (ko) 2019-12-10
KR102220109B1 (ko) 2021-02-25

Similar Documents

Publication Publication Date Title
WO2019231104A1 (ko) 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
WO2019231102A1 (ko) 피검체의 안저 영상을 분류하는 방법 및 이를 이용한 장치
WO2020207377A1 (zh) 一种图像识别模型训练及图像识别方法、装置及系统
KR101953752B1 (ko) 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치
CN110600122B (zh) 一种消化道影像的处理方法、装置、以及医疗系统
Chan et al. Texture-map-based branch-collaborative network for oral cancer detection
CN111227864B (zh) 使用超声图像利用计算机视觉进行病灶检测的装置
WO2019103440A1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR101919866B1 (ko) 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치
KR102015224B1 (ko) 딥러닝 기반의 뇌출혈 및 뇌종양 병변 진단 방법 및 장치
US11704808B1 (en) Segmentation method for tumor regions in pathological images of clear cell renal cell carcinoma based on deep learning
WO2020231007A2 (ko) 의료기계 학습 시스템
Derwin et al. A novel automated system of discriminating Microaneurysms in fundus images
CN113793345B (zh) 一种基于改进注意力模块的医疗影像分割方法及装置
KR102531400B1 (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
WO2023155488A1 (zh) 基于多源多尺度特征融合的眼底图像质量评价方法和装置
CN115063425B (zh) 基于读片知识图谱的结构化检查所见生成方法及系统
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
WO2019143021A1 (ko) 영상의 열람을 지원하는 방법 및 이를 이용한 장치
CN116848588A (zh) 医学图像中的健康状况特征的自动标注
WO2019189972A1 (ko) 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법
WO2022242392A1 (zh) 血管图像分类处理方法、装置、设备及存储介质
Chu et al. Convolutional neural network-based segmentation network applied to image recognition of angiodysplasias lesion under capsule endoscopy
Laiz et al. Anatomical landmarks localization for capsule endoscopy studies
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19812035

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19812035

Country of ref document: EP

Kind code of ref document: A1