KR101953752B1 - 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치 - Google Patents

심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치 Download PDF

Info

Publication number
KR101953752B1
KR101953752B1 KR1020180062484A KR20180062484A KR101953752B1 KR 101953752 B1 KR101953752 B1 KR 101953752B1 KR 1020180062484 A KR1020180062484 A KR 1020180062484A KR 20180062484 A KR20180062484 A KR 20180062484A KR 101953752 B1 KR101953752 B1 KR 101953752B1
Authority
KR
South Korea
Prior art keywords
loss
classification
image
neural network
computing device
Prior art date
Application number
KR1020180062484A
Other languages
English (en)
Inventor
손재민
강주영
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020180062484A priority Critical patent/KR101953752B1/ko
Application granted granted Critical
Publication of KR101953752B1 publication Critical patent/KR101953752B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06K9/00718
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 상기 훈련용 영상 데이터를 획득하고, 분류 손실 및 안내 손실을 산출하여, 손실 함수 값이 작아지는 방향의 기울기의 방향으로 심층 신경망의 가중치 매개변수를 갱신하며, 소정의 훈련 종료 조건을 만족할 때까지 이를 반복함으로써, 입력 영상이 획득되면, 훈련된 심층 신경망을 이용하여 입력 영상의 분류를 수행하고, 그 분류에 대응되는 입력 영상의 영역을 국소화한다.

Description

심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치{METHOD FOR CLASSIFYING AND LOCALIZING IMAGES USING DEEP NEURAL NETWORK AND APPARATUS USING THE SAME}
본 발명은 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 상기 훈련용 영상 데이터를 획득하고, 분류 손실 및 안내 손실을 산출하여, 손실 함수 값이 작아지는 방향의 기울기의 방향으로 심층 신경망의 가중치 매개변수를 갱신하며, 소정의 훈련 종료 조건을 만족할 때까지 이를 반복함으로써, 입력 영상이 획득되면, 훈련된 심층 신경망을 이용하여 입력 영상의 분류를 수행하고, 그 분류에 대응되는 입력 영상의 영역을 국소화한다.
근래에 합성곱 신경망이 영상의 분류에 있어서 많은 성공적 사례를 남기고 있는데, 예를 들어 의료 영상, 특히 안저 영상과 같은 특수 목적으로 촬영하는 영상을 정확하게 분류하는 것이 가능해지고 있다. 그런데, 이러한 특수 목적의 촬영 영상은 그 촬영 영상이 속한 클래스(class)의 분류, 예컨대, 특정 질환의 정확한 진단을 목표로 하는 것에 불과하고, 그 분류의 타당성을 뒷받침하는 적절한 시각화 및 국소화(localization; 영상에서 관련 영역을 특정하는 것)는 제공되지 않는 단점이 있다. 본 개시서에서는 영상을 구체적으로 분류할 수 있고, 동시에 그 분류의 근거를 영상 내에서 국소화할 수 있는 합성곱 신경망의 아키텍처를 제공하고자 한다. 본 발명자에 따르면, 그 신경망 아키텍처는 몇몇 클래스의 분류에서 더 나은 국소화 및 분류를 가능하게 하는 영역 주석(regional annotations)으로써 훈련될 수 있다.
예를 들어, 안저 영상은 안구의 상태에 관한 시각적 단서를 풍부하게 제공한다. 분석에 있어서 안과의는 그 영상으로부터 소견(findings)이라 지칭되는 비정상적인 시각적 특징들을 찾고, 그 발견된 소견들에 기초하여 그 영상을 분류하는바, 즉, 그 분류의 내용이 진단 내용이다.
요즘 들어, 합성곱 신경망(convolutional neural network; CNN)은 당뇨망막병증(DR) 및 당뇨황반부종(DME)를 진단하는 데 있어 직업 안과의의 수준에 도달하였다. 그런데, 문헌들에서 나타나는 CNN은 진단 내용을 직접 도출해내도록 훈련되었는데, 이는 실제 안과의가 진단하는 것과는 상이한 방식이다. 안과의는 시각적 단서부터 찾은 다음에 그 시각적 단서에 근거하여 진단을 내린다. 그런데, 지금까지는 의료 영상의 판정에 기여하는 소견들을 시각화하기 위한 여러 연구가 있었지만, 개별 소견들이 서로 구분되지 않았다.
종전에는 핸드크래프티드 특징 추출기(hand-crafted feature-extractors)를 이용한 분할 방법들이 출혈, 경성삼출물, 드루젠 침착물(drusen deposits) 및 면화반의 검출을 위하여 제안되었다. 그런데 경험적(heuristic) 특징-추출기들에는 표적 소견들의 시각적 속성들을 고려하는 인간 설계자의 편견이 담겨있어서 예측불가한 패턴들은 잘 검출되지 않는 등 실세계 적용에서는 그 성능이 심각하게 제한되었다. 분할 또는 검출을 위한 CNN은 성능을 향상시킬 수 있겠지만, 병변에 대한 수동적인 주석 달기는 굉장히 노동집약적인 것으로서, 특히 영상들에서 그 병변들이 분산되어 있을 때 더 그러하다. 따라서 데이터 수집의 절차가 매우 값비싸진다.
본 개시서에서는 영상으로부터 시각적 단서에 관한 영역 주석을 통하여 영상을 분류하고 그 분류의 근거(예컨대 의료 영상에서의 병변들)를 국소화할 수 있는 CNN 아키텍처를 제안하고자 한다.
KR 10-1848321 B
본 발명은 영역적 단서를 통한 안내를 이용한 훈련을 통하여 분류에 대한 근거를 더 정확하게 국소화할 수 있을 뿐만 아니라 분류 자체의 성능도 향상시키는 것을 목적으로 한다.
이를 위하여 본 발명은 영상에서의 편향 대신에 분류 판정에 관한 올바른 패턴들을 신경망으로 하여금 학습할 수 있도록 영역적 안내를 가능하게 하는 것을 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양(aspect)에 따르면, 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch)로서 추출하는 단계; (b) 상기 컴퓨팅 장치가, 추출된 상기 미니배치의 상기 심층 신경망에 대한 손실 함수 값(Ltotal)을 산출하는 단계로서, 상기 손실 함수 값(Ltotal)은 분류 손실(Lclass)과 안내 손실(Lguide)의 선형 결합이되, 상기 안내 손실에는 절충용 하이퍼 파라미터(λ)가 곱해지고, 상기 안내 손실은,
Figure 112018053628782-pat00001
Figure 112018053628782-pat00002
이고,
Figure 112018053628782-pat00003
는 활성 맵들의 크기를 지칭하고,
Figure 112018053628782-pat00004
은 표적 소견에 대한 영역 마스크(region mask)를 지칭하며,
Figure 112018053628782-pat00005
은 상기 표적 소견에 대한 활성 맵(activation map)을 지칭하고,
Figure 112018053628782-pat00006
이고,
Figure 112018053628782-pat00007
이며,
Figure 112018053628782-pat00008
Figure 112018053628782-pat00009
Figure 112018053628782-pat00010
에 대하여 Mi 및 Ai의 l 번째 픽셀에서의 값을 지칭하며,
Figure 112018053628782-pat00011
는 수치적 안정성(numerical stability)를 위하여 도입된 양수를 지칭함으로써, 훈련용 영상 데이터에 연관되는 상기 영역 마스크의 값이 0인 영역들에서의 활성(activation)을 억제하는, 손실 함수 값 산출 단계; (c) 상기 컴퓨팅 장치가, 상기 손실 함수 값이 작아지는 방향의 기울기를 산출하는 단계로서, 상기 기울기는 상기 분류 손실의 기울기 및 상기 안내 손실의 기울기의 선형 결합인, 기울기 산출 단계; (d) 상기 컴퓨팅 장치가, 상기 기울기의 방향으로 상기 심층 신경망의 가중치 매개변수를 갱신하는 단계; (e) 상기 컴퓨팅 장치가, 소정의 훈련 종료 조건을 만족할 때까지 상기 (a) 단계 내지 상기 (d) 단계를 반복 수행하는 단계; 및 (f) 입력 영상이 획득되면, 상기 컴퓨팅 장치가, 훈련된 상기 심층 신경망을 이용하여 상기 입력 영상의 분류를 수행하고, 상기 분류에 대응되는 상기 입력 영상의 영역을 국소화하는 단계를 포함한다.
본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.
본 발명의 또 다른 태양에 따르면, 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 컴퓨팅 장치가 제공되는바, 그 장치는, 다수의 훈련용 영상 데이터를 획득하는 통신부; 및 (i) 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch)로서 추출하는 프로세스; (ii) 추출된 상기 미니배치의 상기 심층 신경망에 대한 손실 함수 값(Ltotal)을 산출하는 프로세스로서, 상기 손실 함수 값(Ltotal)은 분류 손실(Lclass)과 안내 손실(Lguide)의 선형 결합이되, 상기 안내 손실에는 절충용 하이퍼 파라미터(λ)가 곱해지고, 상기 안내 손실은,
Figure 112018053628782-pat00012
Figure 112018053628782-pat00013
이고,
Figure 112018053628782-pat00014
는 활성 맵들의 크기를 지칭하고,
Figure 112018053628782-pat00015
은 표적 소견에 대한 영역 마스크(region mask)를 지칭하며,
Figure 112018053628782-pat00016
은 상기 표적 소견에 대한 활성 맵(activation map)을 지칭하고,
Figure 112018053628782-pat00017
이고,
Figure 112018053628782-pat00018
이며,
Figure 112018053628782-pat00019
Figure 112018053628782-pat00020
Figure 112018053628782-pat00021
에 대하여 Mi 및 Ai의 l 번째 픽셀에서의 값을 지칭하며,
Figure 112018053628782-pat00022
는 수치적 안정성(numerical stability)를 위하여 도입된 양수를 지칭함으로써, 훈련용 영상 데이터에 연관되는 상기 영역 마스크의 값이 0인 영역들에서의 활성(activation)을 억제하는, 손실 함수 값 산출 프로세스; (iii) 상기 손실 함수 값이 작아지는 방향의 기울기를 산출하는 프로세스로서, 상기 기울기는 상기 분류 손실의 기울기 및 상기 안내 손실의 기울기의 선형 결합인, 기울기 산출 프로세스; 및 (iv) 상기 기울기의 방향으로 상기 심층 신경망의 가중치 매개변수를 갱신하는 프로세스를 수행하는 프로세서를 포함하고, 상기 프로세서는, 소정의 훈련 종료 조건을 만족할 때까지 상기 (i) 프로세스 내지 상기 (iv) 프로세스를 반복 수행하고, 입력 영상이 획득되면, 훈련된 상기 심층 신경망을 이용하여 상기 입력 영상의 분류를 수행하고, 상기 분류에 대응되는 상기 입력 영상의 영역을 국소화한다.
본 발명의 일 실시 예에 의하면, 영역적 단서를 통한 안내를 이용한 훈련으로써 신경망의 분류 성능이 향상되는 효과가 있다.
이와 같은 본 발명의 실시 예에 따른 효과는 안저 영상과 같은 의료 영상뿐만 아니라 널리 다양한 형식(modality)의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식 또는 특수 목적의 영상이나 플랫폼에 종속되지 않음은 물론이다.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따라 영상을 분류하는 방법(이하 "영상 분류 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다.
도 6은 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.
예를 들어 "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니고 비의료적 맥락의 것일 수도 있다.
설명의 편의를 위하여 제시된 도면에서는 예시적인 일부의 영상 형식(modality)이 도시되어 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 특정의 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.
그리고 본 발명의 상세한 설명 및 청구항들에 있어 '국소화(localization)'라는 단어 및 그 변형은 위치의 파악, 특정 내지 구체화를 지칭하도록 의도된 것이다. 예를 들어 '영역을 국소화하다'는 그 영역의 위치를 구체화하는 것을 지칭한다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 개시서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 개시서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이제부터 설명하는 본 발명에 따른 방법의 검증에 이용된 영상들인 황반 중심(macular-centered) 영상들에 대한 분류를 담은 영역 주석은 주석자(annotator)가 소정의 인터페이스를 통하여 분류(즉, 소견의 유형)을 선택하고 이에 대응되는 영역들을 선택함으로써 얻어졌다. 영상에 나타난 안구가 정상인 경우에는 그 영상에 어떠한 소견의 주석도 달리지 않으므로 정상으로 분류된다. 예컨대, 대한민국 등록특허 제10-1848321호에 개시된 바와 같이 영상은 8개의 영역들로 분할될 수 있는바, 해당 특허문서에 따르면 그 각각이 안구의 해부학적 구조 및 소견들의 영역적 특성들을 반영하고 있다. 예를 들어, 그러한 영역들은 황반 영역, 시신경 유두 상측 영역, 시신경 유두 하측 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역을 포함할 수 있다.
도 1은 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
도 2는 본 발명에 따른 영상 분류 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 획득 모듈(210)을 포함할 수 있다. 이 영상 획득 모듈(210)은 본 발명에 따른 방법이 적용되는 영상을 획득하도록 구성된다. 영상 판독 모듈(220)은 상기 영상 획득 모듈(210)에 의하여 획득된 영상을 판독하는 데 이용된다.
도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.
영상은, 예를 들어, 통신부(110)를 통하여 연동되는 촬영 기기 또는 의료영상 저장 전송 시스템(PACS)과 같은 외부 영상 저장 시스템으로부터 획득되는 것일 수 있으나 이에 한정되지는 않는다. 예를 들어, 영상은 (의료) 영상 촬영 기기에 의하여 촬영되어 DICOM 표준에 따라 PACS에 전송된 후 컴퓨팅 장치(100)의 영상 획득 모듈(210)에 의하여 획득된 것일 수 있다.
영상 판독 모듈(220)의 모델에 대한 학습을 위하여, 영상과 함께 그 영상에 대한 레이블링 정보가 함께 획득될 수 있는데, 학습시에 이 영상 및 레이블링 정보는 영상 판독 모듈(220)에 포함된 영상 판독 모델을 미리 훈련하는 데 이용된다. 레이블링 정보는, 영상에 나타난 분류의 내용 및 그 분류를 지지하는 영역에 관한 정보를 포함할 수 있다.
이와 같은 훈련이 종료된 영상 판독 모델은 영상 판독 모듈(220)에서 영상의 분류 정보를 생성하여 이를 결과 저장 및 출력 모듈(230)에 전달할 수 있는바, 결과 저장 및 출력 모듈(230)은 소정의 출력 장치, 예컨대 디스플레이에 표시된 사용자 인터페이스를 통하여 상기 영상에 대한 분류 결과를 외부 엔티티(entity)에 제공할 수 있다. 사용자의 편의를 위하여 앞서 생성된 분류 정보의 편집이 가능한 결과 편집 모듈(240)이 추가로 제공될 수도 있다.
여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 영상의 분류, 즉 분류의 판정(판독)을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다.
도 2에 나타난 각각의 구성요소들의 구체적인 기능 및 효과에 관하여는 상세히 후술하기로 한다. 도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다.
이제 본 발명에 따른 영상 분류 방법의 일 실시 예를 도 3을 참조하여 더 구체적으로 설명하기로 한다.
도 3은 본 발명에 따른 영상 분류 방법을 예시적으로 나타낸 흐름도이다.
도 3을 참조하면, 본 발명에 따른 영상 분류 방법은, 우선, 컴퓨팅 장치(100)에 의하여 구현되는 영상 획득 모듈(210)이, 영상을 획득하거나 컴퓨팅 장치(100)의 통신부(110)를 통하여 연동되는 타 장치(미도시)로 하여금 획득하도록 지원하는 단계(S100)를 포함한다.
다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 영상 판독 모듈(220)이, 심층 신경망에 기초하여 상기 영상의 분류 정보를 생성하거나 생성하도록 지원하는 단계(S200)를 더 포함하는바, 그 심층 신경망은 하기에서 예시하는 바와 같다. 여기에서 분류 정보는 영상의 분류 및 그 분류를 지지하는 시각화 정보를 포함할 수 있다. 이 시각화 정보는 후술할 활성 맵(activation map)으로서 제공될 수도 있다. 영상의 분류는 단수일 수 있을 뿐만 아니라 복수일 수도 있다.
일 실시예에서, 단계(S200)는, 구체적으로, 영상 판독 모듈(220)이, 상기 영상의 판독 가능 여부를 판정하거나 통신부(110)를 통하여 상기 타 장치로 하여금 판정하도록 지원하는 단계(S220; 미도시)를 포함한다.
본 발명에 따른 방법을 수행하기 위하여 소정의 사용자 인터페이스가 제공될 수 있으며, 그 사용자 인터페이스를 통하여 영상 및 그 영상에 대한 판독 가능 여부가 표시될 수 있다. 이 판독 가능 여부는 분류 정보에 포함될 수 있다.
단계(S220)에서, 상기 영상이 판독 불가능하면, 판독 불가능하다는 분류가 생성될 수 있다.
그리고, 단계(S200)는, 상기 영상이 판독 가능하면, 영상 판독 모듈(220)이, 상기 영상에서 검출되는 개별 분류에 대한 판독 결과 정보를 그 개별 분류의 신뢰 수준(confidential level)과 함께 상기 분류 정보로서 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계(S240)를 더 포함할 수 있다.
단계(S240)에서 그 개별 분류를 지지하는 상기 영상에서의 시각화 정보는 하기에서 그 산출 방식이 아래에서 상술될 활성 맵(activation map)으로서 산출될 수 있는바, 예를 들어 아래에서 설명하는 도 6에 나타난 바와 같다.
다음으로, 본 발명에 따른 영상 분류 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 결과 저장 및 출력 모듈(230)이, 상기 분류 정보를 외부 엔티티에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S300)를 더 포함할 수 있다. 전술한 바와 같이 그 분류 정보는 영상이 속한 분류 및 상기 분류를 지지하는 시각화 정보, 예컨대, 활성 맵(activation map)을 포함할 수 있다.
그런데, 생성된 분류 정보는 수정 혹은 편집되어야 할 필요성도 있을 것이므로, 본 발명에 따른 영상 분류 방법은, 단계(S300) 후에, 컴퓨팅 장치(100)에 의하여 구현되는 결과 편집 모듈(240)이 소정의 사용자 인터페이스를 제공함으로써 그 사용자 인터페이스를 통하여 사용자로 하여금 상기 분류 정보를 편집 또는 수정할 수 있도록 지원하는 단계(S400; 미도시)를 더 포함할 수 있다. 단계(S400)에서는 수정 입력이 획득되면, 결과 편집 모듈(240)이 그 수정 입력에 응하여 상기 분류 정보를 수정하거나 상기 타 장치로 하여금 수정하도록 지원할 수 있다.
본 개시서에서 이용되는 사용자 인터페이스의 일 예시로서, 그래픽 사용자 인터페이스(graphical user interface; GUI)는 디스플레이 프로세서(display processor)에 의하여 생성된 하나 이상의 디스플레이 영상들(display images)을 포함하는바, 이는 프로세서 또는 다른 장치와의 사용자 상호작용(user interaction) 및 연관된 데이터 획득 및 프로세싱 기능들을 가능하게 하는 것이다. 또한 상기 GUI는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션을 포함한다. 상기 실행 가능한 프로시저 또는 실행 가능한 애플리케이션은 조건에 따라 상기 디스플레이 프로세서로 하여금 상기 GUI 디스플레이 영상들을 표현하는 신호들을 생성한다. 이 신호들은 상기 사용자가 보기 위한 영상들 디스플레이하는 디스플레이 장치에 전달된다. 상기 프로세서는 실행 가능한 프로시저 또는 실행 가능한 애플리케이션의 제어 하에 입력 장치들로부터 수신된 신호들에 응하여 상기 GUI 디스플레이 영상들을 조작(manipulate)한다. 이러한 방식으로, 사용자는 입력 장치들을 이용하여 상기 디스플레이 영상과 상호작용할 수 있는바, 상기 프로세서 또는 다른 장치와의 사용자 상호작용이 가능해짐을 통상의 기술자는 이해할 수 있을 것이다.
본 발명에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 의료 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적으로 복수의 사용자를 지칭할 수도 있는바, 이에는 영상을 분류하는 심층 신경망의 학습 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.
본 발명에 따른 방법에 이용되는 영상 판독 모듈(220)의 판독 모델로는 다양한 종류의 분류기(classifier)가 이용될 수 있는데, 예컨대, 딥 러닝 모델, 랜덤 포레스트, 베이지안 영상 획득 모듈 등일 수 있다. 아래에서는 본 발명자들에 의하여 판독 모델로 이용된 예시적 신경망 아키텍처를 도 4을 참조하여 설명한다.
본 발명의 예시적 신경망 아키텍처. 도 4은 본 발명의 일 실시 예에 따른 신경망 아키텍처의 일 예시를 나타낸 도면이다.
도 4에 도시된 바와 같이 본 발명의 일 실시 예에 따른 신경망 아키텍처는 레지듀얼 층(residual layer; 412, 422, 432, 440, 458, 470)(residual unit 후의 특징 맵들), 중간 리덕션 층(intermediate reduction layer; 414, 416, 424, 426, 428, 433, 434, 435, 436){스트라이드 2의 3x3 합성곱, 배치-노름(batch-norm), ReLU 후의 특징 맵들}, 평균 풀링 층(452, 454, 456), 아트러스 피라미드 풀링 층(atrous pyramid pooling layer; 460), 최종 리덕션 층(final reduction layer; 470) 및 1x1 합성곱(깊이=1; 480) 층을 포함할 수 있다. 여기에서 레지듀얼 층 혹은 레지듀얼 유닛(residual unit)은 {합성곱, 배치-노름(batch-norm), ReLU} x 2에 입력층이 출력층에 더해진 특징 맵들을 지칭한다.
층이 깊어질수록 합성곱 블록(convolution block; 410, 420, 430) 각각을 이루는 층 개수가 단조 증가하도록 하는 것이 유리하다. 개수가 같거나 더 적은 경우에는 동일 파라미터를 가지는 때에 성능이 낮아지는 경향이 있다. 한편, 도 4의 예에서는 합성곱 블록의 총 개수가 3개인 것으로 도시되었으나 그보다 많은 개수도 무방하다.
높이 및 폭이 절반이 되면 층들의 깊이는 두 배가 된다. 상이한 크기를 가진 첫 4개 또는 그 이상의 리덕션 층들은 평균 풀링과 결합(concatenation)되어 저수준 특징과 고수준 특징을 모두 활용한다. 즉, 실시 예의 신경망 아키텍처에 의하면 복수의 합성곱을 거쳐 특징을 추출한 후에 크기를 조절하면서 정보를 압축하는 연산, 즉, 크기 조절 연산(예컨대, 평균 풀링 연산)으로 해상도를 동일하게 맞춰주어 깊이 방향으로 결합(concatenation)함으로써 다양한 수준의 특징들을 추출할 수 있다. 도 4의 예시를 참조하면, 참조부호 412, 422, 432의 리덕션 층은 해상도를 조절하여 각각 참조부호 452, 454, 456으로 결합되고, 여기에 참조부호 440의 리덕션 층이 결합된다.
그 후, 결합된 특징 맵들은 1, 2, 4, 8(큰 크기에 대한 소견들)의 확장률(dilation rate), 1, 2, 4(중간 크기에 대한 소견들)의 확장률, 또는 1, 2(작은 크기에 대한 소견들)의 확장률로 아트러스-피라미드-풀링(atrous-pyramid-pooled; 460)된다. 이는 효과적으로 2배로 수용 필드(receptive fields)를 키워나가기 위한 것이다. 즉, 아트러스 피라미드 풀링은 다양한 크기의 수용 필드로 특징들을 결합하기 위하여 채용되었다. 아트러스 풀링 층의 다음 층은 스트라이드 2의 합성곱으로 해상도를 1/2로 줄여 특징을 뽑아낸다.
마지막 층(480)은 1x1 합성곱 층으로서, 직전의 최종 리덕션 층(470)의 1x1 합성곱을 연산하는바, 이는 분류 활성 맵(CAM; class activation map)에서와 같은 이전 특징 맵들의 선형 결합이라는 점이 주목된다. 시그모이드 함수로써 상기 층의 값들은 (0, 1)로 정규화되고, 따라서 후속의 층은 정규화된 활성 맵으로 간주될 수 있다. 본 발명자에 의한 안출된 활성 맵(490a)은 CAM과는 상이한데, 추가적인 손실 함수가 바람직한 영역들에서만 활성이 나타나도록 안내한다는 점에서 그러하다.
본 발명자에 의한 실험에서는 16x16 크기의 특징들을 결합하는 것이 가장 정확한 활성 맵(activation map)을 보여주었다. 바람직하게는 마지막 층은 8x8에서 32x32 사이의 크기가 될 수 있는데, 이는 1x1에 대응되는 실제 안저 영상에서의 크기가 유의미한 병변 식별 크기와 일치하도록 하기 위한 것이었다.
또한, 1x1 합성곱 층은 한 쪽으로는 전역 평균-풀링(GAP; global average pooling)되고 시그모이드 함수로써 정규화됨으로써 분류 결과(classification result), 즉, 존재 여부를 고려하는 예측값이 산출되는 제1 출력층에 이어진다. 1x1 합성곱 층은 다른 한 쪽으로는 시그모이드를 통하여 정규화된 활성 맵이 산출되는 제2 출력층에 이어진다. 따라서 활성 맵은 본 발명에 따른 신경망 아키텍처에서의 예측에 직접적으로 연관되며 시각화를 위한 외부의 별도 연산이 요구되지 않는다.
의료 영상에 있어 작은 병변 영역의 경우에는 활성 맵에서 같은 위치에 위양성으로서 활성이 생성되는 경우{편향(bias)이 나타남}가 있는데, 이를 방지하기 위하여 전역 평균-풀링(GAP) 전에 최대 풀링처럼 지정된 구역 내의 활성 값의 최댓값에 관한 비감소함수값을 출력하는 연산을 시행할 수 있다.
본 발명의 실시 예에 따른 목적 함수는 다음과 같다. 영상
Figure 112019501617824-pat00023
이 주어지면, 그 영상 I에서의 표적 소견의 존재는
Figure 112019501617824-pat00082
에 대하여
Figure 112019501617824-pat00083
로 인코딩되고, 존재 확률
Figure 112019501617824-pat00089
이 신경망으로부터 출력된다. K개의 이미지가 미니 배치(mini-batch)로서 주어지는 때에, 도 4의 분류 손실에 대한 이진 교차 엔트로피는 아래 수학식 1과 같이 주어진다.
Figure 112018053628782-pat00026
여기에서,
Figure 112018053628782-pat00027
이고
Figure 112018053628782-pat00028
이다.
마지막 특징 맵들이
Figure 112018053628782-pat00029
의 크기를 가지는 때에, 표적 소견
Figure 112018053628782-pat00030
에 대한 영역 마스크(region mask; 490b)가 레이블로서 주어지고, 활성 맵(
Figure 112018053628782-pat00031
)이 신경망으로부터 생성된다. 크기 k의 미니 매치를 가지고 도 4에서의 안내 손실(guidance loss)은 다음 수학식 2와 같이 주어진다.
Figure 112018053628782-pat00032
여기에서
Figure 112018053628782-pat00033
이고,
Figure 112018053628782-pat00034
이며,
Figure 112018053628782-pat00035
Figure 112018053628782-pat00036
Figure 112018053628782-pat00037
에 대하여 Mi 및 Ai의 l 번째 픽셀에서의 값이다.
Figure 112018053628782-pat00038
인 때에 수치적인 안정성(numerical stability)을 위하여 로그의 안쪽에
Figure 112018053628782-pat00039
이 추가된다는 점이 주목된다. 간명하게 설명하면, 안내 손실은 마스크의 값이 0인 영역들에서의 어떠한 활성도 억제하며, 마스크 내부의 활성에 대하여는 어떠한 영향도 미치지 않는다. 수학식 2에서
Figure 112018053628782-pat00040
대신에
Figure 112018053628782-pat00041
를 이용하여도 무방하다.
Figure 112018053628782-pat00042
또는
Figure 112018053628782-pat00043
Figure 112018053628782-pat00044
로 일반화될 수 있는데, 이
Figure 112018053628782-pat00045
는 치역이 양수에 속하는
Figure 112018053628782-pat00046
에 대한 비감소함수(non-decreasing function; weakly increasing function) 중에서 선택될 수 있다.
안내 손실은 마스크의 값이 0일 때 나오는 활성 값을 줄여주는 역할을 한다. W 값의 역전파 계산식은 이전 층의 출력값을 out이라고 했을 때, (1-a)*out인바, 각 픽셀의 활성 값인 a 값이 작을수록 커진다. 이는 분류 손실이 패턴을 찾아나가는 과정에서 변두리에 발생하는 아티팩트(artifact)를 제거하는 효과를 지닌다.
그렇다면, 전체의 손실값은 예컨대 이진 분류 엔트로피 등의 손실 함수를 이용한 분류 손실과, 이 분류 손실과의 절충용 하이퍼 파라미터인 λ를 곱한 안내 손실을 결합함으로써 얻어지는바, 아래 수학식 3과 같다.
Figure 112018053628782-pat00047
다시 말하자면, λ는 2개의 목적 함수들의 균형을 잡기 위한 값이다.
본 발명의 예시적 신경망 아키텍처의 훈련 예시. 본 발명에 따른 심층 신경망의 훈련 방법은 전술한 안내 손실을 이용한다는 점이 종래의 기술과 차별화되는 기술적 특징이다. 개괄적으로 설명하면, 본 발명에 따른 심층 신경망의 훈련 방법은, 우선, 컴퓨팅 장치(100)가, 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch)로서 추출하고, 그 추출된 미니 배치의 심층 신경망에 대한 손실 함수 값을 수학식 3과 같이 산출한다. 손실 함수 값이 구해지면, 컴퓨팅 장치(100)는, 손실 함수 값이 작아지는 방향의 기울기를 산출하고, 그 기울기의 방향으로 심층 신경망의 가중치 매개변수를 갱신한다. 이는 소정의 훈련 종료 조건을 만족할 때까지 반복될 수 있다.
한편, 가중치 매개변수의 갱신에는 소정의 학습률(learning rate)을 적용하여 이루어질 수 있다는 점이 알려져 있다.
이 훈련된 심층 신경망을 이용하여, 본 발명의 방법에 따라 컴퓨팅 장치가, 입력 영상의 분류를 수행하고, 그 분류에 대응되는 입력 영상의 영역을 국소화할 수 있다.
안내 손실을 이용한 훈련할 수 있는 심층 신경망은 도 4에 예시한 것에 한정되지 않고, (i) 최초의 입력층, (ii) 그 입력층에 이어지는 다수의 합성곱층, (iii) 그 합성곱층 사이에 개재되는 적어도 하나의 풀링 층 및 (iv) 최후의 출력층을 포함하는 심층 신경망에 널리 이용될 수 있을 것이다.
성능의 검증을 위한 본 발명의 예시적 신경망 아키텍처의 구현례. 본 발명자들은 DR 및 DME (출혈, 경성삼출물, 드루젠, 면화반(CWP)), 황반원공(macular hole), membrane 및 망막신경섬유층결손(retinal nerve fiber layer defect; RNFL defect)와 연관된 임상적으로 중요한 소견들에 관한 분류 결과를 선택적으로 보이기로 하였다.
본 발명자들은 신경망 아키텍처의 성능을 측정하기 위한 용도로 주석자들의 전문지식에 기초하여 주석 처리된 영상 세트를 이용하였다. 그 중, 훈련 세트와 테스트 세트에 포함된 영상의 총량은 각각 66,473과 15,451이었다.
훈련 세트는 도출 세트(derivation set) 90%와 검증 세트 10%로 나뉘었다. 본 발명에 따른 예시적 신경망 아키텍처의 모델은 검증 손실이 정체(stagnate)되고 악화(exacerbate)될 때까지 상기 도출 세트를 가지고 최적화되었다. 가장 낮은 검증 손실을 가지는 모델이 골드 스탠더드(gold standards)로 간주된 테스트 세트를 가지고 테스트되었다. 본 발명자들은 안과의 모두가 주석을 달지 않은 때에는 표적 소견이 없는 것으로 정하고, 안과의 3명 중 2명 이상이 주석을 단 경우에는 표적 소견이 존재하는 것으로 정하였다. 주석이 달린 영역들의 합집합은 훈련 중에 영역적 단서로서 제공되었다.
본 발명자들은 영역적 안내가 제공되거나 제공되지 않은 본 발명의 예시적 CNN 아키텍처들을 실험하고, AU-ROC(Area Under Receiver Operating Characteristic curve), 특이도, 민감도 및 영역적 단서에서의 활성(AIR)의 측면에서 그 결과들을 비교함으로써 상기 안내 손실의 효과를 측정하는 것을 목표로 하였다. AIR은 상기 영역적 단서들 내부의 활성들의 합산값을 모든 활성들의 합산값으로 나눈 값으로 정의된다. AIR은 영역적 단서들이 가용한 경우에 분류시 진양성 및 위음성 둘 모두에 대하여 측정되었다. 본 발명자들은 도 4에 예시적으로 도시된 신경망 아키텍처를 이용하여 수학식 3에서의 λ 값을 변경함으로써 영역적 안내가 있거나 없는 신경망을 구현하였다(λ=0인 때에는 영역적 안내가 없음).
실험에 쓰인 영상인 원본 컬러 안저 영상들은 안저(fundus) 부위가 중심에 오도록 절단(cropped)되어 검은 배경이 제거되었으며, 신경망 입력을 위한 512x512의 크기로 재조정되었다. 바람직하게는 256x256 내지 1024x1024 사이의 크기로 재조정될 수 있을 것이다. 영상을 이루는 픽셀들의 픽셀 값들은 255로 나누어서 [0,1] 범위로 오게 만드는데, 다른 전처리는 하지 않아도 무방하다. 충분히 많은 데이터가 주어진 상황에서 학습을 진행할 때에는 RGB(red-green-blue)의 경우 전처리를 전혀 하지 않고 픽셀 값의 범위만 제어(control)하는 것이 의미 있을 수 있다.
그 재조정된 영상들은 아핀 변환{뒤집기, 크기 변경, 회전, 평행이동, 전단(shear)}에 의하여 무작위적으로 데이터 확대(data-augmented)되었고, 그 강도(intensity)는 무작위적으로 스케일 조정(re-scaled)되었다. 가중치 및 편향치(biases)들은 사비에르 초기화(Xavier initialization)를 이용하여 초기화되었다. 본 발명자들은 최적화기(optimizer)로서, nestrov 모멘텀이 0.9이고 감쇠하는 학습률(decaying learning rate)를 가진 SGD를 이용하였다. 배치 크기는 작은 배치 크기가 일반화에 더 좋다는 추천에 따라 32로 정하였다. 또한 수학식 2에서 ε=10-3로 두어 수치적 안정성을 도모하였으며, 수학식 3에서 λ=1로 두어 분류 손실 및 안내 손실을 동일하게 취급하였다.
한편, 512x512 이상의 크기를 가진 영상에 대하여는 연속적인 스트라이드 2의 합성곱을 통하여 해상도를 절반으로 줄이는 것이 바람직한바, 이는 효율적인 계산을 하기 위한 것이다.
다만, 통상의 기술자들은 이와 같은 예시적 신경망에 나타난 구체적인 수치에 본 발명이 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 발명의 예시적 신경망 아키텍처의 구현례에 의한 실험 결과. 도 5는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 비교한 결과를 나타낸 표이다.
도 5에는 안내 손실이 도입된 모델과 안내 손실이 없는 모델 간의 성능을 비교한 결과가 표로서 요약되어 있다. 본 발명자은 모든 소견의 분류들에 걸쳐 TP (진양성) 및 FN (위음성)의 AIR에 대한 안내 손실의 긍정적 영향을 확인할 수 있었다. 이는 바람직한데, 신경망이 분류를 위한 영역적 단서 안에 주의를 기울일 수 있다는 점에서 그러하며, 따라서 신경망은 데이터세트의 편향들을 덜 학습하려는 경향을 보인다. 또한, FN보다 TP의 경우에 2개의 모델 간의 AIR의 차이가 더 크다. 이는 FN이 신경망의 분류가 어려운 경우들로 구성되는 반면 TP는 높은 신뢰도(confidence)로 상대적으로 쉽게 분류될 수 있기 때문에 합리적이다.
AU-ROC에 대하여는, 황반원공 및 망막신경섬유층결손에서 현저한 개선이 이루어졌다. 이들 소견이 특정 영역들에서 관찰되므로 영역적 단서들에 의하여 가장 큰 이점이 나타나는 것은 흥미롭게 눈여겨 볼 만하다. 이는 분류에 중요한 영역들에 신경망이 주의를 기울일 수 있도록 안내됨으로써 학습이 더 쉬워진다는 것으로 설명될 수 있다. 한편, 출혈, 경성삼출물 및 드루젠 과 같은 광범위한 면적에 걸쳐 분산된 소견들은 분류에 있어서 영역적 단서의 이점을 거의 누리지 못할 수 있다. 본 발명자는 이들 소견들에 대한 분류가 넓은 영역적 단서를 가져 본 발명에 따른 안내가 다소 잉여적인데, 병변이 작으면 안내가 더 중요해질 것이라고 짐작한다. AU-ROC가 더 높은 때에는 민감도도 더 높고, 특이도가 더 낮은 것으로 관측된다. 그런데 황반원공 및 망막신경섬유층결손에 대해서는 현저한 차이가 보인다.
도 6는 본 발명의 일 실시 예에 따라 제공되는 신경망 아키텍처의 성능을 종래 방식에 따른 아키텍처와 정성적으로 비교한 예시적 도면이다.
도 6에는 안내 손실이 있는 신경망과 없는 신경망의 활성 맵들이 서로 비교되어 있다. 원본 영상 위에 중첩되기 전에 활성 맵들은 이중 선형 보간에 의하여 업스케일(upscaled)되고, 자연스러운 시각화를 위하여 32x32 가우시안 필터로써 블러링(blurred)되며, [0, 1]로 정규화된다. 도면에 명확하게 나타난 바와 같이 영역적 단서를 가지고 훈련되는 때에 신경망이 더 정확한 활성 맵을 생성한다. 픽셀별로 분할될 정도로 두드러지게 분할되지 않았고 몇몇 경우에 있어서는 소수의 위양성이 나타났더라도 본 발명에 의하여 도출된 활성 맵들은 임상의에게 유익하게 이용될 수 있는 소견의 위치에 관한 유의미한 정보를 제공한다. 안내 손실 없이는 활성 맵들은 병변의 주변부보다 훨씬 크게 퍼지고 종종 관련 없는 구역들을 강조한다.
전술한 바와 같이 본 발명은 그 모든 실시 예 및 변형례에 걸쳐, 국소화 및 분류를 위하여 영상들에서의 분류에 관한 영역적 정보를 활용하고 있다. 분류에 관한 영역적 주석을 수집할 수 있는 효과적인 레이블링이 가능해졌으므로 그 분류를 지지하는 영역(즉, 안저 영상에 있어서는 병변들)의 국소화와 함께 분류가 가능한 신경망 아키텍처가 제안될 수 있었으며, 이로써 사용자가 영상을 분류하는 성능이 개선된다.
위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다.
위에서 설명된 기능들 및 프로세스 단계들은 자동으로 수행되거나 전부 또는 일부 사용자 명령(user command)에 대한 응답으로서 수행될 수 있다. 자동으로 수행되는 (단계를 포함하는) 작용(activity)은 상기 작용의 사용자에 의한 직접 개시(direct initiation) 없이 하나 이상의 실행 가능한 명령어들(instructions) 또는 장치 작동(device operation)에 대한 응답으로서 수행된다.
상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 첨부된 도면들의 시스템 및 프로세스들은 배타적인 것이 아니다. 다른 시스템들, 프로세스들 및 메뉴들이 동일한 목적을 달성하기 위하여 본 발명의 원리에 따라 도출될 수 있다. 비록 본 발명이 특정 실시 예들을 참조하여 설명되었지만, 본 개시서에서 도시되고 설명된 실시 예들 및 변형례들이 설명을 위한 목적만을 가진 것임이 이해될 것이다. 본 발명의 보호범위에서 일탈됨 없이 본 개시서의 설계에 대한 변경물이 통상의 기술자에 의하여 구현될 수 있을 것이다. 본 개시서에서 설명된 바와 같이 다양한 시스템들, 부수 시스템들, 에이전트들(agents), 관리자들(managers) 및 프로세스들이 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 그것들의 조합을 이용하여 구현될 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.

Claims (10)

  1. 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법에 있어서,
    상기 방법은,
    (a) 컴퓨팅 장치가, 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch) 학습용 데이터인 미니배치 데이터로서 추출하는 단계;
    (b) 상기 컴퓨팅 장치가, 추출된 상기 미니배치 데이터의 상기 심층 신경망에 대한 손실 함수 값(Ltotal)을 산출하는 단계로서, 상기 손실 함수 값(Ltotal)은 분류 손실(Lclass)과 안내 손실(Lguide)의 선형 결합이되, 상기 안내 손실에는 절충용 하이퍼 파라미터(λ)가 곱해지고, 상기 안내 손실은,
    Figure 112018121108703-pat00048
    Figure 112018121108703-pat00049

    이고, 여기에서
    상기 k는 상기 미니배치 데이터의 개수를 지칭하며, 상기 자연수 WF는 상기 표적 소견에 대한 활성 맵(activation map)의 폭을 지칭하고, 상기 자연수 HF는 상기 활성 맵의 높이를 지칭하며, 상기 A={A1, ..., Ak}는 상기 k개의 미니배치 데이터들의 상기 표적 소견에 대한 활성 맵(activation map)을 지칭하되, 상기 A1, ..., Ak는 0과 1 사이의 실수를 원소로 갖는 집합인 (0, 1) 집합의 WF×HF 차원 데카르트 곱에서 선택된 일 원소이고, 상기 M={M1, ..., Mk}은 상기 k개의 미니배치 데이터들의 표적 소견에 대한 영역 마스크(region mask)를 지칭하되, 상기 M1, ..., Mk는 0과 1을 원소로 갖는 {0, 1} 집합의 WF×HF 차원 데카르트 곱에서 선택된 일 원소이고,
    Figure 112018121108703-pat00055
    Figure 112018121108703-pat00056
    는 1 이상 WF×HF 이하의 자연수 l 각각에 대하여 각각 상기 Mi 및 Ai의 상기 l 번째 픽셀에서의 값을 지칭하며, 상기 ε는 수치적 안정성(numerical stability)를 위하여 도입된 양수를 지칭하고, 상기 안내 손실에 의하여 상기 훈련용 영상 데이터에 연관되는 상기 영역 마스크의 값이 0인 영역들에서의 활성(activation)이 억제되는, 손실 함수 값 산출 단계;
    (c) 상기 컴퓨팅 장치가, 상기 손실 함수 값이 작아지는 방향의 기울기를 산출하는 단계로서, 상기 기울기는 상기 분류 손실의 기울기 및 상기 안내 손실의 기울기의 선형 결합인, 기울기 산출 단계;
    (d) 상기 컴퓨팅 장치가, 상기 기울기의 방향으로 상기 심층 신경망의 가중치 매개변수를 갱신하는 단계;
    (e) 상기 컴퓨팅 장치가, 소정의 훈련 종료 조건을 만족할 때까지 상기 (a) 단계 내지 상기 (d) 단계를 반복 수행하는 단계; 및
    (f) 입력 영상이 획득되면, 상기 컴퓨팅 장치가, 훈련된 상기 심층 신경망을 이용하여 상기 입력 영상의 분류를 수행하고, 상기 분류에 대응되는 상기 입력 영상의 영역을 국소화하는 단계
    를 포함하고,
    상기
    Figure 112018121108703-pat00085
    는 치역이 양수에 속하는
    Figure 112018121108703-pat00086
    에 대한 비감소함수(non-decreasing function; weakly increasing function) 중에서 선택된 것인 영상 분류 및 국소화 방법.
  2. 제1항에 있어서,
    (g) 상기 컴퓨팅 장치가, 상기 분류를 수행한 결과 및 상기 영역을 국소화한 결과를 외부 엔티티(entity)에 제공하는 단계
    를 더 포함하는 영상 분류 및 국소화 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기
    Figure 112018121108703-pat00061
    Figure 112018121108703-pat00062
    인 것을 특징으로 하는 영상 분류 및 국소화 방법.
  5. 제1항에 있어서,
    상기
    Figure 112018121108703-pat00063
    Figure 112018121108703-pat00064
    인 것을 특징으로 하는 영상 분류 및 국소화 방법
  6. 제1항에 있어서,
    상기 소정의 훈련 종료 조건은 검증용 영상 데이터에 의한 손실 함수 값이 증가하기 시작하는 시점에 종료하는 조기 종료(early stopping)인 것을 특징으로 하는 영상 분류 및 국소화 방법.
  7. 제1항에 있어서,
    상기 훈련용 영상 데이터에 대한 상기 손실 함수 값과 함께 상기 훈련용 영상 데이터와는 별개로 주어지는 검증용 영상 데이터에 대한 상기 손실 함수 값인 검증 손실 값이 산출되며,
    상기 소정의 훈련 종료 조건은,
    상기 (a) 단계 내지 상기 (d) 단계에 대한 미리 정해진 횟수만큼의 반복 수행 중에 상기 검증 손실 값이 가장 낮은 때의 상기 가중치 매개변수를 선택하고 훈련을 종료하는 조건인 것을 특징으로 하는 영상 분류 및 국소화 방법.
  8. 컴퓨팅 장치로 하여금, 제1항, 제2항, 제4항 내지 제6항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.
  9. 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 컴퓨팅 장치에 있어서,
    다수의 훈련용 영상 데이터를 획득하는 통신부; 및
    (i) 훈련용 영상 데이터 중 적어도 일부를 미니배치(mini-batch) 학습용 데이터인 미니배치 데이터로서 추출하는 프로세스; (ii) 추출된 상기 미니배치 데이터의 상기 심층 신경망에 대한 손실 함수 값(Ltotal)을 산출하는 프로세스로서, 상기 손실 함수 값(Ltotal)은 분류 손실(Lclass)과 안내 손실(Lguide)의 선형 결합이되, 상기 안내 손실에는 절충용 하이퍼 파라미터(λ)가 곱해지고, 상기 안내 손실은,
    Figure 112018121108703-pat00065
    Figure 112018121108703-pat00066

    이고, 여기에서
    상기 k는 상기 미니배치 데이터의 개수를 지칭하며, 상기 자연수 WF는 상기 표적 소견에 대한 활성 맵(activation map)의 폭을 지칭하고, 상기 자연수 HF는 상기 활성 맵의 높이를 지칭하며, 상기 A={A1, ..., Ak}는 상기 k개의 미니배치 데이터들의 상기 표적 소견에 대한 활성 맵(activation map)을 지칭하되, 상기 A1, ..., Ak는 0과 1 사이의 실수를 원소로 갖는 집합인 (0, 1) 집합의 WF×HF 차원 데카르트 곱에서 선택된 일 원소이고, 상기 M={M1, ..., Mk}은 상기 k개의 미니배치 데이터들의 표적 소견에 대한 영역 마스크(region mask)를 지칭하되, 상기 M1, ..., Mk는 0과 1을 원소로 갖는 {0, 1} 집합의 WF×HF 차원 데카르트 곱에서 선택된 일 원소이고,
    Figure 112018121108703-pat00072
    Figure 112018121108703-pat00073
    는 1 이상 WF×HF 이하의 자연수 l 각각에 대하여 각각 상기 Mi 및 Ai의 상기 l 번째 픽셀에서의 값을 지칭하며, 상기 ε는 수치적 안정성(numerical stability)를 위하여 도입된 양수를 지칭하고, 상기 안내 손실에 의하여 상기 훈련용 영상 데이터에 연관되는 상기 영역 마스크의 값이 0인 영역들에서의 활성(activation)이 억제되는, 손실 함수 값 산출 프로세스; (iii) 상기 손실 함수 값이 작아지는 방향의 기울기를 산출하는 프로세스로서, 상기 기울기는 상기 분류 손실의 기울기 및 상기 안내 손실의 기울기의 선형 결합인, 기울기 산출 프로세스; 및 (iv) 상기 기울기의 방향으로 상기 심층 신경망의 가중치 매개변수를 갱신하는 프로세스를 수행하는 프로세서
    를 포함하고,
    상기 프로세서는,
    소정의 훈련 종료 조건을 만족할 때까지 상기 (i) 프로세스 내지 상기 (iv) 프로세스를 반복 수행하고,
    입력 영상이 획득되면, 훈련된 상기 심층 신경망을 이용하여 상기 입력 영상의 분류를 수행하고, 상기 분류에 대응되는 상기 입력 영상의 영역을 국소화하며,
    상기
    Figure 112018121108703-pat00087
    는 치역이 양수에 속하는
    Figure 112018121108703-pat00088
    에 대한 비감소함수(non-decreasing function; weakly increasing function) 중에서 선택된 것임을 특징으로 하는 영상 분류 및 국소화 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 분류를 수행한 결과 및 상기 영역을 국소화한 결과를 외부 엔티티(entity)에 제공하는 것을 특징으로 하는 영상 분류 및 국소화 장치.
KR1020180062484A 2018-05-31 2018-05-31 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치 KR101953752B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180062484A KR101953752B1 (ko) 2018-05-31 2018-05-31 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180062484A KR101953752B1 (ko) 2018-05-31 2018-05-31 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치

Publications (1)

Publication Number Publication Date
KR101953752B1 true KR101953752B1 (ko) 2019-06-17

Family

ID=67064566

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180062484A KR101953752B1 (ko) 2018-05-31 2018-05-31 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치

Country Status (1)

Country Link
KR (1) KR101953752B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223291A (zh) * 2019-06-20 2019-09-10 南开大学 一种基于损失函数的训练眼底病变点分割网络方法
CN110459303A (zh) * 2019-06-27 2019-11-15 浙江工业大学 基于深度迁移的医疗影像异常检测装置
KR102102255B1 (ko) * 2019-05-14 2020-04-20 주식회사 뷰노 의료 영상에서 병변의 시각화를 보조하는 방법 및 이를 이용한 장치
CN112215355A (zh) * 2020-10-09 2021-01-12 广东弓叶科技有限公司 神经网络模型优化系统及方法
CN113469249A (zh) * 2021-06-30 2021-10-01 阿波罗智联(北京)科技有限公司 图像分类模型训练方法、分类方法、路侧设备和云控平台
CN113768460A (zh) * 2021-09-10 2021-12-10 北京鹰瞳科技发展股份有限公司 一种眼底图像分析系统、方法以及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170134158A (ko) * 2016-05-28 2017-12-06 삼성전자주식회사 이미지 내의 물체 인식 시스템 및 방법
KR101848321B1 (ko) 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170134158A (ko) * 2016-05-28 2017-12-06 삼성전자주식회사 이미지 내의 물체 인식 시스템 및 방법
KR101848321B1 (ko) 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102102255B1 (ko) * 2019-05-14 2020-04-20 주식회사 뷰노 의료 영상에서 병변의 시각화를 보조하는 방법 및 이를 이용한 장치
US11741598B2 (en) 2019-05-14 2023-08-29 Vuno, Inc. Method for aiding visualization of lesions in medical imagery and apparatus using the same
CN110223291A (zh) * 2019-06-20 2019-09-10 南开大学 一种基于损失函数的训练眼底病变点分割网络方法
CN110223291B (zh) * 2019-06-20 2021-03-19 南开大学 一种基于损失函数的训练眼底病变点分割网络方法
CN110459303A (zh) * 2019-06-27 2019-11-15 浙江工业大学 基于深度迁移的医疗影像异常检测装置
CN112215355A (zh) * 2020-10-09 2021-01-12 广东弓叶科技有限公司 神经网络模型优化系统及方法
CN113469249A (zh) * 2021-06-30 2021-10-01 阿波罗智联(北京)科技有限公司 图像分类模型训练方法、分类方法、路侧设备和云控平台
CN113469249B (zh) * 2021-06-30 2024-04-09 阿波罗智联(北京)科技有限公司 图像分类模型训练方法、分类方法、路侧设备和云控平台
CN113768460A (zh) * 2021-09-10 2021-12-10 北京鹰瞳科技发展股份有限公司 一种眼底图像分析系统、方法以及电子设备
CN113768460B (zh) * 2021-09-10 2023-11-14 北京鹰瞳科技发展股份有限公司 一种眼底图像分析系统、方法以及电子设备

Similar Documents

Publication Publication Date Title
KR101953752B1 (ko) 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치
KR102220109B1 (ko) 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR101992057B1 (ko) 혈관 투영 영상을 이용한 뇌질환 진단 방법 및 시스템
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
KR101919866B1 (ko) 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치
CN104011770B (zh) 处理并显示乳房图像
US20210219839A1 (en) Method for classifying fundus image of subject and device using same
CN112017185B (zh) 病灶分割方法、装置及存储介质
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
CN107145756A (zh) 一种脑卒中类型预测方法以及装置
Guo et al. Retinal vessel segmentation combined with generative adversarial networks and dense U-Net
KR102015224B1 (ko) 딥러닝 기반의 뇌출혈 및 뇌종양 병변 진단 방법 및 장치
JPWO2007026598A1 (ja) 医用画像処理装置
JP2020010805A (ja) 特定装置、プログラム、特定方法、情報処理装置及び特定器
CN110246109A (zh) 融合ct影像和个性化信息的分析系统、方法、装置及介质
CN113557714A (zh) 医学图像处理装置、医学图像处理方法和程序
CN113506310A (zh) 医学图像的处理方法、装置、电子设备和存储介质
EP3479349B1 (en) Change detection in medical images
US11830193B2 (en) Recognition method of intracranial vascular lesions based on transfer learning
CN113424222A (zh) 用于使用条件生成对抗网络提供中风病灶分割的系统和方法
Dong et al. Identifying carotid plaque composition in MRI with convolutional neural networks
Li et al. A weakly supervised deep learning approach for leakage detection in fluorescein angiography images
Septiarini et al. Automatic method for optic disc segmentation using deep learning on retinal fundus images
KR102234139B1 (ko) 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치