KR20200069209A - 안구 이미지 기반의 진단 보조 이미지 제공 장치 - Google Patents

안구 이미지 기반의 진단 보조 이미지 제공 장치 Download PDF

Info

Publication number
KR20200069209A
KR20200069209A KR1020190086604A KR20190086604A KR20200069209A KR 20200069209 A KR20200069209 A KR 20200069209A KR 1020190086604 A KR1020190086604 A KR 1020190086604A KR 20190086604 A KR20190086604 A KR 20190086604A KR 20200069209 A KR20200069209 A KR 20200069209A
Authority
KR
South Korea
Prior art keywords
image
diagnostic
neural network
disease
network model
Prior art date
Application number
KR1020190086604A
Other languages
English (en)
Other versions
KR102333670B1 (ko
Inventor
최태근
이근영
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180157562A external-priority patent/KR20200005407A/ko
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Publication of KR20200069209A publication Critical patent/KR20200069209A/ko
Priority to KR1020210165633A priority Critical patent/KR20210149003A/ko
Application granted granted Critical
Publication of KR102333670B1 publication Critical patent/KR102333670B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성 별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.

Description

안구 이미지 기반의 진단 보조 이미지 제공 장치 {DIAGNOSTIC AUXILIARY IMAGE PROVIDING DEVICE BASED ON EYE IMAGE}
아래의 실시 예들은 안저 이미지 기반의 진단 보조 이미지 제공 장치에 대한 것이다.
아래의 실시 예들은 안저 이미지 기반의 병변 별 진단 보조 이미지 제공 시스템에 대한 것이다.
안저 검사는 망막, 시신경 및 황반부의 이상을 관찰할 수 있으며 비교적 간단하게 촬영을 통하여 결과를 확인할 수 있어 안과에서 빈번하게 활용되는 진단 보조 자료이다. 최근에는 안저 검사를 통하여 안질환 뿐 아니라 고혈압, 당뇨 등의 만성 질환에 의한 혈관 손상 정도를 비침습적 방법으로 관찰할 수 있다는 점에서 더욱 그 쓰임새가 늘어나고 있는 추세이다.
한편, 근래의 딥러닝 기술의 도약적인 발전에 의해, 의료 진단 분야, 특히 이미지 기반의 진단 분야에서 진단 인공지능의 개발이 활발하게 이루어지고 있다. 구글, IBM 등의 글로벌 기업들에서도 의료계와의 협업으로 대규모 데이터를 투입하는 등, 다양한 영상 의료 데이터 분석을 위한 인공지능 개발에 투자를 아끼지 않고 있으며, 일부 기업에서는 우수한 진단 결과를 출력하는 인공지능 진단 툴 개발에 성공하기도 하였다.
다만, 안저 이미지 기반의 진단 결과를 제공함에 있어서, 사용자는 배경 지식의 정도에 따라 상기 안저 이미지를 통해 상기 진단 결과를 이해하는 것이 어려울 수 있다. 다양한 사용자의 배경 지식의 정도를 고려하기 위해, 상기 안저 이미지를 통해 얻은 상기 진단 결과를 용이하게 이해할 수 있는 진단 보조 이미지를 제공할 필요성이 대두되고 있다.
일 과제는, 안저 이미지에 대한 진단 결과에 대응되는 진단 보조 이미지를 제공하는 것이다.
일 과제는, 안저 이미지에 대한 진단 결과에 영향을 미치는 정도에 따라 강조되는 진단 보조 이미지를 제공하는 것이다.
일 과제는, 안저 이미지에 대한 진단 결과에 영향을 미치는 정도에 따라 강조되되, 병변의 종류 또는 위치 등을 고려한 진단 보조 이미지를 제공하는 것이다.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 일 실시 예의 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지를 획득하는 데이터 획득부; 상기 입력된 안저 이미지에 대한 제1 질병의 제1 진단 보조 이미지를 제공하는 제1 모델; 및 상기 입력된 안저 이미지에 대한 제2 질병의 제2 진단 보조 이미지를 제공하는 제2 모델을 포함하고, 상기 제1 모델 및 상기 제2 모델은 상기 입력된 안저 이미지를 상기 제1 질병 또는 상기 제2 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 제1 진단 보조 이미지 또는 제2 진단 보조 이미지가 출력되고, 상기 제1 질병 및 상기 제2 질병은 발병 영역의 적어도 일부가 상이한 질병이고, 상기 제1 진단 보조 이미지 및 상기 제2 진단 보조 이미지는 각각 상기 제1 질병 및 상기 제2 질병의 특성에 기초하여 출력되되, 상기 제1 질병 및 상기 제2 질병의 발병 영역이 강조 처리되어 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
일 실시 예에 의하면, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과를 진단 보조 이미지를 통해 용이하게 이해할 수 있다.
일 실시 예에 의하면, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과를 진단 보조 이미지를 통해 제공하여, 사용자의 배경 지식의 정도를 고려할 수 있어 상기 진단 결과를 용이하게 이해할 수 있다.
일 실시 예에 의하면, 병변 별 특이성을 고려하여 진단 보조 이미지를 제공함에 따라, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과가 병변 특이적으로 제공될 수 있어, 사용자가 보다 쉽고 명확하게 상기 진단 결과를 이해하고 활용할 수 있다.
일 실시 예의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 일 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 2는 일 실시 예에 따른 학습 장치를 설명하기 위한 블록도이다.
도 3은 일 실시 예의 다른 일 실시 예에 따른 학습 장치를 보다 구체적으로 설명하기 위한 블록도이다.
도 4는 일 실시 예에 따른 진단 장치를 설명하기 위한 블록도이다.
도 5는 일 실시 예의 다른 일 실시 예에 따른 진단 장치를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 7은 일 실시 예에 따른 클라이언트 장치를 설명하기 위한 블록도이다.
도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 학습부의 구성을 설명하기 위한 도면이다.
도 10는 일 실시 예에 따른 이미지 데이터 세트를 설명하기 위한 개념도이다.
도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다.
도 12은 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다.
도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 14은 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 18은 일 실시 예에 따른 진단부의 구성을 설명하기 위한 도면이다.
도 19는 일 예에 따른 진단 대상 데이터를 설명하기 위한 도면이다.
도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다.
도 21은 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 22는 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 진단부를 설명하기 위한 블록도이다.
도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 31은 일 실시 예에 따른 진단 보조 이미지를 설명하기 위한 도면이다.
도 32는 일 실시 예에 따른 진단 보조 정보 제공부의 구성을 설명하기 위한 도면이다.
도 33은 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 CAM 제공 프로세스를 설명하기 위한 도면이다.
도 34는 학습된 진단 보조 신경망 모델에 의한 진단 프로세스를 설명하기 위한 도면이다.
도 35은 일 실시 예에 따른 진단 장치의 분류 데이터가 비정상에 해당되는지 여부를 판단하는 프로세스를 설명하기 위한 도면이다.
도 36은 일 실시 예에 따른 진단 장치의 분류 데이터가 정상에 해당되는 여부를 판단하는 프로세스를 설명하기 위한 도면이다.
도 37은 입력 데이터 및 진단 프로세스로부터 얻어진 정보로부터 CAM 이미지를 출력하는 프로세스를 설명하기 위한 도면이다.
도 38은 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 CAM 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 39는 일 실시 예의 다른 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 40은 일 실시 예에 따른 진단 보조 시스템에서 진단되는 복수의 질병이 발생된 안저 이미지를 나타내는 도면이다
도 41은 일 실시 예에 따른 진단 보조 정보 제공부의 구성을 설명하기 위한 도면이다.
도 42는 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 43 내지 도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이다.
도 47 내지 도 50은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 진단 보조 이미지를 나타내는 도면이다.
도 51 및 도 52는 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우를 진단 보조 이미지를 나타내는 도면이다.
도 53은 진단 보조 이미지 제공 방법을 나타내는 순서도이다.
도 54은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부의 구성을 나타내는 도면이다.
도 55는 도 54의 진단 보조 정보 제공부에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 56은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부의 구성을 나타내는 도면이다.
도 57는 도 56의 진단 보조 정보 제공부에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
이하에서는 도면을 참조하여 일 실시 예의 구체적인 실시 예를 상세하게 설명한다. 다만, 일 실시 예의 사상은 제시되는 실시 예에 제한되지 아니하고, 일 실시 예의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 일 실시 예 사상의 범위 내에 포함되는 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.
또한, 각 실시 예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조 부호를 사용하여 설명한다.
일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 병변 강조 모델은 상기 CAM 이미지의 픽셀값을 기초로 하여, 상기 CAM 이미지의 픽셀 중 소정의 임계값 이상의 픽셀이 선택적으로 출력되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대응되는 위치 또는 영역에 특이적으로 발병되는 경우, 상기 병변 강조 모델은 상기 CAM 이미지 상에 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대해 비특이적으로 발병되는 경우, 상기 병변 강조 모델은 상기 CAM 이미지를 기초로 상기 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 질병의 병변 영역이 상기 안저 이미지에 포함되어 있는 해부학적 영역 중 적어도 일부를 가리는 경우, 상기 병변 강조 모델은 상기 병변 영역에 의해 가려진 상기 해부학적 영역에 대응되는 경계선이 상기 안저 이미지 상에 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 신경망 모델은 상기 입력된 안저 이미지를 상기 진단 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 진단 보조 이미지 제공 장치는 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나인, 진단 보조 이미지제공 장치가 제공될 수 있다.
또한, 상기 질병이 발병 시기 및 발병 정도에 따라 제1 기 및 제2 기로 구분되어 진단되는 경우, 상기 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 상기 제1 서브 신경망 모델은 상기 질병의 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하고, 상기 제2 서브 신경망 모델은 상기 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 진단 보조 이미지 제공 장치는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우, 상기 질병의 진행 정도를 고려한 진단 보조 이미지를 제공하기 위해, 상기 진단 보조 이미지는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 정상이라고 판단한 모델의 제1 진단 정보와 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 비정상이라고 판단한 모델의 제2 진단 정보에 기초하여 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지를 획득하는 데이터 획득부; 상기 입력된 안저 이미지에 대한 제1 질병의 제1 진단 보조 이미지를 제공하는 제1 모델; 및 상기 입력된 안저 이미지에 대한 제2 질병의 제2 진단 보조 이미지를 제공하는 제2 모델을 포함하고, 상기 제1 모델 및 상기 제2 모델은 상기 입력된 안저 이미지를 상기 제1 질병 또는 상기 제2 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 제1 진단 보조 이미지 또는 제2 진단 보조 이미지가 출력되고, 상기 제1 질병 및 상기 제2 질병은 발병 영역의 적어도 일부가 상이한 질병이고, 상기 제1 진단 보조 이미지 및 상기 제2 진단 보조 이미지는 각각 상기 제1 질병 및 상기 제2 질병의 특성에 기초하여 출력되되, 상기 제1 질병 및 상기 제2 질병의 발병 영역이 강조 처리되어 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 모델은 제1 신경망 모델, 제1 CAM 모델, 및 제1 병변 강조 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델, 제2 CAM 모델, 및 제2 병변 강조 모델을 포함하는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고, 상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하되, 상기 제1 CAM 이미지에 대해 상기 제1 병변 강조 모델이 제1 진단 질병의 특성을 고려하여 병변 강조가 수행되고, 상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되, 상기 제2 CAM 이미지에 대해 상기 제2 병변 강조 모델이 제2 진단 질병의 특성을 고려하여 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값을 기초로 하여, 소정의 임계값 이상의 제1 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값을 기초로 하여, 소정의 임계값 이상의 제2 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고, 상기 제1 영역 및 상기 제2 영역은 적어도 일부가 상이한, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 제1 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 제2 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제1 경계선 및 상기 제2 경계선은 적어도 일부가 상이한, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병의 발병 영역은 안저 이미지에 포함된 복수의 해부학적 영역 중 적어도 어느 하나의 영역과 대응되고, 상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하는 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병의 발병 영역은 안저 이미지에 포함된 제1 해부학적 영역과 대응되고, 상기 제2 질병의 발병 영역은 상기 제1 질병의 발병 영역과 적어도 일부가 상이한 제2 해부학적 영역에 대응되는 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 제1 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지에 대해 상기 제2 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병의 제1 발병 영역은 안저 이미지에서 비특이적으로 위치하고, 상기 제2 질병의 제2 발병 영역은 안저 이미지에서 비특이적으로 위치하되 상기 제1 발병 영역과는 적어도 일부가 상이한 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고, 상기 제2 질병의 발병 영역은 안저 이미지에 포함된 해부학적 영역과 대응되되, 상기 해부학적 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우, 상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 해부학적 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고, 상기 제1 진단 보조 이미지는 상기 입력된 안저 이미지와 동일하게 출력되고, 상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하되, 상기 발병 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우, 상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 발병 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 모델은 제1 신경망 모델 및 제1 CAM 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델 및 제2 CAM 모델을 포함하고, 상기 진단 보조 이미지 제공 장치는 병변 강조 모델을 더 포함하는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고, 상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하고, 상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되, 상기 제1 CAM 이미지 및 상기 제2 CAM 이미지에 대해 상기 병변 강조 모델에 의해 상기 제1 질병 및 상기 제2 질병의 특성을 고려하여 각각 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다.
또한, 상기 제1 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나이고, 상기 제2 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증에서 상기 제1 질병을 제외한 나머지 중 어느 하나인, 진단 보조 이미지 제공 장치가 제공될 수 있다.
이하에서는, 일 실시 예의 안저 이미지를 이용한 진단 보조 결과 및 진단 보조 이미지를 제공하는 진단 보조 장치 및/또는 시스템에 대하여 설명하고자 한다.
1. 안저 이미지를 이용한 진단 보조
1.1 진단 보조 시스템 및 프로세스
1.1.1 목적 및 정의
이하에서는, 안저 이미지에 기초하여 질병 또는 질환의 유무 또는 그 판단의 근거가 되는 이상 여부 등의 판단을 보조하기 위한 진단 보조 시스템 및 방법 등에 대하여 설명한다. 특히, 딥러닝 기법을 이용하여 질병을 진단하기 위한 신경망 모델을 구축하고, 구축된 모델을 이용하여 질병 유무 또는 이상 소견의 검출을 보조하는 진단 보조 시스템 또는 방법에 대하여 설명한다.
일 실시 예에 의하면, 안저 이미지에 기초하여 질병의 유무와 관련된 진단 정보 또는 질병 유무의 진단에 이용되는 소견 정보 등을 획득하고, 이를 이용하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안저 이미지에 기초하여 안질환의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 검사 대상자의 녹내장, 백내장, 황반 변성, 미숙아 망막증의 유무와 관련된 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안질환이 아닌 타 질환(예컨대, 전신 질환 또는 만성 질환)의 지단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 고혈압, 당뇨병, 알츠하이머, 거대 세포 바이러스, 뇌졸중, 심장 질환, 동맥 경화증 등의 전신 질환의 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안질환 또는 타 질환의 진단에 이용될 수 있는 이상 안저 소견을 검출하기 위한 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio: cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견 정보를 획득하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 명세서에서, 진단 보조 정보라 함은, 질환 유무의 판단에 따른 진단 정보 또는 그 기초가 되는 소견 정보 등을 포괄하는 것으로 이해될 수 있다.
1.1.2 진단 보조 시스템 구성
일 실시 예에 의하면, 진단 보조 시스템이 제공될 수 있다.
도 1은 일 실시 예에 의한 진단 보조 시스템(10)을 도시한 것이다. 도 1을 참조하면, 진단 보조 시스템(10)은 진단 모델을 트레이닝하는 학습 장치(1000), 진단 모델을 이용하여 진단을 수행하는 진단 장치(2000) 및 진단 요청을 획득하는 클라이언트 장치(3000)를 포함할 수 있다. 진단 보조 시스템(10)은 복수의 학습 장치, 복수의 진단 장치, 또는 복수의 클라이언트 장치를 포함할 수 있다.
학습 장치(1000)는 학습부(100)를 포함할 수 있다. 학습부(100)는 신경망 모델의 트레이닝을 수행할 수 있다. 일 예로, 학습부(100)는 안저 이미지 데이터 세트를 획득하고, 안저 이미지로부터 질환 또는 이상 소견을 검출하는 신경망 모델의 트레이닝을 수행할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단부(200)는 신경망 모델을 이용하여 질환의 진단 또는 진단에 이용되는 보조 정보의 획득을 수행할 수 있다. 일 예로, 진단부(200)는 학습부(100)에 의하여 트레이닝된 진단 모델을 이용하여 진단 보조 정보의 획득을 수행할 수 있다.
클라이언트 장치(3000)는 촬상부(300)를 포함할 수 있다. 촬상부(300)는 안저 이미지를 촬상할 수 있다. 클라이언트 장치는 안과용 안저 촬영 장치일 수 있다. 또는 클라이언트 장치(3000)는 스마트폰, 태블릿 PC 등의 휴대용(handheld) 디바이스일 수 있다.
본 실시 예에 따른 진단 보조 시스템(10)에서, 학습 장치(1000)는 데이터 세트를 획득하여 신경망 모델의 학습을 수행함으로써 진단 보조에 이용하기 위한 신경망 모델을 결정하고, 진단 장치(2000)는 클라이언트로부터 정보 요청이 획득되면 결정된 신경망 모델을 이용하여 진단 대상 이미지에 따른 진단 보조 정보를 획득하고, 클라이언트 장치(3000)는 상기 진단 장치(2000)로 정보를 요청하고 이에 응답하여 전송된 진단 보조 정보를 획득할 수 있다. '
다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습 및 이를 이용한 진단을 수행하는 진단 장치 및 클라이언트 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습, 진단 요청의 획득 및 진단을 수행하는 진단 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습을 수행하는 학습 장치 및 진단 요청을 획득하고, 진단을 수행하는 진단 장치를 포함할 수 있다.
본 명세서에서 개시하는 진단 보조 시스템이 위에서 설명한 실시 예들에 한정되는 것은 아니고, 모델의 학습을 수행하는 학습부, 학습된 모델에 따라 진단 보조 정보를 획득하는 진단부 및 진단 대상 이미지를 획득하는 촬상부를 포함하는 어떠한 형태로든 구현될 수 있다.
이하에서는, 시스템을 구성하는 각 장치의 몇몇 실시 예에 대하여 설명한다.
1.1.2.1 학습 장치
일 실시 예에 따른 학습 장치는 진단을 보조하는 신경망 모델의 트레이닝을 수행할 수 있다.
도 2는 일 실시 예에 따른 학습 장치(1000)를 설명하기 위한 블록도이다. 도 2를 참조하면, 학습 장치(1000)는 제어부(1200) 및 메모리부(1100)를 포함할 수 있다.
학습 장치(1000)는 제어부(1200)를 포함할 수 있다. 제어부(1200)는 학습 장치(1000)의 동작을 제어할 수 있다.
제어부(1200)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다.
제어부(1200)는 메모리부(1100)에 저장된 시스템 프로그램 및 다양한 프로세싱 프로그램을 판독할 수 있다. 일 예로, 제어부(1200)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스, 진단 프로세스 등을 RAM 상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다. 제어부(1200)는 후술하는 신경망 모델의 학습을 수행할 수 있다.
학습 장치(1000)는 메모리부(1100)를 포함할 수 있다. 메모리부(1100)는 학습에 필요한 데이터 및 학습 모델을 저장할 수 있다.
메모리부(1100)는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM, ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 이외의 유형의(tangible) 비휘발성 기록 매체 등으로 구현될 수 있다.
메모리부(1100)는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 일 예로, 메모리부(1100)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스 프로그램, 진단 프로세스 프로그램, 각 프로그램의 수행을 위한 파라미터 및 이러한 프로그램의 수행에 따라 얻어진 데이터(예컨대, 가공된 데이터 또는 진단 결과값) 등을 저장할 수 있다.
학습 장치(1000)는 별도의 학습부(또는 학습 모듈)를 포함할 수 있다. 학습부는 신경망 모델의 학습을 수행할 수 있다. 학습의 수행과 관련하여서는 이하의 목차 2. 학습 프로세스 에서 보다 상세히 설명하기로 한다.
학습부는 전술한 제어부(1200)에 포함될 수 있다. 학습부는 전술한 메모리부(1100)에 저장될 수 있다. 학습부는 전술한 제어부(1200) 및 메모리부(1100)의 일부 구성에 의하여 구현될 수 있다. 예컨대, 학습부는 메모리부(1100)에 저장되고, 제어부(1200)에 의하여 구동될 수 있다.
학습 장치(1000)는 통신부(1300)를 더 포함할 수 있다. 통신부(1300)는 외부 장치와 통신을 수행할 수 있다. 예컨대, 통신부(1300)는 후술하는 진단 장치, 서버 장치 또는 클라이언트 장치와 통신할 수 있다. 통신부(1300)는 유선 또는 무선 통신을 수행할 수 있다. 통신부(1300)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.
도 3은 일 실시 예에 따른 학습 장치(1000)를 보다 구체적으로 설명하기 위한 블록도이다. 도 3을 참조하면, 학습 장치(1000)는 프로세서(1050), 휘발성 메모리(1010), 비휘발성 메모리(1030), 대용량 저장 장치(1070) 및 통신 인터페이스(1090)를 포함할 수 있다.
학습 장치(1000)의 프로세서(1050)는 데이터 가공 모듈(1051) 및 학습 모듈(1053)을 포함할 수 있다. 프로세서(1050)는 데이터 가공 모듈(1051)을 통하여 대용량 저장 장치 또는 비휘발성 메모리에 저장된 데이터 세트를 가공할 수 있다. 프로세서(1050)는 학습 모듈(1053)을 통하여, 진단 보조 신경망 모델의 트레이닝을 수행할 수 있다. 프로세서(1050)는 로컬 메모리를 포함할 수 있다. 통신 인터페이스(1090)는 네트워크(1110)와 연결될 수 있다.
다만, 도 3에서 도시하는 학습 장치(1000)는, 예시에 불과하며, 일 실시 예에 따른 학습 장치(1000)의 구성이 이에 한정되지는 않는다. 특히, 데이터 가공 모듈(1051) 또는 학습 모듈(1053)은 도 3에서 도시하는 것과 다른 위치에 마련될 수 있다.
1.1.2.2 진단 장치
진단 장치는 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
도 4는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 블록도이다. 도 4를 참조하면, 진단 장치(2000)는 제어부(2200) 및 메모리부(2100)를 포함할 수 있다.
제어부(2200)는 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 생성할 수 있다. 제어부(2200)는 진단을 위한 진단 데이터(예컨대, 피검자의 안저 데이터)를 획득하고 학습된 진단 보조 신경망 모델을 이용하여 진단 데이터에 의해 예측되는 진단 보조 정보를 획득할 수 있다.
메모리부(2100)는 학습된 진단 보조 신경망 모델을 저장할 수 있다. 메모리부(2100)는 진단 보조 신경망 모델의 파라미터, 변수 등을 저장할 수 있다.
진단 장치(2000)는 통신부(2300)를 더 포함할 수 있다. 통신부(2300)는 학습 장치 및/또는 클라이언트 장치와 통신할 수 있다. 일 예로, 진단 장치(2000)는 클라이언트 장치와 통신하는 서버 형태로 마련될 수 있다. 이와 관련하여, 이하에서 보다 상세히 설명한다.
도 5는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시 예에 따른 진단 장치(2000)는 프로세서(2050), 휘발성 메모리(2030), 비휘발성 메모리(2010), 대용량 저장 장치(2070), 및 통신 인터페이스(2090)를 포함할 수 있다.
진단 장치의 프로세서(2050)는 데이터 가공 모듈(2051) 및 진단 모듈(2053)을 포함할 수 있다. 프로세서(2050)는 데이터 가공 모듈(2051)을 통하여 진단 데이터의 가공을 수행하고, 진단 모듈(2053)을 통하여 진단 데이터에 따른 진단 보조 정보를 획득할 수 있다.
1.1.2.3 서버 장치
일 실시 예에 따르면, 진단 보조 시스템은 서버 장치를 포함할 수 있다. 일 실시 예에 따른 진단 보조 시스템은, 복수의 서버 장치를 포함할 수도 있다.
서버 장치는 신경망 모델을 저장 및/또는 구동할 수 있다. 서버 장치는 학습된 신경망 모델을 구성하는 가중치 값들을 저장할 수 있다. 서버 장치는 진단 보조에 이용되는 데이터를 수집 또는 저장할 수 있다.
서버 장치는 신경망 모델을 이용한 진단 보조 프로세스의 결과를 클라이언트 장치로 출력할 수 있다. 서버 장치는 클라이언트 장치로부터 피드백을 획득할 수 있다. 서버 장치는 전술한 진단 장치와 유사하게 동작할 수 있다.
도 6은 일 실시 예에 따른 진단 보조 시스템(20)을 도시한 것이다. 도 6을 참조하면, 일 실시 예에 따른 진단 보조 시스템(20)은 진단 서버(4000), 학습 장치 및 클라이언트 장치를 포함할 수 있다.
진단 서버(4000), 즉 서버 장치는 복수의 학습 장치 또는 복수의 진단 장치와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 학습 장치(1000a) 및 제2 학습 장치(1000b)와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 클라이언트 장치(3000a) 및 제2 클라이언트 장치(3000b)와 통신할 수 있다.
예컨대, 진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델을 학습시키는 제1 학습 장치(1000a) 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 학습시키는 제2 학습 장치(1000b)와 통신할 수 있다.
진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 저장하고, 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로부터의 지단 보조 정보 획득 요청에 응답하여 진단 보조 정보를 획득하고, 획득된 진단 보조 정보를 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로 전송할 수 있다.
또는, 진단 서버(4000)는 제1 진단 보조 정보를 요청하는 제1 클라이언트 장치(3000a) 및 제2 진단 보조 정보를 요청하는 제2 클라이언트 장치(3000b)와 통신할 수도 있다.
1.1.2.4 클라이언트 장치
클라이언트 장치는 진단 장치 또는 서버 장치로 진단 보조 정보를 요청할 수 있다. 클라이언트 장치는 진단에 필요한 데이터를 획득하고, 진단 장치로 획득한 데이터를 전송할 수 있다.
클라이언트 장치는 데이터 획득부를 포함할 수 있다. 데이터 획득부는 진단 보조에 필요한 데이터를 획득할 수 있다. 데이터 획득부는 진단 보조 모델에 이용되는 이미지를 획득하는 촬상부일 수 있다.
도 7은 일 실시 예에 따른 클라이언트 장치(3000)를 설명하기 위한 블록도이다. 도 7을 참조하면, 일 실시 예에 따른 클라이언트 장치(3000)는 촬상부(3100), 제어부(3200), 및 통신부(3300)를 포함할 수 있다.
촬상부(3100)는 이미지 또는 영상 데이터를 획득할 수 있다. 촬상부(3100)는 안저 이미지를 획득할 수 있다. 다만, 클라이언트 장치(3000)는 촬상부(3100)가 아닌 다른 형태의 데이터 획득부로 대체될 수도 있다.
통신부(3300)는 외부 장치, 예컨대 진단 장치 또는 서버 장치와 통신할 수 있다. 통신부(3300)는 유선 또는 무선 통신을 수행할 수 있다.
제어부(3200)는 촬상부(3100)가 이미지 또는 데이터를 획득하도록 제어할 수 있다. 제어부(3200)는 촬상부(3100)가 안저 이미지를 획득하도록 제어할 수 있다. 제어부(3200)는 획득된 안저 이미지를 진단 장치로 전송할 수 있다. 제어부는 촬상부(3100)를 통하여 획득한 이미지를 통신부(3300)를 통하여 서버 장치로 전송하고, 이에 기초하여 생성된 진단 보조 정보를 획득할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 출력부를 더 포함할 수 있다. 출력부는 영상 또는 이미지를 출력하는 디스플레이 또는 음성을 출력하는 스피커를 포함할 수 있다. 출력부는 획득된 촬상부에 의해 획득된 영상 또는 이미지 데이터를 출력할 수 있다. 출력부는 진단 장치로부터 획득된 진단 보조 정보를 출력할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 입력부를 더 포함할 수 있다. 입력부는 사용자 입력을 획득할 수 있다. 예컨대, 입력부는 진단 보조 정보를 요청하는 사용자 입력을 획득할 수 있다. 입력부는 진단 장치로부터 획득된 진단 보조 정보를 평가하는 사용자 정보를 획득할 수 있다.
또한, 도시하지는 아니하였으나, 클라이언트 장치는 메모리부를 더 포함할 수 있다. 메모리부는 촬상부에 의해 획득된 이미지를 저장할 수 있다.
1.1.3 진단 보조 프로세스 개요
본 명세서에서 개시하는 진단 보조 시스템 또는 진단 보조 장치에 의하여 진단 보조 프로세스가 수행될 수 있다. 진단 보조 프로세스는 크게 진단 보조에 이용되는 진단 보조 모델을 학습하는 트레이닝 프로세스, 진단 보조 모델을 이용하는 진단 프로세스로 나누어 고려될 수 있다.
도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는, 데이터를 획득하고, 가공하여(S110) 신경망 모델을 학습하고(S130), 학습된 신경망 모델의 변수를 획득(S150)하는 학습 프로세스 및 진단 대상 데이터를 획득하고(S210) 진단 대상 데이터에 기초하여 학습된 신경망 모델(S230)을 이용하여 진단 보조 정보를 획득(S250)하는 진단 보조 프로세스를 포함할 수 있다.
보다 구체적으로, 트레이닝 프로세스는 입력된 학습 이미지 데이터를 가공하여 모델의 트레이닝에 이용될 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 모델을 트레이닝하는 학습 프로세스를 포함할 수 있다. 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
진단 프로세스는 입력된 검사 대상 이미지 데이터를 가공하여 신경망 모델을 이용한 진단을 수행할 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 진단을 수행하는 진단 프로세스를 포함할 수 있다. 진단 프로세스는 전술한 진단 장치 또는 서버 장치에 의하여 수행될 수 있다.
이하에서는, 각 프로세스에 대하여 설명한다.
1.2 트레이닝 프로세스
일 실시 예에 따르면, 신경망 모델을 트레이닝하는 프로세스가 제공될 수 있다. 구체적인 예로, 안저 이미지에 기초하여 진단을 수행하거나 보조하는 신경망 모델을 트레이닝하는 프로세스가 개시될 수 있다.
이하에서는 설명하는 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
1.2.1 학습부
일 실시 예에 따르면, 트레이닝 프로세스는 학습부에 의해 수행될 수 있다. 학습부는 전술한 학습 장치 내에 마련될 수 있다.
도 9는 일 실시 예에 따른 학습부(100)의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 학습부(100)는 데이터 가공 모듈(110), 큐 모듈(130), 학습 모듈(150) 및 학습 결과 모듈(170)을 포함할 수 있다. 각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 9에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적이지는 아니하며, 학습 형태에 따라, 일부 요소가 추가되거나 일부 요소들이 생략될 수 있다.
1.2.2 데이터 가공 프로세스
1.2.2.1 이미지 데이터 획득
일 실시 예에 따르면, 데이터 세트가 획득될 수 있다. 일 실시 예에 따르면, 데이터 가공 모듈은 데이터 세트를 획득할 수 있다.
데이터 세트는 이미지 데이터 세트일 수 있다. 구체적으로, 안저 이미지 데이터 세트일 수 있다. 안저 이미지 데이터 세트는 일반적인 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가 형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), EMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다.
데이터 세트는 트레이닝 데이터 세트를 포함할 수 있다. 데이터 세트는 테스트 데이터 세트를 포함할 수 있다. 데이터 세트는 검증(validation) 데이터 세트를 포함할 수 있다. 다시 말해, 데이터 세트는 트레이닝 데이터 세트, 테스트 데이터 세트, 및 검증 데이터 세트 중 적어도 하나의 데이터 세트로 할당될 수 있다.
데이터 세트는 해당 데이터 세트를 통해 학습되는 신경망 모델을 이용하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다. 예컨대, 백내장과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 적외선 안저 이미지 데이터 세트로 결정될 수 있다. 또는, 황반 변성과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 자가형광 촬영된 안저 이미지 데이터 세트일 수 있다.
데이터 세트에 포함되는 개별 데이터는 라벨을 포함할 수 있다. 라벨은 복수 개일 수 있다. 다시 말해, 데이터 세트에 포함되는 개별 데이터는 적어도 하나의 특징에 대하여 라벨링되어 있을 수 있다. 일 예로, 데이터 세트는 복수의 안저 이미지 데이터를 포함하는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 따른 진단 정보 라벨(예컨대, 특정 질환의 유무) 및/또는 소견 정보(예컨대, 특정 부위의 이상 여부) 라벨을 포함할 수 있다.
다른 예로, 데이터 세트는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 대한 주변 정보 라벨을 포함할 수 있다. 예컨대, 각각의 안저 이미지 데이터는 해당 안저 이미지가 좌안의 이미지인지 또는 우안의 이미지인지에 대한 좌우안 정보, 여성의 안저 이미지인지 또는 남성의 안저 이미지인지에 대한 성별 정보, 해당 안저 이미지를 촬영한 피검자의 나이에 대한 나이 정보 등을 포함하는 주변 정보 라벨을 포함할 수 있다.
도 10은 일 실시 예에 따른 이미지 데이터 세트(DS)를 설명하기 위한 개념도이다. 도 10을 참조하면, 일 실시 예에 따른 이미지 데이터 세트(DS)는 복수의 이미지 데이터(ID)를 포함할 수 있다. 각 이미지 데이터(ID)는 이미지(I) 및 이미지에 할당된 라벨(L)을 포함할 수 있다. 도 10을 참조하면, 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1)은 제1 이미지(I1) 및 제1 이미지에 대응되는 제1 라벨(L1)을 포함할 수 있다.
도 10에서는 하나의 이미지 데이터가 하나의 라벨을 포함하는 경우를 기준으로 설명하였으나, 전술한 바와 같이 하나의 이미지 데이터는 복수의 라벨을 포함할 수 있다.
1.2.2.2 이미지 리사이징
일 실시 예에 따르면, 획득된 이미지 데이터의 크기가 조정될 수 있다. 즉, 이미지들이 리사이징 될 수 있다. 일 실시 예에 따르면, 전술한 학습부의 데이터 가공 모듈에 의하여 이미지 리사이징이 수행될 수 있다.
이미지의 크기 또는 종횡비가 조정될 수 있다. 획득된 복수의 이미지들은 일정한 크기를 가지도록 그 크기가 조정될 수 있다. 또는, 이미지들은 일정한 종횡비(aspect ratio)를 가지도록 그 크기를 조정할 수 있다. 이미지를 리사이징 하는 것은 이미지에 이미지 변환 필터를 적용하는 것일 수 있다.
획득된 개별 이미지들의 사이즈 또는 용량이 과도하게 크거나 작은 경우에, 이미지의 사이즈 또는 용량을 조정하여 적절한 사이즈로 변환할 수 있다. 또는 개별 이미지들의 사이즈 또는 용량이 다양한 경우에, 리사이징을 통하여 사이즈 또는 용량을 통일시킬 수 있다.
일 실시 예에 따르면, 이미지의 용량이 조정될 수 있다. 예컨대, 이미지의 용량이 적정 범위를 초과하는 경우에, 다운 샘플링(down sampling)을 통하여 이미지를 축소시킬 수 있다. 또는 이미지의 용량이 적정 범위에 못 미치는 경우에, 업 샘플링(upsampling) 또는 보간(interpolating)을 통하여 이미지를 확대할 수 있다.
다른 일 실시 예에 따르면, 이미지를 자르거나 획득한 이미지에 픽셀을 덧붙여 이미지의 사이즈 또는 종횡비를 조정할 수 있다. 예컨대, 이미지에 학습에 불필요한 부분이 포함되어 있는 경우에, 이를 제거하기 위하여 이미지 일부를 크롭할 수 있다. 또는, 이미지의 일부가 잘려나가 종횡비가 맞지 않는 경우에 칼럼(column) 또는 로(row)를 추가하여 이미지 종횡비를 조정할 수 도 있다. 다시 말해, 이미지에 마진 또는 패딩을 추가하여 종횡비를 조정할 수 있다.
또 다른 일 실시 예에 따르면, 이미지의 용량 및 사이즈 또는 종횡비가 함께 조정될 수 있다. 일 예로, 이미지의 용량이 큰 경우에 이미지를 다운 샘플링하여 이미지 용량을 축소하고, 축소된 이미지에 포함된 불필요한 부분을 크롭하여 적절한 이미지 데이터로 변환할 수 있다.
또한, 일 실시 예에 따르면, 이미지 데이터의 방향(orientation)이 변경될 수도 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우, 각각의 안저 이미지는 그 용량이 조절되거나, 사이즈가 조정될 수 있다. 안저 이미지의 안저 부분을 제외한 여백 부분을 제거하기 위한 크롭핑 또는 안저 이미지의 잘린 부분을 보충하여 종횡비를 조정하기 위한 패딩을 수행할 수 있다.
도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시 예에 따른 이미지 리사이징 프로세스에 의하여, 획득된 안저 이미지가 리사이징될 수 있다.
구체적으로 원본 안저 이미지(a)는 진단 정보 획득에 불필요한 여백 부분이 크롭되고(b), 학습 효율의 증진을 위하여 그 크기가 축소(c)될 수 있다.
1.2.2.3 이미지 전처리
일 실시 예에 따르면, 이미지 전처리가 수행될 수 있다. 이미지를 입력된 그대로 학습에 이용할 경우, 불필요한 특성들에 대한 학습 결과 과적합 현상 등이 발생할 수 있고, 학습 효율 역시 저하될 수 있다.
이를 방지하기 위하여, 이미지 데이터를 학습의 목적에 부합하도록 적절히 전처리하여 이용함으로써 학습 효율 및 성능을 향상시킬 수 있다. 예컨대, 안저 이미지에 대하여 안질환의 이상 징후를 검출하기에 용하이하도록 하는 전처리 또는 망막 혈관 내지 혈류 변화가 강조되도록 하는 전처리가 수행될 수 있다.
전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 전처리가 수행될 수 있다. 데이터 가공 모듈은 리사이징된 이미지를 획득하고 학습에 요청되는 전처리를 수행할 수 있다.
이미지 전처리는 전술한 리사이징 처리가 완료된 이미지에 대하여 수행될 수 있다. 다만, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니고, 리사이징 처리를 생략하고 이미지에 대한 전처리가 수행될 수도 있다. 이미지의 전처리를 가하는 것은 이미지에 전처리 필터를 적용하는 것일 수 있다.
일 실시 예에 따르면, 이미지에 블러(blur) 필터가 적용될 수 있다. 이미지에 가우시안 필터가 적용될 수 있다. 이미지에 가우시안 블러 필터가 적용될 수 도 있다. 또는, 이미지에 이미지를 선명하게 하는 디블러(deblur) 필터가 적용될 수 있다.
다른 일 실시 예에 따르면, 이미지의 색상을 조정 또는 변조하는 필터가 적용될 수 있다. 예컨대, 이미지를 구성하는 RGB 값 중 일부 성분의 값을 변경하거나, 또는 이미지를 이진화하는 필터가 적용될 수도 있다.
또 다른 일 실시 예에 따르면, 이미지에 특정 요소가 강조되도록 하는 필터가 적용될 수 있다. 예컨대, 안저 이미지 데이터에 대하여, 각 이미지로부터 혈관 요소가 강조되도록 하는 전처리가 수행될 수 있다. 이 때, 혈관 요소가 강조되도록 하는 전처리는 하나 이상의 필터를 순차적으로 조합하여 적용하는 것일 수 있다.
일 실시 예에 따르면, 이미지의 전처리는 획득하고자 하는 진단 보조 정보의 특성을 고려하여 수행될 수 있다. 예컨대, 망막의 출혈, 드루젠, 미세혈관류, 삼출물 등의 소견과 관련된 진단 보조 정보를 획득하고자 하는 경우에는 획득된 안저 이미지를 레드프리 안저 이미지 형태로 변환하는 전처리를 수행할 수 있다.
1.2.2.4 이미지 증강(augmentation)
일 실시 예에 따르면, 이미지가 증강 또는 확장될 수 있다. 전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 증강이 수행될 수 있다.
증강된 이미지들은 신경망 모델의 트레이닝 성능 개선을 위하여 이용될 수 있다. 예컨대, 신경망 모델의 트레이닝을 위한 데이터의 양이 부족한 경우에, 트레이닝을 위한 데이터 수의 확대를 위하여 존재하는 트레이닝 이미지 데이터의 변조를 실시하고, 변조(또는 변화)된 이미지를 원본 이미지와 함께 이용함으로써 트레이닝 이미지 데이터 수를 늘릴 수 있다. 이에 따라 과학습(overfitting)이 억제되고 모델의 레이어를 보다 깊이 형성할 수 있으며, 예측 정확도가 향상될 수 있다.
예를 들어, 이미지 데이터의 확장은, 이미지의 좌우를 반전시키거나, 이미지의 일부를 오려내거나, 이미지의 색상 값을 보정하거나, 또는 인위적인 노이즈를 추가하여 수행될 수 있다. 구체적인 예로, 이미지의 일부를 오려내는 것은 이미지를 구성하는 요소의 일부 영역을 오려내거나, 일부 영역들을 랜덤하게 오려내는 방식으로 수행될 수 있다. 보다 많은 예로, 이미지 데이터를 좌우 반전, 상하 반전, 회전, 일정 비율 리사이징, 크롭핑, 패딩, 색상 조정 또는 밝기 조정 함으로써 이미지 데이터를 확장할 수 있다.
일 예로, 상술한 이미지 데이터의 증강 또는 확장은 일반적으로, 트레이닝 데이터 세트에 대하여 적용될 수 있다. 다만, 이외의 데이터 세트, 예컨대, 테스트 데이터 세트, 즉 트레이닝 데이터를 이용한 학습 및 검증 데이터를 이용한 검증이 끝난 모델의 테스트를 위한 데이터 세트에도 적용될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우에, 데이터의 수를 늘리기 위하여 이미지를 반전시키거나, 오려내거나, 노이즈를 추가하거나, 색상을 변경하는 것 중 하나 이상의 처리를 랜덤하게 적용하여 증강된 안저 이미지 데이터 세트를 획득할 수 있다.
도 12는 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다. 도 12를 참조하면, 일 실시 예들에 따른 이미지는 신경망 모델의 예측 정확도를 향상시키기 위하여 변형될 수 있다.
구체적으로, 도 12를 참조하면, 일 실시 예들에 따른 이미지는 일부 영역이 드롭-아웃되거나(a), 좌우가 반전되거나(b), 중심점이 이동되거나(c, d), 일부 영역의 색상이 변조(e)될 수 있다.
1.2.2.5 이미지 직렬화(serialization)
일 실시 예에 따르면, 이미지 데이터는 직렬화(linearization)될 수 있다. 이미지는 전술한 학습부의 데이터 가공 모듈에 의하여 직렬화될 수 있다. 직렬화 모듈은 전처리된 이미지 데이터를 직렬화하고 큐 모듈로 전달할 수 있다.
이미지 데이터를 그대로 이용하여 학습에 이용하게 되면, 이미지 데이터는 JPG, PNB, DCM 등의 이미지 파일 형태를 가지기 때문에 디코딩이 필요한데, 매번 디코딩을 거쳐 학습을 수행하게 되면 모델 학습의 성능이 저하될 수 있다. 이에 따라, 이미지 파일을 그대로 학습에 이용하지 않고 직렬화하여 학습을 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 직렬화되는 이미지 데이터는 전술한 이미지 리사이징 및 이미지 전처리 중 하나 이상의 단계가 적용된 이미지 데이터거나, 둘 다 처리되지 아니한 이미지 데이터일 수 있다.
이미지 데이터 세트에 포함되는 각 이미지 데이터는 스트링 형태로 변환될 수 있다. 이미지 데이터는 이진화된 데이터 형태로 변환될 수 있다. 특히, 이미지 데이터는 신경망 모델의 학습에 이요되겡 적합한 데이터 형태로 변환될 수 있다. 일 예로, 이미지 데이터는 텐서플로우(tensorflow)를 이용한 신경망 모델 학습에 이용하기 위한 TFRecord 형태로 변환될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 세트가 이용되는 경우에, 획득된 안저 이미지 세트는 TFReocrd 형태로 변환되어 신경망 모델의 학습에 이용될 수 있다.
1.2.2.6 큐(Queue)
데이터의 병목 현상을 해소하기 위하여 큐(Queue)가 이용될 수 있다. 전술한 학습부의 큐 모듈의 이미지 데이터를 큐에 저장하고, 학습 모델 모듈로 전달할 수 있다.
특히 CPU(Central Processing Unit)와 GPU(Graphic Processing Unit)를 함께 이용하여 학습 프로세스를 진행하는 경우에, 큐를 이용함으로써, CPU와 GPU 사이의 병목 현상을 최소화하고 데이터베이스에 대한 접근이 원활하게 하며 메모리 사용 효율을 증진할 수 있다.
큐는 신경망 모델의 학습에 이용되는 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장할 수 있다. 큐에 저장되는 이미지 데이터는 전술한 데이터 가공 프로세스(즉, 리사이징, 전처리 및 증강) 중 적어도 하나가 처리된 이미지 데이터이거나 획득된 상태 그대로의 이미지일 수 있다.
큐는 이미지 데이터, 바람직하게는 전술한 바와 같이 직렬화된 이미지 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장하고, 신경망 모델로 이미지 데이터를 공급할 수 있다. 큐는 신경망 모델로 배치(batch) 사이즈 단위로 이미지 데이터를 전달할 수 있다.
큐는 이미지 데이터를 제공할 수 있다. 큐는 후술하는 학습 모듈에 데이터를 제공할 수 있다. 학습 모듈에서 데이터를 추출함에 따라 큐에 축적된 데이터 수가 줄어들 수 있다.
신경망 모델의 학습이 진행됨에 큐에 저장된 데이터 수가 기준 이하로 감소하면, 큐는 데이터의 보충을 요청할 수 있다. 큐는 특정 종류 데이터의 보충을 요청할 수 있다. 큐는 학습부가 데이터의 보충이 요청되면, 큐에 데이터를 보충할 수 있다.
큐는 학습 장치의 시스템 메모리에 마련될 수 있다. 예컨대, 큐는 중앙 처리 장치(CPU)의 RAM(Random Access Memory)에 형성될 수 있다. 이 경우, 큐의 크기 즉, 용량은 CPU의 RAM 용량에 따라 정해질 수 있다. 큐로는 선입선출(FIFO; First In First Out) 큐, 우선순위 큐(Primary Queue) 또는 랜덤 큐가 이용될 수 있다.
1.2.3 학습 프로세스
일 실시 예에 따르면, 신경망 모델의 학습 프로세스가 개시될 수 있다.
일 실시 예에 따르면, 신경망 모델의 학습은 전술한 학습 장치에 의하여 수행될 수 있다. 학습 프로세스는 학습 장치의 제어부에 의해 수행될 수 있다. 학습 프로세스는 전술한 학습부의 학습 모듈에 의하여 수행될 수 있다.
도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 13을 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는 데이터를 획득(S1010)하고, 신경망 모델을 학습(S1030)하고, 학습된 모델을 검증(S1050)하고, 학습된 모델의 변수를 획득(S1070)하여 수행될 수 있다.
이하에서는, 도 13을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다.
1.2.3.1 데이터 입력
진단 보조 신경망 모델의 학습을 위한 데이터 세트가 획득될 수 있다.
획득되는 데이터는 전술한 데이터 가공 프로세스에 의하여 처리된 이미지 데이터 세트일 수 있다. 일 예로, 데이터 세트는 사이즈가 조정되고 전처리 필터가 적용되고 데이터가 증강된 후 직렬화된 안저 이미지 데이터를 포함할 수 있다.
신경망 모델의 학습 단계에서는 트레이닝 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 검증 단계에서는 검증 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 테스트 단계에서는 테스트 데이터 세트가 획득 및 이용될 수 있다. 각 데이터 세트는 안저 이미지 및 라벨을 포함할 수 있다.
데이터 세트는 큐로부터 획득될 수 있다. 데이터 세트는 큐로부터 배치 사이즈 단위로 획득될 수 있다. 예컨대, 배치 사이즈로서 60개가 지정된 경우, 데이터 세트는 큐로부터 60개 단위로 추출될 수 있다. 배치 사이즈의 사이즈는 GPU의 RAM 용량에 의해 제한될 수 있다.
데이터 세트는 큐로부터 학습 모듈로 랜덤하게 획득될 수 있다. 데이터 세트는 큐에 축적된 순서대로 획득될 수도 있다.
학습 모듈은 큐로부터 획득되는 데이터 세트의 구성을 지정하여 추출할 수 있다. 일 예로, 학습 모듈로 특정 피검자의 좌안 라벨을 가지는 안저 이미지와 우안 라벨을 가지는 안저 이미지 데이터가 함께 학습에 이용되도록 추출할 수 있다.
학습 모듈은 큐로부터 특정 라벨의 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터 세트를 획득할 수 있다. 학습 모듈은 큐로부터 라벨에 따른 데이터 수의 비율을 지정하여 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터의 수와 진단 정보 라벨이 정상인 안저 이미지 데이터의 수가 1 대 1이 되도록 안저 이미지 데이터 세트를 획득할 수 있다.
1.2.3.2 모델의 설계
신경망 모델은 이미지 데이터에 기초하여 진단 보조 정보를 출력하는 진단 보조 모델일 수 있다. 진단 보조 정보 획득을 위한 진단 보조 신경망 모델의 구조는 미리 정해진 형태를 가질 수 있다. 신경망 모델은 복수의 계층 또는 레이어를 포함할 수 있다.
신경망 모델은 진단 보조 정보를 생성하는 분류기(Classifier)의 형태로 구현될 수 있다. 분류기는 이중 분류 또는 다중 분류를 수행할 수 있다. 예컨대, 신경망 모델은 입력 데이터를 특정 질병 또는 이상 징후 등의 타겟 진단 보조 정보에 대하여 정상 또는 비정상 클래스로 분류하는 이진 분류 모델일 수 있다. 또는, 신경망 모델은 입력 데이터를 특정 특성(예컨대, 질병의 진행 정도)에 대한 복수의 등급 클래스로 분류하는 다중 분류 모델일 수 있다. 또는, 신경망 모델은 특정 질병과 관련된 특정 수치를 출력하는 회귀 형태의 모델로 구현될 수도 있다.
신경망 모델은 합성곱 신경망(CNN; Convolutional Neural Network)을 포함할 수 있다. CNN 구조로서, Alexnet, LENET, NIN, VGGNet, ResNEt, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySuperviseNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다.
일 예로, 신경망 모델은 복수의 VGGNet 블록을 포함하도록 구현될 수 있다. 보다 구체적인 예로, 신경망 모델은 3x3 크기의 64개의 필터를 가지는 CNN 레이어, BN(Batch Normalization) 레이어, 및 ReLu 레이어가 순차적으로 결합된 제1 구조 및 3x3 크기의 128개의 필터를 가지는 CNN 레이어, ReLu 레이어 및 BN 레이어가 순차적으로 결합된 제2 블록이 결합되어 마련될 수 있다.
신경망 모델은 각 CNN 블록에 이어서, 맥스 풀링 레이어를 포함하고, 종단에는 GAP(Global Average Pooling) 레이어, FC(Fully Connected) 레이어, 및 활성화 레이어(예컨대, 시그모이드, 소프트 맥스 등)를 포함할 수 있다.
1.2.3.3 모델의 학습
신경망 모델은 트레이닝 데이터 세트를 이용하여 학습될 수 있다.
신경망 모델은 라벨링된 데이터 세트를 이용하여 학습될 수 있다. 다만, 본 명세서에서 설명하는 진단 보조 신경망 모델의 학습 프로세스가 이에 한정되는 것은 아니며, 신경망 모델은 라벨링되지 아니한 데이터를 이용하여 비지도 형태로 학습될 수도 있다.
신경망 모델의 학습은, 트레이닝 이미지 데이터에 기초하여, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화함으로써 수행할 수 있다. 또한, 신경망 모델의 학습은 후술하는 모델의 검증 결과, 테스트 결과 및/또는 진단 단계로부터의 피드백으로부터 영향을 받을 수 있다.
상술한 신경망 모델의 학습은 텐서플로우를 이용하여 수행될 수 있다. 다만, 일 실시 예가 이에 한정되지는 아니하며, 티아노(Theano), 케라스(Keras), 카페(Caffe), 토치(Torch), CNTK(Microsoft Cognitive Toolkit) 등의 프레임워크가 신경망 모델의 학습이 이용될 수도 있다.
1.2.3.4 모델의 검증(validation)
신경망 모델은 검증 데이터 세트를 이용하여 검증될 수 있다. 신경망 모델의 검증은 학습이 진행된 신경망 모델로부터 검증 데이터 세트에 대한 결과값을 획득하고, 결과값과 검증 데이터 세트의 라벨을 비교하여 수행될 수 있다. 검증은 결과값의 정확도(accuracy)를 측정하여 수행될 수 있다. 검증 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)가 조정될 수 있다.
일 예로, 일 실시 예에 따른 학습 장치는, 안저 이미지에 기초하여 진단 보조 정보를 예측하는 신경망 모델을 학습시키고, 학습된 모델의 검증 안저 이미지에 대한 진단 보조 정보를 검증 안저 이미지에 대응되는 검증 라벨과 비교함으로써 진단 보조 신경망 모델의 검증을 수행할 수 있다.
신경망 모델의 검증에는, 별도의 검증 세트(external data set), 즉 트레이닝 데이터 세트에는 포함되지 않는 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. 예를 들어, 별도의 검증 세트는 트레이닝 데이터 세트와 인종, 환경, 나이, 성별 등의 요인이 구별되는 데이터 세트일 수 있다.
1.2.3.5 모델의 테스트
신경망 모델은 테스트 데이터 세트를 이용하여 테스트될 수 있다.
도 13에서 도시하지는 아니하였으나, 일 실시 예에 따른 학습 프로세스에 의하면, 신경망 모델을 트레이닝 데이터 세트 및 검증 데이터 세트와 구분되는 테스트 데이터 세트를 이용하여 테스트할 수 있다. 테스트 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다.
일 예로, 일 실시 예에 따른 학습 장치는 안저 이미지에 기초하여 진단 보조 정보를 예측하도록 학습된 신경망 모델로부터, 트레이닝 및 검증에 이용되지 않은 테스트 안저 이미지 데이터를 입력으로 하는 결과 값을 획득하여, 학습 및 검증된 진단 보조 신경망 모델의 테스트를 수행할 수 있다.
신경망 모델의 테스트에는, 별도로 마련된 검증 세트(external data set), 즉, 트레이닝 및/또는 검증 데이터와 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다.
1.2.3.6 결과의 출력
신경망 모델의 학습 결과, 최적화된 모델의 파라미터 값이 획득될 수 있다. 전술한 바와 같이 테스트 데이터 세트를 이용하여 모델의 학습을 반복적으로 진행함에 따라, 보다 적절한 파라미터(또는 변수) 값이 얻어질 수 있다. 학습이 충분히 진행되면, 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
일 실시 예에 따르면, 학습된 신경망 모델 및/또는 학습된 신경망 모델의 파라미터 또는 변수는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 학습된 신경망 모델은 진단 장치 및/또는 클라이언트 장치 등에 의하여 진단 보조 정보의 예측에 이용될 수 있다. 또한, 학습된 신경망 모델의 파라미터 또는 변수는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.2.3.7 모델 앙상블(ensemble)
일 실시 예에 따르면, 하나의 진단 보조 신경망 모델을 학습하는 과정에서, 복수의 서브 모델이 동시에 학습될 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다.
이 때, 일 실시 예에 따른 진단 보조 신경망 모델은 복수의 서브 신경망 모델을 조합하여 구현될 수 있다. 다시 말해, 복수의 서브 신경망을 조합하는 앙상블 기법을 이용하여 신경망 모델의 학습을 수행할 수 있다.
앙상블을 형성하여 진단 보조 신경망 모델을 구성할 경우, 다양한 형태의 서브 신경망 모델로부터 예측되는 결과를 종합하여 예측을 수행할 수 있어, 결과 예측의 정확도가 보다 향상될 수 있다.
도 14는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 14를 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는, 데이터 세트를 획득(S1011)하고, 획득된 데이터를 이용하여 제1 모델(즉, 제1 신경망 모델) 및 제2 모델(즉, 제2 신경망 모델)을 학습(S1031, S1033)하고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 검증(S1051)하고, 최종 신경망 모델을 결정하고 그 파라미터 또는 변수를 획득(S1072)할 수 있다.
이하에서는, 도 14를 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다.
일 실시 예에 따르면 복수의 서브 신경망 모델은 동일한 트레이닝 데이터 세트를 획득하고, 개별적으로 출력값을 생성할 수 있다. 이 때, 복수의 서브 신경망 모델의 앙상블을 최종 신경망 모델로 결정하고, 복수의 서브 신경망 모델 각각에 대한 파라미터 값이 학습 결과로 얻어질 수 있다. 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델에 의한 출력값의 평균값으로 정해질 수 있다. 또는, 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델의 출력값에 대한 가중 평균값으로 정해질 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 기계 학습에 의하여 제1 서브 신경망 모델에 대한 최적화된 파라미터 값 및 제2 서브 신경망 모델의 최적화된 파라미터 값을 획득할 수 있다. 이 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델로부터 각각 획득되는 출력값(예컨대, 특정 진단 보조 정보에 대한 확률 값)들에 대한 평균값을 최종 신경망 모델의 출력값으로 결정할 수 있다.
일 실시 예의 다른 일 실시 예에 따르면, 복수의 서브 신경망 모델 각각에 의한 출력값에 기초하여 개별 서브 신경망 모델의 정확도를 평가할 수 있다. 이때, 정확도에 기초하여 복수의 서브 신경망 모델 중 어느 하나의 모델을 선택하여 최종 서브 신경망 모델로 결정할 수 있다. 결정된 서브 신경망 모델의 구조 및 학습 결과 얻어진 결정된 서브 신경망 모델의 파라미터 값들은 저장될 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델 각각에 따른 정확도를 획득하고, 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정할 수 있다.
일 실시 예의 또 다른 일 실시 예에 따르면, 복수의 신경망 모델 중 적어도 하나의 서브 신경망을 조합하고, 조합된 적어도 하나의 서브 신경망 모델의 앙상블을 형성하고, 각각의 앙상블에 대하여 평가하되, 복수의 앙상블 중 정확도가 높은 앙상블을 형성하는 서브 신경망 모델의 조합을 최종 신경망 모델로 결정할 수 있다. 이 때, 복수의 서브 신경망 모델 중 적어도 하나를 선택하는 가능한 모든 경우의 수에 대하여 앙상블을 수행하고, 가장 정확도가 높은 것으로 평가된 서브 신경망 조합을 최종 신경망 모델로 결정할 수도 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 대, 제1 서브 신경망 모델의 정확도, 제2 서브 신경망 모델의 정확도, 및 제1 및 제2 서브 신경망 모델의 앙상블에 의한 정확도를 비교하고, 가장 정확한 경우의 서브 신경망 모델 구성을 최종 신경망 모델로 결정할 수 있다.
1.2.4 실시 예 1 - 학습 장치의 제어 방법
도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 안저 이미지의 전처리를 수행하는 단계(S110), 전처리된 제1 안저 이미지를 직렬화하는 단계(S130), 제1 신경망 모델을 학습시키는 단계(S150)를 포함할 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치, 진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치를 포함하는 시스템에 포함되는 학습 장치의 제어 방법일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계(S110)는 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 것을 더 포함할 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은, 전처리된 제1 안저 이미지를 직렬화하는 단계(S130)를 포함할 수 있다. 제1 안저 이미지는 신경망 모델의 학습에 용이한 형태로 직렬화될 수 있다.
이때, 제1 신경망 모델을 학습시키는 단계(S150)는 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 것을 더 포함할 수 있다.
학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시킬 수 있다.
일 실시 예에 따르면, 학습 장치의 제어 방법은 제2 트레이닝 세트에 포함된 제2 안저 이미지가 제2 신경망 모델의 학습에 적합하도록 제2 안저 이미지의 전처리를 수행하는 단계, 전처리된 제2 안저 이미지를 직렬화하는 단계 및 직렬화된 제2 안저 이미지를 이용하여, 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 제2 신경망 모델을 학습시키는 단계를 더 포함할 수 있다.
도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제2 안저 이미지의 전처리를 수행하는 단계(S210), 전처리된 제2 안저 이미지를 직렬화하는 단계(S230), 제2 신경망 모델을 학습시키는 단계(S250)를 포함할 수 있다.
도 16에서는 설명의 편의를 위하여, 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 제1 안저 이미지의 전처리, 제2 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 수행되는 것으로 묘사하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다.
제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 독립적으로 수행될 수 있다. 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 병렬적으로 수행될 수 있다. 다시 말해, 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 반드시 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습 이후에 이루어지거나, 이전에 이루어져야 하는 것은 아니며, 제1 안저 이미지에 대한 처리 및 제2 안저 이미지에 대한 처리는 상호 의존관계 없이 수행될 수 있다.
제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별될 수 있다. 예컨대, 제1 전처리는 혈관 강조 전처리이고, 제2 전처리는 색상 변조 전처리일 수 있다. 각 전처리는 각 신경망 모델을 통하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은, 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계 및 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계를 더 포함할 수 있다. 이때, 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행될 수 있다.
직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고, 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측 값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측 값을 함께 고려하여 수행될 수 있다.
제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측 값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측 값을 함께 고려하여 수행될 수 있다.
제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함할 수 있다. 이때, 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통될 수 있다.
제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 상기 제1 소견에 대하여 정상임을 지시하는 정상이고, 상기 제2 라벨은 상기 피검체가 상긴 제2 소견에 대하여 비정상임을 지시하는 비정상일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 크롭하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함할 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 가공부가 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함할 수 있다.
직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다. 큐는 상기 제1 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청할 수 있다.
제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나일 수 있다.
도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 신경망 모델을 검증하는 단계(S170) 및 제1 신경망 모델을 갱신하는 단계(S190)를 더 포함할 수 있다.
제1 신경망 모델을 검증하는 단계(S170)는 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여 1 신경망 모델을 검증하는 것을 더 포함할 수 있다.
제1 신경망 모델을 갱신하는 단계(S190), 제1 신경망 모델을 검증하는 단계(S170)로부터 얻어진 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계를 더 포함할 수 있다.
한편, 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 제1 신경망 모델을 학습시키는 단계는 제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고, 상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고, 상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함할 수 있다.
1.3 진단 보조 프로세스
일 실시 예에 따르면, 신경망 모델을 이용하여 진단 보조 정보를 획득하는 진단 보조 프로세스(또는 진단 프로세스)가 제공될 수 있다. 구체적인 예로, 진단 보조 프로세스에 의하여, 안저 이미지를 이용하고 학습된 진단 보조 신경망 모델을 통하여 진단 보조 정보(예컨대, 진단 정보 또는 소견 정보)가 예측될 수 있다.
이하에서 설명하는 진단 보조 프로세스는 진단 장치에 의하여 수행될 수 있다.
1.3.1 진단부
일 실시 예에 따르면, 진단 프로세스는 진단부(200)에 의해 수행될 수 있다. 진단부(200)는 전술한 진단 장치 내에 마련될 수 있다.
도 18은 일 실시 예에 따른 진단부(200)의 구성을 설명하기 위한 도면이다. 도 18을 참조하면, 진단부(200)는 진단 요청 획득 모듈(210), 데이터 가공 모듈(230), 진단 모듈(250) 및 출력 모듈(270)을 포함할 수 있다.
각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 16에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 진단의 양태에 따라 일부 요소가 추가되거나 일부 요소가 생략될 수 있다.
1.3.2 데이터 획득 및 진단 요청
일 실시 예에 따른 진단 장치는 진단 대상 데이터를 획득하고, 이에 기초하여, 진단 보조 정보를 획득할 수 있다. 진단 대상 데이터는 이미지 데이터일 수 있다. 전술한 진단부의 진단 요청 획득 모듈에 의하여 데이터 획득 및 진단 요청의 획득이 수행될 수 있다.
도 19는 일 예에 따른 진단 대상 데이터(TD)를 설명하기 위한 도면이다. 도 19를 참조하면, 진단 대상 데이터(TD)는 진단 대상 이미지(T1) 및 진단 대상 객체 정보(PI; patient information)를 포함할 수 있다.
진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 예컨대, 진단 대상 이미지는 안저 이미지일 수 있다. 진단 대상 이미지(TI)는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.
진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안인지 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다.
진단 장치는 진단 요청을 획득할 수 있다. 진단 장치는 진단 요청과 함께 진단 대상 데이터를 획득할 수 있다. 진단 장치는 진단 요청이 획득되면, 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 장치는 클라이언트 장치로부터 진단 요청을 획득할 수 있다. 또는, 진단 장치는 별도로 마련된 입력 수단을 통하여 사용자로부터 진단 요청을 획득할 수 있다.
1.3.3 데이터 가공 프로세스
획득된 데이터는 가공될 수 있다. 데이터의 가공은 전술한 진단부의 데이터 가공 모듈에 의하여 수행될 수 있다.
데이터 가공 프로세스는 일반적으로, 전술한 학습 프로세스에서의 데이터 가공 프로세스와 유사하게 수행될 수 있다. 이하에서는, 학습 프로세스에서의 데이터 가공 프로세스와의 차이점을 중심으로, 진단 프로세스에서의 데이터 가공 프로세스에 대하여 설명한다.
진단 프로세스에서, 진단 장치는 학습 프로세스에서와 마찬가지로 데이터를 획득할 수 있다. 이때, 획득되는 데이터는 학습 프로세스에서 획득되는 데이터와 동일한 형식일 수 있다. 예를 들어, 학습 프로세스에서 학습 장치가 DCM 형식의 이미지 데이터를 이용하여 진단 보조 신경망 모델을 학습시킨 경우, 진단 장치는 DCM 이미지를 획득하고 학습된 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 리사이징될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측을 효율적으로 수행하기 위하여, 적절한 용량, 크기 및/또는 종횡비를 가지도록 그 형태가 조정될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 안저 이미지에 기초한 진단 정보의 예측을 위하여, 이미지의 불필요한 부분을 크롭하거나, 그 사이즈를 축소하는 등의 리사이징이 수행될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지에는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 전처리 필터가 적용될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측의 정확도가 보다 향상되도록, 적절한 필터가 적용될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 정 진단 정보의 예측이 용이하도록 하는 전처리, 예컨대 혈관이 강조되도록 하는 이미지 전처리 또는 특정 색상이 강조되거나 약화되도록 하는 이미지 전처리가 진단 대상 이미지에 적용될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 직렬화될 수 있다. 진단 대상 이미지는 특정 워크프레임에서의 진단 모델 구동이 용이한 형태로 변환 또는 직렬화 수 있다.
진단 대상 이미지의 직렬화는 생략될 수 있다. 이는, 학습 단계에서와 달리 진단 단계에서는 프로세서가 한번에 처리하는 데이터의 수가 많지 않아, 데이터 처리 속도에 대한 부담이 상대적으로 적기 때문일 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 큐에 저장될 수 있다. 다만, 진단 프로세스에서는 처리 데이터 수가 학습 프로세스에 비하여 적으므로, 데이터를 큐에 저장하는 단계는 생략될 수도 있다.
한편, 진단 프로세스에서는, 데이터 수의 증가가 요구되지 않으므로, 정확한 진단 보조 정보의 획득을 위하여, 학습 프로세스와 달리 데이터 증강 또는 이미지 증강 절차는 이용하지 않음이 바람직할 것이다.
1.3.4 진단 프로세스
일 실시 예에 따르면, 학습된 신경망 모델을 이용한 진단 프로세스가 개시될 수 있다. 진단 프로세스는 전술한 진단 장치에서 수행될 수 있다. 진단 프로세스는 전술한 진단 서버에서 수행될 수 있다. 진단 프로세스는 전술한 진단 장치의 제어부에서 수행될 수 있다. 진단 프로세스는 전술한 진단부의 진단 모듈에 의하여 수행될 수 있다.
도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다. 도 20을 참조하면, 진단 프로세스는 진단 대상 데이터를 획득(S2010)하고, 학습된 신경망 모델을 이용하여(S2030), 획득된 진단 대상 데이터에 대응되는 결과를 획득하여 수행(S2050)될 수 있다. 다만, 데이터의 가공은 선택적으로 수행될 수 있다.
이하에서는 도 20을 참조하여, 진단 프로세스의 각 단계에 대하여 설명한다.
1.3.4.1 데이터 입력
일 실시 예에 따르면, 진단 모듈은 진단 대상 데이터를 획득할 수 있다. 획득된 데이터는, 전술한 바와 같이 가공된 데이터일 수 있다. 일 예로, 획득된 데이터는 사이즈가 조절되고 혈관이 강조되도록 하는 전처리가 적용된 피검자의 안저 이미지 데이터일 수 있다. 일 실시 예에 따르면, 하나의 피검자의 좌안 이미지 및 우안 이미지는 함께 진단 대상 데이터로 입력될 수 있다.
1.3.4.2 데이터 분류
분류기 형태로 마련된 진단 보조 신경망 모델은 입력된 진단 대상 이미지를 소정의 라벨에 대하여 긍정 또는 부정 클래스로 분류할 수 있다.
학습된 진단 보조 신경망 모델은 진단 대상 데이터를 입력받고, 예측되는 라벨을 출력할 수 있다. 학습된 진단 보조 신경망 모델은 진단 보조 정보의 예측값을 출력할 수 있다. 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 예측되는 라벨에 기초하여 결정될 수 있다.
예를 들어, 진단 보조 신경망 모델은 피검체의 안질환 또는 전신 질환에 대한 진단 정보(즉, 질병의 유무에 대한 정보) 또는 소견 정보(즉, 이상 소견의 유무에 대한 정보)를 예측할 수 있다. 이때, 진단 정보 또는 소견 정보는 확률 형태로 출력될 수 있다. 예컨대, 피검체가 특정 질병을 보유할 확률 또는 피검체의 안저 이미지체 특정 이상 소견이 있을 확률이 출력될 수 있다. 분류기 형태로 마련된 진단 보조 신경망 모델을 이용하는 경우에, 예측되는 라벨은 출력되는 확률값(또는 예측 점수)이 임계값을 초과하는지 여부를 고려하여 결정될 수 있다.
구체적인 예로, 진단 보조 신경망 모델은 피검체의 안저 사진을 진단 대상 이미지로 하여, 피검체의 당뇨 망막증 유무를 확률값으로 출력할 수 있다. 1을 정상으로 하는 분류기 형태의 진단 보조 신경망 모델을 이용하는 경우, 피검체의 안저 사진을 진단 보조 신경망 모델에 입력하고, 피검체의 당뇨 망막증 보유 여부에 대하여, 정상: 비정상의 확률 값을 0.74:0.26 등의 형태로 획득할 수 있다.
여기에서는 분류기 형태의 진단 보조 신경망 모델을 이용하여 데이터를 분류하는 경우를 기준으로 설명하였으나, 일 실시 예가 이에 한정되지는 아니하며, 회귀 모델 형태로 구현된 진단 보조 신경망 모델을 이용하여 특정한 진단 보조 수치(예컨대, 혈압 등)를 예측할 수도 있다.
일 실시 예의 다른 일 실시 예에 따르면, 이미지의 적합성 정보가 획득될 수 있다. 적합성 정보는 진단 대상 이미지가 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하기에 적합한지 여부를 나타낼 수 있다.
이미지의 적합성 정보는 이미지의 품질 정보일 수 있다. 품질 정보 또는 적합성 정보는, 진단 대상 이미지가 기준 레벨에 미치는지 여부를 나타낼 수 있다.
예컨대, 진단 대상 이미지가 촬영 장비의 결함 또는 촬영시 조명의 영향 등으로 인하여 결함을 가지는 경우, 해당 진단 대상 이미지에 대하여는 적합성 정보로서 부적합 결과가 출력될 수 있다. 진단 대상 이미지에 노이즈가 일정 수준 이상 포함된 경우, 그 진단 대상 이미지는 부적합한 것으로 판단될 수 있다.
적합성 정보는 신경망 모델을 이용하여 예측된 값일 수 있다. 또는, 적합성 정보는 별도의 이미지 분석 프로세스를 통하여 획득된 정보일 수 있다.
일 실시 예에 따르면, 이미지가 부적합한 것으로 분류된 경우에도, 부적합한 이미지에 기초하여 획득된 진단 보조 정보가 획득될 수 있다.
일 실시 예에 따르면, 부적합한 것으로 분류된 이미지는 진단 보조 신경망 모델에 의하여 재검토될 수 있다.
이때, 재검토를 수행하는 진단 보조 신경망 모델은, 최초 검토를 수행하는 진단 보조 신경망 모델과 상이할 수 있다. 예를 들어, 진단 장치는 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 저장하고, 제1 진단 보조 신경망 모델을 통하여 부적합한 것으로 분류된 이미지는 제2 진단 보조 신경망 모델을 통하여 검토될 수 있다.
일 실시 예의 또 다른 일 실시 예에 따르면, 학습된 신경망 모델로부터 CAM(Class Activation Map)이 획득될 수 있다. 진단 보조 정보는 CAM을 포함할 수 있다. CAM은 다른 진단 보조 정보와 함께 획득될 수 있다.
CAM의 경우, 선택적으로 획득될 수 있다. 예를 들어, CAM의 경우, 진단 보조 모델에 의하여 획득된 진단 정보 또는 소견 정보가 비정상 클래스로 분류된 경우에 CAM이 추출 및/또는 출력될 수 있다.
1.3.5 진단 보조 정보의 출력
진단 보조 정보는, 진단 보조 신경망 모델로부터 예측된 라벨에 기초하여 결정될 수 있다.
진단 보조 정보의 출력은 전술한 진단부의 출력 모듈에 의하여 수행될 수 있다. 진단 보조 정보는 진단 장치로부터 클라이언트 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치로부터 서버 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치 또는 진단 서버에 저장될 수 있다. 진단 보조 정보는 별도로 마련된 서버 장치 등에 저장될 수 있다.
진단 보조 정보는 데이터베이스화 되어 관리될 수 있다. 예컨대, 획득된 진단 보조 정보는 피검체의 식별 번호에 따라 해당 피검체의 진단 대상 이미지와 함께 저장 및 관리될 수 있다. 이때, 피검체의 진단 대상 이미지 및 진단 보조 정보는 시간 순서에 따라 관리될 수 있다. 진단 보조 정보 및 진단 대상 이미지를 시계열적으로 관리함으로써, 개인별 진단 정보의 추적 및 이력 관리가 용이해질 수 있다.
진단 보조 정보는 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치에 마련된 시각적 또는 청각적 출력 수단을 통하여 사용자가 인지할 수 있도록 출력될 수 있다.
일 실시 예에 따르면, 사용자에게 진단 보조 정보를 효과적으로 제공하기 위한 인터페이스가 제공될 수 있다. 이러한 사용자 인터페이스와 관련하여서는 후술하는 5. 사용자 인터페이스 에서 보다 상세히 설명한다.
신경망 모델에 의하여 CAM이 획득된 경우, CAM의 이미지가 함께 제공될 수 있다. CAM 이미지의 경우 선택적으로 제공될 수 있다. 예컨대, 진단 보조 신경망 모델을 통하여 획득된 진단 정보가 정상 소견 정보 또는 정상 진단 정보인 경우 CAM 이미지를 제공하지 않고, 획득된 진단 정보가 비정상 소견 정보 또는 비정상 진단 정보인 경우, 보다 정확한 임상 진단을 위하여 CAM 이미지가 함께 제공될 수 있다.
이미지가 부적합한 것으로 분류된 경우, 이미지의 적합성 정보가 함께 제공될 수 있다. 일 예로, 이미지가 부적합한 것으로 분류된 경우, 해당 이미지에 따라 획득된 진단 보조 정보 및 부적합 판정 정보가 함께 제공될 수 있다.
부적합한 것으로 판정된 진단 대상 이미지는 재촬영 대상 이미지로 분류될 수도 있다. 이때, 재촬영 대상으로 분류된 이미지의 대상 객체에 대한 재촬영 안내가 적합성 정보와 함께 제공될 수 있다.
한편, 신경망 모델을 통하여 획득된 진단 보조 정보를 제공하는 것에 응답하여, 신경망 모델의 학습과 관련된 피드백이 획득될 수 있다. 예컨대, 신경망 모델의 학습과 관련된 파라미터 또는 하이퍼 파라미터를 조정하기 위한 피드백이 획득될 수 있다. 피드백은 진단 장치 또는 클라이언트 장치에 마련된 사용자 입력부를 통하여 획득될 수 있다.
일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 신경망 모델이 다중 분류를 수행하는 분류기 모델인 경우, 등급 정보는 진단 대상 이미지가 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 신경망 모델이 특정 질병과 관련된 수치를 출력하는 회귀 모델인 경우, 등급 정보는 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. 또는, 등급 정보는, 신경망 모델을 통하여 획득된 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
한편, 등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
1.4 복수 라벨에 대한 진단 보조 시스템
일 실시 예에 따르면, 복수 라벨(예컨대, 복수의 진단 보조 정보)에 대하여 예측하기 위한 진단 보조 시스템이 제공될 수 있다. 이를 위하여, 전술한 진단 보조 시스템의 진단 보조 신경망을 복수의 라벨에 대하여 예측하도록 설계할 수 있다.
또는, 위와 전술한 진단 보조 시스템에 있어서, 서로 다른 라벨에 대하여 예측하는 복수의 진단 보조 신경망이 병렬적으로 이용될 수 있다.
이하에서는, 이러한 병렬 진단 보조 시스템에 대하여 설명한다.
1.4.1 병렬 진단 보조 시스템 구성
일 실시 예에 따르면, 복수의 진단 보조 정보를 획득하기 위한 병렬 진단 보조 시스템이 제공될 수 있다. 병렬 진단 보조 시스템은 복수의 진단 보조 정보를 획득하기 위한 복수의 신경망 모델을 학습시키고, 학습된 복수의 신경망 모델을 이용하여 복수의 진단 보조 정보를 획득할 수 있다.
예컨대, 병렬 진단 보조 시스템은 안저 이미지에 기초하여, 피검체의 안질환 유무와 관련된 제1 진단 보조 정보를 획득하는 제1 신경망 모델 및 피검체의 전신 질환 유무와 관련된 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 학습시키고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 피검체의 안질환 유무 및 전신 질환 유무에 관한 진단 보조 정보를 출력할 수 있다.
도 21 및 22는 일 실시 예의 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다. 도 21 및 22를 참조하면, 병렬 진단 보조 시스템은 복수의 학습부를 포함할 수 있다.
도 21을 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(30)은 학습 장치(1000), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 이때, 학습 장치(1000)는 복수의 학습부를 포함할 수 있다. 예를 들어, 학습 장치(1000)는 제1 학습부(100a) 및 제2 학습부(100b)를 포함할 수 있다.
도 22를 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(40)은 제1 학습 장치(1000a), 제2 학습 장치(1000b), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 제1 학습 장치(1000a)는 제1 학습부(100a)를 포함할 수 있다. 제2 학습 장치(1000b)는 제2 학습부(100b)를 포함할 수 있다.
도 21 및 22를 참조하면, 제1 학습부(100a)는 제1 데이터 세트를 획득하고, 제1 신경망 모델에 대하여 학습 결과 얻어진 제1 신경망 모델의 제1 파라미터 세트를 출력할 수 있다. 제2 학습부(100b)는 제2 데이터 세트를 획득하고, 제2 신경망 모델에 대하여 학습 결과 얻어진 제2 신경망 모델의 제2 파라미터 세트를 출력할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단 장치(2000) 및 진단부(200)에 대하여는 도 1과 관련하여 설명한 내용이 유사하게 적용될 수 있다. 진단부(200)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 각각 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다. 진단부(2000)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 획득한 학습된 제1 신경망 모델의 파라미터 및 학습된 제2 신경망 모델의 파라미터를 저장할 수 있다.
클라이언트 장치(3000)는 데이터 획득부 예컨대, 촬상부(300)를 포함할 수 있다. 다만, 촬상부(300)는 기타 진단 보조 정보의 획득에 이용되는 데이터의 획득 수단으로 대체될 수 있다. 클라이언트 장치는 진단 장치로 진단 요청 및 진단 대상 데이터(예컨대, 촬상부로부터 획득된 안저 이미지)를 전송할 수 있다. 클라이언트 장치(3000)는 진단 요청을 전송하는 것에 응답하여, 진단 장치로부터, 전송한 진단 대상 데이터에 따른 복수의 진단 보조 정보를 획득할 수 있다.
한편, 도 21 및 22에서는 진단 보조 시스템(40)이 제1 학습부(100a) 및 제2 학습부(100b)를 포함하는 경우를 기준으로 설명하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다. 일 실시 예의 다른 실시 예에 따르면, 학습 장치는 3개 이상의 서로 다른 진단 보조 정보를 획득하는 학습부를 포함할 수 있다. 또는, 진단 보조 시스템은 서로 다른 진단 보조 정보를 획득하는 복수의 학습 장치를 포함할 수도 있다.
학습 장치, 진단 장치 및 클라이언트 장치의 보다 구체적인 동작에 대하여는 이하에서 보다 상세하게 설명하기로 한다.
1.4.2 병렬 트레이닝 프로세스
일 실시 예에 따르면, 복수의 신경망 모델이 학습될 수 있다. 각각의 신경망 모델을 학습하는 트레이닝 프로세스는 병렬적으로 수행될 수 있다.
1.4.2.1 병렬 학습부
트레이닝 프로세스는 복수의 학습부에 의해 수행될 수 있다. 각각의 트레이닝 프로세스는 서로 독립적으로 수행될 수 있다. 복수의 학습부는 하나의 학습 장치에 마련되거나 복수의 학습 장치에 각각 마련될 수 있다.
도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다. 제1 학습부(100a) 및 제2 학습부(100b) 각각의 구성 및 동작은 도 9와 관련하여 전술한 것과 유사하게 구현될 수 있다.
도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 프로세스는, 제1 데이터 가공 모듈(110a), 제1 큐 모듈(130a), 제1 학습 모듈(150a) 및 제1 학습 결과 획득 모듈(170a)을 포함하는 제1 학습부(100a) 및 제2 데이터 가공 모듈(110b), 제2 큐 모듈(130b), 제2 학습 모듈(150b) 및 제2 학습 결과 획득 모듈(170b)을 포함하는 제2 학습부(100b)를 포함하는 학습 장치(1000)에 의하여 수행될 수 있다.
도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 트레이닝 프로세스는 제1 학습부(100a) 및 제2 학습부(100b)에 의하여 각각 수행될 수 있다. 제1 학습부(100a) 및 제2 학습부(100b)는 독립적으로 제1 신경망 모델 및 제2 신경망 모델의 학습을 수행할 수 있다. 도 23을 참조하면, 제1 학습부(100a) 및 제2 학습부(100b)는 전술한 학습 장치 내에 마련될 수 있다. 또는, 제1 학습부 및 제2 학습부는 서로 다른 학습 장치 내에 마련될 수도 있다.
1.4.2.2 병렬 데이터 획득
일 실시 예에 따르면, 복수의 학습부는 데이터를 획득할 수 있다. 복수의 학습부는 서로 다른 데이터 세트를 획득할 수 있다. 또는, 복수의 학습부는 동일한 데이터 세트를 획득할 수도 있다. 경우에 따라, 복수의 학습부는 일부가 공통되는 데이터 세트를 획득할 수도 있다. 데이터 세트는 안저 이미지 데이터 세트일 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고, 제2 학습부는 제2 데이터 세트를 획득할 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 구별될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 일부 공통될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 라벨링된 안저 이미지 데이터 세트일 수 있다.
제1 데이터 세트는 제1 특징에 대하여 정상(normal)으로 라벨링된 데이터 및 제1 특징에 대하여 비정상(abnormal)으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제2 데이터 세트는 (제1 특징과 구별되는)제2 특징에 대하여 정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제2 데이터 세트는 당뇨 망막증과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 정상으로 라벨링된 데이터 세트 및 제2 특징에 대하여 정상으로 라벨링된 데이터는 공통될 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하고, 제2 데이터 세트는 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하되, 제1 데이터 세트에 포함된 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 제2 데이터 세트에 포함된 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지는 공통될 수 있다.
또는, 제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 비정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터가 공통될 수도 있다. 즉, 복수 특징에 대하여 라벨링된 데이터가 복수 특징에 대한 신경망 모델의 학습에 이용될 수도 있다.
한편, 제1 데이터 세트는 제1 방법으로 촬영된 안저 이미지 데이터 세트이고, 제2 데이터 세트는 제2 방법으로 촬영된 안저 이미지 데이터 세트일 수 있다. 제1 방법 및 제2 방법은 레드프리 촬영, 파노라마 촬영, 자가형광 촬영, 적외선 촬영 등으로부터 선택된 어느 하나의 방법일 수 있다.
각 학습부에서 이용되는 데이터 세트는, 학습되는 신경망에 의하여 획득되는 진단 보조 정보를 고려하여 결정될 수 있다. 예를 들어, 제1 학습부는 망막 이상 소견(예를 들어, 미세혈관류, 삼출물 등)과 관련된 진단 보조 정보를 획득하고자 하는 제1 신경망 모델을 학습시키는 경우, 레드프리 촬영된 제1 안저 이미지 데이터 세트를 획득할 수 있다. 또는, 제2 학습부는 황반 변성과 관련된 진단 보조 정보를 획득하고자 하는 제2 신경망 모델을 학습시키는 경우, 자가형광 촬영된 제2 안저 이미지 데이터 세트를 획득할 수 있다.
1.4.2.3 병렬 데이터 가공
복수의 학습부는 각각 획득된 데이터를 가공할 수 있다. 전술한 2.2 데이터 가공 프로세스 에서 설명한 것과 같이, 각각의 학습부는, 획득된 데이터에 대하여, 이미지 리사이징, 전처리 필터 적용, 이미지 증강 및 이미지 직렬화 프로세스 중 하나 이상을 적용하여 데이터를 가공할 수 있다. 제1 학습부의 제1 데이터 가공 모듈은 제1 데이터 세트를 가공하고, 제2 학습부의 제2 데이터 가공 모듈은 제2 데이터 세트를 가공할 수 있다.
복수의 학습부에 포함되는 제1 학습부 및 제2 학습부는 각각에 의해 학습되는 신경망 모델로부터 획득되는 진단 보조 정보를 고려하여 획득된 데이터 세트를 달리 가공할 수 있다. 예를 들어, 제1 학습부는 고혈압과 관련된 제1 진단 보조 정보를 획득하기 위한 제1 신경망 모델을 학습시키기 위하여, 제1 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 혈관이 강조되도록 하는 전처리를 수행할 수 있다. 또는, 제2 학습부는 망막의 삼출물, 미세 혈관 등의 이상 소견과 관련된 제2 진단 보조 정보를 획득하기 위한 제2 신경망 모델을 학습시키기 위하여, 제2 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 레드프리 이미지로 변환하는 전처리를 수행할 수도 있다.
1.4.2.4 병렬 큐
복수의 학습부는 데이터를 큐에 저장할 수 있다. 전술한 2.2.6 큐 에서 설명한 것과 같이, 각각의 학습부는 처리된 데이터를 큐에 저장하고 학습 모듈로 전달할 수 있다. 예를 들어, 제1 학습부는 제1 데이터 세트를 제1 큐 모듈에 저장하고 제1 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다. 제2 학습 모듈은 제2 데이터 세트를 제2 큐 모듈에 저장하고 제2 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다.
1.4.2.5 병렬 학습 프로세스
복수의 학습부는 신경망 모델을 학습시킬 수 있다. 각각의 학습 모듈은 트레이닝 데이터 세트를 이용하여 서로 다른 라벨에 대하여 예측하는 진단 보조 신경망 모델을 각각 독립적으로 학습시킬 수 있다. 제1 학습부의 제1 학습 모듈은 제1 신경망 모델을 학습시키고, 제2 학습부의 제2 학습 모듈은 제2 신경망 모듈을 학습시킬 수 있다.
복수의 진단 보조 신경망 모델은 병렬적 및/또는 독립적으로 학습될 수 있다. 이와 같이 복수의 신경망 모델을 통하여 서로 다른 라벨에 대하여 예측하도록 모델을 학습시킴으로써, 각 라벨에 대한 예측 정확도가 향상되고, 예측 동작의 효율이 증가될 수 있다.
각각의 진단 보조 신경망 모델은 2.3.2 모델의 설계 에서 설명한 것과 유사하게 마련될 수 있다. 각각의 서브 학습 프로세스는 2.3.1 내지 2.3.5 에서 전술한 것과 유사하게 수행될 수 있다.
일 실시 예에 따른 병렬 학습 프로세스는, 서로 다른 라벨을 예측하는 진단 보조 신경망 모델을 학습시키는 것을 포함할 수 있다. 제1 학습부는 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 제2 학습부는 제2 라벨을 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제1 학습부는 황반 변성 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 황반 변성 여부를 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다.
제2 학습부는 제2 데이터 세트를 획득하고 제2 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제2 학습부는 당뇨 망막증 해당 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 당뇨 망막증 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
신경망 모델의 학습 프로세스에 대하여는 이하에서 도 24 및 25를 참조하여 보다 구체적으로 설명한다.
도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 병렬 학습 프로세스는, 병렬 진단 보조 시스템이 도 21과 같이 구현된 경우, 도 22과 같이 구현된 경우 및 그 외의 형태로 구현된 경우 모두에 적용될 수 있다. 다만, 설명의 편의를 위하여, 이하에서는 도 21과 같이 구현된 병렬 진단 보조 시스템을 기준으로 설명한다.
도 24를 참조하면, 병렬 학습 프로세스는 서로 다른 라벨을 예측하는 복수의 진단 보조 신경망 모델을 각각 학습시키는 복수의 서브 학습 프로세스를 포함할 수 있다. 병렬 학습 프로세스는 제1 신경망 모델을 학습시키는 제1 서브 학습 프로세스 및 제2 신경망 모델을 학습시키는 제2 서브 학습 프로세스를 포함할 수 있다.
예컨대, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1010a), 제1 신경망 모델을 이용하고(S1030a), 제1 모델(즉, 제1 진단 보조 신경망 모델)을 검증하고(S1050a) 제1 신경망 모델의 파라미터를 획득(S1070a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1010b), 제2 신경망 모델을 이용하고(S1030b), 제2 신경망 모델을 검증(즉, 제2 진단 보조 신경망 모델)하고(S1050b) 제2 신경망 모델의 파라미터를 획득(S1070b)하여 수행될 수 있다.
서브 학습 프로세스는 서브 신경망 모델에 트레이닝 데이터를 입력하고, 출력으로 얻어진 라벨 값을 입력 트레이닝 데이터와 비교하여 모델을 검증하고, 검증 결과를 다시 서브 신경망 모델에 반영함으로써 신경망 모델을 학습시키는 것을 포함할 수 있다.
각각의 서브 학습 프로세스는, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화하는 것을 포함할 수 있다.
각각의 서브 학습 프로세스에서, 진단 보조 신경망 모델은 트레이닝 데이터 세트와 구별되는 검증 데이터 세트를 통하여 검증될 수 있다. 제1 신경망 모델 및 제2 신경망 모델을 검증하기 위한 검증 데이터 세트는 구별될 수 있다.
복수의 학습부는 학습 결과를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습 모듈로부터 학습된 신경망 모듈에 관한 정보를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습부로부터 학습된 신경망 모듈의 파라미터 값들을 획득할 수 있다. 제1 학습부의 제1 학습 결과 획득 모듈은 제1 학습 모듈로부터 학습된 제1 신경망 모델의 제1 파라미터 세트를 획득할 수 있다. 제2 학습부의 제2 학습 결과 획득 모듈은 제2 학습 모듈로부터 학습된 제2 신경망 모델의 제2 파라미터 세트를 획득할 수 있다.
각각의 서브 학습 프로세스에 의하여, 학습된 신경망 모델의 최적화된 파라미터 값들, 즉 파라미터 세트가 획득될 수 있다. 보다 많은 트레이닝 데이터 세트를 이용하여 학습을 진행함에 따라, 보다 적절한 파라미터 값들이 얻어질 수 있다.
제1 서브 학습 프로세스에 의하여 학습된 제1 진단 보조 신경망 모델의 제1 파라미터 세트가 획득될 수 있다. 제2 서브 학습 프로세스에 의하여 학습된 제2 진단 보조 신경망 모델의 제2 파라미터 세트가 획득될 수 있다. 학습이 충분히 진행됨에 따라, 제1 진단 보조 신경망 모델의 및 제2 진단 보조 신경망 모델의 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
획득된 각 신경망 모델의 파라미터 세트는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 제1 진단 보조 신경망 모델의 제1 파라미터 세트 및 제2 진단 보조 신경망 모델의 제2 파라미터 세트는 함께 또는 따로 저장될 수 있다. 학습된 각 신경망 모델의 파라미터 세트는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.4.2.6 병렬 앙상블 학습 프로세스
복수의 신경망 모델을 병렬적으로 학습시키는 경우에도, 전술한 앙상블 형태의 모델 학습이 이용될 수 있다. 각각의 서브 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. 이하에서, 별다른 언급이 없는 한 2.3.7에서 설명한 내용이 유사하게 적용될 수 있다.
복수의 진단 보조 신경망 모델이 병렬적으로 학습되는 경우에, 각각의 진단 보조 신경망 모델을 학습시키는 서브 학습 프로세스 중 일부 서브 학습 프로세스는 단일 모델을 학습시키고, 일부 서브 학습 프로세스는 복수의 서브 모델을 함께 학습시키는 형태로 구현될 수도 있다.
각 서브 학습 프로세스에서 앙상블을 이용하여 모델을 학습시킴에 따라, 각각의 서브 프로세스에서 보다 최적화된 신경망 모델의 형태를 획득하고, 예측의 오차가 감소될 수 있다.
도 25는 일 실시 예의 다른 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 도 25를 참조하면, 각 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다.
도 25를 참조하면, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1011a), 제 1-1 신경망 모델 및 제1-2 신경망 모델을 이용하고(S1031a, S1033a) 제 1-1 신경망 모델 및 제1-2 신경망 모델을 검증(S1051a)하여, 제1 신경망 모델의 최종 형태 및 그 파라미터를 결정(S1071a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1011b), 제 2-1 신경망 모델 및 제2-2 신경망 모델을 이용하고(S1031b, S1033b) 제 2-1 신경망 모델 및 제2-2 신경망 모델을 검증(S1051b)하여, 제1 모델(즉, 제1 진단 보조 신경망 모델)의 최종 형태 및 그 파라미터를 결정(S1071b)하여 수행될 수 있다.
제1 서브 학습 프로세스에서 학습되는 제1 신경망은 제1-1 신경망 모델, 제1-2 신경망 모델을 포함할 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 서로 다른 계층 구조로 마련될 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 제1 데이터 세트를 획득하고 예측되는 라벨을 각각 출력할 수 있다. 또는, 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블에 의한 예측되는 라벨을 최종 예측 라벨로 결정할 수 있다.
이때, 제1-1 신경망 모델 및 제1-2 신경망 모델을 검증 데이터 세트를 이용하여 검증하고, 정확도가 높은 신경망 모델을 최종 신경망 모델로 결정할 수 있다. 또는, 제1-1 신경망 모델, 제1-2 신경망 모델 및 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블을 검증하고, 그 중 정확도가 높은 경우의 신경망 모델 형태를 최종 제1 신경망 모델로 결정할 수도 있다.
제2 서브 학습 프로세스에 대하여도 마찬가지로, 제2-1 신경망 모델, 제2-2 신경망 모델 및 제2-1 신경망 모델, 제2-2 신경망 모델의 앙상블 중 정확도가 높은 형태의 신경망을 최종 제2 모델(즉, 제2 진단 보조 신경망 모델)로 결정할 수 있다.
한편, 도 25에서는, 편의를 위하여 각 서브 학습 프로세스가 두 개의 서브 모델을 포함하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 일 실시 예가 이에 한정되지는 않는다. 각 서브 학습 프로세스에서 학습되는 신경망 모델은, 하나의 신경망 모델만을 포함하거나, 세 개 이상의 서브 모델을 포함할 수도 있다.
1.4.3 병렬 진단 프로세스
일 실시 예에 의하면, 복수의 진단 보조 정보를 획득하는 진단 프로세스가 제공될 수 있다. 복수의 진단 보조 정보를 획득하는 진단 프로세스는 서로 독립적인 복수의 진단 프로세스를 포함하는 병렬 진단 보조 프로세스 형태로 구현될 수 있다.
1.4.3.1 병렬 진단부
일 실시 예에 따르면, 진단 보조 프로세스는 복수의 진단 모듈에 의하여 수행될 수 있다. 각각의 진단 보조 프로세스는 독립적으로 수행될 수 있다.
도 26은 일 실시 예에 따른 진단부(200)를 설명하기 위한 블록도이다.
도 26을 참조하면, 일 실시 예에 따른 진단부(200)는 진단 요청 획득 모듈(211), 데이터 가공 모듈(231), 제1 진단 모듈(251), 제2 진단 모듈(253) 및 출력 모듈(271)을 포함할 수 있다. 진단부(200)의 각 모듈은 특별한 언급이 없는 한, 도 18에서 도시하는 진단부의 진단 모듈과 유사하게 동작할 수 있다.
도 26에서는, 진단부(200)가 복수의 진단 모듈을 포함하는 경우에도, 진단 요청 획득 모듈(211), 데이터 가공 모듈(231) 및 출력 모듈(271)은 공통되는 것으로 도시하였으나, 일 실시 예가 이러한 구성에 한정되는 것은 아니며, 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 복수로 마련될 수도 있다. 복수의 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 병렬적으로 동작할 수도 있다.
예를 들어, 진단부(200)는 입력된 진단 대상 이미지에 대하여 제1 가공을 수행하는 제1 데이터 가공 모듈 및 진단 대상 이미지에 대하여 제2 데이터 가공을 수행하는 제2 가공 모듈을 포함하고, 제1 진단 모듈은 제1 가공된 진단 대상 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 제2 가공된 진단 대상 이미지에 기초하여 제2 진단 보조 정보를 획득할 수 있다. 제1 가공 및/또는 제2 가공은 이미지 리사이징, 이미지의 색상 변조, 블러 필터 적용, 혈관 강조 처리, 레드프리 변환, 일부 영역 크롭, 일부 요소 추출 중 선택된 어느 하나일 수 있다.
복수의 진단 모듈은 서로 다른 진단 보조 정보를 획득할 수 있다. 복수의 진단 모듈은 서로 다른 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 예를 들어, 제1 진단 모듈은 피검체의 안질환 해당 여부를 예측하는 제1 신경망 모델을 이용하여 피검체의 안질환 해당 여부와 관련된 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 피검체의 전신 질환 해당 여부를 예측하는 제2 신경망 모델을 이용하여 피검체의 전신 질환 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
보다 구체적인 예로, 제1 진단 모듈은 안저 이미지에 기초하여 피검체의 당뇨 망막증 해당 여부를 예측하는 제1 진단 보조 신경망 모델을 이용하여 피검체의 당뇨 망막증 해당 여부에 관한 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 안저 이미지에 기초하여 피검체의 고혈압 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 이용하여 피검체의 고혈압 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
1.4.3.2 병렬 진단 프로세스
일 실시 예에 따른 진단 보조 프로세스는 복수의 서브 진단 프로세스를 포함할 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 보조 신경망 모델을 이용하여 수행될 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 모듈에서 수행될 수 있다. 예컨대, 제1 진단 모듈은 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하는 제1 서브 진단 프로세스를 수행할 수 있다. 또는, 제2 진단 모듈은 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 제2 서브 진단 프로세스를 수행할 수 있다.
학습된 복수의 신경망 모델은 진단 대상 데이터를 입력으로 하여, 예측되는 라벨 또는 확률을 출력할 수 있다. 각각의 신경망 모델은 분류기 형태로 마련되고, 입력되는 진단 대상 데이터를 소정의 라벨에 대하여 분류할 수 있다. 이때, 복수의 신경망 모델은 서로 다른 특성에 대하여 학습된 분류기 형태로 마련될 수 있다. 각각의 신경망 모델은 3.4.2 에서 전술한 것과 같이 진단 대상 데이터를 분류할 수 있다.
한편, 각각의 진단 보조 신경망 모델로부터, CAM이 획득될 수 있다, CAM은 선택적으로 획득될 수 있다. CAM은 미리 정해진 조건이 만족되는 경우에 추출될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우에 제1 진단 보조 신경망 모델로부터 제1 CAM이 획득될 수 있다.
도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 27을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는 진단 대상 데이터를 획득(S2011)하고, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 이용하여(S2031a, S2031b) 진단 대상 데이터에 따른 진단 보조 정보를 획득(S2051)하는 것을 포함할 수 있다. 진단 대상 데이터는 가공된 데이터일 수 있다.
일 실시 예에 따른 진단 보조 프로세스는 학습된 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하고, 학습된 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 동일한 진단 대상 데이터에 기초하여 각각 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다.
예를 들어, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 진단 대상 안저 이미지에 기초하여, 피검체의 황반 변성 여부에 관한 제1 진단 보조 정보 및 피검체의 당뇨 망막증 해당 여부에 관한 제2 진단 보조 정보를 각각 획득할 수 있다.
이외에도, 특별한 언급이 없는 한, 도 27과 관련하여 설명하는 진단 보조 프로세스는 도 20과 관련하여 전술한 진단 보조 프로세스와 유사하게 구현될 수 있다.
1.4.3.3 진단 보조 정보의 출력
일 실시 예에 따르면, 병렬 진단 보조 프로세스에 의하여 획득된 진단 보조 정보가 획득될 수 있다. 획득된 진단 보조 정보는 진단 장치, 서버 장치 및/또는 클라이언트 장치에 저장될 수 있다. 획득된 진단 보조 정보는 외부 장치로 전달될 수 있다.
복수의 진단 보조 정보는, 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨을 각각 지시할 수 있다. 복수의 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 각각 대응될 수 있다. 또는, 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측된 복수의 라벨에 기초하여 결정된 정보일 수 있다. 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 대응될 수 있다.
다시 말해, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨에 대응되는 진단 보조 정보일 수 있다. 또는, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨 및 제2 진단 보조 신경망 모델을 통하여 예측된 제2 라벨을 함께 고려하여 결정된 진단 보조 정보일 수 있다.
한편, 복수의 진단 보조 신경망 모델로부터 획득된 CAM의 이미지가 출력될 수 있다. CAM 이미지는 미리 정해진 조건이 만족되는 경우에 출력될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우 또는 제2 진단 보조 정보가 피검체가 제2 특성에 대하여 비정상임을 지시하는 경우 중 어느 하나의 경우에, 비정상임인 것으로 지시된 진단 보조 정보가 출력된 진단 보조 신경망 모델로부터 획득된 CAM 이미지가 출력될 수 있다.
복수의 진단 보조 정보 및/또는 CAM 이미지는 사용자에게 제공될 수 있다. 복수의 진단 보조 정보 등은 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 시각적으로 출력될 수 있다. 이와 관련하여, 5. 사용자 인터페이스에서 보다 상세하게 설명한다.
일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 복수의 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 등급 정보는 진단 대상 이미지가 복수의 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 등급 정보는 복수의 신경망 모델로부터 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 복수의 신경망 모델을 통하여 획득된 진단 정보 중, 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 중, 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다.
등급 정보는, 신경망 모델을 통하여 획득된 수치들 중 적어도 하나의 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치들 모두가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 포함된 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보에 대응되는 사항을 포함할 수 있다. 예컨대, 제1 사용자 안내는, 진단 보조 정보에 포함된 비정상 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
제1 내지 제3 등급 정보는, 클라이언트 장치 또는 진단 장치의 출력부에 의해 출력될 수 있다. 구체적으로, 후술하는 사용자 인터페이스를 통해 출력될 수 있다.
1.4.4 실시 예 2 - 진단 보조 시스템
일 실시 예에 따른 진단 보조 시스템은 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
일 실시 예에 따르면, 진단 보조 시스템은 진단 장치를 포함할 수 있다. 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및/또는 진단 정보 출력부를 포함할 수 있다. 다만, 일 실시 예가 이에 한정되는 것은 아니며, 진단 보조 시스템에 포함되는 각 부는 학습 장치, 진단 장치, 학습 진단 서버 및/또는 클라이언트 장치 상의 적절한 위치에 각각 위치될 수 있다. 이하에서는, 편의를 위하여 진단 보조 시스템의 진단 장치가 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함하는 경우를 기준으로 설명한다.
도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다. 도 28을 참조하면, 진단 보조 시스템은 진단 장치를 포함하고, 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템은, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함할 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.
제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 및 비정상 중 어느 하나로 분류하도록 학습되고, 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 또는 상기 비정상 중 어느 하나로 분류하여 상기 제1 결과를 획득할 수 있다.
제3 처리부는 제1 결과 및 제2 결과를 함께 고려하여, 대상 안저 이미지에 따른 진단 정보가 정상 정보인지 비정상 정보인지 결정할 수 있다.
제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상에 우선권을 부여하여 상기 피검체에 대한 진단 정보를 결정할 수 있다.
제3 처리부는 상기 제1 라벨이 상기 제1 소견에 대한 정상이고, 상기 제2 라벨이 상기 제2 소견에 대한 정상인 경우, 상기 진단 정보를 정상으로 결정하고, 제1 라벨이 제1 소견에 대한 정상이 아니거나 상기 제2 라벨이 상기 제2 소견에 대한 정상이 아닌 경우, 상기 진단 정보를 비정상으로 결정할 수 있다.
제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시할 수 있다. 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환을 진단하기 위한 소견이고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 제2 소견은 상기 제1 안질환을 진단하기 위한 상기 제1 소견과 구별되는 소견이고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정될 수 있다.
제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 라벨과 관련된 CAM(Class Activation Map)을 획득하고, 진단 정보 출력부는 상기 CAM의 이미지를 출력할 수 있다.
진단 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 정보가 비정상 진단 정보인 경우 상기 CAM의 이미지를 출력할 수 있다.
진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고, 진단 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력할 수 있다.
제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우, 상기 진단 정보 출력부는, 상기 사용자에게 상기 결정된 진단 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공할 수 있다.
1.5 사용자 인터페이스
일 실시 예에 따르면, 전술한 클라이언트 장치 또는 진단 장치는 진단 보조 정보를 사용자에게 제공하기 위한 표시부를 가질 수 있다. 이때, 표시부는 사용자에게 진단 보조 정보를 명확히 전달하고, 사용자로부터의 피드백 획득이 용이하도록 마련될 수 있다.
표시부의 일 예로서, 사용자에게 시각 정보를 제공하는 디스플레이가 제공될 수 있다. 이때, 사용자에게 진단 보조 정보를 시각적으로 전달하기 위한 그래픽 사용자 인터페이스가 이용될 수 있다. 예컨대, 안저 이미지에 기초하여 진단 보조 정보를 획득하는 안저 진단 보조 시스템에 있어서, 획득된 진단 보조 정보를 효과적으로 표시하고 사용자의 이해를 돕기 위한 그래픽 사용자 인터페이스가 제공될 수 있다.
도 29 및 30은 일 실시 예의 몇몇 실시 예에 따른 사용자에게 진단 정보를 제공하기 위한 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 이하에서는, 도 29 및 30을 참조하여, 안저 진단 보조 시스템에서 이용될 수 있는 사용자 인터페이스에 대하여 몇몇 실시 예를 들어 설명한다.
도 29를 참조하면, 일 실시 예에 따른 사용자 인터페이스는 진단 대상 안저 이미지에 대응되는 피검체의 식별 정보를 표시할 수 있다. 사용자 인터페이스는 피검체(즉, 환자)의 식별 정보 및/또는 진단 대상 안저 이미지의 촬영 정보(예컨대, 촬영 날짜)를 표시하는 대상 이미지 식별 정보 표시부(401)를 포함할 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 동일한 피검체의 좌안의 안저 이미지 및 우안의 안저 이미지를 각각 표시하는 안저 이미지 표시부(405)를 포함할 수 있다. 안저 이미지 표시부(405)는 CAM 이미지를 표시할 수도 있다.
일 실시 예에 따른 사용자 인터페이스는 좌안의 안저 이미지 및 우안의 안저 이미지 각각에 대하여 좌안 또는 우안의 이미지임을 표시하고, 각 이미지의 진단 정보 및 사용자 확인 여부를 지시하는 진단 정보 지시자가 표시되는 진단 정보 지시부(403)를 포함할 수 있다.
진단 정보 지시자의 색상은 대상 안저 이미지에 기초하여 얻어진 진단 보조 정보를 고려하여 결정될 수 있다. 진단 정보 지시자는 진단 보조 정보에 따라 제1 색상 또는 제2 색상으로 표시될 수 있다. 일 예로, 하나의 대상 안저 이미지에 제1 내지 제3 진단 보조 정보를 획득한 경우, 하나의 진단 보조 정보라도 비정상(즉, 이상 소견 있음) 정보를 포함하는 경우, 진단 정보 지시자는 적색으로 표시되고, 모든 진단 보조 정보가 정상(즉, 이상 소견 없음) 정보를 포함하는 경우, 진단 정보 지시자는 녹색으로 표시될 수 있다.
진단 정보 지시자의 형태는 사용자의 확인 여부에 따라 결정될 수 있다. 진단 정보 지시자는 사용자의 확인 여부에 따라 제1 형태 또는 제2 형태로 표시될 수 있다. 일 예로, 도 25를 참조하면, 사용자에 의해 검토가 완료된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 원으로 표시되고, 사용자에 의해 미검토된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 반원으로 표시될 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 진단 보조 정보를 지시하는 진단 정보 지시부(407)를 포함할 수 있다. 진단 보조 정보 지시부는 좌안 및 우안 이미지에 각각 위치될 수 있다. 진단 보조 정보 지시부는 복수의 소견 정보 또는 진단 정보를 지시할 수 있다.
진단 보조 정보 지시부는 적어도 하나의 진단 보조 정보 지시자를 포함할 수 있다. 진단 보조 정보 지시자는 색상 변화를 통하여 각각 대응되는 진단 보조 정보를 지시할 수 있다.
예를 들어, 진단 대상 안저 이미지에 대하여, 제1 진단 보조 신경망 모델을 통하여 수정체 혼탁 유무를 지시하는 제1 진단 보조 정보, 제2 진단 보조 신경망 모델을 통하여 당뇨 망막증 소견 유무를 지시하는 제2 진단 보조 정보, 제3 진단 보조 신경망 모델을 통하여 망막 이상 소견 유무를 지시하는 제3 진단 보조 정보가 획득된 경우에, 진단 정보 지시부는 제1 진단 보조 정보, 제2 진단 보조, 제3 진단 보조 정보를 각각 지시하는 제1 내지 제3 진단 보조 정보 지시자를 포함할 수 있다.
보다 구체적인 예로, 도 29를 참조하면, 좌안 안저 이미지와 관련하여, 진단 정보 지시부(407)는 피검체의 좌안 안저 이미지에 기초하여 획득된 진단 보조 정보가 수정체 혼탁 비정상임을 지시하는 제1 진단 보조 정보, 당뇨 망막증 정상(이상 소견 없음)을 지시하는 제2 진단 보조 정보 및 망막 비정상(이상 소견 있음)을 지시하는 제3 진단 보조 정보가 획득된 경우에, 제1 색상을 띠는 제1 진단 보조 정보 지시자, 제2 색상을 띠는 제1 진단 보조 정보 지시자 및 제1 색상을 띠는 제3 진단 보조 정보 지시자를 표시할 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 사용자로부터 진단 대상 안저 이미지에 대한 사용자 코멘트를 획득할 수 있다. 사용자 인터페이스는 사용자 코멘트 오브젝트(409)를 포함하고, 사용자 코멘트 오브젝트에 대한 사용자 선택에 응답하여, 사용자 입력창을 표시할 수 있다. 사용자로부터 획득된 코멘트는 진단 보조 신경망 모델의 갱신에 이용될 수도 있다. 예컨대, 사용자 코멘트 오브젝트에 대한 선택에 응답하여 표시되는 사용자 입력창은, 신경망을 통한 진단 보조 정보에 대한 사용자 평가를 획득할 수 있고, 획득된 사용자 평가는 신경망 모델의 갱신에 이용될 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 각 진단 대상 안저 이미지에 대한 사용자 검토 여부를 표시하는 검토 지시 오브젝트(411)를 포함할 수 있다. 검토 지시 오브젝트는 각 진단 대상 이미지에 대한 사용자 검토가 완료되었음을 나타내는 사용자 입력을 획득 받고, 제1 상태에서 제2 상태로 그 표시가 변경될 수 있다. 예컨대, 도 29 및 도 30을 참조하면, 검토 지시 오브젝트는 확인 요청 문구를 표시하는 제1 상태에서, 사용자 입력이 획득되면, 확인 되었음을 나타내는 제2 상태로 변경될 수 있다.
진단 대상 안저 이미지의 목록(413)이 표시될 수 있다. 목록에는 피검체의 식별 정보, 이미지 촬영 날짜 및 양안 이미지에 대한 검토 여부 지시자(403)가 함께 표시될 수 있다.
진단 대상 안저 이미지의 목록(413)에는 검토가 완료된 진단 대상 안저 이미지를 나타내는 검토 완료 지시자(415)가 표시될 수 있다. 검토 완료 지시자(415)는 해당 이미지의 양안에 대한 검토 지시 오브젝트(411) 모두에 대하여 사용자 선택이 발생한 경우에 표시될 수 있다.
도 30을 참조하면, 사용자 그래픽 인터페이스는, 진단 대상 안저 이미지에 품질 이상이 있는 것으로 판단된 경우에, 사용자에게 대상 안저 이미지의 품질에 이상이 있음을 지시하는 저품질 경고 오브젝트(417)를 포함할 수 있다. 저품질 경고 오브젝트(417)는, 진단부로부터 진단 대상 안저 이미지가 진단 보조 신경망 모델로부터 적절한 진단 보조 정보가 예측될 수 있는 수준의 품질(즉, 기준 품질 레벨)에 미치지 아니하는 것으로 판단된 경우에 표시될 수 있다.
또한, 도 28을 참조하면 진단 대상 안저 이미지의 목록(413)에도 저품질 경고 오브젝트(419)가 표시될 수 있다.
2. 안저 이미지를 이용한 진단 보조 이미지
2.1 배경 및 목적
본 명세서에서는 안저 이미지를 이용하여 복수의 병변의 진단을 수행하고, 상기 복수의 병변의 진단 결과를 제공함에 있어서, 진단 보조 이미지를 제공하는 장치 및 방법 등에 대하여 설명한다.
본 명세서의 일 실시 예에 따른 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과는 상기 안저 이미지에 대해 복수의 라벨로 판단할 수 있고, 바람직하게는 의심(또는 비정상) 또는 정상으로 판단하여 제공할 수 있다. 상기 의심은 질병에 대한 보유가 의심되는 경우를 의미할 수 있고, 상기 정상은 질병에 대한 보유가 없는 정상적인 상태인 경우를 의미할 수 있다.
다만, 사용자 또는 피검자는 상기 안저 이미지에서 상기 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과가 도출되는 근거에 대해 파악하고자 하는 필요성을 가질 수 있다. 또한, 사용자 또는 피검자는 상기 안저 이미지 상에서 상기 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과에 영향을 미치는 영역을 파악하고자 하는 필요성을 가질 수 있다.
본 명세서는 안저 이미지에 대해 기계 학습된 신경망 모델을 통해 복수의 질병에 대한 진단을 수행하는 진단 보조 장치 및/또는 시스템와 함께 진단 보조 이미지를 출력될 수 있는 진단 보조 이미지 장치 및/또는 시스템을 제공하고 있으며, 상기 진단 보조 이미지는 상기 안저 이미지의 어떤 영역이 상기 진단 보조 장치 및/또는 시스템을 통해 얻은 진단 결과에 영향을 미치는지에 대해 파악하기 위해 제공될 수 있다.
이를 통해, 사용자는 상기 진단 보조 이미지를 통해 상기 진단 결과에 영향을 미친 영역을 용이하게 파악할 수 있어, 사용자는 상기 진단 결과에 관한 전문가로 제한되지 않을 수 있다. 또한, 사용자는 비전문가로서 상기 진단 보조 이미지를 통해 피검자에 대해 상기 진단 결과를 설명해줄 수 있다. 또한, 사용자는 피검자 본인으로서 상기 진단 보조 이미지를 통해 상기 진단 결과를 용이하게 이해할 수 있다.
2.2 CAM(Class Activation Map) 이미지 제공 장치 및 시스템
2.2.1 CAM 이미지
도 31은 일 실시 예에 따른 진단 보조 이미지를 설명하기 위한 도면이다. 도 31에서, (a)는 상기 진단 보조 장치 및/또는 시스템에 입력된 이미지이고, (b)는 상기 진단 보조 장치 및/또는 시스템에서 제공하는 진단 보조 이미지로써 CAM 이미지를 나타낸 것이다.
기계 학습에 따른 신경망을 학습 모델 및/또는 진단 모델에서 사용하는 경우, 상기 진단 보조 이미지 제공 장치는 상기 학습 모델 및/또는 진단 모델을 통해 얻은 결과에 대한 근거를 제공할 수 있는 이미지가 제공될 수 있다. 합성곱 신경망을 학습 모델 및/또는 진단 모델에서 사용하는 경우, CAM 이미지는 합성공 신경망을 통해 얻은 결과에 대한 근거를 제공할 수 있는 이미지일 수 있다. 일 실시 예에 따르면, 안저 이미지를 이용한 진단 보조 시스템으로서 합성곱 신경망을 사용하는 경우, CAM 이미지는 상기 안저 이미지에 대한 진단 결과에 대한 근거를 제공할 수 있는 이미지로서 제공될 수 있다. 또한, 안저 이미지를 이용한 진단 보조 시스템으로서 합성곱 신경망을 사용하는 경우, CAM 이미지는 상기 안저 이미지에 대한 진단 결과에 영향을 미친 영역을 나타낼 수 있는 이미지로서 제공될 수 있다. 또한, CAM 이미지는 상기 진단 보조 장치 및/또는 시스템이 진단 결과를 도출하기 위해 중점적으로 고려된 영역을 나타낸 이미지일 수 있다. CAM 이미지는 상기 진단 보조 장치 및/또는 시스템의 진단 결과를 판단하기 위한 대상 영역을 검출하여, 해당 대상 영역을 강조하여 나타낸 이미지일 수 있다.
도 31 (a)를 참조하면, 입력된 이미지에서 점선으로 표시된 영역(L)은 병변 영역 또는 진단 보조 장치 및/또는 시스템의 진단 결과에 영향을 미친 영역일 때, 진단 보조 이미지는 영향을 미친 정도에 따라 서로 상이한 색으로 표현될 수 있다. 또한, 진단 보조 이미지는 상기 진단 결과에 영향을 미친 정도에 따라 서로 동일한 색이되, 상이한 명도 또는 강도로 표현될 수 있다.
도 31 (b)를 참조하면, CAM 이미지는 진단 결과에 영향을 미친 정도를 제1 레벨(15010), 제2 레벨(15020), 제3 레벨(15030), 제4 레벨(15040), 제5 레벨(15050)로 구분할 수 있고, 상기 제1 클래스(15010) 내지 상기 제5 클래스(15050)는 서로 소정의 차이를 가지는 상이한 색으로 표현될 수 있다. 또한, CAM 이미지는 상기 진단 보조 장치 및/또는 시스템이 포함한 진단 모델에 의해 도출된 진단 결과를 기초로 입력된 안저 이미지에 대한 히트맵(heat-map) 형태의 처리를 통해 나타낸 이미지일 수 있다.
CAM 이미지는 별도의 색으로 처리하는 히트맵(Heat-map) 형태로 RGB 색을 기준으로 하여 제공하되, 진단 결과에 가장 영향을 많이 미친 영역은 빨간색으로, 가장 영향을 적게 미친 영역은 파란색으로 처리할 수 있다. CAM 이미지는 별도의 색으로 처리하는 히트맵(Heat-map) 형태로 흑백을 기준으로 하여 제공하되, 진단 결과에 가장 영향을 많이 미친 영역은 검은색으로, 가장 영향을 적게 미친 영역은 흰색으로 처리할 수 있다. CAM 이미지는 이미지 상에 중첩되는 히트맵 형태의 이미지여서, 사용자는 진단 결과에 영향을 미친 영역을 용이하게 인식할 수 있고, 시각적으로 보다 명확하게 파악할 수 있다.
또한, CAM 이미지는 진단 보조 장치 및/또는 시스템의 진단 결과와 동시에 또는 별도로 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지 상에 중첩되어 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지와는 별도로 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 이미지에 대한 별도의 처리를 통해 제공될 수 있다. 일 예로, CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지를 마우스로 클릭하거나, 마우스 커서를 상기 안저 이미지에 위치시키는 경우에 제공될 수 있다.
CAM 이미지는 시각적 설명 (visual explanation) 이미지 중 하나이며, 상기 CAM 이미지는 다양한 기법의 시각적 설명 이미지로 대체될 수 있다. 상기 CAM 이미지는 LIME(Local Interpretable Model-agnostic Explainations) 기법, Grad-CAM(Gradient-Class Activation Map) 기법, RISE(Randomized Input Sampling) 기법 등을 사용한 시각적 설명 이미지로 대체될 수 있다. 일 실시 예는 CAM 이미지를 이용한 진단 보조 이미지 장치 및/또는 시스템에 대해 보다 구체적으로 설명하고자 한다.
2.2.2 CAM 이미지 제공 프로세스
일 실시 예에 따르면, CAM 이미지 제공 장치는 신경망 모델을 이용하여 CAM 이미지를 진단 보조 정보(또는 진단 보조 이미지)로서 획득하는 CAM 이미지 제공 프로세스(또는 진단 보조 이미지 제공 프로세스)가 제공될 수 있다. 구체적인 예로, CAM 이미지 제공 장치는 진단 보조 정보 제공부를 통한 CAM 이미지 제공 프로세스에 의하여 CAM 이미지가 출력될 수 있고, 사용자는 CAM 이미지를 통해 상기 진단 보조 장치가 안저 이미지를 기초로 판단한 진단 결과를 쉽게 파악할 수 있다.
도 32는 일 실시 예에 따른 진단 보조 정보 제공부(400)의 구성을 설명하기 위한 도면이다. 도 32를 참조하면, 진단 보조 정보 제공부(400)는 진단 요청 획득 모듈(410), 데이터 가공 모듈(430), 진단 모듈(450), CAM 제공 모듈(470), 및 출력 모듈(490)를 포함할 수 있다.
도 33은 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로 세스 및 CAM 제공 프로세스를 설명하기 위한 도면이다.
이하에서 설명하는 CAM 이미지 제공 프로세스는 진단 보조 장치 또는 별도의 장치를 통해 제공될 수 있다.
2.2.2.1 진단 보조 정보 제공부
일 실시 예에 따르면, CAM 이미지 제공 프로세스는 진단 보조 정보 제공부(400)에 의해 수행될 수 있다. 상기 진단 보조 정보 제공부(400)는 전술한 진단 장치 내에 마련될 수 있다. 상기 진단 보조 정보 제공부(400)는 상기 진단 장치에 의해 진단 보조 정보가 출력될 수 있고, 상기 진단 보조 정보는 진단 결과와 함께 또는 별도로 CAM 이미지가 출력될 수 있다.
각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 CAM 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 32에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다.
2.2.2.2 데이터 획득 및 가공 프로세스
데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
2.2.2.3 진단 프로세스
도 32를 참조하면, 상기 진단 프로세스는 진단 모듈(450)에 의해 수행될 수 있다. 도 33을 참조하면, 상기 진단 프로세스는 데이터 획득(S4010), 학습된 진단 보조 신경망 모델(S4020), 및 진단 결과 출력(S4030)을 포함할 수 있다. 도 33을 참조하면, 상기 진단 프로세스는 데이터 획득(S4010), 학습된 진단 보조 신경망 모델(S4020), 및 진단 결과 출력(S4030)을 통해 진단 보조 정보를 출력(S4060)할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 CAM 이미지 제공 프로세스에 이용될 수 있다.
진단 프로세스에 관한 내용은 1.3.4 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
2.2.2.4 CAM 이미지 제공 프로세스
도 32를 참조하면, 일 실시 예에 따른 진단 장치는 상기 CAM 제공 모듈(470)에 의해 CAM 이미지 제공 프로세스가 수행될 수 있다. 상기 CAM 제공 모듈(470)은 입력된 진단 대상 데이터 및 상기 진단 모듈(450)에서 얻어진 정보 중 적어도 어느 하나를 기초로 CAM 이미지 제공 프로세스가 수행될 수 있다. 상기 CAM 제공 모듈(470)은 입력된 진단 대상 데이터 및 상기 진단 모듈(450)에서 얻어진 정보를 기초로 CAM 이미지 제공 프로세스가 수행될 수 있다.
도 33을 참조하면, 상기 CAM 제공 프로세스는 데이터 획득(S4010), CAM 이미지 제공 모듈(S4040), 및 CAM 이미지 출력(S4050)을 포함할 수 있다. 상기 CAM 제공 프로세스는 데이터 획득(S4010), CAM 이미지 제공 모듈(S4040), 및 CAM 이미지 출력(S4050)을 통해 진단 보조 정보가 출력(S4060)될 수 있다. 상기 CAM 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다. 상기 CAM 제공 프로세스는 획득된 데이터 및 상기 진단 프로세스에서 얻어진 정보 중 적어도 어느 하나에 기초하여, 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다. 상기 CAM 제공 프로세스는 데이터 획득(S4010)에서 획득된 데이터, 학습된 진단 보조 신경망 모델(S4020)에서 얻어진 정보, 및 진단 결과 출력(S4030)을 통해 얻어진 결과 중 적어도 어느 하나에 기초하여, 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다.
후술될 내용에서, 상기 CAM 제공 프로세스에 대해서 구체적으로 설명하고자 한다.
2.2.2.4.1 진단 프로세스로부터 얻어진 정보
도 34는 학습된 진단 보조 신경망 모델(S4020)에 의한 진단 프로세스를 설명하기 위한 도면이다.
도 32 내지 도 34를 참조하면, CAM 이미지 제공 장치는 학습된 진단 보조 신경망 모델(S4020)에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지를 제공할 수 있다.
일 실시 예에 따르면, CAM 이미지 제공 장치는 복수의 층(500)을 포함한 합성곱 신경망 모델에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지가 제공될 수 있다. 또한, 일 실시 예에 따르면, CAM 이미지 제공 장치는 합성곱 신경망 모델에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지가 제공될 수 있다. 다만, 상기 학습된 진단 보조 신경망 모델(S4020)은 이에 제한되는 것은 아니며, 다른 신경망 모델에 의해서도 CAM 이미지가 제공될 수 있다.
상기 CAM 이미지 제공 장치는 상기 학습된 진단 보조 신경망 모델(S4020)에서 제공되는 제1 정보 및 제2 정보 중 적어도 어느 하나에 기초하여 CAM 이미지가 제공될 수 있다. 상기 제1 정보는 상기 학습된 진단 보조 신경망 모델(S4020)에서 얻어지는 마지막 레이어의 피쳐맵(510)이 가지는 피쳐값일 수 있고, 상기 제2 정보는 마지막 레이어의 피쳐맵(510)에 기초하여 진단 질병에 관한 정상라벨 또는 비정상라벨에 해당되는 확률값(W)일 수 있다.
이하에서는 진단 프로세스에 의해 얻어진 정보 중 CAM 이미지 제공 장치에 사용될 수 있는 정보에 대해 보다 구체적으로 설명하고자 한다. 이를 위해 우선적으로, 진단 프로세스에서 사용된 학습된 진단 보조 신경망 모델(S4020)에 대해 설명하고자 한다.
상기 학습된 진단 보조 신경망 모델(S4020)은 복수의 층을 가지는 신경망일 수 있다. 상기 학습된 진단 보조 신경망 모델(S4020)은 합성곱 신경망 모델일 수 있다. 상기 학습된 진단 보조 신경망 모델(S4020)이 합성곱 신경망 모델인 경우, 상기 학습된 진단 보조 신경망 모델(S4020)은 복수의 레이어(500)을 가지는 신경망을 가질 수 있다.
상기 복수의 레이어(500)은 복수의 컨벌루션 레이어(convolution layer)일 수 있다. 상기 컨벌루션 레이어는 입력된 데이터에 대해 컨벌루션 연산을 수행할 수 있다. 상기 컨벌루션 레이어는 입력된 데이터에 대한 컨벌루션 연산을 통해 복수의 피쳐맵(feature map)을 추출시킬 수 있다. 상기 피쳐맵의 개수는 상기 컨벌루션 레이어에서 사용되는 필터의 개수에 따라 달라질 수 있다. 상기 컨벌루션 레이어는 입력된 데이터 세트에 대해 동일한 필터에 의한 컨벌루션 연산이 수행될 수 있고, 이를 통해 얻어진 복수의 피쳐맵은 축적되어 다음 단계의 레이어 또는 출력 레이어에 입력될 수 있다. 또한, 상기 컨벌루션 레이어는 입력된 데이터 세트에 대해 상이한 필터에 의한 컨벌루션 연산이 각각 수행될 수 있고, 이를 통해 얻어진 복수의 피쳐맵은 각각 축적되어 다음 단계의 레이어 또는 출력 레이어에 입력될 수 있다.
입력 데이터가 상기 복수의 컨벌루션 레이어를 통과함에 따라, 상기 입력 데이터가 가지는 특징들을 추출할 수 있다. 상기 입력 데이터가 가지는 특징은 상기 복수의 컨벌루션 레이어에서 사용된 복수의 필터를 기초로 추출될 수 있다. 상기 입력 데이터가 가지는 특징은 상기 복수의 필터를 기초로 얻어진 추상적인 특징이 추출될 수 있다. 상기 입력 데이터로부터 상기 복수의 필터를 기초로 얻어진 특징은 상기 진단 결과와 관련된 상기 입력 데이터가 가지는 핵심적 특징일 수 있다.
또한, 상기 복수의 컨벌루션 레이어 사이에는 풀링 레이어(pooling layer)가 포함될 수 있다. 상기 풀링 레이어는 컨벌루션 레이어가 추출한 피쳐맵 대해 사용될 수 있다. 상기 풀링 레이어는 입력된 데이터에 대한 풀링 연산이 수행될 수 있다. 상기 풀링 레이어는 상기 피쳐맵에 대한 풀링 연산이 수행되어, 상기 피쳐맵의 크기를 감소시킴과 동시에 상기 피쳐맵의 노이즈를 제거할 수 있다. 상기 풀링 레이어는 맥스 풀링(max pooling), 에버리지 풀링(average pooling) 등의 방법으로 수행될 수 있다. 상기 풀링 레이어가 맥스 풀링을 통해 수행되는 경우, 상기 피쳐맵에서 특징값이 작은 노이즈를 제거되고, 이에 따라 상기 피쳐맵 상에 나타난 핵심적인 특징이 보다 잘 추출될 수 있다. 또한, 상기 풀링 레이어가 에버리지 풀링을 통해 수행되는 경우, 상기 피쳐맵에서 특징값이 평균값으로 추출되고, 이에 따라 상기 피쳐맵 상에 나타난 전반적인 특징이 보다 잘 추출될 수 있다. 상기 풀링 연산은 상기 모델이 판단하고자 하는 대상, 결과, 분류 대상 등을 기초로 다양한 연산 방법을 선택하여 사용될 수 있다.
일 실시 예에 따르면, 상기 학습된 보조 신경망 모델(S4020)에 포함되는 복수의 레이어(500) 중 마지막 레이어에서 얻어진 피쳐맵(510)을 기초로 진단 결과가 추출될 수 있다. 상기 마지막 레이어에서 얻어진 복수의 피쳐맵(510)은 상기 복수의 레이어(500) 중 마지막 컨벌루션 레이어에서 얻어진 피쳐맵(510)을 기초로 진단 결과가 추출될 수 있다. 상기 복수의 레이어(500) 중 마지막 레이어에서 얻어진 복수의 피쳐맵(510)은 상기 입력 데이터에서 진단 질병에 관하여 가장 추상화된 특징(또는 핵심적 특징)이 추출될 수 있다. 마지막 레이어에서 얻어진 상기 복수의 피쳐맵(510)은 진단 질병에 관하여 가장 추상화된 특징(또는 핵심적 특징)이 추출되어 있어, 상기 복수의 피쳐맵(510)을 통해 상기 진단 질병의 진단 결과를 도출하기 용이할 수 있다.
상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 제1 정보가 될 수 있다. 상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 상기 CAM 제공 장치에 제1 정보로 제공될 수 있다. 상기 복수의 피쳐맵(510)에서 추출된 추상화된 특징을 고려하기 위해, 상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 상기 CAM 제공장치에 제1 정보로 제공될 수 있다. 상기 CAM 제공 장치는 상기 제1 정보를 통해 진단 질병과 관련하여, 입력 데이터를 구성하는 복수의 픽셀들의 어떤 특징이 상기 진단 질병에 관한 특징인지를 CAM 이미지로 제공될 수 있다.
또한, 일 실시 예에 따르면, 마지막 레이어의 복수의 피쳐맵(510)은 진단 질병에 관한 진단 결과를 비정상(또는 의심) 또는 정상인지 여부를 판단하는 기초가 될 수 있다. 마지막 레이어의 복수의 피쳐맵(510)은 진단 질병에 관한 비정상 또는 정상을 판단하는 분류 단계를 거칠 수 있다. 상기 분류 단계를 거치기 위해 상기 복수의 피쳐맵(510)은 별도의 처리(520)가 수행될 수 있다. 상기 처리(520)가 수행된 상기 복수의 피쳐맵(510)은 복수의 분류 데이터(530)가 될 수 있다. 상기 복수의 분류 데이터(530)는 진단 질병에 관한 비정상 또는 정상에 대한 분류가 수행됨에 따라, 해당 라벨에 대한 웨이트값(W)을 기초로 상기 분류 데이터(530)가 해당 라벨에 해당될 수 있는 확률값을 얻을 수 있다.
상기 별도의 처리(520)는 GAP(Global Average Pooling) 또는 FC(Fully-Connected) layer를 거치는 것을 의미할 수 있다. 상기 별도의 처리(520)로서 GAP가 수행되는 경우, 상기 복수의 피쳐맵(510)의 피쳐들이 가지는 공간 정보가 유지될 수 있다. 상기 복수의 피쳐맵(510)은 GAP이 수행됨에 따라 GAP 데이터(530)를 얻을 수 있다. 상기 GAP 데이터(530)는 상기 진단 질병을 판단하기 위해, 상기 GAP 데이터(530)는 해당 라벨에 대한 웨이트값(W)을 기초로 진단 결과를 판단할 수 있다.
상기 분류 데이터(530)에 대한 분류가 수행됨에 따라, 분류 데이터(530)의 해당 라벨에 대한 판단의 기초가 되는 웨이트 값(W)은 제2 정보가 될 수 있다. 상기 분류 데이터(530)의 웨이트값(W)은 상기 CAM 제공 장치에 제2 정보로 제공될 수 있다. 상기 복수의 피쳐맵(510)들이 진단 질병에 대해 가지는 각각의 웨이트값(W)은 상기 CAM 제공 장치에 제2 정보로 제공될 수 있다. 상기 웨이트값(W)은 상기 복수의 피쳐맵(510)을 구성하는 피쳐값 중 상기 진단 질병에 관한 라벨을 판단함에 있어 중요한 부분을 나타낼 수 있어, 상기 피쳐값 중 상기 진단 질병에 관한 라벨 판단에 대한 노이즈를 제거할 수 있다.
도 35은 상기 분류 데이터(530)가 비정상에 해당되는지 여부를 판단하는 프로세스를 설명하기 위한 도면이고, 도 36은 상기 분류 데이터(530)가 정상에 해당되는 여부를 판단하는 프로세스를 설명하기 위한 도면이다.
도 35 및 도 36을 참조하면, 일 실시 예에 따른 상기 복수의 피쳐맵(510)은 제1 피쳐맵(511), 제2 피쳐맵(513), 내지 제n 피쳐맵(515)을 포함할 수 있고, 상기 GAP 데이터(530)는 제1 GAP 데이터(531), 제2 GAP 데이터(533), 내지 제n GAP 데이터(535)를 포함할 수 있다. 상기 제1 GAP 데이터(531)은 상기 제1 피쳐맵(511)으로부터 GAP이 수행됨에 따라 얻어지며, 상기 제1 GAP 데이터(531)는 진단 질병에 대한 비정상을 판단하기 위해 제1 비정상 웨이트값(W1)이 고려되어 판단될 수 있다. 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535) 또한 상기 제2 피쳐맵(513) 내지 상기 제n 피쳐맵(515)으로부터 각각 GAP 수행됨에 따라 얻어지며, 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535)는 제2 비정상 웨이트값(W2) 내지 제n 비정상 웨이트값(Wn)이 각각 고려되어 판단될 수 있다.
또한, 상기 제1 GAP 데이터(531)는 진단 질병에 대한 정상을 판단하기 위해 제1 정상 웨이트값(W1')이 고려되어 판단될 수 있다. 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535) 또한 상기 제2 피쳐맵(513) 내지 상기 제n 피쳐맵(515)으로부터 각각 GAP 수행됨에 따라 얻어지며, 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535)는 진단 질병에 대한 정상을 판단하기 위해 제2 정상 웨이트값(W2') 내지 제n 정상 웨이트값(Wn')이 각각 고려되어 판단될 수 있다.
따라서, 상기 웨이트값(W)을 제2 정보로 CAM 제공 장치에 제공됨에 따라, 상기 CAM 제공 장치는 제1 정보에서 상기 제2 정보를 고려할 수 있어, 상기 CAM 제공 장치는 입력 데이터에서 상기 진단 질병에 관한 핵심적 특징들이 추출된 CAM 이미지(540)를 제공할 수 있다. 또한, 상기 웨이트값은 진단 질병에 대해 판단하고자 하는 라벨에 따라 달라질 수 있고, 비정상에 대한 비정상 웨이트값(W1 내지 Wn) 및 정상에 대한 정상 웨이트값(W1' 내지 Wn')이 각각 제2 정보로서 제공될 수 있다. 즉, 상기 CAM 제공 장치는 입력 데이터에 대한 제1 정보와 함께 비정상에 대한 비정상 웨이트 값(W1 내지 Wn)인 제2 정보를 통해, 비정상에 해당되는 경우의 CAM 이미지(540)를 제공할 수 있고, 제1 정보와 함께 정상에 대한 정상 웨이트 값(W1' 내지 Wn')인 제2 정보를 통해, 정상에 해당되는 경우의 CAM 이미지(540')를 제공할 수 있다.
다만, 일 실시 예에 따르면, CAM 이미지가 제공되는 목적은 진단 질병이 발생되는 위치를 보다 용이하게 판단할 수 있도록 하기 위한 점에서, 제1 정보와 더불어 비정상에 대한 비정상 웨이트 값(W1 내지 Wn)을 포함한 제2 정보를 통해 비정상에 대한 CAM 이미지(540)를 제공하는 것이 주 목적일 수 있다.
2.2.2.4.2 CAM 이미지 출력
도 37은 입력 데이터 및 진단 프로세스로부터 얻어진 정보로부터 CAM 이미지를 출력하는 프로세스를 설명하기 위한 도면이다.
도 31 내지 도 37을 참조하면, 상기 CAM 이미지 제공 장치는 입력 데이터, 상기 제1 정보, 및 상기 제2 정보 중 적어도 어느 하나를 기초로 CAM 이미지가 제공될 수 있다. 상기 CAM 이미지는 입력 데이터, 상기 제1 정보, 및 상기 제2 정보 중 적어도 어느 하나를 기초로 제공될 수 있다. 상기 CAM 이미지는 상기 제1 정보가 포함하는 피쳐값들에 대해 제2 정보를 고려한 값을 기초로 제공될 수 있다.
도 35 내지 도 37을 참조하면, 상기 CAM 이미지는 상기 제1 정보로 제공되는 복수의 피쳐맵(510)에 대해 제2 정보를 고려하여 나타낼 수 있다. 상기 복수의 피쳐맵(510)은 복수의 층을 통과하여, 상기 입력 데이터에 비해 그 크기가 작을 수 있다. 일 실시 예에 따르면, 상기 CAM 이미지 제공 장치는 상기 제1 정보로서 복수의 피쳐맵(510)에 상기 제2 정보를 고려한 제1 CAM 이미지(541)를 기초로 입력 데이터와 크기가 동일한 제2 CAM 이미지(549)가 제공될 수 있다.
상기 CAM 이미지 제공 장치는 상기 제1 정보 및 상기 제2 정보를 기초로 진단 질병에 관한 비정상을 판단 하기 위해, 제1 피쳐맵(531)과 제1 비정상 웨이트값(W1)이 고려된 제1 피쳐값, 제2 피쳐맵(533)과 제2 비정상 웨이트값(W2)이 고려된 제2 피쳐값, 내지 제n 피쳐맵(535)과 제n 비정상 웨이트값(Wn)이 고려된 제n 피쳐값이 모두 고려될 수 있다. 상기 CAM 이미지 제공 장치는 제1 피쳐맵(531)과 제1 비정상 웨이트값(W1)이 고려된 제1 피쳐값, 제2 피쳐맵(533)과 제2 비정상 웨이트값(W2)이 고려된 제2 피쳐값, 내지 제n 피쳐맵(535)과 제n 비정상 웨이트값(Wn)이 고려된 제n 피쳐값이 모두 더해진 진단 피쳐맵에 대한 정보를 기초로 진단 질병에 관한 비정상을 판단할 수 있다. 이는 정상을 판단하기 위한 제1 정보 및 제2 정보인 경우에도 그 내용은 대응될 수 있다.
상기 제1 CAM 이미지는 상기 비정상에 대한 진단 결과를 고려한 CAM 이미지(540) 및 상기 정상에 대한 진단 결과를 고려한 CAM 이미지(540')를 포함할 수 있다. 상기 제1 CAM 이미지(541)는 상기 복수의 피쳐맵(510)을 기초로 해당 라벨에 따른 웨이트값(W)을 고려하여 제공됨에 따라, 그 입력된 데이터에 비해 크기가 작고 선명도가 낮아질 수 있다. 따라서, 상기 제1 CAM 이미지(541)는 추가적인 처리가 수행됨에 따라 제2 CAM 이미지(549)로 제공될 수 있다.
일 실시 예에 따르면, 상기 제1 CAM 이미지(541)는 상기 피쳐맵(510)을 기초로 제공될 수 있되, 상기 피쳐맵을 구성하는 진단 피쳐값들(543)을 제1 CAM 이미지와 분리시킬 수 있다. 이 때, 분리된 진단 피쳐값들(543)은 그 값을 기초로 색 스펙트럼 또는 히트 맵 형태로 나타나있을 수 있고, 수치 값을 기초로 나타나 있을 수 있다. 상기 분리된 진단 피쳐값들(543)은 입력 데이터의 크기에 대응되게 확대될 수 있다. 상기 분리된 진단 피쳐값들(543)은 입력 데이터의 크기에 대응되게 확대되되, 확대된 이미지(545)는 그 값을 기초로 색 스펙트럼 또는 히트 맵 형태로 나타날 수 있다. 확대된 이미지(545)는 입력 데이터(547)에 중첩될 수 있다. 상기 입력 데이터(547)에 확대된 이미지(545)가 중첩된 이미지(549)는 제2 CAM 이미지로 제공될 수 있다. 상기 제2 CAM 이미지는 상기 확대된 이미지(545)가 투명도를 높이는 처리를 거친 후 입력 데이터(547)에 중첩된 이미지일 수 있다.
상기 제2 CAM 이미지는 상기 제1 CAM 이미지와 달리 입력 데이터가 선명하게 나타날 수 있어, 입력 데이터 상에 진단 질병의 진단 결과와 관련된 위치를 보다 용이하게 파악할 수 있다. 상기 제2 CAM 이미지는 입력 데이터 상에 제1 정보 및 제2 정보를 고려한 특징들을 부각시켜 나타남에 따라, 비숙련자도 쉽게 진단 질병의 진단 결과와 관련된 위치를 파악할 수 있다.
2.2.2.5 진단 보조 정보
2.2.2.5.1 진단 보조 정보의 정의
1.3.5에 기재된 내용과 같이, 진단 보조 정보는 진단 보조 장치를 통해 얻어진 진단 결과를 보조하기 위한 정보일 수 있다. 또한, 진단 보조 정보는 상기 진단 결과에 영향을 미친 요소들에 대한 정보일 수 있다. 또한, 진단 보조 정보는 상기 진단 결과와 연관된 요소들에 대한 정보일 수 있다. 일 예로, 진단 보조 정보는 이미지, 텍스트, 및 숫자 등으로 표현 또는 구성된 정보일 수 있고, 상기 정보들은 동시에 또는 별개로 제공될 수 있다.
일 실시 예에 따르면, 진단 보조 정보는 진단 보조 장치를 통해 얻어진 진단 결과 및 진단 보조 이미지를 포함할 수 있다. 또한, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외의 다른 정보를 포함할 수 있고, 상기 다른 정보는 상기 진단 질병에 연관된 요소들이거나 영향을 미친 요소들일 수 있다. 일 예로, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외에, 입력 데이터의 대상체인 환자에 관한 성별, 나이, 흡연 여부, 혈압, 및 신체 정보 등을 포함할 수 있다. 또한, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외에, 이전에 수행되었던 진단 결과 및 진단 보조 이미지가 함께 제공될 수 있다.
2.2.2.5.2 진단 보조 정보의 출력
도 31 내지 도 37을 참조하면, 진단 보조 장치는 진단 보조 정보로서 출력된 진단 결과(S4030)와 함께 또는 별도로 출력된 CAM 이미지(S4050)가 출력 모듈(490)에 의해 출력(S4060)될 수 있다. 상기 CAM 이미지는 진단 모듈에서 수행된 진단 프로세스에 따라 진단 결과가 비정상인 경우에만 선택적으로 제공될 수 있다. 상기 CAM 이미지는 진단 모듈에서 수행된 진단 프로세스에 따라 진단 결과가 비정상인 경우에, 상기 진단 대상 데이터에 중첩되어 제공되거나 별도로 함께 제공될 수 있다. 또한, 진단 보조 정보의 출력은 1.3.5에 기재된 내용과 동일하거나 1.3.5에 기재된 내용을 포함할 수 있다. 또한, 1.5 사용자 인터페이스와 같이, 상기 진단 보조 정보는 사용자 인터페이스 상에 제공될 수 있다.
2.2.3 CAM 이미지의 정확도 향상 방법
2.2.3.1 배경 및 목적
전술하였듯이, CAM 이미지는 진단 질병에 대한 진단 결과를 기초로 제공될 수 있고, 이는 진단 결과와 함께 또는 별도로 제공될 수 있다. 일 실시 예에 따르면, 상기 진단 결과가 병변의 유무에 대해서 제공되는 경우, 상기 CAM 이미지는 진단 질병의 진행 정도를 추가적으로 고려함에 따라, CAM 이미지 제공 장치는 보다 정확성이 향상될 수 있다. 또한, 일 실시 예에 따르면, 상기 CAM 이미지는 노이즈 제거를 위한 별도의 처리가 추가적으로 수행되어, CAM 이미지 제공 장치는 보다 정확성이 향상될 수 있다.
2.2.3.2 Multi-binary system
도 38은 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 CAM 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 32를 참조하면, 상기 진단 프로세스는 진단 모듈(450)에 의해 수행될 수 있다. 또한, 도 38을 참조하면, 상기 진단 프로세스는 데이터 획득(S4011), 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025), 제1 진단 결과 출력 내지 제3 진단 결과 출력(S4031, S4033, S4035), 및 진단 보조 정보 출력(S4061)을 포함할 수 있다. 상기 진단 프로세스는 진단 질병에 대한 진행 정도에 따른 라벨링을 통해 상기 진단 보조 정보로서, 진단 질병에 대한 보유 여부 및 진행 정도에 관한 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 CAM 이미지 제공 프로세스에 이용될 수 있다.
상기 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)은 질병의 진행 정도에 따라 라벨링을 할 수 있는 모델일 수 있다. 일 실시 예에 따르면, 상기 학습된 제1 진단 보조 신경망 모델(S4021)은 상기 진단 질병의 초기 단계에 해당되는지 여부를 분류하는 모델일 수 있고, 상기 학습된 제2 진단 보조 신경망 모델(S4023)은 상기 진단 질병의 중기 단계에 해당되는지 여부를 분류하는 모델일 수 있고, 상기 학습된 제3 진단 보조 신경망 모델(S4025)은 상기 진단 질병의 말기에 해당되는지 여부를 분류하는 모델일 수 있다. 일 예로, 동일한 입력 데이터를 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)에 각각 입력한 경우, 상기 학습된 제1 진단 보조 신경망 모델(S4021)에서는 진단 질병에 대한 정상으로 분류되되, 상기 학습된 제2 진단 보조 신경망 모델(S4023)에서는 비정상으로 분류되고, 상기 학습된 제3 진단 보조 신경망 모델(S4025)에서는 정상으로 분류되는 경우, 상기 진단 프로세스는 진단 질병의 중기에 해당되는 진단 결과가 제공될 수 있다.
상기 내용 이외의 진단 프로세스에 관한 내용은 1.3.4 진단 프로세스 및 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
이하에서는, 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 진단 결과에 따라 제공될 수 있는 CAM 이미지에 대해 구체적을 설명하고자 한다.
도 34를 참조하면, 상기 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)에 의한 각각 마지막 피쳐맵(510)인 제1 정보 및 웨이트값(W2)인 제2 정보는 CAM 제공 프로세스에 제공될 수 있다.
일 실시 예에 따르면, 입력 데이터가 상기 학습된 제1 진단 보조 신경망 모델(S4021)에 의해 비정상으로 분류되되, 상기 학습된 제2 진단 보조 신경망 모델(S4023) 및 상기 학습된 제3 진단 보조 신경망 모델(S4025)에 의해 정상으로 분류되는 경우, 상기 학습된 제1 진단 보조 신경망 모델(S4021)에서 판단된 마지막 피쳐맵(510)은 상기 입력 데이터가 진단 질병의 초기 단계에 해당되는 비정상에 연관된 초기 단계 특징들이 존재할 수 있다. 상기 학습된 제2 진단 보조 신경망 모델(S4023) 및 상기 학습된 제3 진단 보조 신경망 모델(S4025)은 상기 입력 데이터가 진단 질병의 중기 및 말기 단계에 해당되지 않는 정상에 연관된 중기 및 말기 단계의 특징들이 각각 존재할 수 있다. 즉, 입력 데이터에 포함되는 특징들에 대해 초기, 중기, 및 말기 특징들을 함께 비교하되, 상기 CAM 제공 프로세스는 이를 고려하여 초기 단계를 의미하는 특징들에 대해서만 CAM 이미지가 제공될 수 있다. 다른 단계의 경우도 마찬가지일 수 있다.
진단 질병을 진행 정도를 고려한 진단 보조 이미지는 비전문가의 CAM 이미지의 활용을 높일 수 있다. 또한, 진단 질병의 진행 정도를 고려한 CAM 이미지는 진단 질병의 유무 만을 판단한 진단 결과에 따른 CAM 이미지에 비해 정확도가 향상될 수 있다.
2.2.3.3 정규화 (Normalization)
일 실시 예에 따르면, 도 31 내지 도 37을 참고하면, CAM 이미지는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)을 고려하여 제공될 수 있다. 일 예로, 상기 CAM 이미지 제공 프로세스는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱을 기준으로 CAM 이미지가 제공될 수 있다. 이 때, 상기 CAM 이미지 제공 장치는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값과 최소값을 기준으로 정규화(normalization) 처리가 수행될 수 있다. 상기 정규화 처리는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값을 1로, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최소값을 0을 기준으로 정규화가 수행될 수 있다.
일 실시 예에 따르면, 상기 정규화 처리에 있어서, 진단 질병의 진행 정도가 고려될 수 있다. 일 예로, 진단 질병의 말기 단계의 정상 또는 비정상을 분류하는 진단 프로세스인 경우, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값은 1로 정규화가 수행될 수 있다. 이와 달리, 진단 질병의 중기 단계의 정상 또는 비정상을 분류하는 진단 프로세스인 경우, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값은 1보다 작은 값으로 정규화가 수행될 수 있다. 또한, 진단 질병의 초기 단계에 관한 진단 프로세스는 중기 단계의 진단 프로세스의 상기 최대값에 비해 작은 값으로 정규화가 수행될 수 있다.
진단 질병을 진행 정도를 고려한 진단 보조 이미지는 비전문가의 CAM 이미지의 활용을 높일 수 있다. 또한, 진단 질병의 진행 정도를 시각화함에 따라 비전문가는 상기 진단 질병에 대한 이해도를 높일 수 있다.
2.2.3.4 디컨벌루션 레이어(Deconvolution layer)
디컨벌루션 레이어는 언풀링 레이어(unpooling layer)가 포함될 수 있다. 디컨벌루션 레이어는 피쳐맵에서 얻어진 패턴을 유지하면서 피쳐맵의 크기를 증가시켜서 입력 이미지 상에서 진단 질병에 관한 특징이 검출되는 영역을 보다 정확하게 나타낼 수 있다. 또한, 디컨벌루션 레이어는 이전 단계인 마지막 컨벌루션 레이어에 포함된 풀링 레이어와 상기 디컨벌루션 레이어에 포함된 언풀링 레이어가 함께 이용되어, CAM 이미지의 정확도가 보다 향상될 수 있다.
일 실시 예에 따르면, 도 31 내지 도 38을 참조하면, 상기 진단 프로세스가 포함하는 학습된 진단 보조 신경망 모델은 디컨벌루션 레이어를 더 포함할 수 있다. 상기 디컨볼루션 레이어는 마지막 컨벌루션 레이어 다음에 배치될 수 있다. 마지막 컨벌루션 레이어의 복수의 피쳐맵(510)은 상기 디컨벌루션 레이어에 의해 컨벌루션 연산을 수행하되, 마지막 컨벌루션 레이어의 복수의 피쳐맵(510)의 패턴이 유지된 채 그 정확도가 보다 향상될 수 있다.
이를 통해 상기 진단 보조 장치 및/또는 시스템은 CAM 이미지 내 병변 부위의 특정에 대한 정확도 향상 가능할 수 있다.
2.3 진단 보조 이미지 제공 장치 및 시스템
2.3.1 진단 보조 이미지
진단 보조 이미지는 안저 이미지를 통해 진단 가능한 질병의 진단을 보조하기에 적합한 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 얻어진 진단 결과를 보조하기에 적합한 이미지일 수 있다. 또한, 상기 진단 보조 이미지는 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 병변 영역이 강조되는 처리가 수행된 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 진단하는 진단 질병과 관련하여, 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 특이적 성질을 고려한 처리가 수행된 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 진단하는 진단 질병과 관련하여, 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 특이적 성질에 기초하여 상기 진단 질병의 병변 영역이 강조되는 처리가 수행된 이미지일 수 있다. 또한, 1.5 사용자 인터페이스와 같이, 상기 진단 보조 이미지는 진단 보조 정보로써, 사용자 인터페이스 상에 상기 진단 결과와 함께 또는 별도로 제공될 수 있다.
일 실시 예에 따르면, 진단 보조 이미지 제공 장치 및 시스템은 입력 데이터로 사용된 안저 이미지의 특성을 고려하여, 안저 이미지를 통해 진단 가능한 질병의 진단을 보조하기 위한 적합한 진단 보조 이미지가 제공될 수 있다. 상기 안저 이미지를 통해 진단 가능한 질병은 해당 질병에 따른 질병 특이적 성질을 가질 수 있다. 일 예로, 상기 질병 특이적 성질은 발병 위치, 발병 형태, 병변 모양, 병변 크기 등이 있을 수 있다. 일 실시 예에 따르면, 진단 보조 이미지 제공 장치 및 시스템은 진단 질병의 특이적 성질을 고려한 진단 보조 이미지가 제공될 수 있다. 또한, 진단 보조 이미지 제공 장치 및 시스템은 진단 질병의 발생 영역을 고려한 진단 보조 이미지가 제공될 수 있다. 일 예로, 진단 보조 이미지 제공 장치 및 시스템은 전술한 CAM 제공 프로세스에서 제공된 CAM 이미지에 대한 질병 특이적 성질을 고려한 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다.
2.3.2 질병 특이적 성질
2.3.2.1 안저 이미지의 영역
도 39는 일 실시 예의 다른 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다. 일 실시 예에 따르면, 안저 이미지는 안저 이미지에 포함된 해부학적 요소의 위치를 고려하여 결정된 복수의 영역을 포함할 수 있다.
도 39를 참조하면, 안저 이미지는 안저 영역(FA) 및 비안저 영역(NFA)을 포함할 수 있다. 상기 안저 영역(FA)은 황반부(MA), 시신경 유두부(ODA), 혈관부(BVA) 및 주변부(SA)를 포함할 수 있다. 안저 이미지는 안저 이미지로부터 검출된 황반 및/또는 시신경 유두의 위치에 기초하여 황반부, 시신경 유두부, 혈관부 및 주변부를 포함하도록 구분될 수 있다.
황반부(MA)는 안저 영역의 황반이 분포하는 영역을 포함하도록 결정될 수 있다. 시신경 유두부(ODA)는 안저 영역의 시신경 유두가 분포하는 영역을 포함하도록 결정될 수 있다. 혈관부(BVA)는 안저 영역의 혈관이 분포하는 영역을 포함하도록 결정될 수 있다. 주변부(SA)는 안저 영역으로부터 황반부(MA), 시신경 유두부(ODA), 및 혈관부(BVA)를 제외한 영역으로 결정될 수 있다.
황반부(MA), 시신경 유두부(ODA), 혈관부(BVA), 및 주변부(SA)의 경계는 황반, 시신경 유두, 혈관 등의 위치에 기초하여 결정될 수 있다. 황반부(MA)의 경계는 황반이 분포하는 영역을 둘러싸도록 결정될 수 있다. 시신경 유두부(ODA)의 경계는 시신경 유두가 분포하는 영역을 둘러싸도록 결정될 수 있다. 혈관부(BVA)의 경계는 혈관이 분포하는 영역을 둘러싸도록 결정될 수 있다.
2.3.2.2 진단 질병 및 병변 영역
도 40은 일 실시 예에 따른 진단 보조 시스템에서 진단되는 복수의 질병이 발생된 안저 이미지를 나타내는 도면이다. 도 40의 (a)는 녹내장(glaucoma)이 발생된 안저 이미지이고, (b)는 망막병증(retina)가 발생된 안저 이미지이고, (c)는 백내장(cataract 또는 opacity)가 발생된 안저 이미지를 나타낸 것이다.
도 39 및 도 40 (a)를 참조하면, 녹내장의 경우 시신경 유두부(ODA)를 중심으로 발병되는 것을 확인할 수 있다. 특히, 시신경 유두부(ODA)에 포함되어 있는 시신경 유두(OD, Optic Disk) 및 시신경 컵(OC, Optic Cup)에서, 녹내장은 시신경 유두 내에 시신경 컵이 차지하는 비율이 소정의 비율 이상인 경우를 의미할 수 있다. 따라서, 녹내장의 경우, 시신경 유두부(ODA)에 특이적으로 발병될 수 있고, 특히 시신경 유두(OD) 대비 시신경 컵(OC)의 비율이 중요한 판단 기준이 될 수 있다. 즉, 녹내장을 진단하는 진단 보조 시스템은 시신경 유두부(ODA)를 중심으로 하는 진단 보조 이미지가 제공될 수 있다.
도 39 및 도 40 (b)를 참조하면, 망막병증(retina)의 경우는 상기 안저 영역(FA)에 산발적으로 발병되는 것을 확인할 수 있다. 이는, 특정 영역에서 발병된다고 보기는 어려우며, 상기 안저 영역(FA)을 전반적으로 고려해야 하는 것을 확인할 수 있다. 다만, 망막병증(retina)이 발병된 영역은 그 크기 및 위치 등이 무작위적인 점을 고려하여, 해당 영역을 강조하여 처리해야 할 필요성이 있을 수 있다. 즉, 망막병증을 진단하는 진단 보조 시스템은 안저 영역(FA)을 전반적으로 판단하는 진단 보조 이미지가 제공될 수 있다.
도 39 및 도 40 (c)를 참조하면, 백내장(cataract 또는 opacity)의 경우 상기 안저 영역(FA)의 전반적인 영역에서 발병되는 것을 확인할 수 있다. 백내장의 경우 상기 안저 영역(FA) 상에 발생된 흐릿한 영역이 중요한 판단 기준이 될 수 있고, 다른 진단 질병에 비해 보다 명확하게 파악할 수 있다. 다만, 백내장이 발생된 안저 이미지의 경우는 상기 안저 영역(FA) 상에 흐릿한 영역이 존재하여, 다른 진단 질병을 판단하기에 용이하지 않을 수 있다. 따라서, 백내장이 발생된 안저 이미지에 있어서, 상기 안저 영역(FA) 상의 흐릿한 영역 내에 포함된 다른 진단 질병이 병변 영역을 강조하여 처리할 필요가 있을 수 있다. 즉, 백내장을 진단하는 진단 보조 시스템은 안저 영역(FA)에서 다른 질병이 발병된 영역이 강조하여 처리되는 진단 보조 이미지가 제공될 수 있다.
상기 복수의 진단 질병에 대한 병변의 종류 및 병변 영역은 상술한 내용에 한정되지 않을 수 있다. 일 예로, 특정 영역에 병변 영역이 위치하는 질병의 경우 녹내장과 유사한 필요성을 가질 수 있고, 비특정 영역에 병변 영역이 위치하는 질병의 경우 망막병증과 유사한 필요성을 가질 수 있고, 안저 이미지가 흐릿한 경우 백내장과 유사한 필요성을 가질 수 있다. 이에 대해서는 각각의 필요성을 고려한 진단 보조 이미지가 제공될 수 있다.
2.3.3 진단 보조 이미지 제공 프로세스
도 41은 일 실시 예에 따른 진단 보조 정보 제공부(600)의 구성을 설명하기 위한 도면이다. 도 41을 참조하면, 진단 보조 정보 제공부(600)는 진단 요청 획득 모듈(610), 데이터 가공 모듈(630), 진단 모듈(650), CAM 제공 모듈(670), 병변 강조 모듈(680), 및 출력 모듈(690)을 포함할 수 있다.
도 42는 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 41 및 도 42에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다.
2.3.3.1 데이터 획득 및 가공 프로세스
데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스, 및 2.2.2.2 데이터 획득 및 가공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
2.3.3.2 진단 프로세스
도 41 및 도 42를 참조하면, 상기 진단 프로세스는 진단 모듈(650)에 의해 수행될 수 있다. 상기 진단 프로세스는 데이터 획득(S6010), 학습된 진단 보조 신경망 모델(S6020), 및 진단 결과 출력(S6030)을 포함할 수 있다. 또한, 상기 진단 프로세스는 데이터 획득(S6010), 학습된 진단 보조 신경망 모델(S6020), 및 진단 결과 출력(S6030)을 통해 진단 보조 정보를 출력(S6060)할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 진단 보조 이미지 제공 프로세스에 이용될 수 있다.
진단 프로세스에 관한 내용은 1.3.4 진단 프로세스, 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
2.3.3.3 CAM 이미지 제공 프로세스
CAM 이미지 제공 프로세스에 관한 내용은 2.2.2.4 CAM 이미지 제공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
상기 CAM 이미지 제공 프로세스를 통해 제공된 CAM 이미지는 상기 출력 모듈(690)에 의해 진단 보조 정보 출력(S6060)을 거칠 수 있되, 상기 CAM 이미지는 상기 병변 강조 모듈(680)을 추가적으로 거쳐 진단 보조 이미지로 출력될 수 있다. 상기 병변 강조 모듈(680) 및 상기 진단 보조 이미지에 대해서는 후술될 진단 보조 이미지 제공 프로세스에서 구체적으로 설명하고자 한다.
2.3.3.4 진단 보조 이미지 제공 프로세스
도 41을 참조하면, 상기 진단 보조 이미지 제공 프로세스는 병변 강조 모듈(680)에 의해 수행될 수 있다. 상기 병변 강조 모듈(680)은 입력된 진단 대상 데이터, 상기 진단 모듈(650)에서 얻어진 정보, 상기 CAM 제공 모듈(670)에서 얻어진 CAM 이미지 중 적어도 어느 하나를 기초로 진단 보조 이미지 제공 프로세스가 수행될 수 있다. 상기 병변 강조 모듈(680)은 입력된 진단 대상 데이터, 상기 진단 모듈(650)에서 얻어진 정보, 및 상기 CAM 제공 모듈(670)에서 얻어진 CAM 이미지를 기초로 진단 보조 이미지 제공 프로세스가 수행될 수 있다.
도 42를 참조하면, 상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010), CAM 이미지 제공 모델(S6040), 병변 강조 모델(S6080), 및 진단 보조 이미지 출력(S6050)을 포함할 수 있다.
상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010), CAM 이미지 제공 모델(S6040), 병변 강조 모델(S6080), 및 진단 보조 이미지 출력(S6050)을 통해 진단 보조 정보를 출력(S6060)할 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지 및 진단 보조 이미지 중 적어도 어느 하나가 출력될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지 및 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010)에서 획득된 데이터, 학습된 진단 보조 신경망 모델(S6020)에서 얻어진 결과, 및 CAM 이미지 제공 모델(S6040)에서 얻어진 CAM 이미지 중 적어도 어느 하나를 기초로 하여, 상기 진단 보조 정보로서 진단 보조 이미지가 출력될 수 있다.
후술될 내용에서, 상기 진단 보조 이미지 제공 프로세스에 대해서 구체적으로 설명하고자 한다.
2.3.3.4.1 병변 강조 모델
도 39 내지 도 42를 참조하면, 일 실시 예에 따른 상기 진단 보조 이미지 제공 프로세스는 상기 진단 프로세스에서 진단한 결과를 고려하여 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 병변 강조 모델(S6080)을 통해 특정 진단 질병에 대해 학습된 진단 보조 신경망 모델(S6020)의 진단 결과, 해당 진단 질병의 질병 특이적 특성, 및 CAM 이미지 제공 모델(S6040)의 CAM 이미지 중 적어도 어느 하나를 고려하여 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 특정 질병에 대해 학습된 진단 보조 신경망 모델(S6020)에 대응되도록, 상기 특정 질병의 질병 특이적 특성을 고려한 병변 강조 모델(S6080)을 통해 상기 CAM 이미지 제공 모델(S6040)의 CAM 이미지에 대한 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다.
일 실시 예에 따르면, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값을 기준으로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서만 출력되는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서는 0값으로 변환시키는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서만 상기 획득된 데이터에 중첩시키는 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값을 기준으로 경계선을 삽입하는 병변 강조가 수행될 수 있다.
일 실시 예에 따르면, 상기 병변 강조 모델(S6080)은 진단 질병의 질병 특이적 성질에 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S0680)은 상기 진단 질병의 병변 발생 위치를 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역을 상기 CAM 이미지에 중첩시키는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역의 경계선을 상기 CAM 이미지에 삽입하는 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역의 경계선을 상기 CAM 이미지에 중첩되는 병변 강조가 수행될 수 있다.
도 39를 참조하면, 상기 해부학적 영역은 안저 영역(FA)에 포함되어 있는 영역 중 하나일 수 있다. 일 예로, 상기 해부학적 영역은 황반부(MA), 시신경 유두부(ODA), 혈관부(BVA) 및 주변부(SA) 중 적어도 어느 하나일 수 있다. 특히, 상기 해부학적 영역은 시신경 유두부(ODA), 혈관부(BVA), 또는 황반부(MA) 등 일 수 있다.
상기 병변 강조 모델(S6080)의 병변 강조 수행 방법은 상술한 내용에 한정되지 아니하며, 상기 진단 보조 이미지를 출력시키기 위한 다양한 방법들이 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 프로세스의 진단 질병에 따른 병변 강조 방법들을 수행할 수 있고, 이에 대해서는 후술할 내용을 통해 구체적으로 설명하고자 한다.
2.3.3.4.2 특정 해부학적 영역에 발생되는 질병
일 실시 예에 따르면, 상기 진단 프로세스의 진단 질병이 특정 해부학적 영역에서 발생되는 질병 특이적 성질을 가지고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다.
일 예로, 일 실시 예에 따르면 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지 제공 장치는 시신경 유두부(ODA)에서 발생되는 질병 특이적 성질을 고려한 진단 보조 이미지가 제공될 수 있다. 후술될 상기 병변 강조 모델(S060)은 진단 질병이 녹내장인 경우를 예시로 설명될 것이나, 상기 진단 질병은 녹내장에 한정되지 아니하고, 특정 해부학적 영역에 발생되는 질병은 후술될 병변 강조 모델(S6080)과 동일하거나 유사한 방법으로 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다.
도 43 내지 도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이다. 도 43 내지 도 46을 참조하여, 상기 진단 프로세스의 진단 질병이 녹내장에 해당되는 경우 상기 CAM 이미지에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다.
도 43은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이며, 도 43 (a)는 녹내장에 해당되는 입력 데이터이고, 도 43 (b)는 (a)의 CAM 이미지이고, 도 43 (c)는 (b)가 병변 강조된 진단 보조 이미지이다. 일 실시 예에 따르면, 도 43을 참조하면 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행된 이미지일 수 있다. 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 임계값 이상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 간이하고 빠르게 수행될 수 있는 장점이 있다. 또한, 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 시신경 유두부(ODA)가 강조되어 처리될 수 있어, 사용자가 용이하게 녹내장 여부를 판단할 수 있다.
도 44 및 도 45는 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 안저 영역(FA) 중 시신경 유두부(ODA)를 확대하여 나타낸 진단 보조 이미지를 나타내는 도면이다. 도 44는 상기 진단 프로세스의 진단 질병이 녹내장인 경우 정상에 해당되는 진단 보조 이미지를 나타내고, 도 45는 의심 또는 비정상에 해당되는 진단 보조 이미지를 나타낸 것이다. 도 44 (a) 및 도 45(a)는 입력 데이터이고, 도 44 (b) 및 도 45 (b)는 (a)의 CAM 이미지이고, 도 44 (c) 및 도 45 (c)는 (b)가 병변 강조된 진단 보조 이미지이다.
도 44 및 도 45를 참조하면, 일 실시 예에 따르면 상기 진단 보조 이미지는 입력 데이터의 시신경 유두부(ODA)를 확대한 이미지에 대한 CAM 이미지가 병변 강조된 이미지이다. 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 녹내장의 발병 위치가 시신경 유두부(ODA)에 대응되는 점을 고려한 이미지일 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 상기 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)을 강조하여 나타낸 이미지일 수 있다. 일 예로, 상기 진단 보조 이미지는 상기 시신경 유두부(ODA)를 확대한 이미지에 대한 CAM 이미지의 픽셀값을 기초로 임계값이 상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상술한, 상기 진단 보조 이미지는 시신경 유두부를 확대한 이미지에 대한 CAM 이미지의 진단 보조 이미지로서, 사용자는 상기 진단 보조 이미지를 통해 시신경 유두(OD) 및 시신경 컵(OC)의 비율을 용이하게 판단할 수 있다.
도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이며, 도 46 (a)는 녹내장에 해당되는 입력 데이터이고, 도 46 (b)는 (a)의 CAM 이미지이고, 도 46 (c)는 (b)가 병변 강조된 진단 보조 이미지이다. 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 시신경 유두부(ODA)를 강조하여 처리한 이미지일 수 있다. 상기 진단 보조 이미지는 CAM 이미지에서 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 처리된 이미지일 수 있다. 상기 진단 보조 이미지는 CAM 이미지에 대해 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 중첩되는 이미지일 수 있다. 상기 시신경 유두(OD) 및 시신경 컵(OC)의 경계선은 입력 데이터로부터 출력될 수 있다. 상기 진단 보조 이미지는 상기 CAM 이미지에서 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 중첩되어, 사용자는 상기 진단 보조 이미지를 통해 녹내장을 용이하게 판단할 수 있다.
상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 입력 데이터 또는 상기 CAM 이미지에 수행되는 병변 강조 방법은 상술한 내용에 한정되지 아니하며, 상기 녹내장의 질병 특이적 성질을 고려한 다양한 방법이 수행될 수 있다.
상기 진단 보조 이미지는 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 녹내장의 질병 특이적 성질을 고려한 병변 강조가 수행된 이미지일 수 있다. 상기 진단 보조 이미지는 상술한 병변 강조를 통해 시신경 유두부(ODA)가 강조되어 처리될 수 있어, 상기 진단 보조 이미지는 CAM 이미지에 비해 보다 용이하고 명확하게 녹내장의 진단을 보조할 수 있다. 또한, 시신경 유두부(ODA)는 상기 입력 데이터 중 일부 영역에 해당되어, 비전문가가 입력 데이터 또는 CAM 이미지만을 보고 녹내장을 진단하는 것은 다소 어려운 문제가 있다. 따라서, 상기 시신경 유두부(ODA)를 강조하는 병변 강조가 진행된 진단 보조 이미지는 비전문가가 상기 진단 보조 이미지를 통해 녹내장을 진단하는 것이 용이하도록 보조할 수 있다.
2.3.3.4.3 비특이적 영역에서 발생되는 질병
일 실시 예에 따르면, 상기 진단 프로세스의 진단 질병이 안저 영역(FA)에서 비특이적 영역에 발생되는 질병 특이적 성질을 가지고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다.
도 47 내지 도 50은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 진단 보조 이미지를 나타내는 도면이다. 도 47 내지 도 50을 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우에 해당되는 경우, 상기 CAM 이미지에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다.
도 47은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 입력 데이터를 나타내는 도면이다.
도 47의 (a)를 참조하면, 안저 이미지에 기초하여 출혈(hemorrhage)이 진단될 수 있다. 일 예로, (a)에서 도시하는 바와 같이, 안저 영역 전체의 임의의 위치로부터 출혈(L1)이 검출될 수 있다.
도 47의 (b)를 참조하면, 안저 이미지에 기초하여 드루젠(drusen)이 진단될 수 있다. 일 예로, (b)에서 도시하는 바와 같이, 안저 영역 전체의 임의의 위치로부터 드루젠(L2)이 발견될 수 있다.
도 47의 (c)를 참조하면, 안저 이미지에 기초하여 황반 천공(Macular hole)이 진단될 수 있다. 일 예로, (c)에서 도시하는 바와 같이, 안저 이미지의 황반부로부터 황반 천공 소견(L3)이 발견될 수 있다.
도 47의 (d)를 참조하면, 안저 이미지로부터 황반 전막(Macular epiretinal membrane)이 진단될 수 있다. 일 예로, (d)에서 도시하는 바와 같이, 안저 이미지의 황반 근처에서 황반 전막 소견(L4)이 발견될 수 있다. 황반 전막 소견은 안저 이미지의 황반부로부터 발견될 수 있다.
도 47의 (e)를 참조하면, 안저 이미지부터 유수신경섬유(Myelinated nerve fiber) 증상이 진단될 수 있다. 일예로 도 (e)에서 도시하는 바와 같이, 안저 이미지의 임의의 영역으로부터 유수 신경 섬유(L5)의 소견이 발견될 수 있다.
도 47을 참조하면, 상기 진단 프로세스의 진단 질병이 안저 영역(FA)에서 비특이적 영역에서 발생되는 경우, 질병 발생 영역에 대해 강조하는 진단 보조 이미지가 제공될 필요성이 있다. 또한, 황반부(MA)에 발생되는 질병의 경우 황반부(MA)의 영역이 비교적 넓고 경계가 모호한 점에 있어서, 상기 진단 보조 이미지는 비특이적 영역에서 발생되는 질병과 동일하거나 유사한 방법으로 병변 강조가 수행될 수 있다.
도 48은 도 47의 CAM 이미지를 나타내는 도면이다. 도 49 및 도 50은 도 48의 CAM 이미지에 병변 강조가 수행된 이미지를 나타내는 도면이다.
일 실시 예에 따르면, 도 48 및 도 49를 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행된 이미지일 수 있다. 또한, 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 임계값 이상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 간이하고 빠르게 수행될 수 있는 장점이 있다.
일 실시 예에 따르면, 도 48 및 도 50을 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 상기 진단 보조 이미지는 상기 CAM 이미지에서 상기 질병의 발생 영역의 경계선을 삽입하는 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지는 상기 CAM 이미지에 대해 상기 질병의 발생 영역의 경계선을 중첩시키는 병변 강조가 수행될 수 있다. 상기 질병의 발생 영역의 경계선은 상기 CAM 이미지의 소정의 픽셀값 또는 입력 데이터로부터 출력될 수 있다.
상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 비전문가는 입력 데이터에서 상기 진단 질병의 발생 영역을 파악하고 진단하는 것이 어려울 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 비전문가는 CAM 이미지에서 상기 진단 질병의 발생 영역을 파악하고 진단하는 것이 어려울 수 있다. 따라서, 상기 진단 질병의 발생 영역을 강조하는 병변 강조가 수행된 진단 보조 이미지는 비전문가가 상기 진단 질병을 진단하는 것을 보조할 수 있다.
2.3.3.4.4 복수의 질병에 대한 진단 보조 이미지
일 실시 예에 따르면, 상기 진단 프로세스의 입력 데이터가 복수의 질병을 보유하고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다. 일 예로, 상기 진단 프로세스의 입력 데이터가 복수의 질병을 보유하고 있는 경우, 상기 진단 보조 이미지 제공 장치는 각 질병의 발생 영역에 대한 진단 보조 이미지를 각각 제공될 수 있다.
일 예로, 일 실시 예에 따르면 상기 진단 프로세스의 진단 질병이 백내장인 경우, 상기 진단 보조 이미지 제공 장치는 별도의 처리 없이 입력 데이터를 출력 이미지로 제공될 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 백내장인 경우, 상기 진단 보조 이미지 제공 장치는 CAM 이미지 없이 입력 데이터에 대한 병변 강조가 수행된 이미지가 출력될 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 백내장이 아닌 이외의 질병인 경우, 상기 진단 보조 이미지 제공 장치는 백내장을 보유한 입력 데이터에 대한 병변 강조가 수행된 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 백내장이 상기 안저 영역(FA) 상에 흐릿한 영역이 발생되는 질병 특이적 성질을 고려하여 처리된 진단 보조 이미지가 제공될 수 있다.
후술될 상기 병변 강조 모델(S060)은 입력 데이터가 백내장을 보유한 경우를 예시로 설명될 것이나, 상기 질병은 백내장에 한정되지 아니하고, 안저 영역(FA)의 적어도 일부를 가리는 영역을 발생시키는 질병들은 후술될 병변 강조 모델(S6080)과 동일하거나 유사한 방법으로 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다.
도 51 및 도 52는 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우를 진단 보조 이미지를 나타내는 도면이다. 도 51 및 도 52를 참조하여, 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우, 상기 입력 데이터에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다.
도 51 (a)는 백내장을 보유한 입력 데이터를 나타내고, 도 51 (b)는 (a)에서 혈관부(BVA)를 강조하여 나타낸 도면이다. 도 51 (a)를 참조하면, 백내장을 보유한 입력 데이터의 안저 영역(FA)은 백내장 발생 영역(L6)에 의해 일부 가려질 수 있어, 다른 진단 질병에 대한 판단이 용이하지 않을 수 있다. 도 51 (b)를 참조하면, 상기 진단 보조 이미지는 입력 데이터로부터 혈관부(BVA)를 분리시켜, 상기 백내장 발생 영역(L6) 상에 중첩되는 병변 강조가 수행된 이미지일 수 있다. 이를 통해, 진단 보조 이미지는 백내장 발생 영역(L6)에 의해 판단이 용이하지 않았던 혈관부(BVA)에 대한 정보를 제공함에 따라, 상기 혈관부(BVA)에 연관된 다른 진단 질병에 대해서도 진단을 보조할 수 있다. 또한, 비전문가는 백내장 발생 영역(L6)에 의해 다른 진단 질병에 대한 판단이 용이하지 않은 점을 고려할 때, 상기 혈관부(BVA)를 강조한 상기 진단 보조 이미지는 비전문가가 백내장 이외의 다른 진단 질병에 대해서도 용이하게 파악하여 진단할 수 있는 효과가 있을 수 있다.
도 52 (a)는 녹내장, 망막병증, 및 녹내장을 모두 보유한 입력 데이터를 나타내고, 도 52 (b)는 (a)에서 녹내장 발생 영역(L7)을 강조하여 나타낸 도면이고, 도 52 (c)는 (a)에서 망막 병증 발생 영역(L8)을 강조하여 나타낸 도면이다.
도 52 (a)를 참조하면, 백내장을 보유한 입력 데이터의 안저 영역(FA)은 백내장 발생 영역(L6)에 의해 상기 녹내장 발생 영역(L7) 및 상기 망막 병증 발생 영역(L8) 중 적어도 어느 하나가 용이하게 파악되지 않을 수 있다. 따라서, 전문가 또는 비전문가는 상기 백내장 발생 영역(L6)에 의해 백내장에 대해서는 진단을 파악할 수 있으나, 녹내장 또는 망막병증에 대한 진단을 파악하기 어려울 수 있다. 또한, 전문가 또는 비전문가는 상기 백내장 발생 영역(L6)에 의해 백내장에 대한 진단 결과를 용이하게 파악할 수 있으나, 녹내장 또는 망막병증에 대한 진단 결과를 용이하게 파악하기 어려울 수 있다.
도 52 (b)를 참조하면, 상기 진단 보조 이미지는 입력 데이터의 안저 영역(FA)의 백내장 발생 영역(L6) 상에 상기 녹내장 발생 영역(L7) 또는 시신경 유두부(ODA)의 경계선이 삽입 또는 중첩되는 병변 강조가 수행될 수 있다. 상기 경계선은 상기 입력 데이터로부터 분리 또는 도출될 수 있다. 상기 진단 보조 이미지는 상기 백내장 발생 영역(L6) 상에 상기 경계선을 통해 백내장뿐만 아니라 녹내장에 대한 진단도 보조할 수 있다.
도 52 (c)를 참조하면, 상기 진단 보조 이미지는 입력 데이터의 안저 영역(FA)의 망막 병증 발생 영역(L8) 상에 상기 망막 병증 발생 영역(L8)의 경계선이 삽입 또는 중첩되는 병변 강조가 수행될 수 있다. 상기 경계선은 상기 입력 데이터로부터 분리 또는 도출될 수 있다. 상기 진단 보조 이미지는 상기 백내장 발생 영역(L6) 상에 상기 경계선을 통해 백내장뿐만 아니라 망막 병증에 대한 진단도 보조할 수 있다.
상기 진단 보조 이미지는 상술한 녹내장, 망막 병증 이외의 질병에 대해서도 해당 진단 질병에 따라 상기 백내장 발생 영역(L6) 상에 별도의 병변 강조를 통해 진단을 보조할 수 있다. 또한, 상기 진단 보조 이미지는 상기 백내장의 진행 정도에 따라 입력 데이터뿐만 아니라 CAM 이미지에 대한 병변 강조가 진행될 수도 있다. 또한, 상기 진단 보조 이미지는 상술한 녹내장, 망막 병증, 및 백내장에 제한되지 아니하며, 복수의 진단 질병을 보유한 입력 데이터에 대해서도 상술한 방법과 동일하거나 유사한 방법에 의한 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지는 상술한 방법에 제한되지 아니하고, 상기 진단 질병의 질병 특이적 성질을 고려한 별도의 방법에 의한 병변 강조가 수행될 수 있다.
2.3.3.5 진단 보조 이미지 출력
상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 또는 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 및 진단 보조 이미지 중 적어도 어느 하나가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 및 진단 보조 이미지가 출력될 수 있다. 상기 CAM 이미지 및 상기 진단 보조 이미지는 동일한 입력 데이터에 대해서 상기 진단 프로세스의 진단 질병에 따라 적어도 일부의 영역이 상이할 수 있다.
상기 CAM 이미지 및 상기 진단 보조 이미지는 상기 진단 프로세스의 진단 질병의 진단 결과를 파악하기 위한 진단 보조 정보로 출력될 수 있다. 상기 CAM 이미지 및 상기 진단 보조 이미지는 동일한 입력 데이터에 대해서 상기 진단 프로세스의 진단 질병의 질병 특이적 성질을 고려한 진단 보조 정보로 출력될 수 있다. 상기 진단 보조 이미지는 입력 데이터 또는 CAM 이미지에 대한 병변 강조를 통해 진단 질병을 보다 용이하게 파악할 수 있도록 보조할 수 있다.
2.3.3.6 진단 보조 이미지 제공 방법
이하에서는, 일 실시 예에 따른 진단 보조 이미지 제공 방법에 대해 설명하고자 한다. 도 53은 진단 보조 이미지 제공 방법을 나타내는 순서도이다. 도 53을 참조하면, 상기 진단 보조 이미지 제공 방법은 데이터 획득 단계(S610), 획득된 데이터의 진단 수행 단계(S620), 진단 결과 출력 단계(S630), CAM 이미지 생성 단계(S640), 진단 보조 이미지 생성 단계(S650), 및 진단 보조 이미지 출력 단계(S660)을 포함할 수 있다. 상기 진단 보조 이미지 제공 방법은 도 53에 나타난 순서에 제한되지 아니하고, 상기 단계들 이외의 단계들이 포함될 수 있다.
상기 데이터 획득 단계(S610)는 대상체의 안저 이미지가 입력됨에 따라 데이터가 획득될 수 있다. 또한, 상기 데이터 획득 단계(S610)는 진단을 수행되기 위해, 전처리가 수행된 안저 이미지가 입력됨에 따라 데이터가 획득될 수 있다. 또한, 상기 데이터 획득 단계(S610)는 대상체의 안저 이미지가 입력됨에 따라 데이터가 획득되고, 이에 따라 추가적인 전처리가 수행될 수 있다.
상기 획득된 데이터의 진단 수행 단계(S620)는 상기 데이터 획득 단계(S610)에서 획득된 데이터에 대한 진단이 수행될 수 있다. 상기 획득된 데이터의 진단 수행 단계(S620)는 학습된 신경망 모델을 포함할 수 있고, 상기 학습된 신경망 모델에 의해 상기 데이터 획득 단계(S610)에서 획득된 데이터에 대한 진단이 수행될 수 있다. 또한, 상기 학습된 신경망 모델은 상기 진단 보조 이미지 제공 방법의 진단 질병에 대한 학습이 수행된 신경망 모델일 수 있고, 상기 학습된 신경망 모델은 한 개 또는 복수 개일 수 있다. 상기 획득된 데이터의 진단 수행 단계(S620)는 상기 학습된 신경망 모델에 의한 진단 수행에 따른 진단 결과가 제공될 수 있고, 상기 진단 결과에 사용된 복수의 정보에 대해 서도 제공될 수 있다.
상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과가 출력될 수 있다. 상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과인 확률값을 통해 상기 진단 질병에 대한 정상 또는 비정상 여부가 출력될 수 있다. 또한, 상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과인 확률값을 통해 상기 진단 질병의 진행 정도가 출력될 수 있다.
상기 CAM 이미지 생성 단계(S640)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과 및 상기 진단 결과에 사용된 복수의 정보 중 적어도 어느 하나에 기초하여 CAM 이미지가 생성될 수 있다. 상기 CAM 이미지 생성 단계(S640)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 얻어진 정보에 기초하여 상기 진단 수행과 연관된 정도에 따라 상이한 색으로 처리된 CAM이미지가 생성될 수 있다.
상기 진단 보조 이미지 생성 단계(S650)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과, 상기 진단 결과에 사용된 복수의 정보, 및 상기 CAM 이미지 생성 단계에서 얻어진 CAM 이미지 중 적어도 어느 하나에 기초하여 진단 보조 이미지가 생성될 수 있다. 상기 진단 보조 이미지 생성 단계(S650)는 상기 CAM 이미지 또는 입력된 대상체의 안저 이미지에 대한 병변 강조 처리가 수행된 진단 보조 이미지가 생성될 수 있다. 상기 진단 보조 이미지 생성 단계(S650)는 상기 진단 질병의 특성에 기초하여, 상기 CAM 이미지 또는 입력된 대상체의 안저 이미지에 대해 질병 특이적으로 병변 강조 처리가 수행된 진단 보조 이미지가 생성될 수 있다.
상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 상기 입력된 대상체의 안저 이미지와 대응되는 또는 동일한 크기로 처리되어 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지 이외에 상기 입력된 대상체의 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나의 이미지가 함께 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 출력되되 상기 입력된 대상체의 안저 이미지에 중첩되어 제공될 수 있고, 출력된 상기 진단 보조 이미지는 상기 입력된 대상체의 안저 이미지에 대한 별도의 작업이 수행됨에 따라 제공될 수 있다. 일 예로, 출력된 상기 진단 보조 이미지는 사용자가 상기 입력된 대상체의 안저 이미지 상에 마우스 커서를 올리거나 클릭함에 따라 제공될 수 있다.
또한, 상기 진단 보조 이미지 제공 방법은, 상기 진단 결과 출력 단계(S630) 및 상기 진단 보조 이미지 출력 단계(S660)에서 얻어진 진단 보조 정보가 제공될 수 있다. 상기 진단 보조 정보는 상기 진단 결과 출력 단계(S630)에서 얻어진 진단 결과 및 상기 진단 보조 이미지 출력(S660)에서 얻어진 진단 보조 이미지가 포함될 수 있다. 상기 진단 보조 이미지 제공 방법은 상기 입력된 안저 이미지에 대한 진단 보조 이미지가 제공되되, 상기 진단 결과 출력 단계(S630)에서 얻어진 진단 결과가 함께 제공될 수 있다.
상기 진단 보조 이미지 제공 방법에 대한 내용은 이에 제한되지 아니하며, 상기 진단 보조 이미지 제공 방법은 도 1 내지 도 53와 2.3.3. 진단 보조 이미지 제공 프로세스에 기재된 내용을 포함할 수 있다.
2.4 복수의 질병에 대한 진단 보조 이미지 제공 시스템
복수의 질병에 대한 진단 보조 시스템은 상술한 안저 이미지를 이용한 진단 보조 이미지 제공 장치를 포함할 수 있다. 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 상술한 안저 이미지를 이용한 진단 보조 이미지 제공 장치를 포함할 수 있다. 안저 이미지를 이용한 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 진단 질병의 질병 특이적 특성을 고려한 진단 보조 이미지 제공 장치를 병렬적으로 포함할 수 있다. 동일한 안저 이미지에 대한 복수의 질병을 진단함에 있어서, 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 진단 질병의 질병 특이적 특성을 고려한 진단 보조 이미지 제공 장치를 병렬적으로 포함할 수 있다.
복수의 질병에 대한 병렬적 진단 보조 이미지 제공 시스템은 후술될 내용에 제한되지 아니하고, 상술한 1.4 복수 라벨에 대한 진단 보조 시스템에서 기재된 내용에서 병변 강조 모듈 및 병변 강조 프로세스가 추가되는 구성이 추가된 내용과 동일하거나 유사할 수 있다. 후술될 내용에서는, 복수의 질병에 대한 병렬적 진단 보조 이미지 제공 시스템에 대해서 병변 강조 모듈 및 병변 강조 프로세스를 중점적으로 설명하고자 한다.
2.4.1 실시 예 1 - 병렬적 진단 보조 이미지 제공 시스템
도 54은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부(700)의 구성을 나타내는 도면이다. 도 54을 참조하면, 진단 보조 정보 제공부(700)는 진단 획득 모듈(710), 데이터 가공 모듈(720), 제1 진단 모듈(730), 제2 진단 모듈(740), 제1 CAM 제공 모듈(750), 제2 CAM 제공 모듈(760), 제1 병변 강조 모듈(770), 제2 병변 강조 모듈(780), 및 출력 모듈(790)을 포함할 수 있다.
도 55는 도 54의 진단 보조 정보 제공부(700)에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다. 도 55를 참조하면, 상기 진단 프로세스 및 진단 보조 이미지 제공 프로세스는 데이터 획득(S7010), 학습된 제1 진단 보조 신경망 모델(S7020), 학습된 제2 진단 보조 신경망 모델(S7030), 제1 CAM 제공 모델(S7040), 제2 CAM 제공 모델(S7050), 제1 병변 강조 모델(S7060), 제2 병변 강조 모델(S7070), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다.
각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 54 및 도 55에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다.
도 54, 도 55를 참조하면, 데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스, 및 2.2.2.2 데이터 획득 및 가공 프로세스에서 전술한 내용과 동일할 수 있다. 또한, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다. 다만, 상기 가공 프로세스는 병렬적 진단 프로세스가 진단하는 각각의 질병의 질병 특이적 성질을 고려하여 동일한 입력 데이터에 대해 서로 상이한 가공이 적절히 수행될 수 있다. 일 예로, 병렬적 진단 프로세스 중 적어도 일부의 프로세스가 진단하는 질병이 안저 이미지의 혈관을 중심으로 진단하는 경우 상기 가공 프로세스는 입력된 데이터의 혈관이 강조되는 필터 또는 별도의 처리를 통한 가공이 수행될 수 있다.
도 54, 도 55를 참조하면, 상기 진단 프로세스는 제1 진단 모듈(730) 및 제2 진단 모듈(740)에 의해 수행될 수 있다. 상기 진단 프로세스는 데이터 획득(S7010), 학습된 제1 진단 보조 신경망 모델(S7020), 학습된 제2 진단 보조 신경망 모델(S7030), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 진단 보조 이미지 제공 프로세스에 이용될 수 있다. 상기 진단 프로세스에 관한 내용은 1.3.4 진단 프로세스, 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 또한, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.
도 54, 도 55를 참조하면, 상기 진단 보조 이미지 제공 프로세스는 제1 CAM 제공 모듈(750), 제2 CAM 제공 모듈(760), 제1 병변 강조 모듈(770), 및 제2 병변 강조 모듈(780)에 의해 수행될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단 보조 정보에 해당되는 각각의 진단 보조 이미지가 제공될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단 보조 정보에 해당되는 진단 결과와 함께 각각의 진단 보조 이미지가 제공될 수 있다.
일 예로, 상기 진단 보조 이미지 제공 프로세스는 획득된 데이터(S7010)를 기초로 제1 진단 질병에 대해 학습된 제1 진단 보조 신경망 모델(S7020), 제1 CAM 제공 모델(S7040), 제1 병변 강조 모델(S7060), 및 진단 보조 정보 출력(S7080)을 포함할 수 있고, 획득된 데이터(S7010)를 기초로 제2 진단 질병에 대해 대해 학습된 제2 진단 보조 신경망 모델(S7030), 제2 CAM 제공 모델(S7050), 제2 병변 강조 모델(S7070), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다. 따라서, 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단을 보조하는 병렬적 진단 프로세스에서 수행된 진단 결과를 기초로 형성된 CAM 이미지에 대해 각 진단 질병의 질병 특이적 성질을 고려한 병변 강조가 수행될 수 있다.
일 예로, 상기 제1 진단 질병이 특정 해부학적 영역에서 발생되고, 상기 제2 진단 질병이 비특정 해부학적 영역에서 발생되는 경우, 상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 제공 모델(S7040)에서 제공된 CAM 이미지에 대해 상기 제1 병변 강조 모델(S7060)을 통해 특정 해부학적 영역과 연관된 병변 강조가 수행될 수 있다. 동시에 또는 순차적으로, 상기 진단 보조 이미지 제공 프로세스는 상기 제2 CAM 제공 모델(S7050)에서 제공된 CAM 이미지에 대해 상기 제2 병변 강조 모델(S7070)을 통해 비특정 해부학적 영역과 연관된 병변 강조가 수행될 수 있다.
상기 진단 보조 이미지 제공 프로세스가 진단 프로세스에 수행되는 각각의 진단 질병의 진단 결과를 보조하기 위한 진단 보조 이미지를 제공하되, 상기 진단 보조 이미지는 각각의 진단 질병의 질병 특이적 성질을 고려하여 병변 강조가 수행되어, 상기 진단 보조 이미지는 상기 입력 데이터와 상기 진단 결과를 용이하게 대응시킬 수 있는 효과가 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 제1 진단 질병에 대응되는 제1 병변 강조 모델 및 제2 진단 질병에 대응되는 제2 병변 강조 모델을 포함하여, 상기 제1 병변 강조 모델 및 상기 제2 병변 강조 모델은 질병 특이적으로 수행되어, 각각의 병변 강조 수행 시간이 절약될 수 있다.
2.4.2 실시 예 2 - 병렬적 진단 보조 이미지 제공 시스템
도 56은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부(800)의 구성을 나타내는 도면이다. 도 56를 참조하면, 진단 보조 정보 제공부(800)는 진단 획득 모듈(810), 데이터 가공 모듈(820), 제1 진단 모듈(830), 제2 진단 모듈(840), 제1 CAM 제공 모듈(850), 제2 CAM 제공 모듈(860), 병변 강조 모듈(870), 및 출력 모듈(890)을 포함할 수 있다.
도 57은 도 56의 진단 보조 정보 제공부(800)에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다. 도 57을 참조하면, 상기 진단 프로세스 및 진단 보조 이미지 제공 프로세스는 데이터 획득(S8010), 학습된 제1 진단 보조 신경망 모델(S8030), 학습된 제2 진단 보조 신경망 모델(S8040), 제1 CAM 제공 모델(S8050), 제2 CAM 제공 모델(S8060), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있다.
각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 55 및 도 56에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다.
일 실시 예에 따른 진단 보조 이미지 제공 시스템은 상술한 실시 예1 에서 기재한 내용과 동일하거나 유사할 수 있으며, 진단 보조 이미지 제공 프로세스에서 병변 강조 모델에 관한 내용에서 일부 차이가 있을 수 있어, 상기 병변 강조 모델에 대한 차이점에 대해서 중점적으로 설명하고자 한다.
도 56 및 도 57을 참조하면, 상기 진단 보조 이미지 제공 프로세스는 제1 CAM 제공 모듈(850), 제2 CAM 제공 모듈(860), 및 병변 강조 모듈(870)에 의해 수행될 수 있다.
상기 진단 보조 이미지 제공 프로세스는 획득된 데이터(S8010)를 기초로 제1 진단 질병에 대해 학습된 제1 진단 보조 신경망 모델(S8030), 제1 CAM 제공 모델(S8050), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있고, 획득된 데이터(S8010)를 기초로 제2 진단 질병에 대해 학습된 제2 진단 보조 신경망 모델(S8040), 제2 CAM 제공 모델(S8060), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있다. 따라서, 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단을 보조하는 병렬적 진단 프로세스에서 수행된 진단 결과를 기초로 형성된 각각의 CAM 이미지에 대한 병변 강조가 수행될 수 있다.
상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지가 공통적인 상기 병변 강조 모델(S8070)에 의해 병변 강조가 수행되는바, 상기 병변 강조 모델(S8070)에 의한 수행 절차 및 수행 시간이 단축될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 상기 병변 강조 모델(S8070)을 통해 동일한 병변 강조가 수행되거나, 진단 질병에 따른 질병 특이적 병변 강조가 각각 수행될 수 있다.
일 예로, 상기 병변 강조 모델(S8070)은 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 각각 소정의 임계값을 가지는 픽셀에 대해서만 출력되는 병변 강조가 수행되거나, 각각 소정의 임계값을 가지는 픽셀을 기초로 경계선을 삽입하는 병변 강조가 수행되거나, 각각 특정 해부학적 영역의 경계선을 삽입하는 병변 강조가 수행될 수 있다. 이러한 경우, 상기 진단 보조 이미지 제공 프로세스는 상기 병변 강조 모델(S8070)에 의한 수행 절차 및 수행 시간이 단축될 수 있다.
일 예로, 상기 병변 강조 모델(S8070)은 복수의 방법에 의한 병변 강조가 수행될 수 있어, 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 질병 특이적인 병변 강조가 수행될 수 있다. 이러한 경우, 상기 진단 보조 이미지 제공 프로세스는 전체 모델의 구성이 간소화되면서도 진단 질병에 적합한 진단 보조 이미지가 제공될 수 있다.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (22)

  1. 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서,
    입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-;
    상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및
    상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성별로 강조하는 병변 강조 모델을 포함하고,
    상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는,
    진단 보조 이미지 제공 장치.
  2. 제1 항에 있어서,
    상기 병변 강조 모델은 상기 CAM 이미지의 픽셀값을 기초로 하여, 상기 CAM 이미지의 픽셀 중 소정의 임계값 이상의 픽셀이 선택적으로 출력되는 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  3. 제1 항에 있어서,
    상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대응되는 위치 또는 영역에 특이적으로 발병되는 경우,
    상기 병변 강조 모델은 상기 CAM 이미지 상에 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  4. 제1 항에 있어서,
    상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대해 비특이적으로 발병되는 경우,
    상기 병변 강조 모델은 상기 CAM 이미지를 기초로 상기 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 경계선이 중첩되는 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  5. 제1 항에 있어서,
    상기 질병의 병변 영역이 상기 안저 이미지에 포함되어 있는 해부학적 영역 중 적어도 일부를 가리는 경우,
    상기 병변 강조 모델은 상기 병변 영역에 의해 가려진 상기 해부학적 영역에 대응되는 경계선이 상기 안저 이미지 상에 중첩되는 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  6. 제1 항에 있어서,
    상기 신경망 모델은 상기 입력된 안저 이미지를 상기 진단 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되,
    상기 진단 보조 이미지 제공 장치는 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는,
    진단 보조 이미지 제공 장치.
  7. 제1 항에 있어서,
    상기 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나인,
    진단 보조 이미지제공 장치.
  8. 제1 항에 있어서,
    상기 질병이 발병 시기 및 발병 정도에 따라 제1 기 및 제2 기로 구분되어 진단되는 경우,
    상기 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고,
    상기 제1 서브 신경망 모델은 상기 질병의 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하고, 상기 제2 서브 신경망 모델은 상기 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하되,
    상기 진단 보조 이미지 제공 장치는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는,
    진단 보조 이미지 제공 장치.
  9. 제8 항에 있어서,
    상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우,
    상기 질병의 진행 정도를 고려한 진단 보조 이미지를 제공하기 위해, 상기 진단 보조 이미지는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 정상이라고 판단한 모델의 제1 진단 정보와 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 비정상이라고 판단한 모델의 제2 진단 정보에 기초하여 출력되는,
    진단 보조 이미지 제공 장치.
  10. 안저 이미지에 기초하여 복수의 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서,
    입력된 안저 이미지를 획득하는 데이터 획득부;
    상기 입력된 안저 이미지에 대한 제1 질병의 제1 진단 보조 이미지를 제공하는 제1 모델; 및
    상기 입력된 안저 이미지에 대한 제2 질병의 제2 진단 보조 이미지를 제공하는 제2 모델을 포함하고,
    상기 제1 모델 및 상기 제2 모델은 상기 입력된 안저 이미지를 상기 제1 질병 또는 상기 제2 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 제1 진단 보조 이미지 또는 제2 진단 보조 이미지가 출력되고,
    상기 제1 질병 및 상기 제2 질병은 발병 영역의 적어도 일부가 상이한 질병이고,
    상기 제1 진단 보조 이미지 및 상기 제2 진단 보조 이미지는 각각 상기 제1 질병 및 상기 제2 질병의 특성에 기초하여 출력되되, 상기 제1 질병 및 상기 제2 질병의 발병 영역이 강조 처리되어 출력되는,
    진단 보조 이미지 제공 장치.
  11. 제10 항에 있어서,
    상기 제1 모델은 제1 신경망 모델, 제1 CAM 모델, 및 제1 병변 강조 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델, 제2 CAM 모델, 및 제2 병변 강조 모델을 포함하는,
    진단 보조 이미지 제공 장치.
  12. 제11 항에 있어서,
    상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고,
    상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하되, 상기 제1 CAM 이미지에 대해 상기 제1 병변 강조 모델이 제1 진단 질병의 특성을 고려하여 병변 강조가 수행되고,
    상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되, 상기 제2 CAM 이미지에 대해 상기 제2 병변 강조 모델이 제2 진단 질병의 특성을 고려하여 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  13. 제12 항에 있어서,
    상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀 값을 기초로 하여, 소정의 임계 값 이상의 제1 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고,
    상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀 값을 기초로 하여, 소정의 임계 값 이상의 제2 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고,
    상기 제1 영역 및 상기 제2 영역은 적어도 일부가 상이한,
    진단 보조 이미지 제공 장치.
  14. 제12 항에 있어서,
    상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 제1 경계선이 중첩되는 병변 강조가 수행된 이미지이고,
    상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 제2 경계선이 중첩되는 병변 강조가 수행된 이미지이고,
    상기 제1 경계선 및 상기 제2 경계선은 적어도 일부가 상이한,
    진단 보조 이미지 제공 장치.
  15. 제12 항에 있어서,
    상기 제1 질병의 발병 영역은 안저 이미지에 포함된 복수의 해부학적 영역 중 적어도 어느 하나의 영역과 대응되고, 상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하는 경우,
    상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고,
    상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인,
    진단 보조 이미지 제공 장치.
  16. 제12 항에 있어서,
    상기 제1 질병의 발병 영역은 안저 이미지에 포함된 제1 해부학적 영역과 대응되고, 상기 제2 질병의 발병 영역은 상기 제1 질병의 발병 영역과 적어도 일부가 상이한 제2 해부학적 영역에 대응되는 경우,
    상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 제1 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고,
    상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지에 대해 상기 제2 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지인,
    진단 보조 이미지 제공 장치.
  17. 제12 항에 있어서,
    상기 제1 질병의 제1 발병 영역은 안저 이미지에서 비특이적으로 위치하고, 상기 제2 질병의 제2 발병 영역은 안저 이미지에서 비특이적으로 위치하되 상기 제1 발병 영역과는 적어도 일부가 상이한 경우,
    상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지이고,
    상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀 값 중 소정의 임계 값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인,
    진단 보조 이미지 제공 장치.
  18. 제12 항에 있어서,
    상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고,
    상기 제2 질병의 발병 영역은 안저 이미지에 포함된 해부학적 영역과 대응되되, 상기 해부학적 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우,
    상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 해부학적 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인,
    진단 보조 이미지 제공 장치.
  19. 제12 항에 있어서,
    상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고,
    상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하되, 상기 발병 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우,
    상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 발병 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인,
    진단 보조 이미지 제공 장치.
  20. 제10 항에 있어서,
    상기 제1 모델은 제1 신경망 모델 및 제1 CAM 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델 및 제2 CAM 모델을 포함하고,
    상기 진단 보조 이미지 제공 장치는 병변 강조 모델을 더 포함하는,
    진단 보조 이미지 제공 장치.
  21. 제20 항에 있어서,
    상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고,
    상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하고, 상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되,
    상기 제1 CAM 이미지 및 상기 제2 CAM 이미지에 대해 상기 병변 강조 모델에 의해 상기 제1 질병 및 상기 제2 질병의 특성을 고려하여 각각 병변 강조가 수행되는,
    진단 보조 이미지 제공 장치.
  22. 제10 항에 있어서,
    상기 제1 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나이고,
    상기 제2 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증에서 상기 제1 질병을 제외한 나머지 중 어느 하나인,
    진단 보조 이미지 제공 장치.

KR1020190086604A 2018-12-06 2019-07-17 안구 이미지 기반의 진단 보조 이미지 제공 장치 KR102333670B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210165633A KR20210149003A (ko) 2018-12-06 2021-11-26 안구 이미지 기반의 진단 보조 이미지 제공 장치

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862776345P 2018-12-06 2018-12-06
US62/776,345 2018-12-06
KR1020180157562A KR20200005407A (ko) 2018-07-06 2018-12-07 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020180157562 2018-12-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165633A Division KR20210149003A (ko) 2018-12-06 2021-11-26 안구 이미지 기반의 진단 보조 이미지 제공 장치

Publications (2)

Publication Number Publication Date
KR20200069209A true KR20200069209A (ko) 2020-06-16
KR102333670B1 KR102333670B1 (ko) 2021-12-02

Family

ID=71141840

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020190086604A KR102333670B1 (ko) 2018-12-06 2019-07-17 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020210165633A KR20210149003A (ko) 2018-12-06 2021-11-26 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020230080054A KR20230104083A (ko) 2018-12-06 2023-06-22 안구 이미지 기반의 진단 보조 이미지 제공 장치

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020210165633A KR20210149003A (ko) 2018-12-06 2021-11-26 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020230080054A KR20230104083A (ko) 2018-12-06 2023-06-22 안구 이미지 기반의 진단 보조 이미지 제공 장치

Country Status (1)

Country Link
KR (3) KR102333670B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378794A (zh) * 2021-07-09 2021-09-10 博奥生物集团有限公司 一种眼象与症状信息的信息关联方法
CN113689954A (zh) * 2021-08-24 2021-11-23 平安科技(深圳)有限公司 高血压风险预测方法、装置、设备及介质
KR20220021171A (ko) * 2020-08-13 2022-02-22 순천향대학교 산학협력단 안저 이미지를 이용한 심층 신경망 기반 안구질환 진단 장치 및 방법
WO2022065925A1 (ko) * 2020-09-25 2022-03-31 서울대학교병원 흉부 단순 촬영 영상을 이용한 심장색전성 뇌경색의 진단 보조 방법 및 장치
WO2022075715A1 (ko) * 2020-10-07 2022-04-14 주식회사 오큐라이트 의료 영상 가시화를 위한 인공 신경망 학습 장치 및 학습 방법
KR20220046798A (ko) * 2020-10-08 2022-04-15 가톨릭대학교 산학협력단 폐 손상 진단 장치, 방법 및 기록매체
WO2022176396A1 (ja) * 2021-02-18 2022-08-25 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099468A (ko) 2021-12-27 2023-07-04 경북대학교 산학협력단 연령관련 황반변성의 확인 및 유형 분류를 위한 인공지능 신경망 학습방법과 이를 이용하여 학습된 딥러닝 기반의 연령관련 황반변성 확인 및 유형 분류방법 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) * 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
KR20160134585A (ko) * 2015-05-14 2016-11-23 캐논 가부시끼가이샤 화상처리장치, 화상처리방법 및 프로그램
KR101839789B1 (ko) * 2017-08-01 2018-03-19 주식회사 뷰노 치과 영상의 판독 데이터 생성 시스템
KR20180045551A (ko) * 2016-10-26 2018-05-04 고려대학교 산학협력단 구강 병변의 진단 시스템 및 방법
KR101889725B1 (ko) * 2018-07-04 2018-08-20 주식회사 루닛 악성 종양 진단 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) * 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
KR20160134585A (ko) * 2015-05-14 2016-11-23 캐논 가부시끼가이샤 화상처리장치, 화상처리방법 및 프로그램
KR20180045551A (ko) * 2016-10-26 2018-05-04 고려대학교 산학협력단 구강 병변의 진단 시스템 및 방법
KR101839789B1 (ko) * 2017-08-01 2018-03-19 주식회사 뷰노 치과 영상의 판독 데이터 생성 시스템
KR101889725B1 (ko) * 2018-07-04 2018-08-20 주식회사 루닛 악성 종양 진단 방법 및 장치

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220021171A (ko) * 2020-08-13 2022-02-22 순천향대학교 산학협력단 안저 이미지를 이용한 심층 신경망 기반 안구질환 진단 장치 및 방법
WO2022065925A1 (ko) * 2020-09-25 2022-03-31 서울대학교병원 흉부 단순 촬영 영상을 이용한 심장색전성 뇌경색의 진단 보조 방법 및 장치
KR20220041612A (ko) * 2020-09-25 2022-04-01 서울대학교병원 흉부 단순 촬영 영상을 이용한 심장색전성 뇌경색의 진단 보조 방법 및 장치
WO2022075715A1 (ko) * 2020-10-07 2022-04-14 주식회사 오큐라이트 의료 영상 가시화를 위한 인공 신경망 학습 장치 및 학습 방법
KR20220046798A (ko) * 2020-10-08 2022-04-15 가톨릭대학교 산학협력단 폐 손상 진단 장치, 방법 및 기록매체
WO2022176396A1 (ja) * 2021-02-18 2022-08-25 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム
CN113378794A (zh) * 2021-07-09 2021-09-10 博奥生物集团有限公司 一种眼象与症状信息的信息关联方法
CN113689954A (zh) * 2021-08-24 2021-11-23 平安科技(深圳)有限公司 高血压风险预测方法、装置、设备及介质

Also Published As

Publication number Publication date
KR20230104083A (ko) 2023-07-07
KR20210149003A (ko) 2021-12-08
KR102333670B1 (ko) 2021-12-02

Similar Documents

Publication Publication Date Title
KR102345026B1 (ko) 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템
US11790645B2 (en) Diagnosis assistance system and control method thereof
KR102333670B1 (ko) 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR102301058B1 (ko) 진단 보조 시스템 및 그 제어 방법
US11869184B2 (en) Method and device for assisting heart disease diagnosis
CN111481166B (zh) 基于眼底筛查的自动识别系统
CN109635862B (zh) 早产儿视网膜病plus病变分类方法
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
KR102596534B1 (ko) 진단 보조 방법 및 장치
Yang et al. Artificial intelligence in ophthalmopathy and ultra-wide field image: A survey
WO2019171398A1 (en) A fundus image analysis system
WO2019082203A1 (en) SYSTEM AND METHOD FOR DETECTION AND CLASSIFICATION OF RETINAL DISEASES
Dhinakaran et al. Keratoviz-A multistage keratoconus severity analysis and visualization using deep learning and class activated maps
Volkov et al. Fundus Image Quality Assessment: a Brief Review of Techniques
Thakoor Robust, Interpretable, and Portable Deep Learning Systems for Detection of Ophthalmic Diseases

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right