KR20200005433A - 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템 - Google Patents

클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템 Download PDF

Info

Publication number
KR20200005433A
KR20200005433A KR1020190056631A KR20190056631A KR20200005433A KR 20200005433 A KR20200005433 A KR 20200005433A KR 1020190056631 A KR1020190056631 A KR 1020190056631A KR 20190056631 A KR20190056631 A KR 20190056631A KR 20200005433 A KR20200005433 A KR 20200005433A
Authority
KR
South Korea
Prior art keywords
information
fundus image
data
diagnostic
neural network
Prior art date
Application number
KR1020190056631A
Other languages
English (en)
Other versions
KR102345026B1 (ko
Inventor
최태근
이근영
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Publication of KR20200005433A publication Critical patent/KR20200005433A/ko
Priority to KR1020210187639A priority Critical patent/KR20210158853A/ko
Application granted granted Critical
Publication of KR102345026B1 publication Critical patent/KR102345026B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Economics (AREA)

Abstract

일 실시 예에 따르면, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.

Description

클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템 {CLOUD SERVER AND DIAGNOSTIC ASSISTANT SYSTEMS BASED ON CLOUD SERVER}
아래의 실시 예들은 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템에 대한 것이다.
안저 검사는 망막, 시신경 및 황반부의 이상을 관찰할 수 있으며 비교적 간단하게 촬영을 통하여 결과를 확인할 수 있어 안과에서 빈번하게 활용되는 진단 보조 자료이다. 최근에는 안저 검사를 통하여 안질환 뿐 아니라 고혈압, 당뇨 등의 만성 질환에 의한 혈관 손상 정도를 비침습적 방법으로 관찰할 수 있다는 점에서 더욱 그 쓰임새가 늘어나고 있는 추세이다.
한편, 근래의 딥러닝 기술의 도약적인 발전에 의해, 의료 진단 분야, 특히 이미지 기반의 진단 분야에서 진단 인공지능의 개발이 활발하게 이루어지고 있다. 구글, IBM 등의 글로벌 기업들에서도 의료계와의 협업으로 대규모 데이터를 투입하는 등, 다양한 영상 의료 데이터 분석을 위한 인공지능 개발에 투자를 아끼지 않고 있으며, 일부 기업에서는 우수한 진단 결과를 출력하는 인공지능 진단 툴 개발에 성공하기도 하였다.
다만, 안저 이미지 기반의 진단 결과를 제공함에 있어서, 사용자는 배경 지식의 정도에 따라 상기 안저 이미지를 통해 상기 진단 결과를 이해하는 것이 어려울 수 있다. 다양한 사용자의 배경 지식의 정도를 고려하기 위해, 상기 안저 이미지를 통해 얻은 상기 진단 결과를 용이하게 이해할 수 있는 진단 보조 이미지를 제공할 필요성이 대두되고 있다.
일 과제는, 안저 이미지에 대한 진단 보조 및 분류를 수행하는 클라우드 서버를 제공하는 것이다.
일 과제는, 복수의 클라이언트 장치로부터 획득된 안저 이미지에 대한 진단 보조 및 분류를 수행하는 클라우드 서버를 제공하는 것이다.
일 과제는, 클라이언트 장치로부터 획득된 안저 이미지에 대한 진단 보조 및 분류 수행에 기초하여, 상기 안저 이미지에 대응되는 라벨을 별도의 정보로 저장하는 클라우드 서버를 제공하는 것이다.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 일 실시 예의 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시 예에 따르면, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
일 실시 예에 따르면, 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고, 상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는, 서버 기반의 진단 보조 시스템이 제공될 수 있다.
일 실시 예에 따르면, 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고, 상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신하는 단계; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류하는 단계; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장하는 단계를 포함하는 것을 특징으로 하는, 서버 기반의 진단 보조 방법이 제공될 수 있다.
일 실시 예에 의하면, 안저 이미지에 대한 진단 보조 및 분류를 수행하는 클라우드 서버를 통해 시간적 및 공간적 제약없이 진단 결과를 용이하게 획득할 수 있다.
일 실시 예에 의하면, 복수의 클라이언트 장치로부터 획득된 안저 이미지에 대한 진단 보조 및 분류를 수행하는 클라우드 서버를 통해, 상기 클라우드 서버는 클라이언트 장치에 대한 제한 없이 다양한 경로로 입력되는 안저 이미지에 대해 통해 시간적 및 공간적 제약없이 진단 결과를 제공할 수 있다.
일 실시 예에 의하면, 클라이언트 장치로부터 획득된 안저 이미지에 대한 진단 보조 및 분류 수행에 기초하여, 상기 안저 이미지에 대응되는 라벨을 별도의 정보로 저장하는 클라우드 서버를 통해, 상기 클라우드 서버는 복수의 안저 이미지에 대한 상기 라벨을 기초로 효율적인 데이터 관리가 수행될 수 있다.
일 실시 예의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 일 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 2는 일 실시 예에 따른 학습 장치를 설명하기 위한 블록도이다.
도 3은 일 실시 예의 다른 일 실시 예에 따른 학습 장치를 보다 구체적으로 설명하기 위한 블록도이다.
도 4는 일 실시 예에 따른 진단 장치를 설명하기 위한 블록도이다.
도 5는 일 실시 예의 다른 일 실시 예에 따른 진단 장치를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 7은 일 실시 예에 따른 클라이언트 장치를 설명하기 위한 블록도이다.
도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 학습부의 구성을 설명하기 위한 도면이다.
도 10는 일 실시 예에 따른 이미지 데이터 세트를 설명하기 위한 개념도이다.
도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다.
도 12은 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다.
도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 14은 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 18은 일 실시 예에 따른 진단부의 구성을 설명하기 위한 도면이다.
도 19는 일 예에 따른 진단 대상 데이터를 설명하기 위한 도면이다.
도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다.
도 21은 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 22는 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 진단부를 설명하기 위한 블록도이다.
도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 31은 클라우드 서버 기반의 진단 보조 시스템을 나타내는 도면이다.
도 32는 클라이언트 장치를 나타내는 도면이다.
도 33은 클라우드 서버의 구성을 나타내는 도면이다.
도 34는 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 35는 안저 이미지에 포함된 마커와 시신경 유두부의 관계를 나타내는 도면이다.
도 36은 안저 이미지에 포함된 시신경 유두부와 황반부의 관계를 나타내는 도면이다.
도 37은 안저 이미지의 시신경 유두부의 영역을 나타내는 도면이다.
도 38는 안저 이미지에 포함된 혈관 영역을 나타내는 도면이다.
도 39는 클라우드 서버 기반의 진단 보조 프로세스를 나타내는 도면이다.
도 40은 클라이언트 장치와 클라우드 서버 사이의 진단 결과 제공 프로세스를 나타내는 도면이다.
도 41은 클라이언트 장치와 클라우드 서버 사이의 분류 결과 제공 프로세스를 나타내는 도면이다.
도 42 및 도 43은 클라우드 서버에서의 분류 프로세스를 나타내는 도면이다.
도 44는 클라이언트 장치와 클라우드 서버 사이의 추가 정보 제공 프로세스를 나타내는 도면이다.
도 45는 복수의 클라우드 서버 기반의 진단 보조 시스템을 나타내는 도면이다.
이하에서는 도면을 참조하여 일 실시 예의 구체적인 실시 예를 상세하게 설명한다. 다만, 일 실시 예의 사상은 제시되는 실시 예에 제한되지 아니하고, 일 실시 예의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 일 실시 예 사상의 범위 내에 포함되는 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.
또한, 각 실시 예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조 부호를 사용하여 설명한다.
일 실시 예에 따르면, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 안저 이미지는 상기 데이터 저장부에 이미 저장된 제2 안저 이미지와 비교되되, 상기 제2 안저 이미지가 상기 라벨에 대응되는 경우 상기 제1 안저 이미지는 상기 제2 안저 이미지와 매칭되고, 상기 제1 안저 이미지 및 상기 제2 안저 이미지는 상기 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 라벨은 제1 라벨 및 제2 라벨을 포함하고, 상기 제1 안저 이미지는 상기 데이터 저장부에 이미 저장된 제2 안저 이미지와 비교되되, 상기 제2 안저 이미지가 상기 라벨에 대응되지 않는 경우, 상기 제1 안저 이미지는 상기 제1 라벨로, 상기 제2 안저 이미지는 제2 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 라벨은 양안 정보, 개인 식별 정보, 신체 정보, 성별 정보, 및 나이 정보 중 적어도 어느 하나에 기초한 라벨인 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 정보는 상기 클라이언트 장치로부터 제공된 상기 제1 안저 이미지의 촬영 일시, 촬영 장비, 상기 피검체의 식별 번호, ID, 성명, 성별, 나이, 몸무게, 좌안 또는 우안 여부 중 적어도 어느 하나를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제2 정보는 상기 제1 안저 이미지에 포함되어 있는 해부학적 요소의 위치를 고려하여 결정된 복수의 해부학적 영역에 관한 정보를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 복수의 해부학적 영역은 시신경 유두부, 황반부, 및 혈관부 중 적어도 어느 하나를 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 시신경 유두부와 상기 황반부의 위치 관계를 기초로 상기 제1 안저 이미지의 양안 정보를 획득하고, 상기 양안 정보를 기초로 상기 제1 안저 이미지의 좌안 또는 우안으로 분류하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 안저 이미지가 상기 시신경 유두부의 중심이 상기 황반부의 중심에 비해 상부에 위치하는 경우, 상기 분류부는 상기 시신경 유두부의 위치가 상기 제1 안저 이미지의 중심보다 좌측에 위치하면 좌안으로 분류하고, 상기 시신경 유두부의 위치가 상기 제1 안저 이미지의 중심보다 우측에 위치하면 우안으로 분류되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 시신경 유두에 포함된 비측 영역과 이측 영역의 픽셀 값을 비교한 결과를 기초로 상기 제1 안저 이미지의 양안 정보를 획득하고, 상기 양안 정보를 기초로 상기 제1 안저 이미지의 좌안 또는 우안으로 분류하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 라벨은 양안 라벨을 포함하되, 상기 양안 라벨은 좌안 라벨 및 우안 라벨을 포함하고, 상기 데이터 저장부는 상기 양안 정보를 기초로 상기 제1 안저 이미지에 대응되는 좌안 라벨 또는 우안 라벨을 상기 제3 정보로 추가하여 저장하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 혈관부에 포함된 픽셀들의 픽셀값의 분포를 기초로 상기 제1 안저 이미지에 포함된 상기 피검체의 개인 식별 정보를 획득하고, 상기 개인 식별 정보를 기초로 상기 제1 안저 이미지가 동일한 상기 피검체로부터 유래되었는지 여부를 분류하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 라벨은 동일인 라벨을 포함하고, 상기 데이터 저장부는 상기 개인 식별 정보를 기초로 상기 제1 안저 이미지에 대응되는 동일인 라벨을 상기 제3 정보로 저장하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 라벨은 좌안 라벨이고, 상기 제2 라벨은 우안 라벨에 해당되되, 상기 분류부는 상기 제1 안저 이미지에 포함된 상기 피검체의 제1 개인 식별 정보와 상기 제2 안저 이미지에 포함된 제2 개인 식별 정보를 비교하고, 상기 제1 개인 식별 정보 및 상기 제2 개인 식별 정보가 동일한 상기 피검체로부터 유래된 경우, 상기 제1 안저 이미지와 상기 제2 안저 이미지는 제3 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 라벨은 동일인 라벨이고, 상기 분류부는 상기 제1 안저 이미지에 포함된 상기 피검체의 제1 양안 정보와 상기 제2 안저 이미지에 포함된 제2 양안 정보를 비교하여, 상기 제1 양안 정보에 기초하여 상기 제1 안저 이미지는 제2 라벨이 대응되고, 상기 제2 양안 정보에 기초하여 상기 제2 안저 이미지는 제3 라벨에 대응되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제2 라벨 및 상기 제3 라벨은 좌안 라벨 또는 우안 라벨인 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 제1 안저 이미지를 기초로 상기 피검체에 대한 복수의 질병을 진단하는 진단 수행부를 더 포함하고, 상기 제2 정보는 상기 제1 안저 이미지에 대한 상기 진단 수행부의 진단 질병의 종류, 진단 결과, 진단 시기, 진단 대상, 및 진단 부위에 관한 정보 중 적어도 어느 하나인 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 제2 정보를 기초로 상기 제1 안저 이미지의 진단 정보를 획득하고, 상기 진단 정보를 기초로 상기 제1 안저 이미지를 분류하는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 진단 수행부는 상기 제1 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-을 포함하되, 상기 신경망 모델은 양안 정보에 기초한 양안 라벨로 대응되어 상기 데이터 저장부에 저장된 안저 이미지 세트를 통해 학습되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 진단 수행부는 상기 제1 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-을 포함하되, 상기 신경망 모델은 개인 식별 정보에 기초한 동일인 라벨로 대응되어 상기 데이터 저장부에 저장된 안저 이미지 세트를 통해 학습되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 제1 정보에 포함된 촬영 일시 정보를 기초로, 상기 제1 안저 이미지에 대한 시계열적 정보를 획득하고, 상기 시계열적 정보를 기초로 상기 라벨에 대응되는 상기 제1 안저 이미지 및 상기 제2 안저 이미지를 시계열적 순서로 매칭하여 상기 제3 정보로 상기 데이터 저장부에 저장되는 것을 특징으로 하는, 서버가 제공될 수 있다.
또한, 상기 분류부는 상기 제1 안저 이미지에 대한 분류를 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 안저 이미지를 분류하도록 학습됨-을 포함하는 것을 특징으로 하는, 서버가 제공될 수 있다.
일 실시 예에 따르면, 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고, 상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는, 서버 기반의 진단 보조 시스템이 제공될 수 있다.
일 실시 예에 따르면, 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고, 상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신하는 단계; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류하는 단계; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장하는 단계를 포함하는 것을 특징으로 하는, 서버 기반의 진단 보조 방법이 제공될 수 있다.
또한, 상기 서버 기반의 진단 보조 방법을 실행시키도록 구현되는 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.
이하에서는, 일 실시 예의 안저 이미지를 이용한 클라우스 서버 기반의 진단 보조 시스템에 대하여 설명하고자 한다.
1. 안저 이미지를 이용한 진단 보조
1.1 진단 보조 시스템 및 프로세스
1.1.1 목적 및 정의
이하에서는, 안저 이미지에 기초하여 질병 또는 질환의 유무 또는 그 판단의 근거가 되는 이상 여부 등의 판단을 보조하기 위한 진단 보조 시스템 및 방법 등에 대하여 설명한다. 특히, 딥러닝 기법을 이용하여 질병을 진단하기 위한 신경망 모델을 구축하고, 구축된 모델을 이용하여 질병 유무 또는 이상 소견의 검출을 보조하는 진단 보조 시스템 또는 방법에 대하여 설명한다.
일 실시 예에 의하면, 안저 이미지에 기초하여 질병의 유무와 관련된 진단 정보 또는 질병 유무의 진단에 이용되는 소견 정보 등을 획득하고, 이를 이용하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안저 이미지에 기초하여 안질환의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 검사 대상자의 녹내장, 백내장, 황반 변성, 미숙아 망막증의 유무와 관련된 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안질환이 아닌 타 질환(예컨대, 전신 질환 또는 만성 질환)의 지단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 고혈압, 당뇨병, 알츠하이머, 거대 세포 바이러스, 뇌졸중, 심장 질환, 동맥 경화증 등의 전신 질환의 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
일 실시 예에 의하면, 안질환 또는 타 질환의 진단에 이용될 수 있는 이상 안저 소견을 검출하기 위한 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio: cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견 정보를 획득하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 명세서에서, 진단 보조 정보라 함은, 질환 유무의 판단에 따른 진단 정보 또는 그 기초가 되는 소견 정보 등을 포괄하는 것으로 이해될 수 있다.
1.1.2 진단 보조 시스템 구성
일 실시 예에 의하면, 진단 보조 시스템이 제공될 수 있다.
도 1은 일 실시 예에 의한 진단 보조 시스템(10)을 도시한 것이다. 도 1을 참조하면, 진단 보조 시스템(10)은 진단 모델을 트레이닝하는 학습 장치(1000), 진단 모델을 이용하여 진단을 수행하는 진단 장치(2000) 및 진단 요청을 획득하는 클라이언트 장치(3000)를 포함할 수 있다. 진단 보조 시스템(10)은 복수의 학습 장치, 복수의 진단 장치, 또는 복수의 클라이언트 장치를 포함할 수 있다.
학습 장치(1000)는 학습부(100)를 포함할 수 있다. 학습부(100)는 신경망 모델의 트레이닝을 수행할 수 있다. 일 예로, 학습부(100)는 안저 이미지 데이터 세트를 획득하고, 안저 이미지로부터 질환 또는 이상 소견을 검출하는 신경망 모델의 트레이닝을 수행할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단부(200)는 신경망 모델을 이용하여 질환의 진단 또는 진단에 이용되는 보조 정보의 획득을 수행할 수 있다. 일 예로, 진단부(200)는 학습부(100)에 의하여 트레이닝된 진단 모델을 이용하여 진단 보조 정보의 획득을 수행할 수 있다.
클라이언트 장치(3000)는 촬상부(300)를 포함할 수 있다. 촬상부(300)는 안저 이미지를 촬상할 수 있다. 클라이언트 장치는 안과용 안저 촬영 장치일 수 있다. 또는 클라이언트 장치(3000)는 스마트폰, 태블릿 PC 등의 휴대용(handheld) 디바이스일 수 있다.
본 실시 예에 따른 진단 보조 시스템(10)에서, 학습 장치(1000)는 데이터 세트를 획득하여 신경망 모델의 학습을 수행함으로써 진단 보조에 이용하기 위한 신경망 모델을 결정하고, 진단 장치(2000)는 클라이언트로부터 정보 요청이 획득되면 결정된 신경망 모델을 이용하여 진단 대상 이미지에 따른 진단 보조 정보를 획득하고, 클라이언트 장치(3000)는 상기 진단 장치(2000)로 정보를 요청하고 이에 응답하여 전송된 진단 보조 정보를 획득할 수 있다.
다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습 및 이를 이용한 진단을 수행하는 진단 장치 및 클라이언트 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습, 진단 요청의 획득 및 진단을 수행하는 진단 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습을 수행하는 학습 장치 및 진단 요청을 획득하고, 진단을 수행하는 진단 장치를 포함할 수 있다.
본 명세서에서 개시하는 진단 보조 시스템이 위에서 설명한 실시 예들에 한정되는 것은 아니고, 모델의 학습을 수행하는 학습부, 학습된 모델에 따라 진단 보조 정보를 획득하는 진단부 및 진단 대상 이미지를 획득하는 촬상부를 포함하는 어떠한 형태로든 구현될 수 있다.
이하에서는, 시스템을 구성하는 각 장치의 몇몇 실시 예에 대하여 설명한다.
1.1.2.1 학습 장치
일 실시 예에 따른 학습 장치는 진단을 보조하는 신경망 모델의 트레이닝을 수행할 수 있다.
도 2는 일 실시 예에 따른 학습 장치(1000)를 설명하기 위한 블록도이다. 도 2를 참조하면, 학습 장치(1000)는 제어부(1200) 및 메모리부(1100)를 포함할 수 있다.
학습 장치(1000)는 제어부(1200)를 포함할 수 있다. 제어부(1200)는 학습 장치(1000)의 동작을 제어할 수 있다.
제어부(1200)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다.
제어부(1200)는 메모리부(1100)에 저장된 시스템 프로그램 및 다양한 프로세싱 프로그램을 판독할 수 있다. 일 예로, 제어부(1200)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스, 진단 프로세스 등을 RAM 상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다. 제어부(1200)는 후술하는 신경망 모델의 학습을 수행할 수 있다.
학습 장치(1000)는 메모리부(1100)를 포함할 수 있다. 메모리부(1100)는 학습에 필요한 데이터 및 학습 모델을 저장할 수 있다.
메모리부(1100)는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM, ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 이외의 유형의(tangible) 비휘발성 기록 매체 등으로 구현될 수 있다.
메모리부(1100)는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 일 예로, 메모리부(1100)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스 프로그램, 진단 프로세스 프로그램, 각 프로그램의 수행을 위한 파라미터 및 이러한 프로그램의 수행에 따라 얻어진 데이터(예컨대, 가공된 데이터 또는 진단 결과값) 등을 저장할 수 있다.
학습 장치(1000)는 별도의 학습부(또는 학습 모듈)를 포함할 수 있다. 학습부는 신경망 모델의 학습을 수행할 수 있다. 학습의 수행과 관련하여서는 이하의 목차 2. 학습 프로세스 에서 보다 상세히 설명하기로 한다.
학습부는 전술한 제어부(1200)에 포함될 수 있다. 학습부는 전술한 메모리부(1100)에 저장될 수 있다. 학습부는 전술한 제어부(1200) 및 메모리부(1100)의 일부 구성에 의하여 구현될 수 있다. 예컨대, 학습부는 메모리부(1100)에 저장되고, 제어부(1200)에 의하여 구동될 수 있다.
학습 장치(1000)는 통신부(1300)를 더 포함할 수 있다. 통신부(1300)는 외부 장치와 통신을 수행할 수 있다. 예컨대, 통신부(1300)는 후술하는 진단 장치, 서버 장치 또는 클라이언트 장치와 통신할 수 있다. 통신부(1300)는 유선 또는 무선 통신을 수행할 수 있다. 통신부(1300)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.
도 3은 일 실시 예에 따른 학습 장치(1000)를 보다 구체적으로 설명하기 위한 블록도이다. 도 3을 참조하면, 학습 장치(1000)는 프로세서(1050), 휘발성 메모리(1010), 비휘발성 메모리(1030), 대용량 저장 장치(1070) 및 통신 인터페이스(1090)를 포함할 수 있다.
학습 장치(1000)의 프로세서(1050)는 데이터 가공 모듈(1051) 및 학습 모듈(1053)을 포함할 수 있다. 프로세서(1050)는 데이터 가공 모듈(1051)을 통하여 대용량 저장 장치 또는 비휘발성 메모리에 저장된 데이터 세트를 가공할 수 있다. 프로세서(1050)는 학습 모듈(1053)을 통하여, 진단 보조 신경망 모델의 트레이닝을 수행할 수 있다. 프로세서(1050)는 로컬 메모리를 포함할 수 있다. 통신 인터페이스(1090)는 네트워크(1110)와 연결될 수 있다.
다만, 도 3에서 도시하는 학습 장치(1000)는, 예시에 불과하며, 일 실시 예에 따른 학습 장치(1000)의 구성이 이에 한정되지는 않는다. 특히, 데이터 가공 모듈(1051) 또는 학습 모듈(1053)은 도 3에서 도시하는 것과 다른 위치에 마련될 수 있다.
1.1.2.2 진단 장치
진단 장치는 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
도 4는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 블록도이다. 도 4를 참조하면, 진단 장치(2000)는 제어부(2200) 및 메모리부(2100)를 포함할 수 있다.
제어부(2200)는 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 생성할 수 있다. 제어부(2200)는 진단을 위한 진단 데이터(예컨대, 피검자의 안저 데이터)를 획득하고 학습된 진단 보조 신경망 모델을 이용하여 진단 데이터에 의해 예측되는 진단 보조 정보를 획득할 수 있다.
메모리부(2100)는 학습된 진단 보조 신경망 모델을 저장할 수 있다. 메모리부(2100)는 진단 보조 신경망 모델의 파라미터, 변수 등을 저장할 수 있다.
진단 장치(2000)는 통신부(2300)를 더 포함할 수 있다. 통신부(2300)는 학습 장치 및/또는 클라이언트 장치와 통신할 수 있다. 일 예로, 진단 장치(2000)는 클라이언트 장치와 통신하는 서버 형태로 마련될 수 있다. 이와 관련하여, 이하에서 보다 상세히 설명한다.
도 5는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시 예에 따른 진단 장치(2000)는 프로세서(2050), 휘발성 메모리(2030), 비휘발성 메모리(2010), 대용량 저장 장치(2070), 및 통신 인터페이스(2090)를 포함할 수 있다.
진단 장치의 프로세서(2050)는 데이터 가공 모듈(2051) 및 진단 모듈(2053)을 포함할 수 있다. 프로세서(2050)는 데이터 가공 모듈(2051)을 통하여 진단 데이터의 가공을 수행하고, 진단 모듈(2053)을 통하여 진단 데이터에 따른 진단 보조 정보를 획득할 수 있다.
1.1.2.3 서버 장치
일 실시 예에 따르면, 진단 보조 시스템은 서버 장치를 포함할 수 있다. 일 실시 예에 따른 진단 보조 시스템은, 복수의 서버 장치를 포함할 수도 있다.
서버 장치는 신경망 모델을 저장 및/또는 구동할 수 있다. 서버 장치는 학습된 신경망 모델을 구성하는 가중치 값들을 저장할 수 있다. 서버 장치는 진단 보조에 이용되는 데이터를 수집 또는 저장할 수 있다.
서버 장치는 신경망 모델을 이용한 진단 보조 프로세스의 결과를 클라이언트 장치로 출력할 수 있다. 서버 장치는 클라이언트 장치로부터 피드백을 획득할 수 있다. 서버 장치는 전술한 진단 장치와 유사하게 동작할 수 있다.
도 6은 일 실시 예에 따른 진단 보조 시스템(20)을 도시한 것이다. 도 6을 참조하면, 일 실시 예에 따른 진단 보조 시스템(20)은 진단 서버(4000), 학습 장치 및 클라이언트 장치를 포함할 수 있다.
진단 서버(4000), 즉 서버 장치는 복수의 학습 장치 또는 복수의 진단 장치와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 학습 장치(1000a) 및 제2 학습 장치(1000b)와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 클라이언트 장치(3000a) 및 제2 클라이언트 장치(3000b)와 통신할 수 있다.
예컨대, 진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델을 학습시키는 제1 학습 장치(1000a) 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 학습시키는 제2 학습 장치(1000b)와 통신할 수 있다.
진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 저장하고, 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로부터의 지단 보조 정보 획득 요청에 응답하여 진단 보조 정보를 획득하고, 획득된 진단 보조 정보를 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로 전송할 수 있다.
또는, 진단 서버(4000)는 제1 진단 보조 정보를 요청하는 제1 클라이언트 장치(3000a) 및 제2 진단 보조 정보를 요청하는 제2 클라이언트 장치(3000b)와 통신할 수도 있다.
1.1.2.4 클라이언트 장치
클라이언트 장치는 진단 장치 또는 서버 장치로 진단 보조 정보를 요청할 수 있다. 클라이언트 장치는 진단에 필요한 데이터를 획득하고, 진단 장치로 획득한 데이터를 전송할 수 있다.
클라이언트 장치는 데이터 획득부를 포함할 수 있다. 데이터 획득부는 진단 보조에 필요한 데이터를 획득할 수 있다. 데이터 획득부는 진단 보조 모델에 이용되는 이미지를 획득하는 촬상부일 수 있다.
도 7은 일 실시 예에 따른 클라이언트 장치(3000)를 설명하기 위한 블록도이다. 도 7을 참조하면, 일 실시 예에 따른 클라이언트 장치(3000)는 촬상부(3100), 제어부(3200), 및 통신부(3300)를 포함할 수 있다.
촬상부(3100)는 이미지 또는 영상 데이터를 획득할 수 있다. 촬상부(3100)는 안저 이미지를 획득할 수 있다. 다만, 클라이언트 장치(3000)는 촬상부(3100)가 아닌 다른 형태의 데이터 획득부로 대체될 수도 있다.
통신부(3300)는 외부 장치, 예컨대 진단 장치 또는 서버 장치와 통신할 수 있다. 통신부(3300)는 유선 또는 무선 통신을 수행할 수 있다.
제어부(3200)는 촬상부(3100)가 이미지 또는 데이터를 획득하도록 제어할 수 있다. 제어부(3200)는 촬상부(3100)가 안저 이미지를 획득하도록 제어할 수 있다. 제어부(3200)는 획득된 안저 이미지를 진단 장치로 전송할 수 있다. 제어부는 촬상부(3100)를 통하여 획득한 이미지를 통신부(3300)를 통하여 서버 장치로 전송하고, 이에 기초하여 생성된 진단 보조 정보를 획득할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 출력부를 더 포함할 수 있다. 출력부는 영상 또는 이미지를 출력하는 디스플레이 또는 음성을 출력하는 스피커를 포함할 수 있다. 출력부는 획득된 촬상부에 의해 획득된 영상 또는 이미지 데이터를 출력할 수 있다. 출력부는 진단 장치로부터 획득된 진단 보조 정보를 출력할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 입력부를 더 포함할 수 있다. 입력부는 사용자 입력을 획득할 수 있다. 예컨대, 입력부는 진단 보조 정보를 요청하는 사용자 입력을 획득할 수 있다. 입력부는 진단 장치로부터 획득된 진단 보조 정보를 평가하는 사용자 정보를 획득할 수 있다.
또한, 도시하지는 아니하였으나, 클라이언트 장치는 메모리부를 더 포함할 수 있다. 메모리부는 촬상부에 의해 획득된 이미지를 저장할 수 있다.
1.1.3 진단 보조 프로세스 개요
본 명세서에서 개시하는 진단 보조 시스템 또는 진단 보조 장치에 의하여 진단 보조 프로세스가 수행될 수 있다. 진단 보조 프로세스는 크게 진단 보조에 이용되는 진단 보조 모델을 학습하는 트레이닝 프로세스, 진단 보조 모델을 이용하는 진단 프로세스로 나누어 고려될 수 있다.
도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는, 데이터를 획득하고, 가공하여(S110) 신경망 모델을 학습하고(S130), 학습된 신경망 모델의 변수를 획득(S150)하는 학습 프로세스 및 진단 대상 데이터를 획득하고(S210) 진단 대상 데이터에 기초하여 학습된 신경망 모델(S230)을 이용하여 진단 보조 정보를 획득(S250)하는 진단 보조 프로세스를 포함할 수 있다.
보다 구체적으로, 트레이닝 프로세스는 입력된 학습 이미지 데이터를 가공하여 모델의 트레이닝에 이용될 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 모델을 트레이닝하는 학습 프로세스를 포함할 수 있다. 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
진단 프로세스는 입력된 검사 대상 이미지 데이터를 가공하여 신경망 모델을 이용한 진단을 수행할 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 진단을 수행하는 진단 프로세스를 포함할 수 있다. 진단 프로세스는 전술한 진단 장치 또는 서버 장치에 의하여 수행될 수 있다.
이하에서는, 각 프로세스에 대하여 설명한다.
1.2 트레이닝 프로세스
일 실시 예에 따르면, 신경망 모델을 트레이닝하는 프로세스가 제공될 수 있다. 구체적인 예로, 안저 이미지에 기초하여 진단을 수행하거나 보조하는 신경망 모델을 트레이닝하는 프로세스가 개시될 수 있다.
이하에서는 설명하는 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
1.2.1 학습부
일 실시 예에 따르면, 트레이닝 프로세스는 학습부에 의해 수행될 수 있다. 학습부는 전술한 학습 장치 내에 마련될 수 있다.
도 9는 일 실시 예에 따른 학습부(100)의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 학습부(100)는 데이터 가공 모듈(110), 큐 모듈(130), 학습 모듈(150) 및 학습 결과 모듈(170)을 포함할 수 있다. 각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 9에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적이지는 아니하며, 학습 형태에 따라, 일부 요소가 추가되거나 일부 요소들이 생략될 수 있다.
1.2.2 데이터 가공 프로세스
1.2.2.1 이미지 데이터 획득
일 실시 예에 따르면, 데이터 세트가 획득될 수 있다. 일 실시 예에 따르면, 데이터 가공 모듈은 데이터 세트를 획득할 수 있다.
데이터 세트는 이미지 데이터 세트일 수 있다. 구체적으로, 안저 이미지 데이터 세트일 수 있다. 안저 이미지 데이터 세트는 일반적인 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가 형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), EMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다.
데이터 세트는 트레이닝 데이터 세트를 포함할 수 있다. 데이터 세트는 테스트 데이터 세트를 포함할 수 있다. 데이터 세트는 검증(validation) 데이터 세트를 포함할 수 있다. 다시 말해, 데이터 세트는 트레이닝 데이터 세트, 테스트 데이터 세트, 및 검증 데이터 세트 중 적어도 하나의 데이터 세트로 할당될 수 있다.
데이터 세트는 해당 데이터 세트를 통해 학습되는 신경망 모델을 이용하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다. 예컨대, 백내장과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 적외선 안저 이미지 데이터 세트로 결정될 수 있다. 또는, 황반 변성과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 자가형광 촬영된 안저 이미지 데이터 세트일 수 있다.
데이터 세트에 포함되는 개별 데이터는 라벨을 포함할 수 있다. 라벨은 복수 개일 수 있다. 다시 말해, 데이터 세트에 포함되는 개별 데이터는 적어도 하나의 특징에 대하여 라벨링되어 있을 수 있다. 일 예로, 데이터 세트는 복수의 안저 이미지 데이터를 포함하는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 따른 진단 정보 라벨(예컨대, 특정 질환의 유무) 및/또는 소견 정보(예컨대, 특정 부위의 이상 여부) 라벨을 포함할 수 있다.
다른 예로, 데이터 세트는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 대한 주변 정보 라벨을 포함할 수 있다. 예컨대, 각각의 안저 이미지 데이터는 해당 안저 이미지가 좌안의 이미지인지 또는 우안의 이미지인지에 대한 좌우안 정보, 여성의 안저 이미지인지 또는 남성의 안저 이미지인지에 대한 성별 정보, 해당 안저 이미지를 촬영한 피검자의 나이에 대한 나이 정보 등을 포함하는 주변 정보 라벨을 포함할 수 있다.
도 10은 일 실시 예에 따른 이미지 데이터 세트(DS)를 설명하기 위한 개념도이다. 도 10을 참조하면, 일 실시 예에 따른 이미지 데이터 세트(DS)는 복수의 이미지 데이터(ID)를 포함할 수 있다. 각 이미지 데이터(ID)는 이미지(I) 및 이미지에 할당된 라벨(L)을 포함할 수 있다. 도 10을 참조하면, 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1)은 제1 이미지(I1) 및 제1 이미지에 대응되는 제1 라벨(L1)을 포함할 수 있다.
도 10에서는 하나의 이미지 데이터가 하나의 라벨을 포함하는 경우를 기준으로 설명하였으나, 전술한 바와 같이 하나의 이미지 데이터는 복수의 라벨을 포함할 수 있다.
1.2.2.2 이미지 리사이징
일 실시 예에 따르면, 획득된 이미지 데이터의 크기가 조정될 수 있다. 즉, 이미지들이 리사이징 될 수 있다. 일 실시 예에 따르면, 전술한 학습부의 데이터 가공 모듈에 의하여 이미지 리사이징이 수행될 수 있다.
이미지의 크기 또는 종횡비가 조정될 수 있다. 획득된 복수의 이미지들은 일정한 크기를 가지도록 그 크기가 조정될 수 있다. 또는, 이미지들은 일정한 종횡비(aspect ratio)를 가지도록 그 크기를 조정할 수 있다. 이미지를 리사이징 하는 것은 이미지에 이미지 변환 필터를 적용하는 것일 수 있다.
획득된 개별 이미지들의 사이즈 또는 용량이 과도하게 크거나 작은 경우에, 이미지의 사이즈 또는 용량을 조정하여 적절한 사이즈로 변환할 수 있다. 또는 개별 이미지들의 사이즈 또는 용량이 다양한 경우에, 리사이징을 통하여 사이즈 또는 용량을 통일시킬 수 있다.
일 실시 예에 따르면, 이미지의 용량이 조정될 수 있다. 예컨대, 이미지의 용량이 적정 범위를 초과하는 경우에, 다운 샘플링(down sampling)을 통하여 이미지를 축소시킬 수 있다. 또는 이미지의 용량이 적정 범위에 못 미치는 경우에, 업 샘플링(upsampling) 또는 보간(interpolating)을 통하여 이미지를 확대할 수 있다.
다른 일 실시 예에 따르면, 이미지를 자르거나 획득한 이미지에 픽셀을 덧붙여 이미지의 사이즈 또는 종횡비를 조정할 수 있다. 예컨대, 이미지에 학습에 불필요한 부분이 포함되어 있는 경우에, 이를 제거하기 위하여 이미지 일부를 크롭할 수 있다. 또는, 이미지의 일부가 잘려나가 종횡비가 맞지 않는 경우에 칼럼(column) 또는 로(row)를 추가하여 이미지 종횡비를 조정할 수 도 있다. 다시 말해, 이미지에 마진 또는 패딩을 추가하여 종횡비를 조정할 수 있다.
또 다른 일 실시 예에 따르면, 이미지의 용량 및 사이즈 또는 종횡비가 함께 조정될 수 있다. 일 예로, 이미지의 용량이 큰 경우에 이미지를 다운 샘플링하여 이미지 용량을 축소하고, 축소된 이미지에 포함된 불필요한 부분을 크롭하여 적절한 이미지 데이터로 변환할 수 있다.
또한, 일 실시 예에 따르면, 이미지 데이터의 방향(orientation)이 변경될 수도 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우, 각각의 안저 이미지는 그 용량이 조절되거나, 사이즈가 조정될 수 있다. 안저 이미지의 안저 부분을 제외한 여백 부분을 제거하기 위한 크롭핑 또는 안저 이미지의 잘린 부분을 보충하여 종횡비를 조정하기 위한 패딩을 수행할 수 있다.
도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시 예에 따른 이미지 리사이징 프로세스에 의하여, 획득된 안저 이미지가 리사이징될 수 있다.
구체적으로 원본 안저 이미지(a)는 진단 정보 획득에 불필요한 여백 부분이 크롭되고(b), 학습 효율의 증진을 위하여 그 크기가 축소(c)될 수 있다.
1.2.2.3 이미지 전처리
일 실시 예에 따르면, 이미지 전처리가 수행될 수 있다. 이미지를 입력된 그대로 학습에 이용할 경우, 불필요한 특성들에 대한 학습 결과 과적합 현상 등이 발생할 수 있고, 학습 효율 역시 저하될 수 있다.
이를 방지하기 위하여, 이미지 데이터를 학습의 목적에 부합하도록 적절히 전처리하여 이용함으로써 학습 효율 및 성능을 향상시킬 수 있다. 예컨대, 안저 이미지에 대하여 안질환의 이상 징후를 검출하기에 용하이하도록 하는 전처리 또는 망막 혈관 내지 혈류 변화가 강조되도록 하는 전처리가 수행될 수 있다.
전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 전처리가 수행될 수 있다. 데이터 가공 모듈은 리사이징된 이미지를 획득하고 학습에 요청되는 전처리를 수행할 수 있다.
이미지 전처리는 전술한 리사이징 처리가 완료된 이미지에 대하여 수행될 수 있다. 다만, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니고, 리사이징 처리를 생략하고 이미지에 대한 전처리가 수행될 수도 있다. 이미지의 전처리를 가하는 것은 이미지에 전처리 필터를 적용하는 것일 수 있다.
일 실시 예에 따르면, 이미지에 블러(blur) 필터가 적용될 수 있다. 이미지에 가우시안 필터가 적용될 수 있다. 이미지에 가우시안 블러 필터가 적용될 수 도 있다. 또는, 이미지에 이미지를 선명하게 하는 디블러(deblur) 필터가 적용될 수 있다.
다른 일 실시 예에 따르면, 이미지의 색상을 조정 또는 변조하는 필터가 적용될 수 있다. 예컨대, 이미지를 구성하는 RGB 값 중 일부 성분의 값을 변경하거나, 또는 이미지를 이진화하는 필터가 적용될 수도 있다.
또 다른 일 실시 예에 따르면, 이미지에 특정 요소가 강조되도록 하는 필터가 적용될 수 있다. 예컨대, 안저 이미지 데이터에 대하여, 각 이미지로부터 혈관 요소가 강조되도록 하는 전처리가 수행될 수 있다. 이 때, 혈관 요소가 강조되도록 하는 전처리는 하나 이상의 필터를 순차적으로 조합하여 적용하는 것일 수 있다.
일 실시 예에 따르면, 이미지의 전처리는 획득하고자 하는 진단 보조 정보의 특성을 고려하여 수행될 수 있다. 예컨대, 망막의 출혈, 드루젠, 미세혈관류, 삼출물 등의 소견과 관련된 진단 보조 정보를 획득하고자 하는 경우에는 획득된 안저 이미지를 레드프리 안저 이미지 형태로 변환하는 전처리를 수행할 수 있다.
1.2.2.4 이미지 증강(augmentation)
일 실시 예에 따르면, 이미지가 증강 또는 확장될 수 있다. 전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 증강이 수행될 수 있다.
증강된 이미지들은 신경망 모델의 트레이닝 성능 개선을 위하여 이용될 수 있다. 예컨대, 신경망 모델의 트레이닝을 위한 데이터의 양이 부족한 경우에, 트레이닝을 위한 데이터 수의 확대를 위하여 존재하는 트레이닝 이미지 데이터의 변조를 실시하고, 변조(또는 변화)된 이미지를 원본 이미지와 함께 이용함으로써 트레이닝 이미지 데이터 수를 늘릴 수 있다. 이에 따라 과학습(overfitting)이 억제되고 모델의 레이어를 보다 깊이 형성할 수 있으며, 예측 정확도가 향상될 수 있다.
예를 들어, 이미지 데이터의 확장은, 이미지의 좌우를 반전시키거나, 이미지의 일부를 오려내거나, 이미지의 색상 값을 보정하거나, 또는 인위적인 노이즈를 추가하여 수행될 수 있다. 구체적인 예로, 이미지의 일부를 오려내는 것은 이미지를 구성하는 요소의 일부 영역을 오려내거나, 일부 영역들을 랜덤하게 오려내는 방식으로 수행될 수 있다. 보다 많은 예로, 이미지 데이터를 좌우 반전, 상하 반전, 회전, 일정 비율 리사이징, 크롭핑, 패딩, 색상 조정 또는 밝기 조정 함으로써 이미지 데이터를 확장할 수 있다.
일 예로, 상술한 이미지 데이터의 증강 또는 확장은 일반적으로, 트레이닝 데이터 세트에 대하여 적용될 수 있다. 다만, 이외의 데이터 세트, 예컨대, 테스트 데이터 세트, 즉 트레이닝 데이터를 이용한 학습 및 검증 데이터를 이용한 검증이 끝난 모델의 테스트를 위한 데이터 세트에도 적용될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우에, 데이터의 수를 늘리기 위하여 이미지를 반전시키거나, 오려내거나, 노이즈를 추가하거나, 색상을 변경하는 것 중 하나 이상의 처리를 랜덤하게 적용하여 증강된 안저 이미지 데이터 세트를 획득할 수 있다.
도 12는 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다. 도 12를 참조하면, 일 실시 예들에 따른 이미지는 신경망 모델의 예측 정확도를 향상시키기 위하여 변형될 수 있다.
구체적으로, 도 12를 참조하면, 일 실시 예들에 따른 이미지는 일부 영역이 드롭-아웃되거나(a), 좌우가 반전되거나(b), 중심점이 이동되거나(c, d), 일부 영역의 색상이 변조(e)될 수 있다.
1.2.2.5 이미지 직렬화(serialization)
일 실시 예에 따르면, 이미지 데이터는 직렬화(linearization)될 수 있다. 이미지는 전술한 학습부의 데이터 가공 모듈에 의하여 직렬화될 수 있다. 직렬화 모듈은 전처리된 이미지 데이터를 직렬화하고 큐 모듈로 전달할 수 있다.
이미지 데이터를 그대로 이용하여 학습에 이용하게 되면, 이미지 데이터는 JPG, PNB, DCM 등의 이미지 파일 형태를 가지기 때문에 디코딩이 필요한데, 매번 디코딩을 거쳐 학습을 수행하게 되면 모델 학습의 성능이 저하될 수 있다. 이에 따라, 이미지 파일을 그대로 학습에 이용하지 않고 직렬화하여 학습을 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 직렬화되는 이미지 데이터는 전술한 이미지 리사이징 및 이미지 전처리 중 하나 이상의 단계가 적용된 이미지 데이터거나, 둘 다 처리되지 아니한 이미지 데이터일 수 있다.
이미지 데이터 세트에 포함되는 각 이미지 데이터는 스트링 형태로 변환될 수 있다. 이미지 데이터는 이진화된 데이터 형태로 변환될 수 있다. 특히, 이미지 데이터는 신경망 모델의 학습에 이요되겡 적합한 데이터 형태로 변환될 수 있다. 일 예로, 이미지 데이터는 텐서플로우(tensorflow)를 이용한 신경망 모델 학습에 이용하기 위한 TFRecord 형태로 변환될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 세트가 이용되는 경우에, 획득된 안저 이미지 세트는 TFReocrd 형태로 변환되어 신경망 모델의 학습에 이용될 수 있다.
1.2.2.6 큐(Queue)
데이터의 병목 현상을 해소하기 위하여 큐(Queue)가 이용될 수 있다. 전술한 학습부의 큐 모듈의 이미지 데이터를 큐에 저장하고, 학습 모델 모듈로 전달할 수 있다.
특히 CPU(Central Processing Unit)와 GPU(Graphic Processing Unit)를 함께 이용하여 학습 프로세스를 진행하는 경우에, 큐를 이용함으로써, CPU와 GPU 사이의 병목 현상을 최소화하고 데이터베이스에 대한 접근이 원활하게 하며 메모리 사용 효율을 증진할 수 있다.
큐는 신경망 모델의 학습에 이용되는 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장할 수 있다. 큐에 저장되는 이미지 데이터는 전술한 데이터 가공 프로세스(즉, 리사이징, 전처리 및 증강) 중 적어도 하나가 처리된 이미지 데이터이거나 획득된 상태 그대로의 이미지일 수 있다.
큐는 이미지 데이터, 바람직하게는 전술한 바와 같이 직렬화된 이미지 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장하고, 신경망 모델로 이미지 데이터를 공급할 수 있다. 큐는 신경망 모델로 배치(batch) 사이즈 단위로 이미지 데이터를 전달할 수 있다.
큐는 이미지 데이터를 제공할 수 있다. 큐는 후술하는 학습 모듈에 데이터를 제공할 수 있다. 학습 모듈에서 데이터를 추출함에 따라 큐에 축적된 데이터 수가 줄어들 수 있다.
신경망 모델의 학습이 진행됨에 큐에 저장된 데이터 수가 기준 이하로 감소하면, 큐는 데이터의 보충을 요청할 수 있다. 큐는 특정 종류 데이터의 보충을 요청할 수 있다. 큐는 학습부가 데이터의 보충이 요청되면, 큐에 데이터를 보충할 수 있다.
큐는 학습 장치의 시스템 메모리에 마련될 수 있다. 예컨대, 큐는 중앙 처리 장치(CPU)의 RAM(Random Access Memory)에 형성될 수 있다. 이 경우, 큐의 크기 즉, 용량은 CPU의 RAM 용량에 따라 정해질 수 있다. 큐로는 선입선출(FIFO; First In First Out) 큐, 우선순위 큐(Primary Queue) 또는 랜덤 큐가 이용될 수 있다.
1.2.3 학습 프로세스
일 실시 예에 따르면, 신경망 모델의 학습 프로세스가 개시될 수 있다.
일 실시 예에 따르면, 신경망 모델의 학습은 전술한 학습 장치에 의하여 수행될 수 있다. 학습 프로세스는 학습 장치의 제어부에 의해 수행될 수 있다. 학습 프로세스는 전술한 학습부의 학습 모듈에 의하여 수행될 수 있다.
도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 13을 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는 데이터를 획득(S1010)하고, 신경망 모델을 학습(S1030)하고, 학습된 모델을 검증(S1050)하고, 학습된 모델의 변수를 획득(S1070)하여 수행될 수 있다.
이하에서는, 도 13을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다.
1.2.3.1 데이터 입력
진단 보조 신경망 모델의 학습을 위한 데이터 세트가 획득될 수 있다.
획득되는 데이터는 전술한 데이터 가공 프로세스에 의하여 처리된 이미지 데이터 세트일 수 있다. 일 예로, 데이터 세트는 사이즈가 조정되고 전처리 필터가 적용되고 데이터가 증강된 후 직렬화된 안저 이미지 데이터를 포함할 수 있다.
신경망 모델의 학습 단계에서는 트레이닝 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 검증 단계에서는 검증 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 테스트 단계에서는 테스트 데이터 세트가 획득 및 이용될 수 있다. 각 데이터 세트는 안저 이미지 및 라벨을 포함할 수 있다.
데이터 세트는 큐로부터 획득될 수 있다. 데이터 세트는 큐로부터 배치 사이즈 단위로 획득될 수 있다. 예컨대, 배치 사이즈로서 60개가 지정된 경우, 데이터 세트는 큐로부터 60개 단위로 추출될 수 있다. 배치 사이즈의 사이즈는 GPU의 RAM 용량에 의해 제한될 수 있다.
데이터 세트는 큐로부터 학습 모듈로 랜덤하게 획득될 수 있다. 데이터 세트는 큐에 축적된 순서대로 획득될 수도 있다.
학습 모듈은 큐로부터 획득되는 데이터 세트의 구성을 지정하여 추출할 수 있다. 일 예로, 학습 모듈로 특정 피검자의 좌안 라벨을 가지는 안저 이미지와 우안 라벨을 가지는 안저 이미지 데이터가 함께 학습에 이용되도록 추출할 수 있다.
학습 모듈은 큐로부터 특정 라벨의 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터 세트를 획득할 수 있다. 학습 모듈은 큐로부터 라벨에 따른 데이터 수의 비율을 지정하여 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터의 수와 진단 정보 라벨이 정상인 안저 이미지 데이터의 수가 1 대 1이 되도록 안저 이미지 데이터 세트를 획득할 수 있다.
1.2.3.2 모델의 설계
신경망 모델은 이미지 데이터에 기초하여 진단 보조 정보를 출력하는 진단 보조 모델일 수 있다. 진단 보조 정보 획득을 위한 진단 보조 신경망 모델의 구조는 미리 정해진 형태를 가질 수 있다. 신경망 모델은 복수의 계층 또는 레이어를 포함할 수 있다.
신경망 모델은 진단 보조 정보를 생성하는 분류기(Classifier)의 형태로 구현될 수 있다. 분류기는 이중 분류 또는 다중 분류를 수행할 수 있다. 예컨대, 신경망 모델은 입력 데이터를 특정 질병 또는 이상 징후 등의 타겟 진단 보조 정보에 대하여 정상 또는 비정상 클래스로 분류하는 이진 분류 모델일 수 있다. 또는, 신경망 모델은 입력 데이터를 특정 특성(예컨대, 질병의 진행 정도)에 대한 복수의 등급 클래스로 분류하는 다중 분류 모델일 수 있다. 또는, 신경망 모델은 특정 질병과 관련된 특정 수치를 출력하는 회귀 형태의 모델로 구현될 수도 있다.
신경망 모델은 합성곱 신경망(CNN; Convolutional Neural Network)을 포함할 수 있다. CNN 구조로서, Alexnet, LENET, NIN, VGGNet, ResNEt, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySuperviseNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다.
일 예로, 신경망 모델은 복수의 VGGNet 블록을 포함하도록 구현될 수 있다. 보다 구체적인 예로, 신경망 모델은 3x3 크기의 64개의 필터를 가지는 CNN 레이어, BN(Batch Normalization) 레이어, 및 ReLu 레이어가 순차적으로 결합된 제1 구조 및 3x3 크기의 128개의 필터를 가지는 CNN 레이어, ReLu 레이어 및 BN 레이어가 순차적으로 결합된 제2 블록이 결합되어 마련될 수 있다.
신경망 모델은 각 CNN 블록에 이어서, 맥스 풀링 레이어를 포함하고, 종단에는 GAP(Global Average Pooling) 레이어, FC(Fully Connected) 레이어, 및 활성화 레이어(예컨대, 시그모이드, 소프트 맥스 등)를 포함할 수 있다.
1.2.3.3 모델의 학습
신경망 모델은 트레이닝 데이터 세트를 이용하여 학습될 수 있다.
신경망 모델은 라벨링된 데이터 세트를 이용하여 학습될 수 있다. 다만, 본 명세서에서 설명하는 진단 보조 신경망 모델의 학습 프로세스가 이에 한정되는 것은 아니며, 신경망 모델은 라벨링되지 아니한 데이터를 이용하여 비지도 형태로 학습될 수도 있다.
신경망 모델의 학습은, 트레이닝 이미지 데이터에 기초하여, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화함으로써 수행할 수 있다. 또한, 신경망 모델의 학습은 후술하는 모델의 검증 결과, 테스트 결과 및/또는 진단 단계로부터의 피드백으로부터 영향을 받을 수 있다.
상술한 신경망 모델의 학습은 텐서플로우를 이용하여 수행될 수 있다. 다만, 일 실시 예가 이에 한정되지는 아니하며, 티아노(Theano), 케라스(Keras), 카페(Caffe), 토치(Torch), CNTK(Microsoft Cognitive Toolkit) 등의 프레임워크가 신경망 모델의 학습이 이용될 수도 있다.
1.2.3.4 모델의 검증(validation)
신경망 모델은 검증 데이터 세트를 이용하여 검증될 수 있다. 신경망 모델의 검증은 학습이 진행된 신경망 모델로부터 검증 데이터 세트에 대한 결과값을 획득하고, 결과값과 검증 데이터 세트의 라벨을 비교하여 수행될 수 있다. 검증은 결과값의 정확도(accuracy)를 측정하여 수행될 수 있다. 검증 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)가 조정될 수 있다.
일 예로, 일 실시 예에 따른 학습 장치는, 안저 이미지에 기초하여 진단 보조 정보를 예측하는 신경망 모델을 학습시키고, 학습된 모델의 검증 안저 이미지에 대한 진단 보조 정보를 검증 안저 이미지에 대응되는 검증 라벨과 비교함으로써 진단 보조 신경망 모델의 검증을 수행할 수 있다.
신경망 모델의 검증에는, 별도의 검증 세트(external data set), 즉 트레이닝 데이터 세트에는 포함되지 않는 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. 예를 들어, 별도의 검증 세트는 트레이닝 데이터 세트와 인종, 환경, 나이, 성별 등의 요인이 구별되는 데이터 세트일 수 있다.
1.2.3.5 모델의 테스트
신경망 모델은 테스트 데이터 세트를 이용하여 테스트될 수 있다.
도 13에서 도시하지는 아니하였으나, 일 실시 예에 따른 학습 프로세스에 의하면, 신경망 모델을 트레이닝 데이터 세트 및 검증 데이터 세트와 구분되는 테스트 데이터 세트를 이용하여 테스트할 수 있다. 테스트 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다.
일 예로, 일 실시 예에 따른 학습 장치는 안저 이미지에 기초하여 진단 보조 정보를 예측하도록 학습된 신경망 모델로부터, 트레이닝 및 검증에 이용되지 않은 테스트 안저 이미지 데이터를 입력으로 하는 결과 값을 획득하여, 학습 및 검증된 진단 보조 신경망 모델의 테스트를 수행할 수 있다.
신경망 모델의 테스트에는, 별도로 마련된 검증 세트(external data set), 즉, 트레이닝 및/또는 검증 데이터와 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다.
1.2.3.6 결과의 출력
신경망 모델의 학습 결과, 최적화된 모델의 파라미터 값이 획득될 수 있다. 전술한 바와 같이 테스트 데이터 세트를 이용하여 모델의 학습을 반복적으로 진행함에 따라, 보다 적절한 파라미터(또는 변수) 값이 얻어질 수 있다. 학습이 충분히 진행되면, 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
일 실시 예에 따르면, 학습된 신경망 모델 및/또는 학습된 신경망 모델의 파라미터 또는 변수는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 학습된 신경망 모델은 진단 장치 및/또는 클라이언트 장치 등에 의하여 진단 보조 정보의 예측에 이용될 수 있다. 또한, 학습된 신경망 모델의 파라미터 또는 변수는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.2.3.7 모델 앙상블(ensemble)
일 실시 예에 따르면, 하나의 진단 보조 신경망 모델을 학습하는 과정에서, 복수의 서브 모델이 동시에 학습될 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다.
이 때, 일 실시 예에 따른 진단 보조 신경망 모델은 복수의 서브 신경망 모델을 조합하여 구현될 수 있다. 다시 말해, 복수의 서브 신경망을 조합하는 앙상블 기법을 이용하여 신경망 모델의 학습을 수행할 수 있다.
앙상블을 형성하여 진단 보조 신경망 모델을 구성할 경우, 다양한 형태의 서브 신경망 모델로부터 예측되는 결과를 종합하여 예측을 수행할 수 있어, 결과 예측의 정확도가 보다 향상될 수 있다.
도 14는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 14를 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는, 데이터 세트를 획득(S1011)하고, 획득된 데이터를 이용하여 제1 모델(즉, 제1 신경망 모델) 및 제2 모델(즉, 제2 신경망 모델)을 학습(S1031, S1033)하고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 검증(S1051)하고, 최종 신경망 모델을 결정하고 그 파라미터 또는 변수를 획득(S1072)할 수 있다.
이하에서는, 도 14를 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다.
일 실시 예에 따르면 복수의 서브 신경망 모델은 동일한 트레이닝 데이터 세트를 획득하고, 개별적으로 출력값을 생성할 수 있다. 이 때, 복수의 서브 신경망 모델의 앙상블을 최종 신경망 모델로 결정하고, 복수의 서브 신경망 모델 각각에 대한 파라미터 값이 학습 결과로 얻어질 수 있다. 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델에 의한 출력값의 평균값으로 정해질 수 있다. 또는, 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델의 출력값에 대한 가중 평균값으로 정해질 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 기계 학습에 의하여 제1 서브 신경망 모델에 대한 최적화된 파라미터 값 및 제2 서브 신경망 모델의 최적화된 파라미터 값을 획득할 수 있다. 이 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델로부터 각각 획득되는 출력값(예컨대, 특정 진단 보조 정보에 대한 확률 값)들에 대한 평균값을 최종 신경망 모델의 출력값으로 결정할 수 있다.
일 실시 예의 다른 일 실시 예에 따르면, 복수의 서브 신경망 모델 각각에 의한 출력값에 기초하여 개별 서브 신경망 모델의 정확도를 평가할 수 있다. 이때, 정확도에 기초하여 복수의 서브 신경망 모델 중 어느 하나의 모델을 선택하여 최종 서브 신경망 모델로 결정할 수 있다. 결정된 서브 신경망 모델의 구조 및 학습 결과 얻어진 결정된 서브 신경망 모델의 파라미터 값들은 저장될 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델 각각에 따른 정확도를 획득하고, 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정할 수 있다.
일 실시 예의 또 다른 일 실시 예에 따르면, 복수의 신경망 모델 중 적어도 하나의 서브 신경망을 조합하고, 조합된 적어도 하나의 서브 신경망 모델의 앙상블을 형성하고, 각각의 앙상블에 대하여 평가하되, 복수의 앙상블 중 정확도가 높은 앙상블을 형성하는 서브 신경망 모델의 조합을 최종 신경망 모델로 결정할 수 있다. 이 때, 복수의 서브 신경망 모델 중 적어도 하나를 선택하는 가능한 모든 경우의 수에 대하여 앙상블을 수행하고, 가장 정확도가 높은 것으로 평가된 서브 신경망 조합을 최종 신경망 모델로 결정할 수도 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 대, 제1 서브 신경망 모델의 정확도, 제2 서브 신경망 모델의 정확도, 및 제1 및 제2 서브 신경망 모델의 앙상블에 의한 정확도를 비교하고, 가장 정확한 경우의 서브 신경망 모델 구성을 최종 신경망 모델로 결정할 수 있다.
1.2.4 실시 예 1 - 학습 장치의 제어 방법
도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 안저 이미지의 전처리를 수행하는 단계(S110), 전처리된 제1 안저 이미지를 직렬화하는 단계(S130), 제1 신경망 모델을 학습시키는 단계(S150)를 포함할 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치, 진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치를 포함하는 시스템에 포함되는 학습 장치의 제어 방법일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계(S110)는 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 것을 더 포함할 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은, 전처리된 제1 안저 이미지를 직렬화하는 단계(S130)를 포함할 수 있다. 제1 안저 이미지는 신경망 모델의 학습에 용이한 형태로 직렬화될 수 있다.
이때, 제1 신경망 모델을 학습시키는 단계(S150)는 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 것을 더 포함할 수 있다.
학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시킬 수 있다.
일 실시 예에 따르면, 학습 장치의 제어 방법은 제2 트레이닝 세트에 포함된 제2 안저 이미지가 제2 신경망 모델의 학습에 적합하도록 제2 안저 이미지의 전처리를 수행하는 단계, 전처리된 제2 안저 이미지를 직렬화하는 단계 및 직렬화된 제2 안저 이미지를 이용하여, 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 제2 신경망 모델을 학습시키는 단계를 더 포함할 수 있다.
도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제2 안저 이미지의 전처리를 수행하는 단계(S210), 전처리된 제2 안저 이미지를 직렬화하는 단계(S230), 제2 신경망 모델을 학습시키는 단계(S250)를 포함할 수 있다.
도 16에서는 설명의 편의를 위하여, 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 제1 안저 이미지의 전처리, 제2 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 수행되는 것으로 묘사하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다.
제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 독립적으로 수행될 수 있다. 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 병렬적으로 수행될 수 있다. 다시 말해, 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 반드시 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습 이후에 이루어지거나, 이전에 이루어져야 하는 것은 아니며, 제1 안저 이미지에 대한 처리 및 제2 안저 이미지에 대한 처리는 상호 의존관계 없이 수행될 수 있다.
제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별될 수 있다. 예컨대, 제1 전처리는 혈관 강조 전처리이고, 제2 전처리는 색상 변조 전처리일 수 있다. 각 전처리는 각 신경망 모델을 통하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다.
일 실시 예에 따른 학습 장치의 제어 방법은, 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계 및 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계를 더 포함할 수 있다. 이때, 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행될 수 있다.
직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고, 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측 값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측 값을 함께 고려하여 수행될 수 있다.
제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측 값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측 값을 함께 고려하여 수행될 수 있다.
제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함할 수 있다. 이때, 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통될 수 있다.
제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 상기 제1 소견에 대하여 정상임을 지시하는 정상이고, 상기 제2 라벨은 상기 피검체가 상긴 제2 소견에 대하여 비정상임을 지시하는 비정상일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 크롭하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함할 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 가공부가 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함할 수 있다.
직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다. 큐는 상기 제1 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청할 수 있다.
제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나일 수 있다.
도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 신경망 모델을 검증하는 단계(S170) 및 제1 신경망 모델을 갱신하는 단계(S190)를 더 포함할 수 있다.
제1 신경망 모델을 검증하는 단계(S170)는 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여 1 신경망 모델을 검증하는 것을 더 포함할 수 있다.
제1 신경망 모델을 갱신하는 단계(S190), 제1 신경망 모델을 검증하는 단계(S170)로부터 얻어진 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계를 더 포함할 수 있다.
한편, 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 제1 신경망 모델을 학습시키는 단계는 제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고, 상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고, 상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함할 수 있다.
1.3 진단 보조 프로세스
일 실시 예에 따르면, 신경망 모델을 이용하여 진단 보조 정보를 획득하는 진단 보조 프로세스(또는 진단 프로세스)가 제공될 수 있다. 구체적인 예로, 진단 보조 프로세스에 의하여, 안저 이미지를 이용하고 학습된 진단 보조 신경망 모델을 통하여 진단 보조 정보(예컨대, 진단 정보 또는 소견 정보)가 예측될 수 있다.
이하에서 설명하는 진단 보조 프로세스는 진단 장치에 의하여 수행될 수 있다.
1.3.1 진단부
일 실시 예에 따르면, 진단 프로세스는 진단부(200)에 의해 수행될 수 있다. 진단부(200)는 전술한 진단 장치 내에 마련될 수 있다.
도 18은 일 실시 예에 따른 진단부(200)의 구성을 설명하기 위한 도면이다. 도 18을 참조하면, 진단부(200)는 진단 요청 획득 모듈(210), 데이터 가공 모듈(230), 진단 모듈(250) 및 출력 모듈(270)을 포함할 수 있다.
각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 16에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 진단의 양태에 따라 일부 요소가 추가되거나 일부 요소가 생략될 수 있다.
1.3.2 데이터 획득 및 진단 요청
일 실시 예에 따른 진단 장치는 진단 대상 데이터를 획득하고, 이에 기초하여, 진단 보조 정보를 획득할 수 있다. 진단 대상 데이터는 이미지 데이터일 수 있다. 전술한 진단부의 진단 요청 획득 모듈에 의하여 데이터 획득 및 진단 요청의 획득이 수행될 수 있다.
도 19는 일 예에 따른 진단 대상 데이터(TD)를 설명하기 위한 도면이다. 도 19를 참조하면, 진단 대상 데이터(TD)는 진단 대상 이미지(T1) 및 진단 대상 객체 정보(PI; patient information)를 포함할 수 있다.
진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 예컨대, 진단 대상 이미지는 안저 이미지일 수 있다. 진단 대상 이미지(TI)는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.
진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안인지 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다.
진단 장치는 진단 요청을 획득할 수 있다. 진단 장치는 진단 요청과 함께 진단 대상 데이터를 획득할 수 있다. 진단 장치는 진단 요청이 획득되면, 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 장치는 클라이언트 장치로부터 진단 요청을 획득할 수 있다. 또는, 진단 장치는 별도로 마련된 입력 수단을 통하여 사용자로부터 진단 요청을 획득할 수 있다.
1.3.3 데이터 가공 프로세스
획득된 데이터는 가공될 수 있다. 데이터의 가공은 전술한 진단부의 데이터 가공 모듈에 의하여 수행될 수 있다.
데이터 가공 프로세스는 일반적으로, 전술한 학습 프로세스에서의 데이터 가공 프로세스와 유사하게 수행될 수 있다. 이하에서는, 학습 프로세스에서의 데이터 가공 프로세스와의 차이점을 중심으로, 진단 프로세스에서의 데이터 가공 프로세스에 대하여 설명한다.
진단 프로세스에서, 진단 장치는 학습 프로세스에서와 마찬가지로 데이터를 획득할 수 있다. 이때, 획득되는 데이터는 학습 프로세스에서 획득되는 데이터와 동일한 형식일 수 있다. 예를 들어, 학습 프로세스에서 학습 장치가 DCM 형식의 이미지 데이터를 이용하여 진단 보조 신경망 모델을 학습시킨 경우, 진단 장치는 DCM 이미지를 획득하고 학습된 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 리사이징될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측을 효율적으로 수행하기 위하여, 적절한 용량, 크기 및/또는 종횡비를 가지도록 그 형태가 조정될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 안저 이미지에 기초한 진단 정보의 예측을 위하여, 이미지의 불필요한 부분을 크롭하거나, 그 사이즈를 축소하는 등의 리사이징이 수행될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지에는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 전처리 필터가 적용될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측의 정확도가 보다 향상되도록, 적절한 필터가 적용될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 정 진단 정보의 예측이 용이하도록 하는 전처리, 예컨대 혈관이 강조되도록 하는 이미지 전처리 또는 특정 색상이 강조되거나 약화되도록 하는 이미지 전처리가 진단 대상 이미지에 적용될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 직렬화될 수 있다. 진단 대상 이미지는 특정 워크프레임에서의 진단 모델 구동이 용이한 형태로 변환 또는 직렬화 수 있다.
진단 대상 이미지의 직렬화는 생략될 수 있다. 이는, 학습 단계에서와 달리 진단 단계에서는 프로세서가 한번에 처리하는 데이터의 수가 많지 않아, 데이터 처리 속도에 대한 부담이 상대적으로 적기 때문일 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 큐에 저장될 수 있다. 다만, 진단 프로세스에서는 처리 데이터 수가 학습 프로세스에 비하여 적으므로, 데이터를 큐에 저장하는 단계는 생략될 수도 있다.
한편, 진단 프로세스에서는, 데이터 수의 증가가 요구되지 않으므로, 정확한 진단 보조 정보의 획득을 위하여, 학습 프로세스와 달리 데이터 증강 또는 이미지 증강 절차는 이용하지 않음이 바람직할 것이다.
1.3.4 진단 프로세스
일 실시 예에 따르면, 학습된 신경망 모델을 이용한 진단 프로세스가 개시될 수 있다. 진단 프로세스는 전술한 진단 장치에서 수행될 수 있다. 진단 프로세스는 전술한 진단 서버에서 수행될 수 있다. 진단 프로세스는 전술한 진단 장치의 제어부에서 수행될 수 있다. 진단 프로세스는 전술한 진단부의 진단 모듈에 의하여 수행될 수 있다.
도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다. 도 20을 참조하면, 진단 프로세스는 진단 대상 데이터를 획득(S2010)하고, 학습된 신경망 모델을 이용하여(S2030), 획득된 진단 대상 데이터에 대응되는 결과를 획득하여 수행(S2050)될 수 있다. 다만, 데이터의 가공은 선택적으로 수행될 수 있다.
이하에서는 도 20을 참조하여, 진단 프로세스의 각 단계에 대하여 설명한다.
1.3.4.1 데이터 입력
일 실시 예에 따르면, 진단 모듈은 진단 대상 데이터를 획득할 수 있다. 획득된 데이터는, 전술한 바와 같이 가공된 데이터일 수 있다. 일 예로, 획득된 데이터는 사이즈가 조절되고 혈관이 강조되도록 하는 전처리가 적용된 피검자의 안저 이미지 데이터일 수 있다. 일 실시 예에 따르면, 하나의 피검자의 좌안 이미지 및 우안 이미지는 함께 진단 대상 데이터로 입력될 수 있다.
1.3.4.2 데이터 분류
분류기 형태로 마련된 진단 보조 신경망 모델은 입력된 진단 대상 이미지를 소정의 라벨에 대하여 긍정 또는 부정 클래스로 분류할 수 있다.
학습된 진단 보조 신경망 모델은 진단 대상 데이터를 입력받고, 예측되는 라벨을 출력할 수 있다. 학습된 진단 보조 신경망 모델은 진단 보조 정보의 예측값을 출력할 수 있다. 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 예측되는 라벨에 기초하여 결정될 수 있다.
예를 들어, 진단 보조 신경망 모델은 피검체의 안질환 또는 전신 질환에 대한 진단 정보(즉, 질병의 유무에 대한 정보) 또는 소견 정보(즉, 이상 소견의 유무에 대한 정보)를 예측할 수 있다. 이때, 진단 정보 또는 소견 정보는 확률 형태로 출력될 수 있다. 예컨대, 피검체가 특정 질병을 보유할 확률 또는 피검체의 안저 이미지체 특정 이상 소견이 있을 확률이 출력될 수 있다. 분류기 형태로 마련된 진단 보조 신경망 모델을 이용하는 경우에, 예측되는 라벨은 출력되는 확률값(또는 예측 점수)이 임계값을 초과하는지 여부를 고려하여 결정될 수 있다.
구체적인 예로, 진단 보조 신경망 모델은 피검체의 안저 사진을 진단 대상 이미지로 하여, 피검체의 당뇨 망막증 유무를 확률값으로 출력할 수 있다. 1을 정상으로 하는 분류기 형태의 진단 보조 신경망 모델을 이용하는 경우, 피검체의 안저 사진을 진단 보조 신경망 모델에 입력하고, 피검체의 당뇨 망막증 보유 여부에 대하여, 정상: 비정상의 확률 값을 0.74:0.26 등의 형태로 획득할 수 있다.
여기에서는 분류기 형태의 진단 보조 신경망 모델을 이용하여 데이터를 분류하는 경우를 기준으로 설명하였으나, 일 실시 예가 이에 한정되지는 아니하며, 회귀 모델 형태로 구현된 진단 보조 신경망 모델을 이용하여 특정한 진단 보조 수치(예컨대, 혈압 등)를 예측할 수도 있다.
일 실시 예의 다른 일 실시 예에 따르면, 이미지의 적합성 정보가 획득될 수 있다. 적합성 정보는 진단 대상 이미지가 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하기에 적합한지 여부를 나타낼 수 있다.
이미지의 적합성 정보는 이미지의 품질 정보일 수 있다. 품질 정보 또는 적합성 정보는, 진단 대상 이미지가 기준 레벨에 미치는지 여부를 나타낼 수 있다.
예컨대, 진단 대상 이미지가 촬영 장비의 결함 또는 촬영시 조명의 영향 등으로 인하여 결함을 가지는 경우, 해당 진단 대상 이미지에 대하여는 적합성 정보로서 부적합 결과가 출력될 수 있다. 진단 대상 이미지에 노이즈가 일정 수준 이상 포함된 경우, 그 진단 대상 이미지는 부적합한 것으로 판단될 수 있다.
적합성 정보는 신경망 모델을 이용하여 예측된 값일 수 있다. 또는, 적합성 정보는 별도의 이미지 분석 프로세스를 통하여 획득된 정보일 수 있다.
일 실시 예에 따르면, 이미지가 부적합한 것으로 분류된 경우에도, 부적합한 이미지에 기초하여 획득된 진단 보조 정보가 획득될 수 있다.
일 실시 예에 따르면, 부적합한 것으로 분류된 이미지는 진단 보조 신경망 모델에 의하여 재검토될 수 있다.
이때, 재검토를 수행하는 진단 보조 신경망 모델은, 최초 검토를 수행하는 진단 보조 신경망 모델과 상이할 수 있다. 예를 들어, 진단 장치는 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 저장하고, 제1 진단 보조 신경망 모델을 통하여 부적합한 것으로 분류된 이미지는 제2 진단 보조 신경망 모델을 통하여 검토될 수 있다.
일 실시 예의 또 다른 일 실시 예에 따르면, 학습된 신경망 모델로부터 CAM(Class Activation Map)이 획득될 수 있다. 진단 보조 정보는 CAM을 포함할 수 있다. CAM은 다른 진단 보조 정보와 함께 획득될 수 있다.
CAM의 경우, 선택적으로 획득될 수 있다. 예를 들어, CAM의 경우, 진단 보조 모델에 의하여 획득된 진단 정보 또는 소견 정보가 비정상 클래스로 분류된 경우에 CAM이 추출 및/또는 출력될 수 있다.
1.3.5 진단 보조 정보의 출력
진단 보조 정보는, 진단 보조 신경망 모델로부터 예측된 라벨에 기초하여 결정될 수 있다.
진단 보조 정보의 출력은 전술한 진단부의 출력 모듈에 의하여 수행될 수 있다. 진단 보조 정보는 진단 장치로부터 클라이언트 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치로부터 서버 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치 또는 진단 서버에 저장될 수 있다. 진단 보조 정보는 별도로 마련된 서버 장치 등에 저장될 수 있다.
진단 보조 정보는 데이터베이스화 되어 관리될 수 있다. 예컨대, 획득된 진단 보조 정보는 피검체의 식별 번호에 따라 해당 피검체의 진단 대상 이미지와 함께 저장 및 관리될 수 있다. 이때, 피검체의 진단 대상 이미지 및 진단 보조 정보는 시간 순서에 따라 관리될 수 있다. 진단 보조 정보 및 진단 대상 이미지를 시계열적으로 관리함으로써, 개인별 진단 정보의 추적 및 이력 관리가 용이해질 수 있다.
진단 보조 정보는 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치에 마련된 시각적 또는 청각적 출력 수단을 통하여 사용자가 인지할 수 있도록 출력될 수 있다.
일 실시 예에 따르면, 사용자에게 진단 보조 정보를 효과적으로 제공하기 위한 인터페이스가 제공될 수 있다. 이러한 사용자 인터페이스와 관련하여서는 후술하는 5. 사용자 인터페이스 에서 보다 상세히 설명한다.
신경망 모델에 의하여 CAM이 획득된 경우, CAM의 이미지가 함께 제공될 수 있다. CAM 이미지의 경우 선택적으로 제공될 수 있다. 예컨대, 진단 보조 신경망 모델을 통하여 획득된 진단 정보가 정상 소견 정보 또는 정상 진단 정보인 경우 CAM 이미지를 제공하지 않고, 획득된 진단 정보가 비정상 소견 정보 또는 비정상 진단 정보인 경우, 보다 정확한 임상 진단을 위하여 CAM 이미지가 함께 제공될 수 있다.
이미지가 부적합한 것으로 분류된 경우, 이미지의 적합성 정보가 함께 제공될 수 있다. 일 예로, 이미지가 부적합한 것으로 분류된 경우, 해당 이미지에 따라 획득된 진단 보조 정보 및 부적합 판정 정보가 함께 제공될 수 있다.
부적합한 것으로 판정된 진단 대상 이미지는 재촬영 대상 이미지로 분류될 수도 있다. 이때, 재촬영 대상으로 분류된 이미지의 대상 객체에 대한 재촬영 안내가 적합성 정보와 함께 제공될 수 있다.
한편, 신경망 모델을 통하여 획득된 진단 보조 정보를 제공하는 것에 응답하여, 신경망 모델의 학습과 관련된 피드백이 획득될 수 있다. 예컨대, 신경망 모델의 학습과 관련된 파라미터 또는 하이퍼 파라미터를 조정하기 위한 피드백이 획득될 수 있다. 피드백은 진단 장치 또는 클라이언트 장치에 마련된 사용자 입력부를 통하여 획득될 수 있다.
일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 신경망 모델이 다중 분류를 수행하는 분류기 모델인 경우, 등급 정보는 진단 대상 이미지가 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 신경망 모델이 특정 질병과 관련된 수치를 출력하는 회귀 모델인 경우, 등급 정보는 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. 또는, 등급 정보는, 신경망 모델을 통하여 획득된 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
한편, 등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
1.4 복수 라벨에 대한 진단 보조 시스템
일 실시 예에 따르면, 복수 라벨(예컨대, 복수의 진단 보조 정보)에 대하여 예측하기 위한 진단 보조 시스템이 제공될 수 있다. 이를 위하여, 전술한 진단 보조 시스템의 진단 보조 신경망을 복수의 라벨에 대하여 예측하도록 설계할 수 있다.
또는, 위와 전술한 진단 보조 시스템에 있어서, 서로 다른 라벨에 대하여 예측하는 복수의 진단 보조 신경망이 병렬적으로 이용될 수 있다.
이하에서는, 이러한 병렬 진단 보조 시스템에 대하여 설명한다.
1.4.1 병렬 진단 보조 시스템 구성
일 실시 예에 따르면, 복수의 진단 보조 정보를 획득하기 위한 병렬 진단 보조 시스템이 제공될 수 있다. 병렬 진단 보조 시스템은 복수의 진단 보조 정보를 획득하기 위한 복수의 신경망 모델을 학습시키고, 학습된 복수의 신경망 모델을 이용하여 복수의 진단 보조 정보를 획득할 수 있다.
예컨대, 병렬 진단 보조 시스템은 안저 이미지에 기초하여, 피검체의 안질환 유무와 관련된 제1 진단 보조 정보를 획득하는 제1 신경망 모델 및 피검체의 전신 질환 유무와 관련된 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 학습시키고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 피검체의 안질환 유무 및 전신 질환 유무에 관한 진단 보조 정보를 출력할 수 있다.
도 21 및 22는 일 실시 예의 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다. 도 21 및 22를 참조하면, 병렬 진단 보조 시스템은 복수의 학습부를 포함할 수 있다.
도 21을 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(30)은 학습 장치(1000), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 이때, 학습 장치(1000)는 복수의 학습부를 포함할 수 있다. 예를 들어, 학습 장치(1000)는 제1 학습부(100a) 및 제2 학습부(100b)를 포함할 수 있다.
도 22를 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(40)은 제1 학습 장치(1000a), 제2 학습 장치(1000b), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 제1 학습 장치(1000a)는 제1 학습부(100a)를 포함할 수 있다. 제2 학습 장치(1000b)는 제2 학습부(100b)를 포함할 수 있다.
도 21 및 22를 참조하면, 제1 학습부(100a)는 제1 데이터 세트를 획득하고, 제1 신경망 모델에 대하여 학습 결과 얻어진 제1 신경망 모델의 제1 파라미터 세트를 출력할 수 있다. 제2 학습부(100b)는 제2 데이터 세트를 획득하고, 제2 신경망 모델에 대하여 학습 결과 얻어진 제2 신경망 모델의 제2 파라미터 세트를 출력할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단 장치(2000) 및 진단부(200)에 대하여는 도 1과 관련하여 설명한 내용이 유사하게 적용될 수 있다. 진단부(200)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 각각 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다. 진단부(2000)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 획득한 학습된 제1 신경망 모델의 파라미터 및 학습된 제2 신경망 모델의 파라미터를 저장할 수 있다.
클라이언트 장치(3000)는 데이터 획득부 예컨대, 촬상부(300)를 포함할 수 있다. 다만, 촬상부(300)는 기타 진단 보조 정보의 획득에 이용되는 데이터의 획득 수단으로 대체될 수 있다. 클라이언트 장치는 진단 장치로 진단 요청 및 진단 대상 데이터(예컨대, 촬상부로부터 획득된 안저 이미지)를 전송할 수 있다. 클라이언트 장치(3000)는 진단 요청을 전송하는 것에 응답하여, 진단 장치로부터, 전송한 진단 대상 데이터에 따른 복수의 진단 보조 정보를 획득할 수 있다.
한편, 도 21 및 22에서는 진단 보조 시스템(40)이 제1 학습부(100a) 및 제2 학습부(100b)를 포함하는 경우를 기준으로 설명하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다. 일 실시 예의 다른 실시 예에 따르면, 학습 장치는 3개 이상의 서로 다른 진단 보조 정보를 획득하는 학습부를 포함할 수 있다. 또는, 진단 보조 시스템은 서로 다른 진단 보조 정보를 획득하는 복수의 학습 장치를 포함할 수도 있다.
학습 장치, 진단 장치 및 클라이언트 장치의 보다 구체적인 동작에 대하여는 이하에서 보다 상세하게 설명하기로 한다.
1.4.2 병렬 트레이닝 프로세스
일 실시 예에 따르면, 복수의 신경망 모델이 학습될 수 있다. 각각의 신경망 모델을 학습하는 트레이닝 프로세스는 병렬적으로 수행될 수 있다.
1.4.2.1 병렬 학습부
트레이닝 프로세스는 복수의 학습부에 의해 수행될 수 있다. 각각의 트레이닝 프로세스는 서로 독립적으로 수행될 수 있다. 복수의 학습부는 하나의 학습 장치에 마련되거나 복수의 학습 장치에 각각 마련될 수 있다.
도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다. 제1 학습부(100a) 및 제2 학습부(100b) 각각의 구성 및 동작은 도 9와 관련하여 전술한 것과 유사하게 구현될 수 있다.
도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 프로세스는, 제1 데이터 가공 모듈(110a), 제1 큐 모듈(130a), 제1 학습 모듈(150a) 및 제1 학습 결과 획득 모듈(170a)을 포함하는 제1 학습부(100a) 및 제2 데이터 가공 모듈(110b), 제2 큐 모듈(130b), 제2 학습 모듈(150b) 및 제2 학습 결과 획득 모듈(170b)을 포함하는 제2 학습부(100b)를 포함하는 학습 장치(1000)에 의하여 수행될 수 있다.
도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 트레이닝 프로세스는 제1 학습부(100a) 및 제2 학습부(100b)에 의하여 각각 수행될 수 있다. 제1 학습부(100a) 및 제2 학습부(100b)는 독립적으로 제1 신경망 모델 및 제2 신경망 모델의 학습을 수행할 수 있다. 도 23을 참조하면, 제1 학습부(100a) 및 제2 학습부(100b)는 전술한 학습 장치 내에 마련될 수 있다. 또는, 제1 학습부 및 제2 학습부는 서로 다른 학습 장치 내에 마련될 수도 있다.
1.4.2.2 병렬 데이터 획득
일 실시 예에 따르면, 복수의 학습부는 데이터를 획득할 수 있다. 복수의 학습부는 서로 다른 데이터 세트를 획득할 수 있다. 또는, 복수의 학습부는 동일한 데이터 세트를 획득할 수도 있다. 경우에 따라, 복수의 학습부는 일부가 공통되는 데이터 세트를 획득할 수도 있다. 데이터 세트는 안저 이미지 데이터 세트일 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고, 제2 학습부는 제2 데이터 세트를 획득할 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 구별될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 일부 공통될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 라벨링된 안저 이미지 데이터 세트일 수 있다.
제1 데이터 세트는 제1 특징에 대하여 정상(normal)으로 라벨링된 데이터 및 제1 특징에 대하여 비정상(abnormal)으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제2 데이터 세트는 (제1 특징과 구별되는)제2 특징에 대하여 정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제2 데이터 세트는 당뇨 망막증과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 정상으로 라벨링된 데이터 세트 및 제2 특징에 대하여 정상으로 라벨링된 데이터는 공통될 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하고, 제2 데이터 세트는 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하되, 제1 데이터 세트에 포함된 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 제2 데이터 세트에 포함된 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지는 공통될 수 있다.
또는, 제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 비정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터가 공통될 수도 있다. 즉, 복수 특징에 대하여 라벨링된 데이터가 복수 특징에 대한 신경망 모델의 학습에 이용될 수도 있다.
한편, 제1 데이터 세트는 제1 방법으로 촬영된 안저 이미지 데이터 세트이고, 제2 데이터 세트는 제2 방법으로 촬영된 안저 이미지 데이터 세트일 수 있다. 제1 방법 및 제2 방법은 레드프리 촬영, 파노라마 촬영, 자가형광 촬영, 적외선 촬영 등으로부터 선택된 어느 하나의 방법일 수 있다.
각 학습부에서 이용되는 데이터 세트는, 학습되는 신경망에 의하여 획득되는 진단 보조 정보를 고려하여 결정될 수 있다. 예를 들어, 제1 학습부는 망막 이상 소견(예를 들어, 미세혈관류, 삼출물 등)과 관련된 진단 보조 정보를 획득하고자 하는 제1 신경망 모델을 학습시키는 경우, 레드프리 촬영된 제1 안저 이미지 데이터 세트를 획득할 수 있다. 또는, 제2 학습부는 황반 변성과 관련된 진단 보조 정보를 획득하고자 하는 제2 신경망 모델을 학습시키는 경우, 자가형광 촬영된 제2 안저 이미지 데이터 세트를 획득할 수 있다.
1.4.2.3 병렬 데이터 가공
복수의 학습부는 각각 획득된 데이터를 가공할 수 있다. 전술한 2.2 데이터 가공 프로세스 에서 설명한 것과 같이, 각각의 학습부는, 획득된 데이터에 대하여, 이미지 리사이징, 전처리 필터 적용, 이미지 증강 및 이미지 직렬화 프로세스 중 하나 이상을 적용하여 데이터를 가공할 수 있다. 제1 학습부의 제1 데이터 가공 모듈은 제1 데이터 세트를 가공하고, 제2 학습부의 제2 데이터 가공 모듈은 제2 데이터 세트를 가공할 수 있다.
복수의 학습부에 포함되는 제1 학습부 및 제2 학습부는 각각에 의해 학습되는 신경망 모델로부터 획득되는 진단 보조 정보를 고려하여 획득된 데이터 세트를 달리 가공할 수 있다. 예를 들어, 제1 학습부는 고혈압과 관련된 제1 진단 보조 정보를 획득하기 위한 제1 신경망 모델을 학습시키기 위하여, 제1 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 혈관이 강조되도록 하는 전처리를 수행할 수 있다. 또는, 제2 학습부는 망막의 삼출물, 미세 혈관 등의 이상 소견과 관련된 제2 진단 보조 정보를 획득하기 위한 제2 신경망 모델을 학습시키기 위하여, 제2 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 레드프리 이미지로 변환하는 전처리를 수행할 수도 있다.
1.4.2.4 병렬 큐
복수의 학습부는 데이터를 큐에 저장할 수 있다. 전술한 2.2.6 큐 에서 설명한 것과 같이, 각각의 학습부는 처리된 데이터를 큐에 저장하고 학습 모듈로 전달할 수 있다. 예를 들어, 제1 학습부는 제1 데이터 세트를 제1 큐 모듈에 저장하고 제1 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다. 제2 학습 모듈은 제2 데이터 세트를 제2 큐 모듈에 저장하고 제2 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다.
1.4.2.5 병렬 학습 프로세스
복수의 학습부는 신경망 모델을 학습시킬 수 있다. 각각의 학습 모듈은 트레이닝 데이터 세트를 이용하여 서로 다른 라벨에 대하여 예측하는 진단 보조 신경망 모델을 각각 독립적으로 학습시킬 수 있다. 제1 학습부의 제1 학습 모듈은 제1 신경망 모델을 학습시키고, 제2 학습부의 제2 학습 모듈은 제2 신경망 모듈을 학습시킬 수 있다.
복수의 진단 보조 신경망 모델은 병렬적 및/또는 독립적으로 학습될 수 있다. 이와 같이 복수의 신경망 모델을 통하여 서로 다른 라벨에 대하여 예측하도록 모델을 학습시킴으로써, 각 라벨에 대한 예측 정확도가 향상되고, 예측 동작의 효율이 증가될 수 있다.
각각의 진단 보조 신경망 모델은 2.3.2 모델의 설계 에서 설명한 것과 유사하게 마련될 수 있다. 각각의 서브 학습 프로세스는 2.3.1 내지 2.3.5 에서 전술한 것과 유사하게 수행될 수 있다.
일 실시 예에 따른 병렬 학습 프로세스는, 서로 다른 라벨을 예측하는 진단 보조 신경망 모델을 학습시키는 것을 포함할 수 있다. 제1 학습부는 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 제2 학습부는 제2 라벨을 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제1 학습부는 황반 변성 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 황반 변성 여부를 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다.
제2 학습부는 제2 데이터 세트를 획득하고 제2 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제2 학습부는 당뇨 망막증 해당 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 당뇨 망막증 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
신경망 모델의 학습 프로세스에 대하여는 이하에서 도 24 및 25를 참조하여 보다 구체적으로 설명한다.
도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 병렬 학습 프로세스는, 병렬 진단 보조 시스템이 도 21과 같이 구현된 경우, 도 22과 같이 구현된 경우 및 그 외의 형태로 구현된 경우 모두에 적용될 수 있다. 다만, 설명의 편의를 위하여, 이하에서는 도 21과 같이 구현된 병렬 진단 보조 시스템을 기준으로 설명한다.
도 24를 참조하면, 병렬 학습 프로세스는 서로 다른 라벨을 예측하는 복수의 진단 보조 신경망 모델을 각각 학습시키는 복수의 서브 학습 프로세스를 포함할 수 있다. 병렬 학습 프로세스는 제1 신경망 모델을 학습시키는 제1 서브 학습 프로세스 및 제2 신경망 모델을 학습시키는 제2 서브 학습 프로세스를 포함할 수 있다.
예컨대, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1010a), 제1 신경망 모델을 이용하고(S1030a), 제1 모델(즉, 제1 진단 보조 신경망 모델)을 검증하고(S1050a) 제1 신경망 모델의 파라미터를 획득(S1070a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1010b), 제2 신경망 모델을 이용하고(S1030b), 제2 신경망 모델을 검증(즉, 제2 진단 보조 신경망 모델)하고(S1050b) 제2 신경망 모델의 파라미터를 획득(S1070b)하여 수행될 수 있다.
서브 학습 프로세스는 서브 신경망 모델에 트레이닝 데이터를 입력하고, 출력으로 얻어진 라벨 값을 입력 트레이닝 데이터와 비교하여 모델을 검증하고, 검증 결과를 다시 서브 신경망 모델에 반영함으로써 신경망 모델을 학습시키는 것을 포함할 수 있다.
각각의 서브 학습 프로세스는, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화하는 것을 포함할 수 있다.
각각의 서브 학습 프로세스에서, 진단 보조 신경망 모델은 트레이닝 데이터 세트와 구별되는 검증 데이터 세트를 통하여 검증될 수 있다. 제1 신경망 모델 및 제2 신경망 모델을 검증하기 위한 검증 데이터 세트는 구별될 수 있다.
복수의 학습부는 학습 결과를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습 모듈로부터 학습된 신경망 모듈에 관한 정보를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습부로부터 학습된 신경망 모듈의 파라미터 값들을 획득할 수 있다. 제1 학습부의 제1 학습 결과 획득 모듈은 제1 학습 모듈로부터 학습된 제1 신경망 모델의 제1 파라미터 세트를 획득할 수 있다. 제2 학습부의 제2 학습 결과 획득 모듈은 제2 학습 모듈로부터 학습된 제2 신경망 모델의 제2 파라미터 세트를 획득할 수 있다.
각각의 서브 학습 프로세스에 의하여, 학습된 신경망 모델의 최적화된 파라미터 값들, 즉 파라미터 세트가 획득될 수 있다. 보다 많은 트레이닝 데이터 세트를 이용하여 학습을 진행함에 따라, 보다 적절한 파라미터 값들이 얻어질 수 있다.
제1 서브 학습 프로세스에 의하여 학습된 제1 진단 보조 신경망 모델의 제1 파라미터 세트가 획득될 수 있다. 제2 서브 학습 프로세스에 의하여 학습된 제2 진단 보조 신경망 모델의 제2 파라미터 세트가 획득될 수 있다. 학습이 충분히 진행됨에 따라, 제1 진단 보조 신경망 모델의 및 제2 진단 보조 신경망 모델의 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
획득된 각 신경망 모델의 파라미터 세트는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 제1 진단 보조 신경망 모델의 제1 파라미터 세트 및 제2 진단 보조 신경망 모델의 제2 파라미터 세트는 함께 또는 따로 저장될 수 있다. 학습된 각 신경망 모델의 파라미터 세트는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.4.2.6 병렬 앙상블 학습 프로세스
복수의 신경망 모델을 병렬적으로 학습시키는 경우에도, 전술한 앙상블 형태의 모델 학습이 이용될 수 있다. 각각의 서브 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. 이하에서, 별다른 언급이 없는 한 2.3.7에서 설명한 내용이 유사하게 적용될 수 있다.
복수의 진단 보조 신경망 모델이 병렬적으로 학습되는 경우에, 각각의 진단 보조 신경망 모델을 학습시키는 서브 학습 프로세스 중 일부 서브 학습 프로세스는 단일 모델을 학습시키고, 일부 서브 학습 프로세스는 복수의 서브 모델을 함께 학습시키는 형태로 구현될 수도 있다.
각 서브 학습 프로세스에서 앙상블을 이용하여 모델을 학습시킴에 따라, 각각의 서브 프로세스에서 보다 최적화된 신경망 모델의 형태를 획득하고, 예측의 오차가 감소될 수 있다.
도 25는 일 실시 예의 다른 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 도 25를 참조하면, 각 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다.
도 25를 참조하면, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1011a), 제 1-1 신경망 모델 및 제1-2 신경망 모델을 이용하고(S1031a, S1033a) 제 1-1 신경망 모델 및 제1-2 신경망 모델을 검증(S1051a)하여, 제1 신경망 모델의 최종 형태 및 그 파라미터를 결정(S1071a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1011b), 제 2-1 신경망 모델 및 제2-2 신경망 모델을 이용하고(S1031b, S1033b) 제 2-1 신경망 모델 및 제2-2 신경망 모델을 검증(S1051b)하여, 제1 모델(즉, 제1 진단 보조 신경망 모델)의 최종 형태 및 그 파라미터를 결정(S1071b)하여 수행될 수 있다.
제1 서브 학습 프로세스에서 학습되는 제1 신경망은 제1-1 신경망 모델, 제1-2 신경망 모델을 포함할 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 서로 다른 계층 구조로 마련될 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 제1 데이터 세트를 획득하고 예측되는 라벨을 각각 출력할 수 있다. 또는, 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블에 의한 예측되는 라벨을 최종 예측 라벨로 결정할 수 있다.
이때, 제1-1 신경망 모델 및 제1-2 신경망 모델을 검증 데이터 세트를 이용하여 검증하고, 정확도가 높은 신경망 모델을 최종 신경망 모델로 결정할 수 있다. 또는, 제1-1 신경망 모델, 제1-2 신경망 모델 및 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블을 검증하고, 그 중 정확도가 높은 경우의 신경망 모델 형태를 최종 제1 신경망 모델로 결정할 수도 있다.
제2 서브 학습 프로세스에 대하여도 마찬가지로, 제2-1 신경망 모델, 제2-2 신경망 모델 및 제2-1 신경망 모델, 제2-2 신경망 모델의 앙상블 중 정확도가 높은 형태의 신경망을 최종 제2 모델(즉, 제2 진단 보조 신경망 모델)로 결정할 수 있다.
한편, 도 25에서는, 편의를 위하여 각 서브 학습 프로세스가 두 개의 서브 모델을 포함하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 일 실시 예가 이에 한정되지는 않는다. 각 서브 학습 프로세스에서 학습되는 신경망 모델은, 하나의 신경망 모델만을 포함하거나, 세 개 이상의 서브 모델을 포함할 수도 있다.
1.4.3 병렬 진단 프로세스
일 실시 예에 의하면, 복수의 진단 보조 정보를 획득하는 진단 프로세스가 제공될 수 있다. 복수의 진단 보조 정보를 획득하는 진단 프로세스는 서로 독립적인 복수의 진단 프로세스를 포함하는 병렬 진단 보조 프로세스 형태로 구현될 수 있다.
1.4.3.1 병렬 진단부
일 실시 예에 따르면, 진단 보조 프로세스는 복수의 진단 모듈에 의하여 수행될 수 있다. 각각의 진단 보조 프로세스는 독립적으로 수행될 수 있다.
도 26은 일 실시 예에 따른 진단부(200)를 설명하기 위한 블록도이다.
도 26을 참조하면, 일 실시 예에 따른 진단부(200)는 진단 요청 획득 모듈(211), 데이터 가공 모듈(231), 제1 진단 모듈(251), 제2 진단 모듈(253) 및 출력 모듈(271)을 포함할 수 있다. 진단부(200)의 각 모듈은 특별한 언급이 없는 한, 도 18에서 도시하는 진단부의 진단 모듈과 유사하게 동작할 수 있다.
도 26에서는, 진단부(200)가 복수의 진단 모듈을 포함하는 경우에도, 진단 요청 획득 모듈(211), 데이터 가공 모듈(231) 및 출력 모듈(271)은 공통되는 것으로 도시하였으나, 일 실시 예가 이러한 구성에 한정되는 것은 아니며, 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 복수로 마련될 수도 있다. 복수의 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 병렬적으로 동작할 수도 있다.
예를 들어, 진단부(200)는 입력된 진단 대상 이미지에 대하여 제1 가공을 수행하는 제1 데이터 가공 모듈 및 진단 대상 이미지에 대하여 제2 데이터 가공을 수행하는 제2 가공 모듈을 포함하고, 제1 진단 모듈은 제1 가공된 진단 대상 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 제2 가공된 진단 대상 이미지에 기초하여 제2 진단 보조 정보를 획득할 수 있다. 제1 가공 및/또는 제2 가공은 이미지 리사이징, 이미지의 색상 변조, 블러 필터 적용, 혈관 강조 처리, 레드프리 변환, 일부 영역 크롭, 일부 요소 추출 중 선택된 어느 하나일 수 있다.
복수의 진단 모듈은 서로 다른 진단 보조 정보를 획득할 수 있다. 복수의 진단 모듈은 서로 다른 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 예를 들어, 제1 진단 모듈은 피검체의 안질환 해당 여부를 예측하는 제1 신경망 모델을 이용하여 피검체의 안질환 해당 여부와 관련된 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 피검체의 전신 질환 해당 여부를 예측하는 제2 신경망 모델을 이용하여 피검체의 전신 질환 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
보다 구체적인 예로, 제1 진단 모듈은 안저 이미지에 기초하여 피검체의 당뇨 망막증 해당 여부를 예측하는 제1 진단 보조 신경망 모델을 이용하여 피검체의 당뇨 망막증 해당 여부에 관한 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 안저 이미지에 기초하여 피검체의 고혈압 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 이용하여 피검체의 고혈압 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
1.4.3.2 병렬 진단 프로세스
일 실시 예에 따른 진단 보조 프로세스는 복수의 서브 진단 프로세스를 포함할 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 보조 신경망 모델을 이용하여 수행될 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 모듈에서 수행될 수 있다. 예컨대, 제1 진단 모듈은 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하는 제1 서브 진단 프로세스를 수행할 수 있다. 또는, 제2 진단 모듈은 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 제2 서브 진단 프로세스를 수행할 수 있다.
학습된 복수의 신경망 모델은 진단 대상 데이터를 입력으로 하여, 예측되는 라벨 또는 확률을 출력할 수 있다. 각각의 신경망 모델은 분류기 형태로 마련되고, 입력되는 진단 대상 데이터를 소정의 라벨에 대하여 분류할 수 있다. 이때, 복수의 신경망 모델은 서로 다른 특성에 대하여 학습된 분류기 형태로 마련될 수 있다. 각각의 신경망 모델은 3.4.2 에서 전술한 것과 같이 진단 대상 데이터를 분류할 수 있다.
한편, 각각의 진단 보조 신경망 모델로부터, CAM이 획득될 수 있다, CAM은 선택적으로 획득될 수 있다. CAM은 미리 정해진 조건이 만족되는 경우에 추출될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우에 제1 진단 보조 신경망 모델로부터 제1 CAM이 획득될 수 있다.
도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 27을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는 진단 대상 데이터를 획득(S2011)하고, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 이용하여(S2031a, S2031b) 진단 대상 데이터에 따른 진단 보조 정보를 획득(S2051)하는 것을 포함할 수 있다. 진단 대상 데이터는 가공된 데이터일 수 있다.
일 실시 예에 따른 진단 보조 프로세스는 학습된 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하고, 학습된 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 동일한 진단 대상 데이터에 기초하여 각각 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다.
예를 들어, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 진단 대상 안저 이미지에 기초하여, 피검체의 황반 변성 여부에 관한 제1 진단 보조 정보 및 피검체의 당뇨 망막증 해당 여부에 관한 제2 진단 보조 정보를 각각 획득할 수 있다.
이외에도, 특별한 언급이 없는 한, 도 27과 관련하여 설명하는 진단 보조 프로세스는 도 20과 관련하여 전술한 진단 보조 프로세스와 유사하게 구현될 수 있다.
1.4.3.3 진단 보조 정보의 출력
일 실시 예에 따르면, 병렬 진단 보조 프로세스에 의하여 획득된 진단 보조 정보가 획득될 수 있다. 획득된 진단 보조 정보는 진단 장치, 서버 장치 및/또는 클라이언트 장치에 저장될 수 있다. 획득된 진단 보조 정보는 외부 장치로 전달될 수 있다.
복수의 진단 보조 정보는, 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨을 각각 지시할 수 있다. 복수의 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 각각 대응될 수 있다. 또는, 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측된 복수의 라벨에 기초하여 결정된 정보일 수 있다. 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 대응될 수 있다.
다시 말해, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨에 대응되는 진단 보조 정보일 수 있다. 또는, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨 및 제2 진단 보조 신경망 모델을 통하여 예측된 제2 라벨을 함께 고려하여 결정된 진단 보조 정보일 수 있다.
한편, 복수의 진단 보조 신경망 모델로부터 획득된 CAM의 이미지가 출력될 수 있다. CAM 이미지는 미리 정해진 조건이 만족되는 경우에 출력될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우 또는 제2 진단 보조 정보가 피검체가 제2 특성에 대하여 비정상임을 지시하는 경우 중 어느 하나의 경우에, 비정상임인 것으로 지시된 진단 보조 정보가 출력된 진단 보조 신경망 모델로부터 획득된 CAM 이미지가 출력될 수 있다.
복수의 진단 보조 정보 및/또는 CAM 이미지는 사용자에게 제공될 수 있다. 복수의 진단 보조 정보 등은 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 시각적으로 출력될 수 있다. 이와 관련하여, 5. 사용자 인터페이스에서 보다 상세하게 설명한다.
일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 복수의 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 등급 정보는 진단 대상 이미지가 복수의 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 등급 정보는 복수의 신경망 모델로부터 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 복수의 신경망 모델을 통하여 획득된 진단 정보 중, 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 중, 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다.
등급 정보는, 신경망 모델을 통하여 획득된 수치들 중 적어도 하나의 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치들 모두가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 포함된 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보에 대응되는 사항을 포함할 수 있다. 예컨대, 제1 사용자 안내는, 진단 보조 정보에 포함된 비정상 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
제1 내지 제3 등급 정보는, 클라이언트 장치 또는 진단 장치의 출력부에 의해 출력될 수 있다. 구체적으로, 후술하는 사용자 인터페이스를 통해 출력될 수 있다.
1.4.4 실시 예 2 - 진단 보조 시스템
일 실시 예에 따른 진단 보조 시스템은 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
일 실시 예에 따르면, 진단 보조 시스템은 진단 장치를 포함할 수 있다. 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및/또는 진단 정보 출력부를 포함할 수 있다. 다만, 일 실시 예가 이에 한정되는 것은 아니며, 진단 보조 시스템에 포함되는 각 부는 학습 장치, 진단 장치, 학습 진단 서버 및/또는 클라이언트 장치 상의 적절한 위치에 각각 위치될 수 있다. 이하에서는, 편의를 위하여 진단 보조 시스템의 진단 장치가 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함하는 경우를 기준으로 설명한다.
도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다. 도 28을 참조하면, 진단 보조 시스템은 진단 장치를 포함하고, 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템은, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함할 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.
제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 및 비정상 중 어느 하나로 분류하도록 학습되고, 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 또는 상기 비정상 중 어느 하나로 분류하여 상기 제1 결과를 획득할 수 있다.
제3 처리부는 제1 결과 및 제2 결과를 함께 고려하여, 대상 안저 이미지에 따른 진단 정보가 정상 정보인지 비정상 정보인지 결정할 수 있다.
제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상에 우선권을 부여하여 상기 피검체에 대한 진단 정보를 결정할 수 있다.
제3 처리부는 상기 제1 라벨이 상기 제1 소견에 대한 정상이고, 상기 제2 라벨이 상기 제2 소견에 대한 정상인 경우, 상기 진단 정보를 정상으로 결정하고, 제1 라벨이 제1 소견에 대한 정상이 아니거나 상기 제2 라벨이 상기 제2 소견에 대한 정상이 아닌 경우, 상기 진단 정보를 비정상으로 결정할 수 있다.
제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시할 수 있다. 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환을 진단하기 위한 소견이고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 제2 소견은 상기 제1 안질환을 진단하기 위한 상기 제1 소견과 구별되는 소견이고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정될 수 있다.
제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 라벨과 관련된 CAM(Class Activation Map)을 획득하고, 진단 정보 출력부는 상기 CAM의 이미지를 출력할 수 있다.
진단 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 정보가 비정상 진단 정보인 경우 상기 CAM의 이미지를 출력할 수 있다.
진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고, 진단 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력할 수 있다.
제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우, 상기 진단 정보 출력부는, 상기 사용자에게 상기 결정된 진단 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공할 수 있다.
1.5 사용자 인터페이스
일 실시 예에 따르면, 전술한 클라이언트 장치 또는 진단 장치는 진단 보조 정보를 사용자에게 제공하기 위한 표시부를 가질 수 있다. 이때, 표시부는 사용자에게 진단 보조 정보를 명확히 전달하고, 사용자로부터의 피드백 획득이 용이하도록 마련될 수 있다.
표시부의 일 예로서, 사용자에게 시각 정보를 제공하는 디스플레이가 제공될 수 있다. 이때, 사용자에게 진단 보조 정보를 시각적으로 전달하기 위한 그래픽 사용자 인터페이스가 이용될 수 있다. 예컨대, 안저 이미지에 기초하여 진단 보조 정보를 획득하는 안저 진단 보조 시스템에 있어서, 획득된 진단 보조 정보를 효과적으로 표시하고 사용자의 이해를 돕기 위한 그래픽 사용자 인터페이스가 제공될 수 있다.
도 29 및 30은 일 실시 예의 몇몇 실시 예에 따른 사용자에게 진단 정보를 제공하기 위한 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 이하에서는, 도 29 및 30을 참조하여, 안저 진단 보조 시스템에서 이용될 수 있는 사용자 인터페이스에 대하여 몇몇 실시 예를 들어 설명한다.
도 29를 참조하면, 일 실시 예에 따른 사용자 인터페이스는 진단 대상 안저 이미지에 대응되는 피검체의 식별 정보를 표시할 수 있다. 사용자 인터페이스는 피검체(즉, 환자)의 식별 정보 및/또는 진단 대상 안저 이미지의 촬영 정보(예컨대, 촬영 날짜)를 표시하는 대상 이미지 식별 정보 표시부(401)를 포함할 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 동일한 피검체의 좌안의 안저 이미지 및 우안의 안저 이미지를 각각 표시하는 안저 이미지 표시부(405)를 포함할 수 있다. 안저 이미지 표시부(405)는 CAM 이미지를 표시할 수도 있다.
일 실시 예에 따른 사용자 인터페이스는 좌안의 안저 이미지 및 우안의 안저 이미지 각각에 대하여 좌안 또는 우안의 이미지임을 표시하고, 각 이미지의 진단 정보 및 사용자 확인 여부를 지시하는 진단 정보 지시자가 표시되는 진단 정보 지시부(403)를 포함할 수 있다.
진단 정보 지시자의 색상은 대상 안저 이미지에 기초하여 얻어진 진단 보조 정보를 고려하여 결정될 수 있다. 진단 정보 지시자는 진단 보조 정보에 따라 제1 색상 또는 제2 색상으로 표시될 수 있다. 일 예로, 하나의 대상 안저 이미지에 제1 내지 제3 진단 보조 정보를 획득한 경우, 하나의 진단 보조 정보라도 비정상(즉, 이상 소견 있음) 정보를 포함하는 경우, 진단 정보 지시자는 적색으로 표시되고, 모든 진단 보조 정보가 정상(즉, 이상 소견 없음) 정보를 포함하는 경우, 진단 정보 지시자는 녹색으로 표시될 수 있다.
진단 정보 지시자의 형태는 사용자의 확인 여부에 따라 결정될 수 있다. 진단 정보 지시자는 사용자의 확인 여부에 따라 제1 형태 또는 제2 형태로 표시될 수 있다. 일 예로, 도 25를 참조하면, 사용자에 의해 검토가 완료된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 원으로 표시되고, 사용자에 의해 미검토된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 반원으로 표시될 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 진단 보조 정보를 지시하는 진단 정보 지시부(407)를 포함할 수 있다. 진단 보조 정보 지시부는 좌안 및 우안 이미지에 각각 위치될 수 있다. 진단 보조 정보 지시부는 복수의 소견 정보 또는 진단 정보를 지시할 수 있다.
진단 보조 정보 지시부는 적어도 하나의 진단 보조 정보 지시자를 포함할 수 있다. 진단 보조 정보 지시자는 색상 변화를 통하여 각각 대응되는 진단 보조 정보를 지시할 수 있다.
예를 들어, 진단 대상 안저 이미지에 대하여, 제1 진단 보조 신경망 모델을 통하여 수정체 혼탁 유무를 지시하는 제1 진단 보조 정보, 제2 진단 보조 신경망 모델을 통하여 당뇨 망막증 소견 유무를 지시하는 제2 진단 보조 정보, 제3 진단 보조 신경망 모델을 통하여 망막 이상 소견 유무를 지시하는 제3 진단 보조 정보가 획득된 경우에, 진단 정보 지시부는 제1 진단 보조 정보, 제2 진단 보조, 제3 진단 보조 정보를 각각 지시하는 제1 내지 제3 진단 보조 정보 지시자를 포함할 수 있다.
보다 구체적인 예로, 도 29를 참조하면, 좌안 안저 이미지와 관련하여, 진단 정보 지시부(407)는 피검체의 좌안 안저 이미지에 기초하여 획득된 진단 보조 정보가 수정체 혼탁 비정상임을 지시하는 제1 진단 보조 정보, 당뇨 망막증 정상(이상 소견 없음)을 지시하는 제2 진단 보조 정보 및 망막 비정상(이상 소견 있음)을 지시하는 제3 진단 보조 정보가 획득된 경우에, 제1 색상을 띠는 제1 진단 보조 정보 지시자, 제2 색상을 띠는 제1 진단 보조 정보 지시자 및 제1 색상을 띠는 제3 진단 보조 정보 지시자를 표시할 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 사용자로부터 진단 대상 안저 이미지에 대한 사용자 코멘트를 획득할 수 있다. 사용자 인터페이스는 사용자 코멘트 오브젝트(409)를 포함하고, 사용자 코멘트 오브젝트에 대한 사용자 선택에 응답하여, 사용자 입력창을 표시할 수 있다. 사용자로부터 획득된 코멘트는 진단 보조 신경망 모델의 갱신에 이용될 수도 있다. 예컨대, 사용자 코멘트 오브젝트에 대한 선택에 응답하여 표시되는 사용자 입력창은, 신경망을 통한 진단 보조 정보에 대한 사용자 평가를 획득할 수 있고, 획득된 사용자 평가는 신경망 모델의 갱신에 이용될 수 있다.
일 실시 예에 따른 사용자 인터페이스는, 각 진단 대상 안저 이미지에 대한 사용자 검토 여부를 표시하는 검토 지시 오브젝트(411)를 포함할 수 있다. 검토 지시 오브젝트는 각 진단 대상 이미지에 대한 사용자 검토가 완료되었음을 나타내는 사용자 입력을 획득 받고, 제1 상태에서 제2 상태로 그 표시가 변경될 수 있다. 예컨대, 도 29 및 도 30을 참조하면, 검토 지시 오브젝트는 확인 요청 문구를 표시하는 제1 상태에서, 사용자 입력이 획득되면, 확인 되었음을 나타내는 제2 상태로 변경될 수 있다.
진단 대상 안저 이미지의 목록(413)이 표시될 수 있다. 목록에는 피검체의 식별 정보, 이미지 촬영 날짜 및 양안 이미지에 대한 검토 여부 지시자(403)가 함께 표시될 수 있다.
진단 대상 안저 이미지의 목록(413)에는 검토가 완료된 진단 대상 안저 이미지를 나타내는 검토 완료 지시자(415)가 표시될 수 있다. 검토 완료 지시자(415)는 해당 이미지의 양안에 대한 검토 지시 오브젝트(411) 모두에 대하여 사용자 선택이 발생한 경우에 표시될 수 있다.
도 30을 참조하면, 사용자 그래픽 인터페이스는, 진단 대상 안저 이미지에 품질 이상이 있는 것으로 판단된 경우에, 사용자에게 대상 안저 이미지의 품질에 이상이 있음을 지시하는 저품질 경고 오브젝트(417)를 포함할 수 있다. 저품질 경고 오브젝트(417)는, 진단부로부터 진단 대상 안저 이미지가 진단 보조 신경망 모델로부터 적절한 진단 보조 정보가 예측될 수 있는 수준의 품질(즉, 기준 품질 레벨)에 미치지 아니하는 것으로 판단된 경우에 표시될 수 있다.
또한, 도 28을 참조하면 진단 대상 안저 이미지의 목록(413)에도 저품질 경고 오브젝트(419)가 표시될 수 있다.
2. 클라우드 서버 기반의 진단 보조
2.1 배경 및 목적
본 명세서에서는 클라우드 서버를 기반으로 하는 진단 보조 시스템 및 방법에 대하여 설명한다. 또한, 본 명세서에서는 클라우드 서버를 기반으로 입력된 데이터에 대한 분류 및 진단 정보를 제공하는 진단 보조 시스템 및 방법에 대하여 설명한다. 구체적으로, 본 명세서에서는 클라이언트 장치에 의해 입력된 안저 이미지에 대해 클라우드 서버를 기반으로 분류 및 진단 보조 정보가 제공되는 진단 보조 시스템 및 방법에 대하여 설명한다.
전술하였듯이, 상기 진단 보조 시스템 및 방법은 1. 안저 이미지를 이용한 진단 보조에서 다룬 내용과 동일하거나 유사한 시스템이 이용될 수 있고, 상기 진단 보조 시스템 및 방법은 클라우드 서버를 기반으로 복수의 클라이언트 장치와 상호적인 진단 보조가 수행될 수 있다. 또한, 상기 진단 보조 시스템 및 방법은 클라우드 서버를 기반으로 하되, 상기 클라우드 서버에 의해 복수의 클라이언트 장치에서 제공된 복수의 안저 이미지를 소정의 기준을 통한 분류 및 진단 보조가 수행될 수 있다. 예를 들어, 상기 진단 보조 시스템 및 방법은 안저 이미지의 특수성을 고려하여, 입력된 안저 이미지의 양안(좌안 또는 우안) 구분 혹은 동일인 해당 여부 등을 통한 분류가 수행될 수 있고, 상기 진단 보조 시스템 및 방법은 분류된 데이터를 기준으로 진단 보조가 수행될 수 있다.
이를 통해, 상기 진단 보조 시스템 및 방법은 입력된 안저 이미지의 진단 보조가 수행될 뿐 아니라, 입력된 복수의 데이터들의 분류를 통해 효율적인 데이터 관리가 수행될 수 있다. 또한, 상기 진단 보조 시스템 및 방법은 입력된 복수의 데이터들의 분류 기준을 통해 분류된 각각의 데이터 세트들에 대한 트레이닝을 수행할 수 있어, 상기 진단 보조 시스템의 정확도가 향상될 수 있다. 또한, 상기 진단 보조 시스템 및 방법은 입력된 복수의 데이터들의 분류 기준을 통해 분류된 각각의 데이터 세트들의 분석 정보의 경향성이 판단될 수 있다.
보다 구체적으로, 복수의 클라이언트 장치에서 제공된 복수의 안저 이미지는 양안(좌안 또는 우안)으로 분류됨에 따라, 상기 진단 보조 시스템 및 방법은 양안 정보를 기초로 한 진단 정보가 양안(좌안 또는 우안) 특이적으로 제공될 수 있어, 상기 진단 보조 시스템의 정확도가 보다 향상될 수 있다. 또한, 복수의 클라이언트 장치에서 제공된 복수의 안저 이미지는 기존에 입력 및/또는 저장된 데이터 세트와의 비교를 통해 동일인 데이터로 분류됨에 따라, 상기 진단 보조 시스템 및 방법은 동일인 정보를 기초로 한 진단 정보가 시계열적으로 또는 양립적으로 제공될 수 있어 병변의 진행 정도를 용이하게 파악될 수 있다.
이하에서는 안저 이미지를 이용한 클라우드 기반의 진단 보조 시스템 및 방법에 대해 보다 상세히 설명하고자 한다.
2.2 클라우드 서버 기반의 진단 보조 시스템
2.2.1 일반
도 31은 클라우드 서버 기반의 진단 보조 시스템(50)을 나타내는 도면이다. 클라우드 서버 기반의 진단 보조 시스템(50)은 클라이언트 장치(500)와 클라우드 서버(600)를 포함할 수 있다. 또한, 클라우드 서버 기반의 진단 보조 시스템(50)은 클라이언트 장치(500)와 클라우드 서버(600) 사이의 통신을 통해 진단 보조가 각각의 장치에 대해 수행될 수 있다. 또한, 클라우드 서버 기반의 진단 보조 시스템(50)은 클라이언트 장치(500)와 클라우드 서버(600) 사이의 상호적인 네트워크를 통해 진단 보조가 각각의 장치에 대해 수행될 수 있다.
이에 따라, 상기 진단 보조 시스템(50)은 클라이언트 장치(500)에 이미지가 각각 입력함에 따라, 시간적 및 공간적 제약 없이 상기 진단 보조 시스템(50)에 의한 진단이 수행될 수 있다. 다만, 본 발명의 클라우드 서버 기반의 진단 보조 시스템(50)은 후술될 내용에 한정되지 아니하며, 후술될 내용에 일부 구성요소가 추가, 변경 또는 삭제되어 진단이 수행될 수 있다.
이하에서는 클라우드 서버 기반의 진단 보조 시스템(50)에 포함되는 각 구성에 대해 보다 상세히 설명하고자 한다.
2.2.2 클라이언트 장치
상기 클라이언트 장치(500)는 1개의 클라이언트 장치이거나, 복수의 클라이언트 장치를 포함할 수 있다. 클라이언트 장치(500)는 제1 클라이언트 장치(1501), 제2 클라이언트 장치(1503), 및 제n 클라이언트 장치(1505) 중 적어도 어느 하나를 포함할 수 있다.
클라이언트 장치(500)는 진단 요청 데이터가 입력, 수신, 송신 또는 저장 등이 수행될 수 있는 장치일 수 있다. 또한, 클라이언트 장치(500)는 네트워크 및/또는 인터넷이 연결되는 또는 연결 가능한 통신 기능을 가진 장치일 수 있다. 또한, 클라이언트 장치(500)는 스마트 기기와 같이 무선 접속 장치를 통해 네트워크에 접속하여 데이터의 송, 수신이 가능한 통신 장치일 수 있고, 일 예로 휴대폰, 스마트폰, 노트북, 넷북 등 중 적어도 어느 하나일 수 있다.
또한, 클라이언트 장치(500)는 진단 요청 데이터가 생성되거나, 이미 생성된 진단 요청 데이터가 입력될 수 있는 장치일 수 있다. 일 예로, 클라이언트 장치(500)는 촬상부를 포함하고 있어, 촬상된 이미지를 진단 요청 데이터로 사용될 수 있다. 또한, 클라이언트 장치(500)는 모바일 앱(APP, Application)이 이용될 수 있어, 클라이언트 장치(500) 내에 저장된 데이터 중 진단 요청이 요구되는 데이터는 모바일 앱을 통해 클라우드 서버(600)에 연결되어 진단이 수행될 수 있다.
특히, 클라이언트 장치(500)는 촬상 장치이거나, 촬상부를 포함하는 장치일 수 있다. 일 예로, 클라이언트 장치(500)는 카메라, 휴대폰, 안구 촬영 장치, 안저 카메라, 휴대용 안저 카메라 등일 수 있다. 클라이언트 장치(500)가 촬상 장치 또는 촬상부를 포함하는 장치인 경우, 상기 클라이언트 장치(500)는 직접 촬영된 이미지 및/또는 영상을 실시간으로 클라우드 서버(600)에 전송 또는 송신하여 진단 수행을 보조할 수 있다. 또한, 클라이언트 장치(500)가 촬상 장치 또는 촬상부를 포함하는 장치인 경우, 상기 클라이언트 장치(500)는 미리 촬영된 이미지 및/또는 영상을 저장하고, 저장된 이미지 및/또는 영상을 시간적, 공간적 제약 없이 클라우드 서버(600)에 전송 또는 송신하여 진단 수행을 보조할 수 있다.
이하에서는 클라이언트 장치의 구성에 대해서 보다 상세히 설명하고자 한다.
2.2.2.1 구성
도 32는 클라이언트 장치(500)를 나타내는 도면이다. 도 31 및 도 32를 통해 상기 클라이언트 장치(500)에 대해 상세하게 설명하고자 한다. 본 발명의 클라이언트 장치(500)는 제어부(501), 데이터 획득부(510), 데이터 가공부(530), 통신부(550), 정보 제공부(570), 및 정보 표시부(590) 중 적어도 어느 하나를 포함할 수 있다. 포함할 수 있다.
본 발명의 클라이언트 장치(500)는 제어부(501)에 의해 동작이 제어될 수 있다. 또한, 본 발명의 클라이언트 장치(500)는 데이터 획득부(510)에서 획득된 데이터를 데이터 가공부(530)를 통해 가공하고, 데이터 가공부(530)에서 가공된 데이터는 통신부(550)를 통해 클라우드 서버로 전송 또는 송신이 될 수 있다. 또한, 필요에 따라 데이터 획득(510)에서 획득된 데이터는 정보 제공부(550)에 의해 추가된 정보와 함께 클라우드 서버로 전송 또는 송신될 수 있고, 정보 제공부(550)에 의해 추가되는 정보는 획득된 데이터와 동시에 또는 이시에 전송 또는 송신될 수 있다. 또한, 클라우드 서버로부터 송신된 정보 및 정보 제공부(550)에 의해 입력된 정보 중 적어도 어느 하나는 정보 표시부(590)에 의해 클라이언트 장치(500)에 표시될 수 있다.
다만, 도 32에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. 도 31 및 도 32를 참조하여, 제어부(501), 데이터 획득부(510), 데이터 가공부(530), 통신부(550), 정보 제공부(570), 및 정보 표시부(590)에 대해 설명하고자 한다.
2.2.2.2 제어부
제어부(501)는 상기 클라이언트 장치(500)에 포함될 수 있다. 상기 제어부(501)는 클라이언트 장치(500)의 동작을 제어할 수 있다. 상기 제어부(501)는 데이터 획득부(510), 데이터 가공부(530), 통신부(550), 정보 제공부(570), 및 정보 표시부(590) 중 적어도 어느 하나의 동작을 제어할 수 있다.
제어부(501)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다. 일 예로, 제어부(501)는 후술하는 클라우드 서버(600)와 클라이언트 장치(500) 사이의 진단 수행을 위한 분류 또는 진단 보조 프로세스 데이터 등을 RAM 상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다.
2.2.2.3 데이터 획득부
1.3.2 데이터 획득 및 진단 요청에 기재된 내용과 같이, 데이터 획득부(510)는 진단 요청이 요구되는 데이터가 획득될 수 있다. 또한, 데이터 획득부(510)는 클라이언트 장치에 저장된 데이터 중 진단 요청이 요구되는 데이터를 선택하여 획득될 수 있다. 또한, 데이터 획득부(510)는 클라이언트 장치가 촬상한 이미지 및/또는 영상 데이터 중 진단 요청이 요구되는 데이터를 선택하여 획득될 수 있다.
데이터 획득부(510)는 클라이언트 장치에 저장된 또는 촬상된 데이터 중 진단 요청이 요구되는 데이터가 선택되되, 상기 데이터 획득부(510)는 진단이 용이한 이미지 및/또는 영상 데이터가 선별되어 획득될 수 있다. 일 예로, 진단 대상 데이터는 복수의 이미지 및/또는 영상을 포함할 수 있고, 상기 복수의 이미지 및/또는 영상은 진단이 수행되기에 적합 또는 부적합한 데이터가 포함될 수 있다. 상기 데이터 획득부(510)는 진단 대상 데이터에 포함된 복수의 이미지 및/또는 영상 중 진단이 수행되기에 적합한 데이터가 선별되어 획득될 수 있다. 상기 복수의 이미지 및/또는 영상에서 진단이 수행되기에 부적합한 데이터는 지나치게 밝거나 또는 어둡거나, 초점이 맞지 않는 경우 등에 해당될 수 있다.
데이터 획득부(510)는 진단 대상 데이터(TD)로서, 진단 대상 이미지(T1)을 획득할 수 있고, 상기 진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 또한, 상기 진단 대상 이미지(TI)는 저장된 또는 촬상된 영상 데이터 중 일부가 캡쳐된 이미지일 수 있다. 일 예로, 상기 진단 대상 이미지는 안저 이미지 또는 안구 영상 중 일부가 캡쳐된 이미지일 수 있다. 진단 대상 이미지(TI)는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.
데이터 획득부(510)는 진단 대상 데이터(TD)로서, 진단 객체 정보(PI, patient information)를 획득할 수 있다. 진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안 또는 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다.
2.2.2.4 데이터 가공부
데이터 가공부(530)는 획득된 데이터가 가공될 수 있다. 데이터 가공부(530)에 관한 내용은 1.2.2 데이터 가공 프로세스 및 1.3.3 데이터 가공 프로세스에서 전술한 내용과 동일하거나 유사할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상 및/또는 진단 질병 등에 따라 생략되거나 별도의 프로세스 및/또는 장치가 추가될 수 있다.
2.2.2.5 통신부
통신부(550)는 데이터 획득부(510)에서 획득된 데이터 및/또는 데이터 가공부(530)에서 가공된 데이터를 클라우드 서버로 송신시키는 기능이 수행될 수 있다. 또한, 통신부(550)는 클라우드 서버에서 제공되는 정보를 클라이언트 장치로 송신시키는 기능이 수행될 수 있다. 또한, 통신부(550)는 데이터의 송신뿐 아니라, 데이터와 연관된 정보를 동시에 또는 이시에 수신시키는 기능이 수행될 수 있다. 또한, 통신부(550)는 클라이언트 장치(500)와 클라우드 서버가 송신 및 수신되는 기능을 수행할 수 있되, 송신 및 수신 기능은 동시에 또는 이시에 수행될 수 있다. 또한, 통신부(550)는 클라우드 서버에서 요청함에 따라, 요청된 데이터 및/또는 정보를 송신시키는 기능이 수행될 수 있다.
또한, 통신부(550)는 네트워크와 연결되는 기능이 수행될 수 있다. 통신부(550)는 클라이언트 장치에서 입력된 데이터 및 입력된 정보 중 적어도 어느 하나가 네트워크를 통해 클라우드 서버로 송신되는 기능을 수행할 수 있다. 상기 통신부(550)는 상술한 내용 중 적어도 어느 하나의 기능을 수행할 수 있는 장치 또는 부품일 수 있으나, 상기 통신부(550)가 상술한 내용에 제한되는 것은 아니다.
2.2.2.6 정보 제공부
정보 제공부(570)는 클라우드 서버의 요청에 따라 혹은 진단 질병의 특성에 따라, 입력된 데이터에 관련된 정보가 제공되는 기능이 수행될 수 있다. 정보 제공부(570)는 입력된 데이터에 관한 클라이언트 장치에 저장된 정보가 제공되는 기능이 수행될 수 있다.
또한, 정보 제공부(570)는 입력된 데이터에 관련하여 이미 획득된 정보, 또는 클라이언트 장치에 클라이언트가 입력한 정보, 및 입력된 데이터에 관련하여 클라우드 서버에 의해 제공된 정보 중 적어도 어느 하나가 제공되는 기능이 수행될 수 있다. 또한, 정보 제공부(570)는 입력된 데이터와 연관되되, 이미 클라이언트 서버에 의한 진단이 수행된 데이터에 관한 정보가 입력된 데이터에 관한 정보로 제공되는 기능이 수행될 수 있다. 또한, 정보 제공부(570)는 클라우드 서버의 요청에 따라 입력된 클라이언트의 정보가 입력된 데이터에 관한 정보로 제공되는 기능이 수행될 수 있다.
또한, 정보 제공부(570)에 의해 제공된 정보는 상기 통신부(550)를 통해 클라우드 서버로 송신되거나, 상기 정보 표시부(590)에 의해 표시되어 클라이언트에게 제공될 수 있다. 또한, 정보 제공부(570)에 의해 제공된 정보가 상기 클라우드 서버로 송신되는 경우, 상기 정보 제공부(570)에 의해 제공된 정보는 입력된 데이터에 대한 클라우드 서버의 진단에 있어서 유용한 정보로 사용될 수 있다.
일 예로, 정보 제공부(570)는 클라이언트의 성별, 나이, 건강 상태 등에 대해 저장된 정보가 제공될 수 있고, 클라우드 서버에 의해 입력 데이터에 대한 복수의 질병에 대한 진단 결과에 관한 정보가 제공될 수 있다. 또한, 정보 제공부(570)는 입력된 데이터로써, 입력된 안저 이미지에 대한 양안 정보가 제공될 수 있고, 입력된 안저 이미지가 이미 진단이 수행된 데이터와 관련하여 동일인인지 여부에 대한 정보가 제공될 수 있다.
2.2.2.7 정보 표시부
정보 표시부(590)는 클라이언트 장치에 입력된 또는/및 저장된 정보가 표시되는 기능이 수행될 수 있다. 정보 표시부(590)는 클라우드 서버에 의해 제공된 또는/및 진단이 수행된 정보가 표시되는 기능이 수행될 수 있다. 또한, 정보 표시부(590)는 상기 정보 제공부(570)에 의해 제공된 정보가 표시되는 기능이 수행될 수 있다.
또한, 정보 표시부(590)는 클라이언트 장치에 입력된 또는/및 저장된 정보, 클라우드 서버에 의해 제공된 또는/및 진단이 수행된 정보, 및 상기 정보 제공부(570)에 의해 제공된 정보 중 적어도 어느 하나가 표시될 수 있되, 상기 정보 표시부(590)는 입력된 데이터의 진단 결과와 연관된 정보를 선별하여 표시되는 기능이 수행될 수 있다.
일 예로, 정보 표시부(590)는 입력된 데이터에 대한 복수의 질병에 대한 진단 결과가 표시되는 기능이 수행될 수 있다. 또한, 상기 정보 표시부(590)는 현재 입력된 데이터와 동일인의 데이터로 판단되는 데이터의 기 수행된 진단 결과를 현재 입력된 데이터의 진단 결과와 함께 표시되는 기능이 수행될 수 있다.
또한, 상기 정보 표시부(590)는 1.3.5 진단 보조 정보의 출력에 기재된 내용과 같이, 상기 진단 보조 정보 중 입력된 데이터의 진단 결과와 연관된 정보를 선별하여 표시되는 기능이 수행될 수 있다.
2.2.3 클라우드 서버
2.2.3.1 구성
도 33은 클라우드 서버(600)의 구성을 나타내는 도면이다. 도 31 내지 도 33을 통해 상기 클라우드 서버(600)에 대해 상세하게 설명하고자 한다. 상기 클라우드 서버(600)는 제어부(601), 통신부(610), 진단 수행부(630), 분류부(650), 정보 제공부(670), 정보 요청부(680), 및 데이터 저장부(690) 중 적어도 어느 하나를 포함할 수 있다.
본 발명의 클라우드 서버(600)는 제어부(601)에 의해 동작이 제어될 수 있다. 상기 클라우드 서버(600)는 클라이언트 장치(500)의 입력 데이터가 상기 통신부(610)를 통해 획득되고, 상기 클라우드 서버(600)에서 수행된 진단 결과를 클라이언트 장치(500)로 송신할 수 있다. 또한, 상기 입력 데이터는 상기 진단 수행부(630)에 의해 복수의 질병에 대한 진단이 수행될 수 있고, 상기 입력 데이터는 상기 분류부(650)에 의해 소정의 기준에 따라 분류되어 라벨링될 수 있다. 또한, 진단이 수행된 입력 데이터에서 얻어진 진단 결과는 정보 제공부(670)에 의해 제공될 수 있다. 또한, 필요에 따라 상기 정보 요청부(680)는 클라이언트 장치에 대해 추가적인 정보를 요청하는 기능이 수행될 수 있다. 또한, 데이터 저장부(690)는 분류된 복수의 데이터 및/또는 진단이 수행된 복수의 데이터들이 저장되는 기능이 수행될 수 있다.
다만, 도 33에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. 도 31 내지 도 33을 참조하여, 제어부(601), 통신부(610), 진단 수행부(630), 분류부(650), 정보 제공부(670), 정보 요청부(680), 및 데이터 저장부(690)에 대해 설명하고자 한다.
2.2.3.2 제어부
제어부(601)는 상기 클라우드 서버(600)에 포함될 수 있다. 상기 제어부(601)는 클라우드 서버(600)의 동작을 제어할 수 있다. 상기 제어부(601)는 통신부(610), 진단 수행부(630), 분류부(650), 정보 제공부(670), 정보 요청부(680), 및 데이터 저장부(690) 중 적어도 어느 하나의 동작을 제어할 수 있다.
제어부(601)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다. 일 예로, 제어부(601)는 후술하는 클라우드 서버(600)와 클라이언트 장치(500) 사이의 진단 수행을 위한 분류 또는 진단 보조 프로세스 데이터 등을 RAM 상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다.
2.2.3.3 통신부
통신부(610)는 클라이언트 장치(500)에 입력된 데이터 및/또는 클라이언트 장치(500)에서 가공된 데이터를 클라우드 서버에 수신되는 기능이 수행될 수 있다. 또한, 통신부(610)는 클라우드 서버에서 제공되는 정보를 클라이언트 장치로 송신시키는 기능이 수행될 수 있다. 또한, 통신부(610)는 클라우드 서버의 입력 데이터에 대한 진단 결과를 클라이언트 장치로 송신시키는 기능이 수행될 수 있다. 통신부(610)는 2.2.2.4 통신부에 기재된 내용과 동일하거나 유사할 수 있으나, 반드시 2.2.2.4 통신부에 기재된 내용에 제한되는 것은 아니다.
2.2.3.4 진단 수행부
1. 안저 이미지를 이용한 진단 보조에 기재된 내용에 따라, 진단 수행부(630)는 클라이언트 장치의 입력 데이터에 대해 복수의 질병에 관한 진단이 수행될 수 있다. 또한, 진단 수행부(630)는 상기 분류부(650)에 의해 라벨링된 데이터에 대해 복수의 질병에 관한 진단이 수행될 수 있다.
일 예로, 진단 수행부(630)는 클라이언트 장치에 입력된 안저 이미지에 대해 복수의 질병에 관한 진단이 각각 수행되거나 동시에 수행될 수 있다. 일 예로, 상기 분류부(650)에 의해 좌안 또는 우안으로 구분된 데이터들에 있어서, 진단 수행부(630)는 좌안에 해당되는 데이터들 또는 우안에 해당되는 데이터들이 선택적으로 그룹화된 복수의 데이터에 대해 복수의 질병에 관한 진단이 수행될 수 있다. 일 예로, 상기 분류부(650)에 의해 동일인의 데이터로 그룹화된 복수의 데이터에 대해, 상기 진단 수행부(630)는 동일인의 시계열적 데이터를 기초로 복수의 질병에 관한 시계열적 진단이 수행될 수 있다. 일 예로, 상기 진단 수행부(630)는 제1 질병에 대해서는 좌안에 해당되는 데이터들 또는 우안에 해당되는 데이터들을 선택적으로 그룹화된 복수의 데이터에 대해 복수의 질병에 관한 진단이 수행될 수 있되, 상기 진단 수행부(630)는 제2 질병에 대해서는 동일인의 시계열적 데이터를 기초로 복수의 질병에 관한 시계열적 진단이 수행될 수 있다.
상기 진단 수행부(630)는 클라이언트 장치에 입력된 데이터에 대한 복수의 질병에 관한 진단이 수행되고, 이를 통해 얻어진 진단 결과는 상기 클라이언트 장치로 제공됨에 따라, 상기 클라우드 서버 기반의 진단 보조 시스템은 공간적 및 시간적 제약에 제한되지 아니한 채 전문적인 진단을 제공받을 수 있다는 이점이 있다. 또한, 상기 진단 수행부(630)는 특정 질병에 따라 요구되는 데이터 세트들을 기초로 학습이 수행됨에 따라, 상기 진단 수행부(630)는 특정 질병에 대한 진단의 정확도가 향상될 수 있는 이점이 있다.
2.2.3.5 분류부
분류부(650)는 클라이언트 장치(500)로 입력된 데이터가 분류될 수 있는 기능이 수행될 수 있다. 또한, 분류부(650)는 클라이언트 장치(500)로 입력된 데이터가 분류되고, 분류된 소정의 기준에 따라 상기 클라이언트 장치(500)로 입력된 데이터에 라벨링되는 기능이 수행될 수 있다.
상기 분류부(650)는 소정의 알고리즘에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 소정의 컴퓨터 프로그램에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 인공 지능(AI, Artificial Intelligence)에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 인공 지능(AI, Artificial Intelligence)에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 복수의 데이터로 미리 학습된 인공 지능(AI, Artificial Intelligence)에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 복수의 데이터를 소정의 기준으로 분류시키는 분류기(Classifier)의 형태로 구현될 수 있다. 상기 분류부(650)는 이중 분류 또는 다중 분류가 수행될 수 있다. 상기 분류부(650)는 KNN(K-Nearest Neighbor), SVM(Support Vector Machine), 인공 신경망(Artificial Neural Networks), 자기 조직맵(SOM, Self-Organizing Maps) 등의 단일 분류기(Single classifiers)에 의해 복수의 데이터에 대한 분류 기능이 수행될 수 있다. 또한, 상기 분류부(650)는 상기 단일 분류기 이외에도, 하이브리드형 분류기(Hybrid classifiers) 또는 앙상블형 분류기(Ensemble classifiers)에 의해 복수의 데이터에 대한 분류 기능이 수행될 수 있다.
또한, 상기 분류부(650)는 복수의 데이터로 미리 학습된 신경망 모델에 의해 분류가 수행될 수 있다. 상기 분류부(650)는 신경망 모델로써, 진단 보조 정보를 생성하는 합성곱 신경망(CNN, Convolutional Neural Network)에 의해 복수의 데이터에 대한 분류 기능이 수행될 수 있다. CNN 구조로서, Alexnet, LENET, NIN, VGGNet, ResNEt, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySuperviseNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다.
상기 분류부(650)의 분류 기준에 대해서는 이하에서 상세히 설명하고자 한다.
2.2.3.5.1 안저 이미지
도 34는 일 실시 예의 다른 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다. 일 실시 예에 따르면, 안저 이미지는 안저 이미지에 포함된 해부학적 요소의 위치를 고려하여 결정된 복수의 영역을 포함할 수 있다.
도 34를 참조하면, 안저 이미지는 안저 영역(FA) 및 비안저 영역(NFA)을 포함할 수 있다. 상기 안저 영역(FA)은 황반부(MA), 시신경 유두부(ODA), 혈관부(BVA) 및 주변부(SA)를 포함할 수 있다. 안저 이미지는 안저 이미지로부터 검출된 황반 및/또는 시신경 유두의 위치에 기초하여 황반부, 시신경 유두부, 혈관부 및 주변부를 포함하도록 구분될 수 있다.
황반부(MA)는 안저 영역의 황반이 분포하는 영역을 포함하도록 결정될 수 있다. 시신경 유두부(ODA)는 안저 영역의 시신경 유두가 분포하는 영역을 포함하도록 결정될 수 있다. 혈관부(BVA)는 안저 영역의 혈관이 분포하는 영역을 포함하도록 결정될 수 있다. 주변부(SA)는 안저 영역으로부터 황반부(MA), 시신경 유두부(ODA), 및 혈관부(BVA)를 제외한 영역으로 결정될 수 있다.
황반부(MA), 시신경 유두부(ODA), 혈관부(BVA), 및 주변부(SA)의 경계는 황반, 시신경 유두, 혈관 등의 위치에 기초하여 결정될 수 있다. 황반부(MA)의 경계는 황반이 분포하는 영역을 둘러싸도록 결정될 수 있다. 시신경 유두부(ODA)의 경계는 시신경 유두가 분포하는 영역을 둘러싸도록 결정될 수 있다. 혈관부(BVA)의 경계는 혈관이 분포하는 영역을 둘러싸도록 결정될 수 있다.
또한, 안저 이미지의 경우, 안저 이미지는 안저 이미지의 촬상 장치에 따라 별도의 마커(M)을 포함할 수 있다. 상기 마커(M)는 안저 이미지의 촬상 장치에 따라 존재하거나 존재하지 않을 수 있고, 상기 마커(M)는 만약 존재하는 경우에도 임의의 위치에 위치될 수 있다. 다만, 동일한 촬상 장치로 촬영된 복수의 안저 이미지의 경우, 상기 마커(M)는 서로 동일한 위치에 위치될 수 있다.
상기 분류부(650)는 안저 이미지가 포함하는 상기 복수의 영역들에 기초하여 다양한 정보를 획득할 수 있고, 획득된 상기 다양한 정보들에 기초하여 복수의 안저 이미지들을 소정의 기준에 따라 분류하는 기능이 수행될 수 있다. 또한, 상기 분류부(650)는 안저 이미지에 포함되는 복수의 영역들과 함께 이미 입력된 및/또는 저장된 정보를 기초로 복수의 안저 이미지들을 소정의 기준에 따라 분류하는 기능이 수행될 수 있다.
2.2.3.5.2 양안 정보
상기 분류부(650)는 양안 정보를 기준으로 복수의 데이터들이 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 양안 정보를 기초로 복수의 데이터들이 좌안 또는 우안으로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 양안 정보를 기초로 복수의 데이터들이 좌안 데이터 세트 또는 우안 데이터 세트로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 양안 정보를 기초로 복수의 데이터들이 좌안 또는 우안에 해당되는 라벨링이 되는 기능이 수행될 수 있다.
상기 분류부(650)는 클라이언트 장치에 입력된 및/또는 저장된 정보를 기초로 양안 정보가 획득될 수 있다. 또한, 클라이언트 장치에 데이터를 입력함에 따라 양안 정보가 요청되고, 이에 따라 입력된 양안 정보는 입력된 데이터와 동시에 또는 이시에 클라우드 서버에 전달될 수 있어, 상기 분류부(650)는 상기 클라우드 서버에 전달된 상기 양안 정보를 기초로 입력된 데이터가 좌안 또는 우안으로 분류될 수 있다. 또한, 클라이언트 장치에 데이터가 입력되되 양안 정보가 제공되지 않은 경우, 클라이언트 장치는 클라우드 서버로부터 양안 정보가 요청될 수 있어, 상기 분류부(650)는 상기 클라우드 서버로 전달된 양안 정보를 기초로 입력된 데이터가 좌안 또는 우안으로 분류될 수 있다. 이와 관련해서는 2.2.3.7 정보 요청부에서 보다 상세하게 기술하고자 한다.
상기 분류부(650)는 클라이언트 장치에 입력된 및/또는 클라우드 서버에 전달된 데이터로부터 추출된 정보에 기초하여 양안 정보가 획득될 수 있다.
도 35는 안저 이미지에 포함된 마커와 시신경 유두의 관계를 나타내는 도면이다. 도 34 내지 도 35를 참조하면, 입력된 안저 이미지는 별도의 마커(M)와 시신경 유두의 위치 관계를 기초로 양안 정보가 추출될 수 있다.
상기 마커(M)는 촬상 장치에 따라 서로 상이한 위치에 위치될 수 있되, 동일한 촬상 장치에 의해 촬상된 안저 이미지는 서로 동일한 위치에 상기 마커(M)가 위치할 수 있다. 상기 분류부(650)는 상기 마커(M)를 기준으로 클라이언트 장치에 입력된 및/또는 클라우드 서버에 전달된 데이터의 양안 정보가 추출될 수 있고, 이를 기초로 상기 클라이언트 장치에 입력된 및/또는 클라우드 서버에 전달된 데이터는 분류될 수 있다. 일 예로, 동일한 촬상 장치로 촬상된 복수의 안저 이미지는 상부 오른쪽 모서리에 상기 마커(M)가 위치할 수 있고, 상기 분류부(650)는 상기 마커(M)와 상기 시신경 유두(ODA)의 위치 관계를 기초로 양안 정보가 추출될 수 있다.
도 35 (a)는 우안에 해당되는 안저 이미지를 나타내고, 도 35 (b)는 좌안에 해당되는 안저 이미지를 나타낸 것이다. 도 35를 참조하면, 안저 이미지의 상기 마커(M)와 상기 시신경 유두가 인접하게 위치하는 경우는 우안으로 판단될 수 있고, 안저 이미지의 상기 마커(M)와 상기 시신경 유두가 이격되어 위치하는 경우는 좌안으로 판단될 수 있다. 이처럼 해당 안저 이미지의 촬상 장치에 따른 마커에 관한 정보가 클라우드 서버에 저장 및/또는 입력된 경우, 상기 분류부(650)는 상기 촬상 장치에 따른 마커의 위치 및 시신경 유두 사이의 관계를 고려하여 양안 정보가 획득될 수 있고, 이를 통해 입력된 안저 이미지가 좌안 또는 우안으로 분류될 수 있다.
도 36은 안저 이미지에 포함된 시신경 유두부(ODA)와 황반부(MA)의 관계를 나타내는 도면이다. 도 34 및 도 36을 참조하면, 입력된 안저 이미지는 시신경 유두부(ODA)와 황반부(MA)의 위치 관계를 기초로 양안 정보가 추출될 수 있다.
도 36을 참조하면, 일반적으로 시신경 유두부(ODA)의 제1 중심(C1)은 황반부(MA)의 제2 중심(C2)보다 상부에 위치하며, 상기 제1 중심(C1)을 지나는 제1 수평선(S1)은 상기 제2 중심(C2)을 지나는 제2 수평선(S2)보다 상부에 위치한다. 상기 분류부(650)는 상기 시신경 유두부(ODA)와 상기 황반부(MA) 사이의 위치 관계를 고려하여 양안 정보가 획득될 수 있고, 이를 통해 입력된 안저 이미지가 좌안 또는 우안으로 분류될 수 있다.
일 예로, 시신경 유두부(ODA)의 상기 제1 수평선(S1)이 황반부(MA)의 상기 제2 수평선(S2)보다 상부에 위치하는 경우, 상기 안저 이미지는 올바른 방향으로 위치된 것이다. 상기 안저 이미지가 올바른 방향으로 위치된 경우, 시신경 유두부(ODA)의 위치가 좌측에 위치하는 경우 좌안에 해당되고, 시신경 유두부(ODA)의 위치가 우측에 위치하는 경우 우안에 해당된다.
도 36의 경우, 시신경 유두부(ODA)의 상기 제1 수평선(S1)이 황반부(MA)의 상기 제2 수평선(S2)보다 상부에 위치하되, 시신경 유두부(ODA)가 좌측에 위치하여 좌안에 해당될 수 있다.
도 37은 안저 이미지의 시신경 유두부(ODA)의 영역을 나타내는 도면이다. 도 34 및 도 37을 참조하면, 입력된 안저 이미지는 시신경 유두부(ODA)에 포함된 복수의 영역의 관계를 기초로 양안 정보가 추출될 수 있다.
도 37(a)는 안저 이미지에 포함된 시신경 유두부(ODA)를 나타내는 도면이고, 도 37(b)는 시신경 유두부(ODA)에 포함된 복수의 영역을 나타내는 도면이다. 도 37(b)를 참조하면, 시신경 유두부(ODA)는 시신경 유두(OD, Optic Disk) 및 시신경 컵(OC, Optic Cup)이 포함될 수 있고, 상기 시신경 유두부(ODA)는 하극(IS, Inferior Sector), 상극(SS, Superior Sector), 비측(NS, Nasal Sector), 및 이측(TS, Temporal Sector)를 포함할 수 있다. 상기 비측(NS)은 코와 가까운 영역이고, 상기 이측(TS)은 귀와 가까운 영역이다. 즉, 도 7(a)와 같이, 시신경 유두부(ODA)가 좌측에 위치하는 경우, 시신경 유두부(ODA)의 중심을 기준으로 우측 영역은 비측(NS)이고, 좌측 영역은 이측(TS)일 수 있다.
일반적으로, 비측(NS)에는 시신경 컵이 위치하여 이측(TS)에 비해 상대적으로 픽셀값이 높은 특징을 가질 수 있다. 상기 분류부(650)는 상기 비측(NS)의 픽셀값이 상기 이측(TS)의 픽셀값에 비해 높은 점에 기초하여, 상기 분류부(650)는 상기 시신경 유두부(ODA)의 좌측 영역과 우측 영역의 픽셀 값의 비교를 통해 좌측 영역의 픽셀 값이 높은 경우는 우안으로, 우측 영역의 픽셀 값이 높은 경우는 좌안으로 분류될 수 있다.
상기 분류부(650)는 상술한 복수의 양안 분류 기준 중 적어도 어느 하나에 기초하여 복수의 데이터들이 분류될 수 있다. 상기 분류부(650)는 클라이언트 장치에 입력된 데이터 및/또는 클라우드 서버에 전달된 데이터를 상술한 복수의 양안 분류 기준 중 적어도 어느 하나에 기초하여 분류함에 따라, 복수의 데이터들은 좌안 또는 우안으로 분류 및/또는 라벨링되어 클라이언트 장치 및/또는 클라우드 서버에 저장될 수 있다. 상기 분류부(650)가 복수의 데이터를 상술한 양안 분류 기준에 따라 분류함에 따라, 상기 진단 수행부(630)는 좌안 또는 우안 데이터 세트를 통해 좌안 또는 우안이 구분되어야 하는 질병 특이적 성질을 고려한 진단이 수행될 수 있어, 상기 분류부(650)의 분류는 상기 진단 수행부(630)의 진단 정확도를 향상시킬 수 있다.
2.2.3.5.3 동일인 정보
상기 분류부(650)는 동일인 정보를 기준으로 복수의 데이터들이 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 동일인 정보를 기초로 복수의 데이터들이 동일인의 데이터로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 동일인 정보를 기초로 복수의 데이터들이 동일인의 데이터 세트로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 동일인 정보를 기초로 복수의 데이터들이 동일인에 해당되는 라벨링이 되는 기능이 수행될 수 있다.
상기 분류부(650)는 클라이언트 장치에 입력된 및/또는 저장된 정보를 기초로 동일인 정보가 획득될 수 있다. 일 예로, 상기 분류부(650)는 상기 클라이언트 장치에 접속 및/또는 입력된 아이디, 이메일, 개인 정보, 로그인 정보 등을 기초로 동일인 정보가 획득될 수 있다. 또한, 클라이언트 장치에 데이터를 입력함에 따라 동일인 정보가 요청되고, 이에 따라 입력된 동일인 정보는 입력된 데이터와 동시에 또는 이시에 클라우드 서버에 전달될 수 있어, 상기 분류부(650)는 상기 클라우드 서버에 전달된 상기 동일인 정보를 기초로 입력된 데이터가 동일인의 데이터로 분류될 수 있다. 또한, 클라이언트 장치에 데이터가 입력되되 동일인 정보가 제공되지 않은 경우, 클라이언트 장치는 클라우드 서버로부터 동일인 정보가 요청될 수 있어, 상기 분류부(650)는 상기 클라우드 서버로 전달된 동일인 정보를 기초로 입력된 데이터가 동일인의 데이터로 분류될 수 있다. 이와 관련해서는 2.2.3.7 정보 요청부에서 보다 상세하게 기술하고자 한다.
상기 분류부(650)는 클라이언트 장치에 입력된 및/또는 클라우드 서버에 전달된 데이터로부터 추출된 정보에 기초하여 동일인 정보가 획득될 수 있다.
도 38는 안저 이미지에 포함된 혈관 영역을 나타내는 도면이다. 도 34 및 도 38을 참조하면, 입력된 안저 이미지는 상기 안저 이미지에 포함된 혈관 영역(BVA)을 기초로 동일인 정보가 추출될 수 있다.
도 38(a)는 혈관 영역(BVA)이 포함된 안저 이미지를 나타내는 도면이고, 도 38(b)는 도 38(a)로부터 혈관 영역(BVA)만을 분리시킨 이미지를 나타내는 도면이다. 상기 분류부(650)는 혈관 영역(BVA)을 기초로 동일인 정보가 추출될 수 있다. 상기 분류부(650)는 혈관 영역(BVA)의 분포 정도 또는 분포 동향을 기초로 동일인 정보가 추출될 수 있다. 상기 분류부(650)는 혈관 영역(BVA)의 분포된 픽셀들을 기초로 동일인 정보가 추출될 수 있다. 상기 분류부(650)는 혈관 영역(BVA)의 분포된 픽셀들의 강도 차이를 기초로 동일인 정보가 추출될 수 있다.
상기 분류부(650)는 상술한 복수의 동일인 분류 기준 중 적어도 어느 하나에 기초하여 복수의 데이터들이 분류될 수 있다. 상기 분류부(650)는 클라이언트 장치에 입력된 데이터 및/또는 클라우드 서버에 전달된 데이터를 상술한 복수의 동일인 분류 기준 중 적어도 어느 하나에 기초하여 분류함에 따라, 복수의 데이터들은 동일인에 해당되는 각각의 데이터 세트로 분류 및/또는 라벨링되어 클라이언트 장치 및/또는 클라우드 서버에 저장될 수 있다. 상기 분류부(650)가 복수의 데이터를 상술한 동일인 분류 기준에 따라 분류함에 따라, 상기 진단 수행부(630)는 동일인의 데이터 세트들을 통해 시계열적 판단이 요구되는 진단이 수행될 수 있어, 상기 분류부(650)의 분류는 상기 진단 수행부(630)의 진단 정확도를 향상시킬 수 있다.
2.2.3.5.4 진단 정보
상기 분류부(650)는 2.2.3.4. 진단 수행부에 기재된 내용에 따라 얻어진 진단 정보를 기준으로 복수의 데이터들이 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 상기 진단 정보를 기초로 복수의 데이터들이 복수의 질병에 대한 각각의 데이터 세트로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 상기 진단 정보를 기초로 복수의 질병에 대한 각각의 데이터 세트로써 동일 질병 별로 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 상기 진단 정보를 기초로 복수의 질병에 대한 각각의 데이터 세트로써 정상 또는 비정상으로 분류되는 기능이 수행될 수 있다.
상기 분류부(650)는 상술한 복수의 진단 정보 분류 기준 중 적어도 어느 하나에 기초하여 복수의 데이터들이 분류될 수 있다. 상기 분류부(650)는 클라이언트 장치에 입력된 데이터 및/또는 클라우드 서버에 전달된 데이터를 상술한 복수의 진단 정보 분류 기준 중 적어도 어느 하나에 기초하여 분류함에 따라, 복수의 데이터들은 각각의 진단 질병 별로 분류 및/또는 라벨링되어 클라이언트 장치 및/또는 클라우드 서버에 저장될 수 있다.
상기 분류부(650)가 복수의 데이터를 상술한 진단 정보 분류 기준에 따라 분류함에 따라, 상기 진단 수행부(630)는 각각의 질병의 데이터 세트를 통해 비교 분석 및/또는 경향 분석에 의한 진단이 수행될 수 있어, 상기 분류부(650)의 분류는 상기 진단 수행부(630)의 진단 정확도를 향상시킬 수 있다.
2.2.3.5.5 기타 정보
상기 분류부(650)는 상기 통신부(610) 또는 상기 정보 요청부(680)로부터 얻어진 기타 정보를 기준으로 복수의 데이터들이 분류되는 기능이 수행될 수 있다. 상기 분류부(650)는 상기 기타 정보를 기초로 복수의 데이터들이 복수의 질병에 대한 각각의 데이터 세트로 분류되는 기능이 수행될 수 있다.
상기 기타 정보는 상기 양안 정보, 상기 동일인 정보, 및 상기 진단 정보를 제외한 나머지 정보를 포함할 수 있다. 일 예로, 상기 기타 정보는 상기 클라이언트 장치(500)를 사용하는 피검체의 성별, 나이, 질병 이력, 신체 정보, 진단 이력 등의 정보 중 적어도 어느 하나일 수 있다.
2.2.3.6 정보 제공부
정보 제공부(670)는 클라우드 서버에서 수행된 기능으로부터 얻어진 정보가 제공될 수 있는 기능이 수행될 수 있다. 정보 제공부(670)는 상기 통신부(610)를 통해 얻어진 입력 데이터에 관련된 정보가 제공되는 기능이 수행될 수 있다. 정보 제공부(670)는 입력 데이터에 관한 상기 진단 수행부(630)의 진단 수행과 관련된 정보가 제공되는 기능이 수행될 수 있다. 정보 제공부(670)는 입력 데이터에 관한 상기 분류부(650)의 분류 수행과 관련된 정보가 제공되는 기능이 수행될 수 있다.
보다 구체적으로는, 정보 제공부(670)는 상기 통신부(610)를 통해 얻어진 입력 데이터에 포함된 정보 및 상기 클라이언트 장치(500)의 상기 정보 제공부(570)가 제공한 정보 중 적어도 어느 하나로부터 상기 클라우드 서버(600)가 진단을 수행한 결과가 제공되는 기능이 수행될 수 있다. 정보 제공부(670)는 상기 진단 수행부(630)를 통해 얻어진 입력 데이터에 대한 상기 클라우드 서버(600)의 진단 결과에 포함된 정보가 제공되는 기능이 수행될 수 있다. 정보 제공부(670)는 상기 분류부(650)를 통해 얻어진 입력 데이터에 대한 상기 클라우드 서버(600)의 분류 결과에 포함된 정보가 제공되는 기능이 수행될 수 있다. 또한, 정보 제공부(670)는 상기 클라이언트 장치(500)의 요청에 기초하여, 상기 클라우드 서버의 진단 수행에 관한 정보가 제공되는 기능이 수행될 수 있다.
또한, 정보 제공부(670)에 의해 제공된 정보는 상기 통신부(610)를 통해 클라이언트 장치로 송신되거나, 상기 데이터 저장부(690)에 저장될 수 있다. 또한, 정보 제공부(670)에 의해 제공된 정보가 상기 클라이언트 장치(500)로 송신되는 경우, 상기 정보 제공부(670)에 의해 제공된 정보는 입력 데이터에 대한 클라이언트의 진단 보조에 있어서 유용한 정보로 활용 또는 이용될 수 있다.
일 예로, 정보 제공부(670)는 입력 데이터에 관한 복수의 질병에 대한 진단 정보가 제공될 수 있고, 클라이언트 장치(500)는 상기 정보 제공부(670)로부터 제공되는 상기 진단 정보로부터 입력 데이터의 진단을 보조하는 기능이 수행될 수 있다. 또한, 정보 제공부(670)는 입력 데이터에 관한 분류 정보가 제공될 수 있고, 클라이언트 장치는 상기 정보 제공부(670)로부터 제공되는 상기 분류 정보로부터 입력 데이터에 관한 시계열적 정보, 양안 정보, 진단 정보, 동일인 정보 등으로부터 입력 데이터의 진단을 보조하는 기능이 수행될 수 있다.
2.2.3.7 정보 요청부
정보 요청부(680)는 상기 클라이언트 장치(500)로부터 소정의 정보를 요청하는 기능이 수행될 수 있다. 정보 요청부(680)는 입력 데이터와 관련하여 상기 클라이언트 장치(500)로부터 소정의 정보를 요청하는 기능이 수행될 수 있다. 정보 요청부(680)는 입력 데이터의 진단 또는 분류 수행과 관련하여 상기 클라이언트 장치(500)로부터 소정의 정보를 요청하는 기능이 수행될 수 있다.
일 예로, 상기 정보 요청부(680)는 상기 분류부(650)가 입력된 데이터로부터 분류 기능을 수행함에 따라 추가적으로 요구되는 소정의 정보를 상기 클라이언트 장치(500)에 요청하는 기능이 수행될 수 있다.
또한, 상기 정보 요청부(680)는 상기 분류부(650)가 입력된 데이터로부터 양안 정보에 기초한 분류 기능을 수행하기 위해 요구되는 양안 정보를 상기 클라이언트 장치(500)에 요청하는 기능이 수행될 수 있다. 일 예로, 상기 정보 요청부(680)는 상기 입력된 데이터가 좌안 또는 우안에 해당되는지 여부를 입력하도록 상기 클라이언트 장치(500)에 요청하는 기능이 수행될 수 있다. 또한, 상기 정보 요청부(680)는 상기 분류부(650)가 입력된 데이터로부터 동일인 정보에 기초한 분류 기능을 수행하기 위해 요구되는 동일인 정보를 상기 클라이언트 장치(500)에 요청하는 기능이 수행될 수 있다. 일 예로, 상기 정보 요청부(680)는 상기 입력된 데이터가 동일인으로부터 유래된 데이터에 해당되는지 여부를 입력하도록 상기 클라이언트 장치(500)에 요청하는 기능이 수행될 수 있다.
또한, 정보 요청부(680)는 상기 데이터 저장부(690)로부터 소정의 정보를 요청하는 기능이 수행될 수 있다. 정보 요청부(680)는 입력 데이터의 진단 또는 분류 수행과 관련하여 상기 데이터 저장부(690)로부터 소정의 정보를 요청하는 기능이 수행될 수 있다.
상기 정보 요청부(680)가 상기 클라이언트 장치(500)에 소정의 정보를 요청함에 따라, 상기 클라우드 서버(600)는 상기 정보 요청부(680)에 의해 추가적으로 획득된 정보를 기초로 수행된 진단 또는 분류 결과의 정확도가 향상될 수 있는 이점이 있다.
2.2.3.8 데이터 저장부
도 33을 참조하면, 데이터 저장부(690)는 상기 통신부(610), 상기 진단 수행부(630), 상기 분류부(650), 상기 정보 제공부(670), 상기 정보 요청부(680) 중 적어도 어느 하나로부터 얻어진 정보가 저장될 수 있다. 또한, 상기 데이터 저장부(690)는 분류 결과, 진단 결과, 입력 정보, 요청 정보 등이 저장될 수 있다.
상기 데이터 저장부(690)는 예를 들어 플래시 메모리, RAM, ROM, SSD, SD CARD 및 광학 디스크 등으로 구현될 수 있다.
일 예로, 상기 데이터 저장부(690)는 상기 분류부(650)에서 얻어진 분류 결과에 기초하여 상기 클라이언트 장치(500)로부터 입력된 데이터가 라벨링되어 저장될 수 있다. 또한, 상기 데이터 저장부(690)는 상기 진단 수행부(630)에서 얻어진 진단 결과에 기초하여 상기 클라이언트 장치(500)로부터 입력된 데이터가 라벨링되어 저장될 수 있다.
상기 데이터 저장부(690)는 상기 분류부(650) 또는 상기 진단 수행부(630)에서 얻어진 결과에 기초하여 입력된 데이터가 라벨링되어 저장할 수 있어, 상기 클라우드 서버(600)는 상기 클라이언트 장치(500)에 복수의 정보를 효율적으로 제공할 수 있는 이점이 있다. 또한, 상기 데이터 저장부(690)는 상기 분류부(650) 또는 상기 진단 수행부(630)에서 얻어진 결과에 기초하여 입력된 데이터가 라벨링되어 저장할 수 있어, 상기 클라우드 서버(600)는 상기 클라이언트 장치(500)에 정확도가 높은 복수의 정보를 제공할 수 있는 이점이 있다.
2.3 클라우드 서버 기반의 분류 및 진단 보조 프로세스
2.3.1 전체 프로세스
도 39는 클라우드 서버 기반의 진단 보조 프로세스를 나타내는 도면이다.
도 39을 참조하면, 본 명세서의 클라우드 서버 기반의 진단 보조 시스템은 클라이언트 장치(500)로부터 입력된 진단 요청 데이터가 클라우드 서버(600)에 전달될 수 있고(S500), 상기 클라우드 서버(600)는 상기 진단 요청 데이터에 대한 복수의 결과가 상기 클라이언트 장치(500)에 제공될 수 있다(S600).
2.2.2 클라이언트 장치에 기재된 내용과 같이, 상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에 진단 요청 데이터로서 진단 대상 데이터를 제공할 수 있다. 또한, 2.2.3 클라우드 서버에 기재된 내용과 같이, 상기 클라우드 서버(600)는 상기 클라이언트 장치(500)에 진단 결과를 포함한 복수의 결과를 제공할 수 있다.
또한, 복수의 클라이언트 장치(500)로부터 입력된 진단 요청 데이터는 상기 클라우드 서버(600)에 전달되되, 상기 진단 요청 데이터는 상기 클라우드 서버(600)의 데이터 베이스에 저장될 수 있다. 또한, 복수의 클라이언트 장치(500)로부터 입력된 진단 요청 데이터는 상기 클라우드 서버(600)의 데이터 베이스에 저장되되, 상기 진단 요청 데이터에 대한 상기 클라우드 서버(600)의 진단 결과를 포함한 복수의 결과 또한 함께 저장될 수 있다. 상기 데이터 베이스는 2.2.3 클라우드 서버에 기재된 내용과 같이, 상기 데이터 저장부(690)에 포함될 수 있다.
상기 클라우드 서버 기반의 진단 보조 시스템의 진단 보조 프로세스와 관련하여, 상기 클라이언트 장치와 상기 클라우드 서버 사이의 정보 또는 결과 제공 프로세스에 대해서 보다 상세히 후술하도록 한다.
2.3.2 진단 결과 제공 프로세스
도 40은 클라이언트 장치와 클라우드 서버 사이의 진단 결과 제공 프로세스를 나타내는 도면이다.
도 31 내지 도 40을 참조하면, 상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에 진단 요청 데이터 송신 단계(S500)를 수행할 수 있다. 또한, 상기 클라우드 서버(600)에 전달된 상기 진단 요청 데이터(S500)는 상기 클라우드 서버(600)에서 데이터 식별 단계(S510), 정보 획득 단계(S530), 진단 수행 단계(S540), 및 진단 결과 획득 단계(S550)가 수행될 수 있다. 또한, 상기 클라우드 서버(600)는 획득된 상기 진단 결과(S550)를 상기 클라이언트 장치(500)에 대해 제공하는 결과 제공 단계(S570)가 수행할 수 있다.
상술한 수행 단계들을 통해, 상기 진단 결과 제공 프로세스는 진단 요청 데이터에 대한 진단 결과를 제공할 수 있어, 상기 클라이언트 장치(500)는 시간적, 공간적, 비용적 제한 없이 상기 클라우드 서버(600)를 통해 진단 결과를 얻을 수 있는 효과가 있다.
상기 클라이언트 장치(500)와 상기 클라우드 서버(600) 사이의 상술한 각 수행 단계들은 반드시 상술한 순서에 한정되지 아니하며, 각 수행 단계는 별개로 또는 순차적으로 수행될 수 있고, 더 나아가서 별도의 단계를 포함하거나 일부 단계가 생략될 수 있다.
2.3.2.1 진단 요청 데이터
상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에 진단 요청 데이터(S500)를 송신할 수 있되, 상기 진단 요청 데이터는 2.2.2 클라이언트 장치에서 기재된 내용과 같이 상기 클라이언트 장치(500)의 데이터 획득부(510) 획득된 데이터일 수 있다.
2.3.2.2 데이터 식별
상기 클라우드 서버(600)는 상기 진단 요청 데이터(S500)에 대한 데이터 식별 단계(S510)를 수행할 수 있다. 상기 클라우드 서버(600)는 2.2.2 클라이언트 장치에서 기재된 내용과 같이 상기 진단 요청 데이터(S500)에 포함된 이미지, 텍스트, 및 진단 객체 정보(PI, patient information) 중 적어도 어느 하나로부터 데이터 식별 단계(S510)를 수행할 수 있다.
상기 클라우드 서버(600)는 상기 데이터 식별 단계(S510)를 수행함에 따라, 상기 클라우드 서버(600) 기반의 진단 보조 시스템의 분석 대상이 되는 데이터를 식별할 수 있다. 상기 클라우드 서버(600)는 상기 데이터 식별 단계(S510)를 수행함에 따라, 상기 클라우드 서버(600) 기반의 진단 보조 시스템의 분석 대상으로 식별된 데이터를 진단 요? 데이터 DB(DataBase)에 저장할 수 있다(S520).
2.3.2.3 정보 획득
상기 클라우드 서버(600)는 상기 데이터 식별 단계(S510)를 수행함에 따라, 상기 클라우드 서버(600) 기반의 진단 보조 시스템의 분석 대상으로 식별된 데이터에 대한 정보 획득 단계(S530)를 수행할 수 있다. 상기 클라우드 서버(600)는 2.2.2 클라이언트 장치에서 기재된 내용과 같이 상기 데이터 식별(S610)이 수행된 데이터에 포함된 이미지, 텍스트, 및 진단 객체 정보(PI, patient information) 중 적어도 어느 하나로부터 정보 획득 단계(S530)를 수행할 수 있다.
상기 정보 획득 단계(S530)를 통해 획득된 정보는 상기 클라우드 서버(600)에서 수행되는 진단 수행 단계(S540)의 기초가 될 수 있다. 상기 정보 획득 단계(S530)은 상기 데이터 식별 단계(S510)가 수행된 데이터의 기초가 되는 정보를 획득할 수 있다. 상기 정보 획득 단계(S530)는 소정의 기준에 기초하여 정보를 획득할 수 있다. 상기 정보 획득 단계(S530)를 통해 획득된 정보는 소정의 기준에 따라 분류될 수 있다. 상기 소정의 기준은 영상의 종류, 촬영 부위, 영상 내 텍스트, 진단 객체 정보 등으로 구별될 수 있다.
2.3.2.4 진단 수행
상기 클라우드 서버(600)는 진단 요청 데이터(S500)에 대해 진단 수행 단계(S540)를 수행할 수 있다. 상기 클라우드 서버(600)는 상기 데이터 식별 단계(S510)에서 식별된 데이터 및 상기 정보 획득 단계(S530)에서 획득된 정보 중 적어도 어느 하나에 기초하여 진단 수행 단계(S540)를 수행할 수 있다. 상기 진단 수행 단계(S540)는 2.2.3 클라우드 서버에 기재된 내용과 같이, 상기 클라우드 서버(600)에 포함된 진단 수행부(630)에 의해 수행될 수 있다.
2.3.2.5 진단 결과 획득
상기 클라우드 서버(600)는 진단 요청 데이터(S500)에 대한 진단 수행 단계(S540)에서 얻어진 진단 결과를 획득하는 단계(S550)를 수행할 수 있다. 상기 진단 결과 획득 단계(S550)에서 획득된 진단 결과는 진단 대상이 된 데이터와 함께 라벨 데이터 DB에 저장될 수 있다.
상기 라벨 데이터 DB는 진단 요청 데이터(S500)에 대해 수행된 진단 결과가 진단 요청 데이터(S500)에 라벨링되어 저장될 수 있다. 상기 라벨 데이터 DB는 분석 대상으로 식별된 데이터에 대해 수행된 진단 결과가 분석 대상으로 식별된 데이터에 라벨링되어 저장될 수 있다. 상기 진단 결과를 기초로 라벨링되어 저장된 상기 라벨 데이터 DB는 후술될 분류 결과 제공 프로세스에서 소정의 기준에 따라 분류될 수 있다.
2.3.2.6 결과 제공
상기 클라우드 서버(600)는 상기 진단 결과 획득 단계(S540)에서 얻어진 진단 결과를 클라이언트 장치(500)에 제공할 수 있다. 상기 클라우드 서버(600)는 2.2 클라우드 서버 기반의 진단 보조 시스템에 기재된 내용과 같이, 각각의 통신부를 통해 상기 진단 결과가 제공될 수 있다. 상기 진단 결과는 1. 안저 이미지를 이용한 진단 보조에 기재된 내용과 같이 진단 보조 정보를 포함할 수 있다.
2.3.3 분류 결과 제공 프로세스
도 41은 클라이언트 장치와 클라우드 서버 사이의 분류 결과 제공 프로세스를 나타내는 도면이다. 도 42 및 도 43은 클라우드 서버에서의 분류 프로세스를 나타내는 도면이다.
도 41을 참조하면, 상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에 진단 요청 데이터 송신 단계(S600)를 수행할 수 있다. 또한, 상기 클라우드 서버(600)에 전달된 상기 진단 요청 데이터(S600)는 상기 클라우드 서버(600)에서 데이터 식별 단계(S610), 정보 획득 단계(S630), 분류 수행 단계(S640), 및 분류 결과 획득 단계(S650)가 수행될 수 있다. 또한, 상기 클라우드 서버(600)는 획득된 상기 분류 결과(S650)를 상기 클라이언트 장치(500)에 대해 제공하는 결과 제공 단계(S670)가 수행할 수 있다.
상술한 수행 단계들을 통해, 상기 분류 결과 제공 프로세스는 진단 요청 데이터에 대한 분류 결과를 라벨링할 수 있어, 상기 라벨 분류 결과는 상기 진단 결과 제공 프로세스에서 수행되는 진단 수행의 기초가 될 수 있다. 상기 라벨 분류 결과를 기초로 진단이 수행되는 경우, 분류된 라벨에 따라 적합한 진단이 수행될 수 있어 진단의 정확도가 향상될 수 있다.
상기 진단 결과 제공 프로세스는 진단 요청 데이터에 대한 진단 결과를 제공할 수 있어, 상기 클라이언트 장치(500)는 시간적, 공간적, 비용적 제한 없이 상기 클라우드 서버(600)를 통해 진단 결과를 얻을 수 있는 효과가 있다.
상기 클라이언트 장치(500)와 상기 클라우드 서버(600) 사이의 상술한 각 수행 단계들은 반드시 상술한 순서에 한정되지 아니하며, 각 수행 단계는 별개로 또는 순차적으로 수행될 수 있고, 더 나아가서 별도의 단계를 포함하거나 일부 단계가 생략될 수 있다.
2.3.3.1 진단 요청 데이터, 데이터 식별, 정보 획득
진단 요청 데이터 송신 단계(S600), 데이터 식별 단계(S610), 및 정보 획득 단계(S630)에 대한 내용은 상술한 2.3.2.1 진단 요청 데이터, 2.3.2.2 데이터 식별, 및 2.3.2.3 정보 획득에 기재된 내용과 동일하거나 유사할 수 있다.
2.3.3.2 분류 수행
클라우드 서버(500)는 상기 진단 요청 데이터(S600)에 대해 소정의 기준에 따라 분류하는 분류 수행 단계(S640)를 수행할 수 있다. 상기 분류 수행 단계(S640)는 2.2.3 클라우드 서버에 기재된 내용과 같이 분류부(650)에 의해 수행될 수 있다. 또한, 상기 분류 수행 단계(S640)는 상기 분류부(650)에 의해 진단 보조 정보, 양안 정보, 및 동일인 정보 중 적어도 어느 하나에 기초하여 분류가 수행될 수 있다.
2.3.3.3 분류 결과 획득
클라우드 서버(500)는 상기 분류 수행 단계(S640)에서 수행된 분류 결과를 획득하는 분류 결과 획득 단계(S650)를 수행할 수 있다. 상기 진단 요청 데이터는 상기 분류 결과 획득 단계(S650)에서 획득된 결과를 기초로 라벨링될 수 있고, 라벨링된 진단 요청 데이터는 라벨 데이터 DB에 저장될 수 있다. 상기 분류 결과 획득 단계(S650)에서 획득된 분류 결과는 상기 분류부(650)에 의해 진단 보조 정보, 양안 정보, 및 동일인 정보 중 적어도 어느 하나에 기초할 수 있고, 상기 분류 결과를 기초로 상기 진단 요청 데이터는 라벨링되어 라벨 데이터 DB에 저장될 수 있다.
또한, 클라우드 서버(500)는 상기 분류 결과 획득 단계(S650)에서 획득된 분류 결과는 상기 분류부(650)에 의해 진단 보조 정보, 양안 정보, 및 동일인 정보 중 적어도 어느 두 개의 정보를 기초할 수 있다. 일 예로 상기 분류 결과 획득 단계(S650)에서 획득된 분류 결과는 양안 정보 및 동일인 정보일 수 있고, 본 출원의 클라우드 서버 기반의 진단 보조 시스템은 이를 기초로 분류된 데이터를 진단 보조에 활용할 수 있다.
일 예로, 도 41 및 도 42를 참조하면, 상기 진단 요청 데이터(S600)는 상기 분류 수행 단계(S640)에 의해 양안 정보를 기초로 분류된 양안 데이터 세트(700)로 분류될 수 있다. 상기 양안 데이터 세트(700)는 상기 분류 결과 획득 단계(S650)에서 얻어진 결과를 기초로 상기 진단 요청 데이터(S600)로부터 우안으로 분류된 우안 데이터 세트(711) 및 좌안으로 분류된 좌안 데이터 세트(715)로 분류된 데이터 세트일 수 있다.
상기 양안 데이터 세트(700)는 우안으로 분류된 결과에 따라, 우안 데이터 세트(711)에 포함된 데이터 별로 라벨링이 수행될 수 있다. 일 예로, 우안 데이터 세트(711)는 상기 분류 결과 획득 단계(S650)에서 얻어진 결과를 기초로 ID-1111R(721) 내지 ID-1999R(731)로 각각 라벨링이 수행될 수 있다. 또한, 상기 양안 데이터 세트(700)는 좌안으로 분류된 결과에 따라, 좌안 데이터 세트(715)에 포함된 데이터 별로 라벨링이 수행될 수 있다. 일 예로, 좌안 데이터 세트(715)는 상기 분류 결과 획득 단계(S650)에서 얻어진 결과를 기초로 ID-2111R(725) 내지 ID-2999R(735)로 각각 라벨링이 수행될 수 있다.
또한, 상기 양안 데이터 세트(700)는 상기 분류부(650)에 의해 동일인 정보에 기초하여 분류될 수 있고, 상기 우안 데이터 세트(711) 및 상기 좌안 데이터 세트(715)에 포함된 데이터 중 동일인에 해당되는 데이터 세트들(750)로 서로 매칭시켜 라벨링될 수 있다. 또한, 상기 우안 데이터 세트(711) 및 상기 좌안 데이터 세트(715)에 포함된 데이터 중 동일인에 해당되는 데이터 세트들(750)은 소정의 정보를 기초로 동일한 또는 유사한 시점에 촬상, 촬영, 또는 저장된 데이터끼리 서로 매칭되어 라벨링될 수 있다.
일 예로, 상기 우안 데이터 세트(711) 중 ID-1888R에 해당되는 데이터와 상기 좌안 데이터 세트(715) 중 ID-2372L에 해당되는 데이터가 동일인에 해당되는 진단 객체로부터 온 데이터인 경우, 상기 좌안 및 우안 데이터는 ID-1888R-2372L(740)로 함께 라벨링될 수 있다.
이를 통해, 본 출원의 클라우드 서버 기반의 진단 보조 시스템은 진단 요청 데이터가 양안 정보를 기초로 분류된 양안 데이터 세트에 대해서도 동일인 여부를 추가적으로 분류하여, 각각의 진단 요청 데이터를 동일인 및 양안 정보에 기초한 데이터 세트로 저장함에 따라 진단의 효율성 및 정확성을 향상시킬 수 있다.
일 예로, 도 41 및 도 43을 참조하면, 상기 진단 요청 데이터(S600)는 상기 분류 수행 단계(S640)에 의해 동일인 정보를 기초로 분류된 복수의 동일인 데이터 세트(800)로 분류될 수 있다. 복수의 상기 동일인 데이터 세트(800)는 상기 분류 결과 획득 단계(S650)에서 얻어진 결과를 기초로 상기 진단 요청 데이터(S600)로부터 동일인으로 분류된 각각의 데이터 세트(810)일 수 있다.
상기 동일인 데이터 세트(810)는 동일인으로 분류된 결과에 따라 동일인 데이터 세트로 분류되되, 상기 동일인 데이터 세트(810)에 포함된 데이터에 대한 양안 분류에 따른 라벨링이 수행될 수 있다. 일 예로, 상기 동일인 데이터 세트(810)에 포함된 데이터 중 우안에 해당되는 데이터들은 ID#1-1111R(821) 내지 ID#1-1999R(831)로, 좌안에 해당되는 데이터들은 ID#1-2111L(825) 내지 ID#1-1999L(835)로 각각 라벨링이 수행될 수 있다.
또한, 상기 동일인 데이터 세트(800)는 상기 분류부(650)에 의해 양안 정보에 기초하여 분류될 수 있고, 상기 동일인 데이터 세트(800) 중 양안 데이터 세트(850)들로 각각 매칭시켜 라벨링될 수 있다. 또한, 상기 동일인 데이터 세트(800)는 상기 분류부(650)에 의해 양안 정보에 기초하여 분류될 수 있고, 상기 동일인 데이터 세트(800) 중 양안 데이터 세트들(850)은 동일 또는 유사한 시점에 촬영 또는 저장된 정보를 기초로 각각 매칭시켜 라벨링될 수 있다.
일 예로, 상기 동일인 데이터 세트(800) 중 ID#1-1888R과 ID#1-2372L은 양안 데이터 세트(840)로 매칭되되, 동일 또는 유사한 시점에 촬영 또는 저장된 것에 해당되어 ID#1-1888R-2372L로 함께 라벨링될 수 있다.
이를 통해, 본 출원의 클라우드 서버 기반의 진단 보조 시스템은 진단 요청 데이터가 동일인 정보를 기초로 분류된 동일인 데이터 세트에 대해서도 양안 여부를 추가적으로 분류하여, 각각의 진단 요청 데이터를 동일인 및 양안 정보에 기초한 데이터 세트로 저장함에 따라 진단의 효율성 및 정확성을 향상시킬 수 있다.
다만, 상기 라벨링은 예시적인 기재로, 상술한 텍스트 및/또는 숫자와는 상이한 텍스트 및/또는 숫자로 분류 기준에 따라 구분되는 라벨링이 수행될 수 있다.
2.3.3.4 결과 제공
상기 클라우드 서버(600)는 상기 분류 결과 획득 단계(S640)에서 얻어진 분류 결과를 클라이언트 장치(500)에 제공할 수 있다. 상기 클라우드 서버(600)는 2.2 클라우드 서버 기반의 진단 보조 시스템에 기재된 내용과 같이, 각각의 통신부를 통해 상기 분류 결과가 제공될 수 있다.
2.3.4 추가 정보 획득 프로세스
도 44는 클라이언트 장치와 클라우드 서버 사이의 추가 정보 제공 프로세스를 나타내는 도면이다.
도 44를 참조하면, 본 출원의 클라우드 서버 기반의 진단 보조 시스템은 진단 요청 데이터 송신 단계(S700), 데이터 식별 단계(S710), 정보 획득 단계(S730), 정보 요청 단계(S740), 요청 정보 입력 단계(S750), 입력 요청 데이터(S760), 및 정보 획득 단계(S770)를 수행하는 추가 정보 획득 프로세스를 포함할 수 있다. 또한, 상기 추가 정보 획득 프로세스는 상술한 진단 결과 제공 프로세스 및 분류 결과 제공 프로세스 중 적어도 어느 하나와 함께 수행될 수 있다.
상술한 수행 단계들을 통해, 상기 추가 정보 획득 프로세스는 진단 요청 데이터에 대한 진단에 요구되는 추가 정보를 획득할 수 있어, 상기 클라이언트 장치(500)는 시간적, 공간적, 비용적 제한 없이 상기 클라우드 서버(600)를 통해 정확도가 향상된 진단 결과를 얻을 수 있는 효과가 있다.
상기 클라이언트 장치(500)와 상기 클라우드 서버(600) 사이의 상술한 각 수행 단계들은 반드시 상술한 순서에 한정되지 아니하며, 각 수행 단계는 별개로 또는 순차적으로 수행될 수 있고, 더 나아가서 별도의 단계를 포함하거나 일부 단계가 생략될 수 있다.
2.3.4.1 진단 요청 데이터, 데이터 식별, 정보 획득
진단 요청 데이터 송신 단계(S600), 데이터 식별 단계(S610), 및 정보 획득 단계(S630)에 대한 내용은 상술한 2.3.2.1 진단 요청 데이터, 2.3.2.2 데이터 식별, 및 2.3.2.3 정보 획득에 기재된 내용과 동일하거나 유사할 수 있다.
2.3.4.2 정보 요청 단계
상기 클라우드 서버(600)는 상기 클라이언트 장치(500)에 대해 추가적인 정보를 요청하는 정보 요청 단계(S740)를 수행할 수 있다. 상기 클라우드 서버(600)는 상기 데이터 식별 단계(S710)를 통해 식별된 데이터 및 상기 정보 획득 단계(S730)에서 얻어진 정보 중 적어도 어느 하나를 고려한 결과, 추가적인 정보를 요청하는 정보 요청 단계(S740)를 수행할 수 있다. 상기 클라우드 서버(600)는 2.2.3 클라우드 서버에 기재된 내용과 같이 정보 요청부(680)에 의해 정보 요청 단계(S740)가 수행될 수 있다.
상기 정보 요청 단계(S740)가 상기 클라이언트 장치(500)에 요청하는 정보는 상기 클라우드 서버(600)의 진단 보조에 있어서 필수적으로 또는 부가적으로 요구되는 정보일 수 있고, 일 예로 상기 추가 요청 정보는 이미지, 텍스트, 또는 진단 객체 정보 등일 수 있다.
2.3.4.3 요청 정보 입력 단계, 입력 요청 데이터, 정보 획득 단계
상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에서 요청되는 정보를 입력하는 요청 정보 입력 단계(S750)를 수행할 수 있다. 상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에서 요청되는 정보를 2.2.2 클라이언트 장치에 기재된 내용과 같이 정보 제공부(570)에 의해 수행될 수 있다.
또한, 상기 클라이언트 장치(500)는 상기 클라우드 서버(600)에서 요청되는 정보를 입력할 수 있고, 입력된 입력 요청 데이터는 클라우드 서버에 송신되는 입력 요청 데이터 송신 단계(S760)가 수행됨에 따라 클라우스 서버(600)에 전달될 수 있다.
또한, 클라우드 서버(600)는 상기 클라이언트 장치(500)로부터 전달된 입력 요청 데이터(S760)로부터 정보를 획득하는 정보 획득 단계(S770)를 수행할 수 있다. 상기 정보 획득 단계(S770)는 상기 입력 요청 데이터(S760)가 요청에 적합한 정보를 포함하는지 여부를 판단할 수 있고, 요청에 적합한 경우 다음 단계로써 진단 결과 제공 프로세스 또는 분류 결과 제공 프로세스 중 적어도 어느 하나를 수행할 수 있다. 또한, 상기 정보 획득 단계(S770)는 상기 입력 요청 데이터(S760)가 요청에 적합한 정보를 포함하는지 여부를 판단할 수 있고, 요청에 부적합한 경우 다음 단계로써, 다시 상기 정보 요청 단계(S740)를 수행할 수 있다.
따라서, 상기 추가 정보 획득 프로세스는 필요에 따라 상기 진단 결과 제공 프로세스 또는 분류 결과 제공 프로세스와 함께 수행될 수 있다. 또한, 상기 추가 정보 획득 프로세스는 필요에 따라 반복되어 수행될 수 있다. 이를 통해, 본 출원의 클라우드 서버 기반의 진단 보조 시스템은 진단 보조 또는 분류에 있어서 보다 정확한 정보를 기초로 진단 보조 또는 분류를 수행할 수 있어, 상기 클라우드 서버 기반의 진단 보조 시스템의 정확도가 향상될 수 있다.
2.3.5 복수의 클라우드 서버 간의 분류 및 진단 보조 프로세스
도 45는 복수의 클라우드 서버 기반의 진단 보조 시스템(60)을 나타내는 도면이다.
상기 복수의 클라우드 서버 기반의 진단 보조 시스템(60)은 클라이언트 장치(500), 제1 클라우드 서버(600), 및 제2 클라우드 서버(650) 중 적어도 어느 하나를 포함할 수 있다.
또한, 복수의 클라우드 서버 기반의 진단 보조 시스템(60)은 클라이언트 장치(500)와 제1 클라우드 서버(600) 사이의 통신을 통해 상기 클라이언트 장치(500)로부터 제공된 정보가 저장될 수 있다. 또한, 상기 복수의 클라우드 서버 기반의 진단 보조 시스템(60)은 상기 제1 클라우드 서버(600)와 상기 제2 클라우드 서버(650) 사이의 통신을 통해 진단 보조 및 분류가 각각의 장치에 대해 수행될 수 있다. 또한, 클라우드 서버 기반의 진단 보조 시스템(50)은 클라이언트 장치(500), 제1 클라우드 서버(600), 및 제2 클라우드 서버(650) 사이의 상호적인 네트워크를 통해 진단 보조가 각각의 장치에 대해 수행될 수 있다.
이에 따라, 상기 복수의 진단 보조 시스템(60)은 클라이언트 장치(500)에 이미지가 각각 입력함에 따라, 시간적 및 공간적 제약 없이 상기 복수의 진단 보조 시스템(60)에 의한 진단이 수행될 수 있다. 또한, 상기 복수의 진단 보조 시스템(60)은 전술한 2.2. 클라우드 서버 기반의 진단 보조 시스템에 기재된 내용과 같이, 상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)는 전술된 내용과 동일하거나 유사한 구성 및 프로세스에 따라 수행될 수 있다.
다만, 본 발명의 복수의 클라우드 서버 기반의 진단 보조 시스템(60)은 전술된 내용에 한정되지 아니하며, 전술된 내용에 일부 구성요소가 추가, 변경 또는 삭제되어 진단이 수행될 수 있다.
상기 클라이언트 장치(500)는 전술한 2.2.2 클라이언트 장치에서 기재된 내용과 동일하거나 유사한 구성 및 프로세스에 따라 수행될 수 있되, 상기 클라이언트 장치는 전술한 내용에 한정되지 아니하며, 전술된 내용에 일부 구성요소가 추가, 변경, 또는 삭제되어 진단이 수행될 수 있다.
상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)는 전술한 2.2.3 클라우드 서버에서 기재된 내용과 동일하거나 유사한 구성 및 프로세스에 따라 수행될 수 있되, 상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)는 전술한 내용에 한정되지 아니하며, 전술된 내용에 일부 구성요소가 추가, 변경, 또는 삭제되어 진단이 수행될 수 있다.
상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)는 전술된 2.2.3 클라우드 서버 및 2.3 클라우드 서버 기반의 진단 보조 및 분류 프로세스에서 기재된 내용과 같이, 각각의 클라우드 서버가 분류 및 진단을 모두 수행할 수 있다. 상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)는 전술된 2.2.3 클라우드 서버 및 2.3 클라우드 서버 기반의 진단 보조 및 분류 프로세스에서 기재된 내용과 같이, 각각의 클라우드 서버가 분류 또는 진단을 수행할 수 있다. 또한, 전술된 2.2.3 클라우드 서버 및 2.3 클라우드 서버 기반의 진단 보조 및 분류 프로세스에서 기재된 내용과 같이, 상기 제1 클라우드 서버(600)가 분류를 수행하여 데이터에 저장하는 프로세스를 수행하는 경우, 상기 제2 클라우드 서버(650)는 상기 제1 클라우드 서버(600)에서 분류되어 저장된 데이터를 기초로 진단이 수행될 수 있다. 또한, 전술된 2.2.3 클라우드 서버 및 2.3 클라우드 서버 기반의 진단 보조 및 분류 프로세스에서 기재된 내용과 같이, 상기 제1 클라우드 서버(600)가 진단을 수행하여 데이터에 저장하는 프로세스를 수행하는 경우, 상기 제2 클라우드 서버(650)는 상기 제1 클라우드 서버(600)에서 진단이 수행된 데이터를 기초로 분류가 수행될 수 있다.
상기 복수의 클라우드 서버 기반의 진단 보조 시스템(60)은 상기 제1 클라우드 서버(600) 및 상기 제2 클라우드 서버(650)를 통해 클라이언트 장치(500)로부터 입력되는 복수의 데이터들에 대한 효율적인 관리 및 빠른 진단 결과 획득이 수행될 수 있다.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (25)

  1. 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부;
    상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및
    상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는,
    서버.
  2. 제1 항에 있어서,
    상기 제1 안저 이미지는 상기 데이터 저장부에 이미 저장된 제2 안저 이미지와 비교되되, 상기 제2 안저 이미지가 상기 라벨에 대응되는 경우 상기 제1 안저 이미지는 상기 제2 안저 이미지와 매칭되고,
    상기 제1 안저 이미지 및 상기 제2 안저 이미지는 상기 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는,
    서버.
  3. 제1 항에 있어서,
    상기 라벨은 제1 라벨 및 제2 라벨을 포함하고,
    상기 제1 안저 이미지는 상기 데이터 저장부에 이미 저장된 제2 안저 이미지와 비교되되,
    상기 제2 안저 이미지가 상기 라벨에 대응되지 않는 경우, 상기 제1 안저 이미지는 상기 제1 라벨로, 상기 제2 안저 이미지는 제2 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는,
    서버.
  4. 상기 제1 항에 있어서,
    상기 라벨은 양안 정보, 개인 식별 정보, 신체 정보, 성별 정보, 및 나이 정보 중 적어도 어느 하나에 기초한 라벨인 것을 특징으로 하는,
    서버.
  5. 제1 항에 있어서,
    상기 제1 정보는 상기 클라이언트 장치로부터 제공된 상기 제1 안저 이미지의 촬영 일시, 촬영 장비, 상기 피검체의 식별 번호, ID, 성명, 성별, 나이, 몸무게, 좌안 또는 우안 여부 중 적어도 어느 하나를 포함하는 것을 특징으로 하는,
    서버.
  6. 제1 항에 있어서,
    상기 제2 정보는 상기 제1 안저 이미지에 포함되어 있는 해부학적 요소의 위치를 고려하여 결정된 복수의 해부학적 영역에 관한 정보를 포함하는 것을 특징으로 하는,
    서버.
  7. 제6 항에 있어서,
    상기 복수의 해부학적 영역은 시신경 유두부, 황반부, 및 혈관부 중 적어도 어느 하나를 포함하는 것을 특징으로 하는,
    서버.
  8. 제7 항에 있어서,
    상기 분류부는 상기 시신경 유두부와 상기 황반부의 위치 관계를 기초로 상기 제1 안저 이미지의 양안 정보를 획득하고,
    상기 양안 정보를 기초로 상기 제1 안저 이미지의 좌안 또는 우안으로 분류하는 것을 특징으로 하는,
    서버.
  9. 제8 항에 있어서,
    상기 제1 안저 이미지가 상기 시신경 유두부의 중심이 상기 황반부의 중심에 비해 상부에 위치하는 경우,
    상기 분류부는 상기 시신경 유두부의 위치가 상기 제1 안저 이미지의 중심보다 좌측에 위치하면 좌안으로 분류하고, 상기 시신경 유두부의 위치가 상기 제1 안저 이미지의 중심보다 우측에 위치하면 우안으로 분류되는 것을 특징으로 하는,
    서버.
  10. 제7 항에 있어서,
    상기 분류부는 상기 시신경 유두에 포함된 비측 영역과 이측 영역의 픽셀 값을 비교한 결과를 기초로 상기 제1 안저 이미지의 양안 정보를 획득하고,
    상기 양안 정보를 기초로 상기 제1 안저 이미지의 좌안 또는 우안으로 분류하는 것을 특징으로 하는,
    서버.
  11. 제8 항 내지 제10 항 중 어느 하나에 있어서,
    상기 라벨은 양안 라벨을 포함하되, 상기 양안 라벨은 좌안 라벨 및 우안 라벨을 포함하고,
    상기 데이터 저장부는 상기 양안 정보를 기초로 상기 제1 안저 이미지에 대응되는 좌안 라벨 또는 우안 라벨을 상기 제3 정보로 추가하여 저장하는 것을 특징으로 하는,
    서버.
  12. 제7 항에 있어서,
    상기 분류부는 상기 혈관부에 포함된 픽셀들의 픽셀값의 분포를 기초로 상기 제1 안저 이미지에 포함된 상기 피검체의 개인 식별 정보를 획득하고,
    상기 개인 식별 정보를 기초로 상기 제1 안저 이미지가 동일한 상기 피검체로부터 유래되었는지 여부를 분류하는 것을 특징으로 하는,
    서버.
  13. 제12 항에 있어서,
    상기 라벨은 동일인 라벨을 포함하고,
    상기 데이터 저장부는 상기 개인 식별 정보를 기초로 상기 제1 안저 이미지에 대응되는 동일인 라벨을 상기 제3 정보로 저장하는 것을 특징으로 하는,
    서버.
  14. 제3 항에 있어서,
    상기 제1 라벨은 좌안 라벨이고, 상기 제2 라벨은 우안 라벨에 해당되되,
    상기 분류부는 상기 제1 안저 이미지에 포함된 상기 피검체의 제1 개인 식별 정보와 상기 제2 안저 이미지에 포함된 제2 개인 식별 정보를 비교하고,
    상기 제1 개인 식별 정보 및 상기 제2 개인 식별 정보가 동일한 상기 피검체로부터 유래된 경우, 상기 제1 안저 이미지와 상기 제2 안저 이미지는 제3 라벨로 그룹화되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는,
    서버.
  15. 제2 항에 있어서,
    상기 제1 라벨은 동일인 라벨이고,
    상기 분류부는 상기 제1 안저 이미지에 포함된 상기 피검체의 제1 양안 정보와 상기 제2 안저 이미지에 포함된 제2 양안 정보를 비교하여,
    상기 제1 양안 정보에 기초하여 상기 제1 안저 이미지는 제2 라벨이 대응되고, 상기 제2 양안 정보에 기초하여 상기 제2 안저 이미지는 제3 라벨에 대응되어 상기 데이터 저장부에 저장되는 것을 특징으로 하는,
    서버.
  16. 제15 항에 있어서,
    상기 제2 라벨 및 상기 제3 라벨은 좌안 라벨 또는 우안 라벨인 것을 특징으로 하는,
    서버.
  17. 제1 항에 있어서,
    상기 제1 안저 이미지를 기초로 상기 피검체에 대한 복수의 질병을 진단하는 진단 수행부를 더 포함하고,
    상기 제2 정보는 상기 제1 안저 이미지에 대한 상기 진단 수행부의 진단 질병의 종류, 진단 결과, 진단 시기, 진단 대상, 및 진단 부위에 관한 정보 중 적어도 어느 하나인 것을 특징으로 하는,
    서버.
  18. 제17 항에 있어서,
    상기 분류부는 상기 제2 정보를 기초로 상기 제1 안저 이미지의 진단 정보를 획득하고, 상기 진단 정보를 기초로 상기 제1 안저 이미지를 분류하는 것을 특징으로 하는,
    서버.
  19. 제17 항에 있어서,
    상기 진단 수행부는 상기 제1 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-을 포함하되,
    상기 신경망 모델은 양안 정보에 기초한 양안 라벨로 대응되어 상기 데이터 저장부에 저장된 안저 이미지 세트를 통해 학습되는 것을 특징으로 하는,
    서버.
  20. 제17 항에 있어서,
    상기 진단 수행부는 상기 제1 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-을 포함하되,
    상기 신경망 모델은 개인 식별 정보에 기초한 동일인 라벨로 대응되어 상기 데이터 저장부에 저장된 안저 이미지 세트를 통해 학습되는 것을 특징으로 하는,
    서버.
  21. 제2 항에 있어서,
    상기 분류부는 상기 제1 정보에 포함된 촬영 일시 정보를 기초로, 상기 제1 안저 이미지에 대한 시계열적 정보를 획득하고,
    상기 시계열적 정보를 기초로 상기 라벨에 대응되는 상기 제1 안저 이미지 및 상기 제2 안저 이미지를 시계열적 순서로 매칭하여 상기 제3 정보로 상기 데이터 저장부에 저장되는 것을 특징으로 하는,
    서버.
  22. 제1 항에 있어서,
    상기 분류부는 상기 제1 안저 이미지에 대한 분류를 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 안저 이미지를 분류하도록 학습됨-을 포함하는 것을 특징으로 하는,
    서버.
  23. 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고,
    상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신부; 상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류부; 및 상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장부를 포함하는 것을 특징으로 하는,
    서버 기반의 진단 보조 시스템.
  24. 제1 클라이언트 장치에 의해 획득된 데이터를 수신하고, 수신된 데이터에 대한 복수의 질병 진단을 보조하는 서버를 포함하고,
    상기 서버는, 피검체의 제1 안저 이미지 및 제1 정보-상기 제1 정보는 상기 피검체에 관하여 제1 클라이언트 장치로부터 획득된 정보를 포함함-가 획득되는 통신하는 단계;
    상기 제1 안저 이미지의 효율적인 관리를 위해, 상기 제1 정보 및 제2 정보-상기 제2 정보는 상기 제1 안저 이미지로부터 획득된 정보임- 중 적어도 어느 하나를 기초로 상기 제1 안저 이미지를 분류하는 분류하는 단계; 및
    상기 분류부의 분류 결과에 기초하여 상기 제1 안저 이미지에 대응되는 라벨을 제3 정보로 저장하는 데이터 저장하는 단계를 포함하는 것을 특징으로 하는,
    서버 기반의 진단 보조 방법.
  25. 제24 항에 기재된 방법을 실행시키도록 구현되는 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
KR1020190056631A 2018-07-06 2019-05-14 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템 KR102345026B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210187639A KR20210158853A (ko) 2018-07-06 2021-12-24 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862694901P 2018-07-06 2018-07-06
US62/694,901 2018-07-06
US201862715729P 2018-08-07 2018-08-07
US62/715,729 2018-08-07
US201862776345P 2018-12-06 2018-12-06
US62/776,345 2018-12-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210187639A Division KR20210158853A (ko) 2018-07-06 2021-12-24 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템

Publications (2)

Publication Number Publication Date
KR20200005433A true KR20200005433A (ko) 2020-01-15
KR102345026B1 KR102345026B1 (ko) 2021-12-29

Family

ID=69156691

Family Applications (12)

Application Number Title Priority Date Filing Date
KR1020180157562A KR20200005407A (ko) 2018-07-06 2018-12-07 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020180157560A KR20200005405A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180157559A KR20200005404A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180157563A KR102212500B1 (ko) 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법
KR1020180157564A KR102270659B1 (ko) 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR1020180157561A KR20200005406A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180166720A KR20200005411A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치
KR1020180166721A KR20200005412A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치
KR1020180166722A KR20200005413A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치
KR1020190056631A KR102345026B1 (ko) 2018-07-06 2019-05-14 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템
KR1020210187639A KR20210158853A (ko) 2018-07-06 2021-12-24 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템
KR1020230089164A KR20230110233A (ko) 2018-07-06 2023-07-10 클라우드 서버 및 클라우드 서버 기반의 진단 보조시스템

Family Applications Before (9)

Application Number Title Priority Date Filing Date
KR1020180157562A KR20200005407A (ko) 2018-07-06 2018-12-07 안구 이미지 기반의 진단 보조 이미지 제공 장치
KR1020180157560A KR20200005405A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180157559A KR20200005404A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180157563A KR102212500B1 (ko) 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법
KR1020180157564A KR102270659B1 (ko) 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR1020180157561A KR20200005406A (ko) 2017-12-20 2018-12-07 진단 보조 시스템
KR1020180166720A KR20200005411A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치
KR1020180166721A KR20200005412A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치
KR1020180166722A KR20200005413A (ko) 2018-07-06 2018-12-20 심혈관 질병 진단 보조 방법 및 장치

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020210187639A KR20210158853A (ko) 2018-07-06 2021-12-24 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템
KR1020230089164A KR20230110233A (ko) 2018-07-06 2023-07-10 클라우드 서버 및 클라우드 서버 기반의 진단 보조시스템

Country Status (1)

Country Link
KR (12) KR20200005407A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102361217B1 (ko) * 2021-03-02 2022-02-14 주식회사 에이아이댑스 블록체인 기반의 머신러닝 서비스를 포함하는 클라우드 서비스 제공 방법 및 시스템
WO2022085986A1 (ko) * 2020-10-22 2022-04-28 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402011B1 (ko) * 2020-02-18 2022-05-27 재단법인 아산사회복지재단 의료영상 처리 장치와 그 의료영상 학습 방법 및 의료영상 처리 방법
KR102475730B1 (ko) * 2020-04-03 2022-12-08 성균관대학교산학협력단 Tta를 이용한 분포 외 데이터 검출 방법 및 이를 수행하는 장치
KR102220573B1 (ko) * 2020-04-06 2021-02-25 두에이아이(주) 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터프로그램
KR102538848B1 (ko) 2020-05-12 2023-05-31 부산대학교병원 실시간 안저사진 품질 판독을 위한 딥러닝 아키텍처 시스템
KR102538508B1 (ko) * 2020-05-18 2023-05-31 오스템임플란트 주식회사 의료 영상 모듈과 연동되는 전자 차트 관리 방법 및 장치
KR102198302B1 (ko) * 2020-05-20 2021-01-05 주식회사 지피바이오 성장 예측 방법 및 그 장치
KR102410292B1 (ko) * 2020-05-27 2022-06-17 주식회사 스파이더코어 신장 기능 이상을 검출하는 심층 신경망 기반 망막 영상 분석 방법 및 장치
KR102482680B1 (ko) * 2020-06-03 2022-12-28 고려대학교 산학협력단 안저영상을 기초로 생체 계측치를 예측하는 장치 및 방법
KR102466792B1 (ko) * 2020-06-09 2022-11-14 성균관대학교산학협력단 인공지능기반 황반 변성 악화 예측 장치 및 방법
KR102406538B1 (ko) * 2020-08-13 2022-06-08 순천향대학교 산학협력단 안저 이미지를 이용한 심층 신경망 기반 안구질환 진단 장치 및 방법
KR102227605B1 (ko) * 2020-08-25 2021-03-16 (주)제이엘케이 말초동맥 진단영상 학습장치와 방법, 및 상기 학습장치와 방법을 통해 구축된 학습모델을 사용하는 유의한 말초동맥 질환 진단 장치 및 방법
WO2022080913A1 (en) * 2020-10-14 2022-04-21 Samsung Electronics Co., Ltd. Methods and systems for examining an eye to detect a disease
KR20220065927A (ko) * 2020-11-13 2022-05-23 (주)루티헬스 의료 영상 판독 장치 및 의료 영상 판독 방법
JP2022085227A (ja) 2020-11-27 2022-06-08 オリエンタルモーター株式会社 交流モータ制御装置およびそれを備えた駆動システム
KR102521660B1 (ko) * 2020-11-30 2023-04-14 주식회사 메디픽셀 복수의 예측 결과를 활용한 혈관 영상 추출 방법 및 장치
KR102549782B1 (ko) * 2020-12-02 2023-06-30 주식회사 레드위즈 인공지능 딥러닝 시스템 기반 구매대행상품 자동수집등록 장치 및 그 방법
KR102313662B1 (ko) * 2020-12-30 2021-10-19 뉴로핏 주식회사 이미지 품질 판단 장치 및 방법
WO2022145541A1 (ko) * 2020-12-30 2022-07-07 주식회사 메디웨일 신장 질병 진단 보조 방법 및 장치
WO2022145542A1 (ko) * 2020-12-30 2022-07-07 주식회사 메디웨일 심혈관 질병 진단 보조 방법 및 장치
KR20220108235A (ko) * 2021-01-25 2022-08-03 자이메드 주식회사 생체 이미지 판독 지원 장치 및 방법
KR102536281B1 (ko) * 2021-02-26 2023-05-26 (주)블라우비트 망막 시신경을 이용한 알츠하이머 진단 장치 및 방법
KR102493242B1 (ko) * 2021-03-26 2023-01-30 한국과학기술연구원 인공지능 학습을 통해 광용적맥파로부터 대동맥판막협착증 및 기타 심혈관 질환 위험도를 판단하는 방법 및 시스템
KR102323650B1 (ko) * 2021-04-07 2021-11-09 김원국 영상/음성의 생성 이력과 연관된 메타데이터를 포함한 원본 영상/음성 파일 또는 딥페이크 변조 파일을 생성하는 영상/음성획득 또는 편집 장치, 원본 영상/음성 파일 또는 딥페이크 변조 파일 관련 해시값을 수신 및 저장하는 해시뱅크 서버, 원본 영상/음성 파일 또는 딥페이크 변조 파일을 수신 및 처리하는 서버 및 방법
WO2023017875A1 (ko) * 2021-08-12 2023-02-16 고려대학교 산학협력단 안저영상을 기초로 생체 계측치를 예측하는 장치 및 방법
KR102623722B1 (ko) * 2021-09-17 2024-01-11 동국대학교 산학협력단 딥러닝 기반의 망막 질환 진단 장치 및 방법
KR102403166B1 (ko) * 2021-09-29 2022-05-30 주식회사 인피닉 기계 학습용 데이터 증강 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102580279B1 (ko) * 2021-10-25 2023-09-19 아주대학교산학협력단 알츠하이머병 진단에 필요한 정보를 제공하는 방법 및 이를 수행하기 위한 장치
KR102567138B1 (ko) * 2021-12-30 2023-08-17 가천대학교 산학협력단 머신러닝 기반 모발 건강 진단 방법 및 시스템
KR102567671B1 (ko) * 2021-12-30 2023-08-17 가천대학교 산학협력단 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템
KR102569597B1 (ko) * 2023-01-13 2023-08-25 주식회사 아이브 인공지능 모델 학습을 위한 데이터 파이프 라인 관리 방법 및 시스템
KR102651589B1 (ko) * 2023-07-20 2024-03-27 주식회사 크레스콤 영상 및 비영상 데이터를 이용한 질병 예후 통합 예측 방법, 장치 및 컴퓨터 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005841A (ja) * 2016-07-08 2018-01-11 株式会社トプコン 医用画像処理方法及び医用画像処理装置
JP2018014059A (ja) * 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法
KR101857624B1 (ko) * 2017-08-21 2018-05-14 동국대학교 산학협력단 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5354831B2 (ja) * 2001-08-21 2013-11-27 キヤノン株式会社 眼科撮影装置
JP2005342284A (ja) * 2004-06-04 2005-12-15 Canon Inc 眼屈折力測定装置
KR100669625B1 (ko) * 2005-03-25 2007-01-15 엘지전자 주식회사 형태론적 연산처리를 이용한 안구위치 추정시스템 및 그방법
JP4909378B2 (ja) * 2009-06-02 2012-04-04 キヤノン株式会社 画像処理装置及びその制御方法、コンピュータプログラム
JP4909377B2 (ja) * 2009-06-02 2012-04-04 キヤノン株式会社 画像処理装置及びその制御方法、コンピュータプログラム
JP6025882B2 (ja) 2015-02-05 2016-11-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018061621A (ja) * 2016-10-11 2018-04-19 オプトス ピーエルシー 眼底画像撮影装置、眼底画像撮影方法、及び眼底画像撮影プログラム
KR101848321B1 (ko) 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005841A (ja) * 2016-07-08 2018-01-11 株式会社トプコン 医用画像処理方法及び医用画像処理装置
JP2018014059A (ja) * 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法
KR101857624B1 (ko) * 2017-08-21 2018-05-14 동국대학교 산학협력단 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085986A1 (ko) * 2020-10-22 2022-04-28 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법
KR20220053208A (ko) * 2020-10-22 2022-04-29 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법
KR102361217B1 (ko) * 2021-03-02 2022-02-14 주식회사 에이아이댑스 블록체인 기반의 머신러닝 서비스를 포함하는 클라우드 서비스 제공 방법 및 시스템

Also Published As

Publication number Publication date
KR102270659B1 (ko) 2021-06-29
KR20200005406A (ko) 2020-01-15
KR20200005407A (ko) 2020-01-15
KR102345026B1 (ko) 2021-12-29
KR20200005408A (ko) 2020-01-15
KR20200005405A (ko) 2020-01-15
KR20210158853A (ko) 2021-12-31
KR20200005413A (ko) 2020-01-15
KR20230110233A (ko) 2023-07-21
KR102212500B1 (ko) 2021-02-04
KR20200005412A (ko) 2020-01-15
KR20200005409A (ko) 2020-01-15
KR20200005404A (ko) 2020-01-15
KR20200005411A (ko) 2020-01-15

Similar Documents

Publication Publication Date Title
KR102345026B1 (ko) 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템
US11790645B2 (en) Diagnosis assistance system and control method thereof
KR102301058B1 (ko) 진단 보조 시스템 및 그 제어 방법
KR102333670B1 (ko) 안구 이미지 기반의 진단 보조 이미지 제공 장치
US20220076420A1 (en) Retinopathy recognition system
CN111712186A (zh) 用于辅助心血管疾病的诊断的方法和装置
EP3948773A1 (en) Image-based detection of ophthalmic and systemic diseases
KR102596534B1 (ko) 진단 보조 방법 및 장치
US20220351377A1 (en) Automated selection of ultra-widefield angiography images
WO2019171398A1 (en) A fundus image analysis system
WO2019082203A1 (en) SYSTEM AND METHOD FOR DETECTION AND CLASSIFICATION OF RETINAL DISEASES
Jane et al. A Vision-Based Approach for the Diagnosis of Digital Asthenopia
Shoaib et al. Deep learning innovations in diagnosing diabetic retinopathy: The potential of transfer learning and the DiaCNN model
Rashid et al. A Detectability Analysis of Retinitis Pigmetosa Using Novel SE-ResNet Based Deep Learning Model and Color Fundus Images
KR20230123080A (ko) 자기지도학습 기반의 안구 영상 품질 정보 관리 장치 및 방법
Akter et al. Healthcare Analytics
Vishnu Priyan et al. A fusion of deep neural networks and game theory for retinal disease diagnosis with OCT images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right