KR102301058B1 - Diagnosis assistance system and control method thereof - Google Patents

Diagnosis assistance system and control method thereof Download PDF

Info

Publication number
KR102301058B1
KR102301058B1 KR1020180099370A KR20180099370A KR102301058B1 KR 102301058 B1 KR102301058 B1 KR 102301058B1 KR 1020180099370 A KR1020180099370 A KR 1020180099370A KR 20180099370 A KR20180099370 A KR 20180099370A KR 102301058 B1 KR102301058 B1 KR 102301058B1
Authority
KR
South Korea
Prior art keywords
neural network
network model
fundus image
diagnosis
information
Prior art date
Application number
KR1020180099370A
Other languages
Korean (ko)
Other versions
KR20200023029A (en
Inventor
임형택
김성중
최태근
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Priority to KR1020180099370A priority Critical patent/KR102301058B1/en
Priority to PCT/KR2018/015577 priority patent/WO2020009292A1/en
Publication of KR20200023029A publication Critical patent/KR20200023029A/en
Application granted granted Critical
Publication of KR102301058B1 publication Critical patent/KR102301058B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템에 있어서, 안저 이미지를 획득하는 안저 이미지 획득부, 안저 이미지에 대하여 제1 신경망 모델을 이용하여 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 안저 이미지에 대하여 제2 신경망 모델 을 이용하여 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 제1 결과 및 제2 결과에 기초하여, 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 결정된 진단 정보를 제공하는 진단 정보 출력부 를 포함하는 진단 보조 시스템에 관한 것이다.The present invention provides a diagnostic assistance system for assisting diagnosis of a plurality of diseases based on a fundus image, wherein a fundus image acquisition unit for acquiring a fundus image, and a first neural network model for the fundus image A first processing unit for obtaining a first result related to an observation, a second processing unit for obtaining a second result related to a second observation on the subject by using a second neural network model for the fundus image, the first result and the second result The present invention relates to a diagnostic assistance system comprising: a third processing unit that determines diagnostic information on a subject based on

Description

진단 보조 시스템 및 그 제어 방법 {DIAGNOSIS ASSISTANCE SYSTEM AND CONTROL METHOD THEREOF}DIAGNOSIS ASSISTANCE SYSTEM AND CONTROL METHOD THEREOF

본 발명은 진단 보조 시스템 및 그 제어 방법에 관한 것으로서, 이미지에 기초하여 진단 보조 정보를 제공하기 위한 진단 보조 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a diagnosis assistance system and a control method thereof, and to a diagnosis assistance system for providing diagnosis assistance information based on an image and a control method thereof.

안저 검사는 망막, 시신경 및 황반부의 이상을 관찰할 수 있으며 비교적 간단하게 촬영을 통하여 결과를 확인할 수 있어 안과에서 빈번하게 활용되는 진단 보조 자료이다. 최근에는 안저 검사를 통하여 안질환 뿐 아니라 고혈압, 당뇨 등의 만성 질환에 의한 혈관 손상 정도를 비침습적 방법으로 관찰할 수 있다는 점에서 더욱 그 쓰임새가 늘어나고 있는 추세이다.Fundus examination can observe abnormalities in the retina, optic nerve, and macula, and is a diagnostic aid frequently used in ophthalmology because the results can be checked relatively simply through imaging. Recently, the use of the fundus examination is increasing in that it is possible to observe the degree of vascular damage caused by chronic diseases such as high blood pressure and diabetes in a non-invasive way as well as eye diseases.

한편, 근래의 딥러닝 기술의 도약적인 발전에 의해, 의료 진단 분야, 특히 이미지 기반의 진단 분야에서 진단 인공지능의 개발이 활발하게 이루어지고 있다. 구글, IBM 등의 글로벌 기업들에서도 의료계와의 협업으로 대규모 데이터를 투입하는 등, 다양한 영상 의료 데이터 분석을 위한 인공지능 개발에 투자를 아끼지 않고 있으며, 일부 기업에서는 우수한 진단 결과를 출력하는 인공지능 진단 툴 개발에 성공하기도 하였다. On the other hand, due to the rapid development of deep learning technology in recent years, the development of artificial intelligence for diagnosis is being actively carried out in the medical diagnosis field, particularly in the image-based diagnosis field. Global companies such as Google and IBM are also sparingly investing in the development of artificial intelligence for various image and medical data analysis, such as inputting large-scale data in collaboration with the medical community. Tool development was also successful.

다만, 딥러닝 학습된 모델을 통하여 하나의 테스트 데이터로부터 복수의 값을 예측하고자 하는 경우에는, 예측의 정확도가 감소되고 처리 속도가 저하되는 문제점이 있었다. 이에, 빠른 데이터 처리 속도로 복수의 진단 특성에 대한 정확한 예측이 가능하도록 하는 학습 및 진단 시스템 등에 대한 필요성이 대두된다.However, when trying to predict a plurality of values from one test data through a deep learning trained model, there is a problem in that prediction accuracy is reduced and processing speed is lowered. Accordingly, there is a need for a learning and diagnosis system capable of accurately predicting a plurality of diagnostic characteristics at a high data processing speed.

본 발명의 일 과제는, 안저 이미지로부터 진단 보조 정보를 획득하기 위한 신경망 모델의 학습 방법을 제공하는 것이다.It is an object of the present invention to provide a method for learning a neural network model for acquiring diagnostic assistance information from a fundus image.

본 발명의 다른 일 과제는 안저 이미지로부터 복수의 진단 보조 정보를 획득하기 위하여 복수의 신경망 모델을 병렬적으로 학습시키는 방법을 제공하는 것이다.Another object of the present invention is to provide a method for training a plurality of neural network models in parallel to acquire a plurality of diagnostic auxiliary information from a fundus image.

본 발명의 또 다른 일 과제는 기계 학습된 신경망 모델을 이용하여 안저 이미지로부터 복수의 진단 보조 정보를 신속하게 획득하도록 하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method for rapidly acquiring a plurality of diagnostic auxiliary information from a fundus image using a machine-learned neural network model.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .

본 발명의 일 양태에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템으로서, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함하는 진단 보조 시스템이 제공될 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.According to one aspect of the present invention, there is provided a diagnosis assistance system for assisting in diagnosis of a plurality of diseases based on a fundus image, comprising: a fundus image acquisition unit configured to acquire a target fundus image that is a basis for acquiring diagnostic assistance information for a subject; a first for obtaining a first result related to a first observation on the subject by using a first neural network model with respect to the target fundus image, wherein the first neural network model is machine learned based on the first set of fundus images. 1 processing unit, a second neural network model for the target fundus image, wherein the second neural network model is machine-learned based on a second fundus image set that is at least partially different from the first fundus image set. A second processing unit for obtaining a second result related to a second opinion on A diagnostic assistance system including a diagnostic information output unit for providing may be provided. In this case, the first findings and the second findings may be used for diagnosis of different diseases.

본 발명의 다른 일 양태에 따르면, 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치가 제공될 수 있다.According to another aspect of the present invention, obtaining a first training data set including a plurality of fundus images, processing the fundus image included in the first training data set, and using the first training data set , a learning apparatus for learning the first neural network model may be provided.

진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치; 를 포함하는 시스템에 포함되는 상기 학습 장치의 제어 방법으로서, 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 단계, 상기 전처리된 제1 안저 이미지를 직렬화하는 단계, 상기 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 단계를 포함하는 학습 장치의 제어 방법이 제공될 수 있다.a diagnostic apparatus for acquiring a target fundus image for acquiring diagnostic assistance information, and acquiring the diagnostic assistance information based on the target fundus image using the learned first neural network model; As a control method of the learning apparatus included in a system comprising performing, serializing the preprocessed first fundus image, using the serialized first fundus image, training the first neural network model to classify the target fundus image into a first label or a second label A method of controlling a learning device including the steps may be provided.

본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Solutions of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able

본 발명에 의하면, 안저 이미지에 기초하여 진단 보조 정보의 신속한 획득이 이루어질 수 있다.According to the present invention, rapid acquisition of diagnostic auxiliary information can be achieved based on the fundus image.

또 본 발명에 의하면, 안저 이미지에 기초하여, 복수의 질병과 관련된 진단 보조 정보를 보다 정확하게 예측할 수 있다.Further, according to the present invention, it is possible to more accurately predict diagnostic auxiliary information related to a plurality of diseases based on the fundus image.

또 본 발명에 의하면, 복수의 질병과 관련된 진단 보조 정보를 예측하기 위한 최적화된 신경망 모델의 획득이 용이해질 수 있다.Also, according to the present invention, it is possible to easily obtain an optimized neural network model for predicting diagnostic auxiliary information related to a plurality of diseases.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 진단 보조 시스템을 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 학습 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 다른 일 실시예에 따른 학습 장치를 보다 구체적으로 설명하기 위한 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 진단 장치를 설명하기 위한 블럭도이다.
도 5는 본 발명의 다른 일 실시예에 따른 진단 장치를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 진단 보조 시스템을 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 클라이언트 장치를 설명하기 위한 블록도이다.
도 8은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 학습부의 구성을 설명하기 위한 도면이다.
도 10는 본 발명의 일 실시예에 따른 이미지 데이터 세트를 설명하기 위한 개념도이다.
도 11은 본 발명의 일 실시예에 따른 이미지 리사이징을 설명하기 위한 도면이다.
도 12은 본 발명의 일 실시예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다.
도 13는 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다.
도 14은 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다.
도 15는 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 18은 본 발명의 일 실시예에 따른 진단부의 구성을 설명하기 위한 도면이다.
도 19는 본 발명의 일 예에 따른 진단 대상 데이터를 설명하기 위한 도면이다.
도 20은 본 발명의 일 실시예에 따른 진단 프로세스를 설명하기 위한 도면이다.
도 21은 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 22는 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 23은 본 발명의 일 실시예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다.
도 24는 본 발명의 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 25는 본 발명의 다른 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 26은 본 발명의 일 실시예에 따른 진단부를 설명하기 위한 블록도이다.
도 27은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 28은 본 발명의 일 실시예에 따른 진단 보조 시스템을 설명하기 위한 도면이다.
도 29는 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 30은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다
1 illustrates a diagnosis assistance system according to an embodiment of the present invention.
2 is a block diagram illustrating a learning apparatus according to an embodiment of the present invention.
3 is a block diagram for explaining in more detail a learning apparatus according to another embodiment of the present invention.
4 is a block diagram illustrating a diagnosis apparatus according to an embodiment of the present invention.
5 is a diagram for explaining a diagnosis apparatus according to another embodiment of the present invention.
6 illustrates a diagnosis assistance system according to an embodiment of the present invention.
7 is a block diagram illustrating a client device according to an embodiment of the present invention.
8 is a diagram for explaining a diagnosis assistance process according to an embodiment of the present invention.
9 is a diagram for explaining the configuration of a learning unit according to an embodiment of the present invention.
10 is a conceptual diagram illustrating an image data set according to an embodiment of the present invention.
11 is a diagram for explaining image resizing according to an embodiment of the present invention.
12 is a diagram for explaining the expansion of an image data set according to an embodiment of the present invention.
13 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
14 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
15 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention.
16 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention.
17 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention.
18 is a diagram for explaining the configuration of a diagnosis unit according to an embodiment of the present invention.
19 is a diagram for explaining diagnosis target data according to an embodiment of the present invention.
20 is a diagram for explaining a diagnosis process according to an embodiment of the present invention.
21 is a diagram for explaining a parallel diagnosis assistance system according to some embodiments of the present invention.
22 is a diagram for explaining a parallel diagnosis assistance system according to some embodiments of the present invention.
23 is a diagram for explaining a configuration of a learning apparatus including a plurality of learning units according to an embodiment of the present invention.
24 is a diagram for explaining a parallel learning process according to an embodiment of the present invention.
25 is a diagram for explaining a parallel learning process according to another embodiment of the present invention.
26 is a block diagram illustrating a diagnosis unit according to an embodiment of the present invention.
27 is a diagram for explaining a diagnosis assistance process according to an embodiment of the present invention.
28 is a diagram for explaining a diagnosis assistance system according to an embodiment of the present invention.
29 is a diagram for explaining a graphical user interface according to an embodiment of the present invention.
30 is a diagram for explaining a graphical user interface according to an embodiment of the present invention;

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above-described objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, since the present invention may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장된 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and an element or layer is also referred to as “on” or “on” another component or layer. It includes all cases where another layer or other component is interposed in the middle as well as directly on top of another component or layer. Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present specification are only identification symbols for distinguishing one component from other components.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

1. 진단 보조 시스템 및 프로세스1. Diagnostic auxiliary systems and processes

1.1 목적 및 정의1.1 Purpose and Definition

이하에서는, 안저 이미지에 기초하여 질병 또는 질환의 유무 또는 그 판단의 근거가 되는 이상 여부 등의 판단을 보조하기 위한 진단 보조 시스템 및 방법 등에 대하여 설명한다. 특히, 딥러닝 기법을 이용하여 질환을 진단하기 위한 신경망 모델을 구축하고, 구축된 모델을 이용하여 질환 유무 또는 이상 소견의 검출을 보조하는 진단 보조 시스템 또는 방법에 대하여 설명한다.Hereinafter, a diagnosis assistance system and method for assisting in the determination of the presence or absence of a disease or disease or an abnormality as a basis for the determination based on the fundus image will be described. In particular, a diagnosis assistance system or method for constructing a neural network model for diagnosing a disease using a deep learning technique and assisting in the detection of the presence or absence of a disease or abnormal findings using the constructed model will be described.

본 발명의 일 실시예에 따르면, 안저 이미지에 기초하여 질병의 유무와 관련된 진단 정보 또는 질병 유무의 진단에 이용되는 소견 정보 등을 획득하고, 이를 이용하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.According to an embodiment of the present invention, there is provided a diagnostic assistance system or method for acquiring diagnostic information related to the presence or absence of a disease or observation information used for diagnosing the presence or absence of a disease based on a fundus image and assisting the diagnosis by using the acquired information can be

본 발명의 일 실시예에 의하면, 안저 이미지에 기초하여 안질환의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 검사 대상자의 녹내장, 백내장, 황반 변성, 미숙아 망막증의 유무와 관련된 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. According to an embodiment of the present invention, a diagnosis assistance system or method for assisting in diagnosing an eye disease based on a fundus image may be provided. For example, a diagnostic assistance system or method may be provided to assist a diagnosis by acquiring diagnostic information related to the presence or absence of glaucoma, cataract, macular degeneration, and retinopathy of prematurity of a test subject.

본 발명의 다른 일 실시예에 의하면, 안질환이 아닌 타 질환(예컨대, 전신 질환 또는 만성 질환)의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 고혈압, 당뇨병, 알츠하이머, 거대 세포 바이러스, 뇌졸중, 심장 질환, 동맥 경화증 등의 전신 질환의 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.According to another embodiment of the present invention, a diagnostic assistance system or method for assisting in the diagnosis of other diseases other than ocular diseases (eg, systemic diseases or chronic diseases) may be provided. For example, a diagnostic assistance system or method may be provided to assist in diagnosis by acquiring diagnostic information of systemic diseases such as hypertension, diabetes, Alzheimer's, cytomegalovirus, stroke, heart disease, arteriosclerosis, and the like.

본 발명의 또 다른 일 실시예에 의하면, 안질환 또는 타 질환의 진단에 이용될 수 있는 이상 안저 소견을 검출하기 위한 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio; cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견 정보를 획득하는 진단 보조 시스템 또는 방법이 제공될 수 있다.According to another embodiment of the present invention, there may be provided a diagnostic auxiliary system or method for detecting abnormal fundus findings that can be used for diagnosing eye diseases or other diseases. For example, overall fundus color abnormality, lens opacity, optic disc ratio (C/D ratio; cup to disc ratio) abnormality, macular abnormality (eg, macular foramen), blood vessel diameter, travel A diagnostic assistance system or method for acquiring information on findings such as abnormality of the back, diameter abnormality of retinal artery, retinal hemorrhage, occurrence of exudate, drusen, and the like may be provided.

본 명세서에서, 진단 보조 정보라 함은, 질환 유무의 판단에 따른 진단 정보 또는 그 기초가 되는 소견 정보 등을 포괄하는 것으로 이해될 수 있다.In the present specification, the diagnosis auxiliary information may be understood to include diagnosis information according to the determination of the presence or absence of a disease, or observation information that is the basis thereof.

1.2 진단 보조 시스템 구성1.2 Configuring the Diagnostic Auxiliary System

본 발명의 일 실시예에 따르면, 진단 보조 시스템이 제공될 수 있다. According to an embodiment of the present invention, a diagnostic assistance system may be provided.

도 1은 본 발명의 일 실시예에 따른 진단 보조 시스템(10)을 도시한 것이다. 도 1을 참조하면, 진단 보조 시스템(10)은 진단 모델을 트레이닝하는 학습 장치(1000), 진단 모델을 이용하여 진단을 수행하는 진단 장치(2000) 및 진단 요청을 획득하는 클라이언트 장치(3000)를 포함할 수 있다. 진단 보조 시스템(10)은 복수의 학습 장치, 복수의 진단 장치 또는 복수의 클라이언트 장치를 포함할 수 있다.1 illustrates a diagnostic assistance system 10 according to an embodiment of the present invention. Referring to FIG. 1 , the diagnosis assistance system 10 includes a learning device 1000 for training a diagnosis model, a diagnosis device 2000 for performing diagnosis using the diagnosis model, and a client device 3000 for obtaining a diagnosis request. may include The diagnosis assistance system 10 may include a plurality of learning devices, a plurality of diagnostic devices, or a plurality of client devices.

학습 장치(1000)는 학습부(100)를 포함할 수 있다. 학습부(100)는 신경망 모델의 트레이닝을 수행할 수 있다. 일 예로, 학습부(100)는 안저 이미지 데이터 세트를 획득하고, 안저 이미지로부터 질환 또는 이상 소견을 검출하는 신경망 모델의 트레이닝을 수행할 수 있다. The learning apparatus 1000 may include a learning unit 100 . The learning unit 100 may train the neural network model. As an example, the learning unit 100 may acquire a fundus image data set and train a neural network model for detecting a disease or abnormality from the fundus image.

진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단부(200)는 신경망 모델을 이용하여 질환의 진단 또는 진단에 이용되는 보조 정보의 획득을 수행할 수 있다. 일 예로, 진단부(200)는 학습부에 의하여 트레이닝된 진단 모델을 이용하여 진단 보조 정보의 획득을 수행할 수 있다.The diagnosis apparatus 2000 may include a diagnosis unit 200 . The diagnosis unit 200 may diagnose a disease or acquire auxiliary information used for diagnosis by using the neural network model. For example, the diagnosis unit 200 may obtain the diagnosis auxiliary information by using a diagnosis model trained by the learning unit.

클라이언트 장치(3000)는 촬상부(300)를 포함할 수 있다. 촬상부(300)는 안저 이미지를 촬상할 수 있다. 클라이언트 장치는 안과용 안저 촬영 장치일 수 있다. 또는, 클라이언트 장치(3000)는 스마트폰, 태블릿 PC 등의 휴대용(handheld) 디바이스일 수 있다. The client device 3000 may include an imaging unit 300 . The imaging unit 300 may capture a fundus image. The client device may be an ophthalmic fundus imaging device. Alternatively, the client device 3000 may be a handheld device such as a smart phone or a tablet PC.

본 실시예에 따른 진단 보조 시스템(10)에서, 학습 장치(1000)는 데이터 세트를 획득하여 신경망 모델의 학습을 수행함으로써 진단 보조에 이용하기 위한 신경망 모델을 결정하고, 진단 장치는 클라이언트로부터 정보 요청이 획득되면 결정된 신경망 모델을 이용하여 진단 대상 이미지에 따른 진단 보조 정보를 획득하고, 클라이언트 장치는 진단 장치로 정보를 요청하고 이에 응답하여 전송된 진단 보조 정보를 획득할 수 있다.In the diagnosis assistance system 10 according to the present embodiment, the learning apparatus 1000 determines a neural network model to be used for diagnosis assistance by acquiring a data set and learning the neural network model, and the diagnosis apparatus requests information from a client When this is obtained, the diagnosis auxiliary information according to the diagnosis target image is obtained using the determined neural network model, and the client device may request the information from the diagnosis device and obtain the transmitted diagnosis auxiliary information in response thereto.

다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습 및 이를 이용한 진단을 수행하는 진단 장치 및 클라이언트 장치를 포함할 수 있다. 또 다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습, 진단 요청의 획득 및 진단을 수행하는 진단 장치를 포함할 수 있다. 또 다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습을 수행하는 학습 장치 및 진단 요청을 획득하고 진단을 수행하는 진단 장치를 포함할 수 있다.A diagnosis assistance system according to another exemplary embodiment may include a diagnosis device and a client device for learning a diagnosis model and performing diagnosis using the training model. A diagnosis assistance system according to another exemplary embodiment may include a diagnosis apparatus that learns a diagnosis model, obtains a diagnosis request, and performs diagnosis. A diagnosis assistance system according to another exemplary embodiment may include a learning apparatus for learning a diagnostic model, and a diagnostic apparatus for obtaining a diagnosis request and performing a diagnosis.

본 명세서에서 개시하는 진단 보조 시스템이 위에서 설명한 실시 예들에 한정되는 것은 아니고, 모델의 학습을 수행하는 학습부, 학습된 모델에 따라 진단 보조 정보를 획득하는 진단부 및 진단 대상 이미지를 획득하는 촬상부를 포함하는 어떠한 형태로든 구현될 수 있다.The diagnosis assistance system disclosed herein is not limited to the above-described embodiments, and a learning unit for learning a model, a diagnosis unit for acquiring diagnosis assistance information according to the learned model, and an imaging unit for acquiring an image to be diagnosed It may be implemented in any form including.

이하에서는, 시스템을 구성하는 각 장치의 몇몇 실시예에 대하여 설명한다.Hereinafter, some embodiments of each device constituting the system will be described.

1.2.1 학습 장치1.2.1 Learning device

본 발명의 일 실시예에 따른 학습 장치는 진단을 보조하는 신경망 모델의 트레이닝을 수행할 수 있다. The learning apparatus according to an embodiment of the present invention may perform training of a neural network model that assists in diagnosis.

도 2는 본 발명의 일 실시예에 따른 학습 장치(1000)를 설명하기 위한 블럭도이다. 도 2를 참조하면, 학습 장치(1000)는 제어부(1200) 및 메모리부(1100)를 포함할 수 있다.2 is a block diagram illustrating a learning apparatus 1000 according to an embodiment of the present invention. Referring to FIG. 2 , the learning apparatus 1000 may include a control unit 1200 and a memory unit 1100 .

학습 장치(1000)는 제어부(1200)를 포함할 수 있다. 제어부(1200)는 학습 장치(1000)의 동작을 제어할 수 있다. The learning apparatus 1000 may include a controller 1200 . The controller 1200 may control the operation of the learning apparatus 1000 .

제어부(1200)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다. The control unit 1200 includes at least one of a central processing unit (CPU), a random access memory (RAM), a graphic processing unit (GPU), one or more microprocessors, and other electronic components capable of processing input data according to a predetermined logic. may include.

제어부(1200)는 메모리부(1100)에 저장된 시스템 프로그램 및 다양한 프로세싱 프로그램을 판독할 수 있다. 일 예로, 제어부(1200)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스, 진단 프로세스 등을 RAM상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다. 제어부(1200)는 후술하는 신경망 모델의 학습을 수행할 수 있다.The controller 1200 may read a system program and various processing programs stored in the memory unit 1100 . For example, the controller 1200 may develop a data processing process, a diagnostic process, etc. for performing diagnosis assistance, which will be described later, on the RAM, and may perform various processes according to the developed program. The controller 1200 may perform learning of a neural network model, which will be described later.

학습 장치(1000)는 메모리부(1100)를 포함할 수 있다. 메모리부(1100)는 학습에 필요한 데이터 및 학습 모델을 저장할 수 있다. The learning apparatus 1000 may include a memory unit 1100 . The memory unit 1100 may store data and a learning model required for learning.

메모리부(1100)는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM, ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 외에 유형의(tangible) 비휘발성의 기록 매체 등으로 구현될 수 있다. The memory unit 1100 may include a nonvolatile semiconductor memory, a hard disk, a flash memory, a RAM, a read only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), or other tangible nonvolatile recording media, etc. can be implemented as

메모리부(1100)는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 일 예로, 메모리부(1100)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스 프로그램, 진단 프로세스 프로그램, 각 프로그램의 수행을 위한 파라미터 및 이러한 프로그램의 수행에 따라 얻어진 데이터(예컨대, 가공된 데이터 또는 진단 결과값) 등을 저장할 수 있다.The memory unit 1100 may store various processing programs, parameters for performing program processing, or data as a result of such processing. For example, the memory unit 1100 may include a data processing process program, a diagnostic process program, parameters for performing each program, and data (eg, processed data or diagnostics) obtained according to the execution of the program to be described later for performing the diagnosis assistance. result) and so on.

학습 장치(1000)는 별도의 학습부(또는 학습 모듈)를 포함할 수 있다. 학습부는 신경망 모델의 학습을 수행할 수 있다. 학습의 수행과 관련하여서는 이하의 목차 2. 학습 프로세스 에서 보다 상세히 설명하기로 한다. The learning apparatus 1000 may include a separate learning unit (or learning module). The learning unit may perform learning of the neural network model. In relation to the performance of learning, it will be described in more detail in Table of Contents 2. Learning process below.

학습부는 전술한 제어부(1200)에 포함될 수 있다. 학습부는 전술한 메모리부(1100)에 저장될 수 있다. 학습부는 전술한 제어부(1200) 및 메모리부(1100)의 일부 구성에 의하여 구현될 수 있다. 예컨대, 학습부는 메모리부(1100)에 저장되고, 제어부(1200)에 의하여 구동될 수 있다.The learning unit may be included in the above-described control unit 1200 . The learning unit may be stored in the aforementioned memory unit 1100 . The learning unit may be implemented by some configurations of the control unit 1200 and the memory unit 1100 described above. For example, the learning unit may be stored in the memory unit 1100 and driven by the control unit 1200 .

학습 장치(1000)는 통신부(1300)를 더 포함할 수 있다. 통신부(1300)는 외부 장치와 통신을 수행할 수 있다. 예컨대, 통신부(1300)는 후술하는 진단 장치, 서버 장치 또는 클라이언트 장치와 통신할 수 있다. 통신부(1300)는 유선 또는 무선 통신을 수행할 수 있다. 통신부(1300)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.The learning apparatus 1000 may further include a communication unit 1300 . The communication unit 1300 may communicate with an external device. For example, the communication unit 1300 may communicate with a diagnostic device, a server device, or a client device, which will be described later. The communication unit 1300 may perform wired or wireless communication. The communication unit 1300 may perform bi-directional or unidirectional communication.

도 3은 본 발명의 다른 일 실시예에 따른 학습 장치(1000)를 보다 구체적으로 설명하기 위한 블럭도이다. 도 3을 참조하면, 학습 장치(1000)는 프로세서(1050), 휘발성 메모리(1010), 비휘발성 메모리(1030), 대용량 저장 장치(1070) 및 통신 인터페이스(1090)를 포함할 수 있다.3 is a block diagram for explaining in more detail the learning apparatus 1000 according to another embodiment of the present invention. Referring to FIG. 3 , the learning apparatus 1000 may include a processor 1050 , a volatile memory 1010 , a nonvolatile memory 1030 , a mass storage device 1070 , and a communication interface 1090 .

학습 장치(1000)의 프로세서(1050)는 데이터 가공 모듈(1051) 및 학습 모듈(1053)을 포함할 수 있다. 프로세서(1050)는 데이터 가공 모듈(1051)을 통하여 대용량 저장 장치 또는 비휘발성 메모리에 저장된 데이터 세트를 가공할 수 있다. 프로세서(1050)는 학습 모듈(1053)을 통하여, 진단 보조 신경망 모델의 트레이닝을 수행할 수 있다. 프로세서(1050)는 로컬 메모리를 포함할 수 있다. 통신 인터페이스(1090)는 네트워크(1110)와 연결될 수 있다.The processor 1050 of the learning apparatus 1000 may include a data processing module 1051 and a learning module 1053 . The processor 1050 may process a data set stored in a mass storage device or a non-volatile memory through the data processing module 1051 . The processor 1050 may train the diagnostic auxiliary neural network model through the learning module 1053 . The processor 1050 may include local memory. The communication interface 1090 may be connected to the network 1110 .

다만 도 3에서 도시하는 학습 장치(1000)는, 예시에 불과하며, 본 발명에 따른 학습 장치(1000)의 구성이 이에 한정되지는 아니한다. 특히, 데이터 가공 모듈 또는 학습 모듈은 도 3에서 도시하는 것과 다른 위치에 마련될 수 있다.However, the learning apparatus 1000 illustrated in FIG. 3 is merely an example, and the configuration of the learning apparatus 1000 according to the present invention is not limited thereto. In particular, the data processing module or the learning module may be provided at a location different from that shown in FIG. 3 .

1.2.2 진단 장치1.2.2 Diagnostic device

진단 장치는 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.The diagnostic apparatus may obtain diagnostic auxiliary information by using the neural network model.

도 4는 본 발명의 일 실시예에 따른 진단 장치(2000)를 설명하기 위한 블럭도이다. 도 4를 참조하면, 진단 장치(2000)는 제어부(2200) 및 메모리부(2100)를 포함할 수 있다.4 is a block diagram illustrating a diagnosis apparatus 2000 according to an embodiment of the present invention. Referring to FIG. 4 , the diagnosis apparatus 2000 may include a control unit 2200 and a memory unit 2100 .

제어부(2200)는 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 생성할 수 있다. 제어부(2200)는 진단을 위한 진단 데이터(예컨대, 피검자의 안저 데이터)를 획득하고 학습된 진단 보조 신경망 모델을 이용하여 진단 데이터에 의해 예측되는 진단 보조 정보를 획득할 수 있다.The controller 2200 may generate the diagnosis auxiliary information by using the diagnosis auxiliary neural network model. The controller 2200 may acquire diagnostic data for diagnosis (eg, fundus data of a subject) and acquire auxiliary diagnostic information predicted by the diagnostic data using the learned diagnostic auxiliary neural network model.

메모리부(2100)는 학습된 진단 보조 신경망 모델을 저장할 수 있다. 메모리부(2100)는 진단 보조 신경망 모델의 파라미터, 변수 등을 저장할 수 있다.The memory unit 2100 may store the learned diagnostic auxiliary neural network model. The memory unit 2100 may store parameters and variables of the auxiliary diagnostic neural network model.

진단 장치(2000)는 통신부(2300)를 더 포함할 수 있다. 통신부(2300)는 학습 장치 및/또는 클라이언트 장치와 통신할 수 있다. 일 예로, 진단 장치(2000)는 클라이언트 장치와 통신하는 서버 형태로 마련될 수 있다. 이와 관련하여, 이하에서 보다 상세히 설명한다.The diagnosis apparatus 2000 may further include a communication unit 2300 . The communication unit 2300 may communicate with the learning device and/or the client device. For example, the diagnostic apparatus 2000 may be provided in the form of a server communicating with a client device. In this regard, it will be described in more detail below.

도 5는 본 발명의 다른 일 실시예에 따른 진단 장치(2000)를 설명하기 위한 도면이다. 도 5를 참조하면, 본 발명의 일 실시예에 따른 진단 장치(2000)는 프로세서(2050), 휘발성 메모리(2030), 비휘발성 메모리(2010), 대용량 저장 장치(2070) 및 통신 인터페이스(2090)를 포함할 수 있다.5 is a diagram for explaining a diagnosis apparatus 2000 according to another embodiment of the present invention. Referring to FIG. 5 , a diagnostic apparatus 2000 according to an embodiment of the present invention includes a processor 2050 , a volatile memory 2030 , a non-volatile memory 2010 , a mass storage device 2070 , and a communication interface 2090 . may include.

진단 장치의 프로세서(2050)는 데이터 가공 모듈(2051) 및 진단 모듈(2053)을 포함할 수 있다. 프로세서(2050)는 데이터 가공 모듈(2051)을 통하여 진단 데이터의 가공을 수행하고, 진단 모듈(2053)을 통하여 진단 데이터에 따른 진단 보조 정보를 획득할 수 있다.The processor 2050 of the diagnostic apparatus may include a data processing module 2051 and a diagnostic module 2053 . The processor 2050 may process diagnostic data through the data processing module 2051 and obtain diagnostic auxiliary information according to the diagnostic data through the diagnostic module 2053 .

1.2.3 서버 장치1.2.3 Server device

본 발명의 일 실시예에 따르면, 진단 보조 시스템은 서버 장치를 포함할 수 있다. 본 발명의 일 실시예에 따른 진단 보조 시스템은, 복수의 서버 장치를 포함할 수도 있다.According to an embodiment of the present invention, the diagnosis assistance system may include a server device. A diagnosis assistance system according to an embodiment of the present invention may include a plurality of server devices.

서버 장치는 신경망 모델을 저장 및/또는 구동할 수 있다. 서버 장치는 학습된 신경망 모델을 구성하는 가중치 값들을 저장할 수 있다. 서버 장치는 진단 보조에 이용되는 데이터를 수집 또는 저장할 수 있다. The server device may store and/or run the neural network model. The server device may store weight values constituting the learned neural network model. The server device may collect or store data used for diagnosis assistance.

서버 장치는 신경망 모델을 이용한 진단 보조 프로세스의 결과를 클라이언트 장치로 출력할 수 있다. 서버 장치는 클라이언트 장치로부터 피드백을 획득할 수 있다. 서버 장치는 전술한 진단 장치와 유사하게 동작할 수 있다.The server device may output the result of the diagnostic assistance process using the neural network model to the client device. The server device may obtain feedback from the client device. The server device may operate similarly to the aforementioned diagnostic device.

도 6은 본 발명의 일 실시예에 따른 진단 보조 시스템(20)을 도시한 것이다. 도 6를 참조하면, 본 발명의 일 실시예에 따른 진단 보조 시스템(20)은 진단 서버(4000), 학습 장치 및 클라이언트 장치를 포함할 수 있다. 6 illustrates a diagnostic assistance system 20 according to an embodiment of the present invention. Referring to FIG. 6 , the diagnosis assistance system 20 according to an embodiment of the present invention may include a diagnosis server 4000 , a learning device, and a client device.

진단 서버(4000), 즉, 서버 장치는 복수의 학습 장치 또는 복수의 진단 장치와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 학습 장치(1000a) 및 제2 학습 장치(1000b)와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 클라이언트 장치(3000a) 및 제2 클라이언트 장치(3000b)와 통신할 수 있다.The diagnosis server 4000 , that is, the server device may communicate with a plurality of learning devices or a plurality of diagnostic devices. Referring to FIG. 6 , the diagnosis server 4000 may communicate with the first learning apparatus 1000a and the second learning apparatus 1000b. Referring to FIG. 6 , the diagnosis server 4000 may communicate with a first client device 3000a and a second client device 3000b.

예컨대, 진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델을 학습시키는 제1 학습 장치(1000a) 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 학습시키는 제2 학습 장치(1000b)와 통신할 수 있다. For example, the diagnosis server 4000 may be configured to train the first learning apparatus 1000a for learning the first diagnosis auxiliary neural network model to obtain the first diagnosis auxiliary information and the second diagnosis auxiliary neural network model to obtain the second diagnosis auxiliary information. It may communicate with the second learning apparatus 1000b.

진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델 및 2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 저장하고, 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로부터의 진단 보조 정보 획득 요청에 응답하여 진단 보조 정보를 획득하고, 획득된 진단 보조 정보를 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로 전송할 수 있다.The diagnostic server 4000 stores a first diagnostic auxiliary neural network model for obtaining the first diagnostic auxiliary information and a second diagnostic auxiliary neural network model for obtaining the second diagnostic auxiliary information, the first client device 3000a or the second client device The diagnosis assistance information may be acquired in response to a request to obtain the diagnosis assistance information from 3000b , and the acquired diagnosis assistance information may be transmitted to the first client device 3000a or the second client device 3000b .

또는, 진단 서버(4000)는 제1 진단 보조 정보를 요청하는 제1 클라이언트 장치(3000a) 및 제2 진단 보조 정보를 요청하는 제2 클라이언트 장치(3000b)와 통신할 수도 있다.Alternatively, the diagnosis server 4000 may communicate with the first client device 3000a requesting the first diagnosis assistance information and the second client device 3000b requesting the second diagnosis assistance information.

1.2.4 클라이언트 장치1.2.4 Client Device

클라이언트 장치는 진단 장치 또는 서버 장치로 진단 보조 정보를 요청할 수 있다. 클라이언트 장치는 진단에 필요한 데이터를 획득하고, 진단 장치로 획득한 획득한 데이터를 전송할 수 있다. The client device may request the diagnostic assistance information from the diagnostic device or the server device. The client device may acquire data required for diagnosis and transmit the acquired data to the diagnosis device.

클라이언트 장치는 데이터 획득부를 포함할 수 있다. 데이터 획득부는 진단 보조에 필요한 데이터를 획득할 수 있다. 데이터 획득부는 진단 보조 모델에 이용되는 이미지를 획득하는 촬상부일 수 있다. The client device may include a data acquisition unit. The data acquisition unit may acquire data necessary for diagnosis assistance. The data acquisition unit may be an imaging unit that acquires an image used for the diagnosis assistance model.

도 7은 본 발명의 일 실시예에 따른 클라이언트 장치(3000)를 설명하기 위한 블록도이다. 도 7을 참조하면, 본 발명의 일 실시예에 따른 클라이언트 장치(3000)는 촬상부(3100), 제어부(3200) 및 통신부(3300)를 포함할 수 있다. 7 is a block diagram illustrating a client device 3000 according to an embodiment of the present invention. Referring to FIG. 7 , a client device 3000 according to an embodiment of the present invention may include an imaging unit 3100 , a control unit 3200 , and a communication unit 3300 .

촬상부(3100)는 이미지 또는 영상 데이터를 획득할 수 있다. 촬상부(3100)는 안저 이미지를 획득할 수 있다. 다만, 클라이언트 장치(3000)는 촬상부(3100)가 아닌 다른 형태의 데이터 획득부로 대체될 수도 있다.The imaging unit 3100 may acquire an image or image data. The imaging unit 3100 may acquire a fundus image. However, the client device 3000 may be replaced with a data acquisition unit other than the imaging unit 3100 .

통신부(3300)는 외부 장치, 예컨대 진단 장치 또는 서버 장치와 통신할 수 있다. 통신부(3300)는 유선 또는 무선 통신을 수행할 수 있다.The communication unit 3300 may communicate with an external device, for example, a diagnostic device or a server device. The communication unit 3300 may perform wired or wireless communication.

제어부(3200)는 촬상부(3100)가 이미지 또는 데이터를 획득하도록 제어할 수 있다. 제어부(3200)는 촬상부(3100)가 안저 이미지를 획득하도록 제어할 수 있다. 제어부(3200)는 획득된 안저 이미지를 진단 장치로 전송할 수 있다. 제어부는 촬상부(3100)를 통하여 획득한 이미지를 통신부(3300)를 통하여 서버 장치로 전송하고, 이에 기초하여 생성된 진단 보조 정보를 획득할 수 있다.The controller 3200 may control the imaging unit 3100 to acquire an image or data. The controller 3200 may control the imaging unit 3100 to acquire a fundus image. The controller 3200 may transmit the acquired fundus image to the diagnosis apparatus. The controller may transmit the image acquired through the imaging unit 3100 to the server device through the communication unit 3300, and may acquire the generated diagnostic auxiliary information based thereon.

도시하지는 아니하였으나, 클라이언트 장치는 출력부를 더 포함할 수 있다. 출력부는 영상 또는 이미지를 출력하는 디스플레이 또는 음성을 출력하는 스피커를 포함할 수 있다. 출력부는 획득된 촬상부에 의해 획득된 영상 또는 이미지 데이터를 출력할 수 있다. 출력부는 진단 장치로부터 획득된 진단 보조 정보를 출력할 수 있다.Although not shown, the client device may further include an output unit. The output unit may include a display that outputs an image or image, or a speaker that outputs an audio. The output unit may output an image or image data acquired by the acquired imaging unit. The output unit may output the diagnosis auxiliary information obtained from the diagnosis apparatus.

도시하지는 아니하였으나, 클라이언트 장치는 입력부를 더 포함할 수 있다. 입력부는 사용자 입력을 획득할 수 있다. 예컨대, 입력부는 진단 보조 정보를 요청하는 사용자 입력을 획득할 수 있다. 입력부는 진단 장치로부터 획득된 진단 보조 정보를 평가하는 사용자 정보를 획득할 수 있다.Although not shown, the client device may further include an input unit. The input unit may obtain a user input. For example, the input unit may obtain a user input for requesting diagnosis auxiliary information. The input unit may obtain user information for evaluating the diagnosis auxiliary information obtained from the diagnosis apparatus.

또한, 도시하지는 아니하였으나, 클라이언트 장치는 메모리부를 더 포함할 수 있다. 메모리부는 촬상부에 의해 획득된 이미지를 저장할 수 있다.Also, although not shown, the client device may further include a memory unit. The memory unit may store the image acquired by the imaging unit.

1.3 진단 보조 프로세스 개요1.3 Diagnostic Auxiliary Process Overview

본 명세서에서 개시하는 진단 보조 시스템 또는 진단 보조 장치에 의하여 진단 보조 프로세스가 수행될 수 있다. 진단 보조 프로세스는 크게 진단 보조에 이용되는 진단 보조 모델을 학습하는 트레이닝 프로세스, 진단 보조 모델을 이용하는 진단 프로세스로 나누어 고려될 수 있다. A diagnostic assistance process may be performed by a diagnostic assistance system or a diagnostic assistance apparatus disclosed herein. The diagnosis assistance process may be largely divided into a training process for learning a diagnosis assistance model used for diagnosis assistance, and a diagnosis process using the diagnosis assistance model.

도 8은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 도 8을 참조하면, 본 발명의 일 실시예에 따른 진단 보조 프로세스는, 데이터를 획득하고, 가공하여(S110) 신경망 모델을 학습하고(S130), 학습된 신경망 모델의 변수를 획득(S150)하는 학습 프로세스 및 진단 대상 데이터를 획득하고(S210) 진단 대상 데이터에 기초하여 학습된 신경망 모델(S230)을 이용하여 진단 보조 정보를 획득(S250)하는 진단 보조 프로세스를 포함할 수 있다.8 is a diagram for explaining a diagnosis assistance process according to an embodiment of the present invention. Referring to FIG. 8 , the diagnostic assistance process according to an embodiment of the present invention acquires and processes data (S110) to learn a neural network model (S130), and obtains variables of the learned neural network model (S150) It may include a learning process and a diagnosis assistance process of acquiring the diagnosis target data ( S210 ) and acquiring the diagnosis auxiliary information using the neural network model S230 learned based on the diagnosis target data ( S250 ).

보다 구체적으로, 트레이닝 프로세스는 입력된 학습 이미지 데이터를 가공하여 모델의 트레이닝에 이용될 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 모델을 트레이닝하는 학습 프로세스를 포함할 수 있다. 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.More specifically, the training process may include a data processing process of processing the input training image data to a state that can be used for training of the model, and a learning process of training the model using the processed data. The training process may be performed by the above-described learning apparatus.

진단 프로세스는 입력된 검사 대상 이미지 데이터를 가공하여 신경망 모델을 이용한 진단을 수행할 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 진단을 수행하는 진단 프로세스를 포함할 수 있다. 진단 프로세스는 전술한 진단 장치 또는 서버 장치에 의하여 수행될 수 있다.The diagnosis process may include a data processing process of processing input image data to be examined to a state capable of performing diagnosis using a neural network model, and a diagnosis process of performing diagnosis using the processed data. The diagnostic process may be performed by the aforementioned diagnostic device or a server device.

이하에서는, 각 프로세스에 대하여 설명한다.Below, each process is demonstrated.

2. 트레이닝 프로세스2. Training process

본 발명의 일 실시예에 따르면, 신경망 모델을 트레이닝하는 프로세스가 제공될 수 있다. 구체적인 예로, 안저 이미지에 기초하여 진단을 수행하거나 보조하는 신경망 모델을 트레이닝하는 프로세스가 개시될 수 있다. According to an embodiment of the present invention, a process for training a neural network model may be provided. As a specific example, a process of training a neural network model for performing or assisting a diagnosis based on a fundus image may be disclosed.

이하에서 설명하는 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다. The training process described below may be performed by the above-described learning apparatus.

2.1 학습부2.1 Study Department

본 발명의 일 실시예에 따르면, 트레이닝 프로세스는 학습부에 의해 수행될 수 있다. 학습부는 전술한 학습 장치 내에 마련될 수 있다. According to an embodiment of the present invention, the training process may be performed by the learning unit. The learning unit may be provided in the above-described learning apparatus.

도 9는 본 발명의 일 실시예에 따른 학습부(100)의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 학습부(100)는 데이터 가공 모듈(110), 큐 모듈(130), 학습 모듈(150) 및 학습 결과 획득 모듈(170)을 포함할 수 있다. 각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만 도 9에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적이지는 아니하며, 학습 형태에 따라, 일부 요소가 추가되거나 일부 요소들이 생략될 수 있다.9 is a diagram for explaining the configuration of the learning unit 100 according to an embodiment of the present invention. Referring to FIG. 9 , the learning unit 100 may include a data processing module 110 , a queue module 130 , a learning module 150 , and a learning result acquisition module 170 . Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components and functions performed by the components described in FIG. 9 are essential, and some elements may be added or some elements may be omitted depending on the learning type.

2.2 데이터 가공 프로세스2.2 Data processing process

2.2.1 이미지 데이터 획득2.2.1 Image data acquisition

본 발명의 일 실시예에 따르면, 데이터 세트가 획득될 수 있다. 본 발명의 일 실시예에 따르면, 데이터 가공 모듈은 데이터 세트를 획득할 수 있다. According to an embodiment of the present invention, a data set may be obtained. According to an embodiment of the present invention, the data processing module may acquire a data set.

데이터 세트는 이미지 데이터 세트일 수 있다. 구체적으로, 안저 이미지 데이터 세트일 수 있다. 안저 이미지 데이터 세트는 일반적인 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다. The data set may be an image data set. Specifically, it may be a fundus image data set. The fundus image data set may be acquired using a general annovulatory fundus camera or the like. The fundus image may be a panoramic image. The fundus image may be a red-free image. The fundus image may be an infrared photographed image. The fundus image may be an autofluorescence photographed image. The image data may be acquired in any one of JPG, PNG, DCM (DICOM), BMP, GIF, and TIFF format.

데이터 세트는 트레이닝 데이터 세트를 포함할 수 있다. 데이터 세트는 테스트 데이터 세트를 포함할 수 있다. 데이터 세트는 검증(validation) 데이터 세트를 포함할 수 있다. 다시 말해, 데이터 세트는 트레이닝 데이터 세트, 테스트 데이터 세트 및 검증 데이터 세트 중 적어도 하나의 데이터 세트로 할당될 수 있다. The data set may include a training data set. The data set may include a test data set. The data set may include a validation data set. In other words, the data set may be assigned as at least one of a training data set, a test data set, and a validation data set.

데이터 세트는 해당 데이터 세트를 통해 학습되는 신경망 모델을 이용하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다. 예컨대, 백내장과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 적외선 안저 이미지 데이터 세트로 결정될 수 있다. 또는, 황반 변성과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 자가형광 촬영된 안저 이미지 데이터 세트일 수 있다.The data set may be determined in consideration of the diagnostic auxiliary information to be obtained using a neural network model learned through the data set. For example, when training a neural network model for acquiring cataract-related diagnostic assistance information, the acquired data set may be determined as an infrared fundus image data set. Alternatively, when training a neural network model for acquiring diagnostic auxiliary information related to macular degeneration, the acquired data set may be an autofluorescence-captured fundus image data set.

데이터 세트에 포함되는 개별 데이터는 라벨을 포함할 수 있다. 라벨은 복수개일 수 있다. 다시 말해, 데이터 세트에 포함되는 개별 데이터는 적어도 하나의 특징에 대하여 라벨링되어 있을 수 있다. 일 예로, 데이터 세트는 복수의 안저 이미지 데이터를 포함하는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 따른 진단 정보 라벨(예컨대, 특정 질환의 유무) 및/또는 소견 정보(예컨대, 특정 부위의 이상 여부) 라벨을 포함할 수 있다. Individual data included in a data set may include a label. There may be a plurality of labels. In other words, individual data included in the data set may be labeled with respect to at least one feature. For example, the data set is a fundus image data set including a plurality of fundus image data, and each fundus image data is a diagnostic information label (eg, presence or absence of a specific disease) and/or observation information (eg, specific Whether there is an abnormality in the site) may include a label.

다른 예로, 데이터 세트는 안저 이미지 데이터 세트이고 각각의 안저 이미지 데이터는 해당 이미지에 대한 주변 정보 라벨을 포함할 수 있다. 예컨대, 각각의 안저 이미지 데이터는 해당 안저 이미지가 좌안의 이미지인지 또는 우안의 이미지인지에 대한 좌우안 정보, 여성의 안저 이미지인지 또는 남성의 안저 이미지인지에 대한 성별 정보, 해당 안저 이미지를 촬영한 피검자의 나이에 대한 나이 정보 등을 포함하는 주변 정보 라벨을 포함할 수 있다. As another example, the data set is a fundus image data set, and each fundus image data may include a peripheral information label for the corresponding image. For example, each fundus image data includes left and right eye information on whether the fundus image is an image of the left eye or an image of the right eye, gender information on whether the fundus image is a female fundus image or a male fundus image, and a subject who has taken the fundus image It may include a peripheral information label including age information and the like for the age of the .

도 10는 본 발명의 일 실시예에 따른 이미지 데이터 세트(DS)를 설명하기 위한 개념도이다. 도 10를 참조하면, 본 발명의 일 실시예에 따른 이미지 데이터 세트(DS)는 복수의 이미지 데이터(ID)를 포함할 수 있다. 각 이미지 데이터(ID)는 이미지(I) 및 이미지에 할당된 라벨(L)을 포함할 수 있다. 도 10을 참조하면, 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1) 및 제2 이미지 데이터(ID2)를 포함할 수 있다. 제1 이미지 데이터(ID1)은 제1 이미지(I1) 및 제1 이미지에 대응되는 제1 라벨(L1)을 포함할 수 있다.10 is a conceptual diagram illustrating an image data set DS according to an embodiment of the present invention. Referring to FIG. 10 , an image data set DS according to an exemplary embodiment may include a plurality of image data IDs. Each image data ID may include an image I and a label L assigned to the image. Referring to FIG. 10 , the image data set DS may include first image data ID1 and second image data ID2 . The first image data ID1 may include a first image I1 and a first label L1 corresponding to the first image.

도 10에서는 하나의 이미지 데이터가 하나의 라벨을 포함하는 경우를 기준으로 설명하였으나, 전술한 바와 같이 하나의 이미지 데이터는 복수의 라벨을 포함할 수 있다.In FIG. 10 , the description is based on the case where one image data includes one label, but as described above, one image data may include a plurality of labels.

2.2.2 이미지 리사이징 2.2.2 Image resizing

본 발명의 일 실시예에 따르면, 획득된 이미지 데이터의 크기가 조정될 수 있다. 즉, 이미지들이 리사이징 될 수 있다. 본 발명의 일 실시예에 따르면, 전술한 학습부의 데이터 가공 모듈에 의하여 이미지 리사이징이 수행될 수 있다. According to an embodiment of the present invention, the size of the acquired image data may be adjusted. That is, images may be resized. According to an embodiment of the present invention, image resizing may be performed by the data processing module of the above-described learning unit.

이미지의 크기 또는 종횡비가 조정될 수 있다. 획득된 복수의 이미지들은 일정한 크기를 가지도록 그 크기가 조정될 수 있다. 또는, 이미지들은 일정한 종횡비(aspect ratio)를 가지도록 그 크기가 조정될 수 있다. 이미지를 리사이징 하는 것은 이미지에 이미지 변환 필터를 적용하는 것일 수 있다.The size or aspect ratio of the image can be adjusted. The size of the plurality of acquired images may be adjusted to have a constant size. Alternatively, the images may be resized to have a constant aspect ratio. Resizing the image may be applying an image transformation filter to the image.

획득된 개별 이미지들의 사이즈 또는 용량이 과도하게 크거나 작은 경우에, 이미지의 사이즈 또는 용량을 조정하여 적절한 사이즈로 변환할 수 있다. 또는 개별 이미지들의 사이즈 또는 용량이 다양한 경우에, 리사이징을 통하여 사이즈 또는 용량을 통일시킬 수 있다.When the size or capacity of the acquired individual images is excessively large or small, the size or capacity of the image may be adjusted to convert the image to an appropriate size. Alternatively, when the sizes or capacities of individual images vary, the sizes or capacities may be unified through resizing.

일 실시예에 따르면, 이미지의 용량이 조정될 수 있다. 예컨대, 이미지의 용량이 적정 범위를 초과하는 경우에, 다운샘플링(down sampling)을 통하여 이미지를 축소시킬 수 있다. 또는, 이미지의 용량이 적정 범위에 못 미치는 경우에, 업샘플링(upsampling) 또는 보간(interpolating)을 통하여 이미지를 확대할 수 있다.According to an embodiment, the capacity of the image may be adjusted. For example, when the capacity of the image exceeds an appropriate range, the image may be reduced through down sampling. Alternatively, when the capacity of the image is less than an appropriate range, the image may be enlarged through upsampling or interpolating.

다른 일 실시예에 따르면, 이미지를 자르거나 획득한 이미지에 픽셀을 덧붙여 이미지의 사이즈 또는 종횡비를 조정할 수 있다. 예컨대, 이미지에 학습에 불필요한 부분이 포함되어 있는 경우에, 이를 제거하기 위하여 이미지 일부를 크롭할 수 있다. 또는, 이미지의 일부가 잘려나가 종횡비가 맞지 않는 경우에 칼럼(column) 또는 로(row)을 추가하여 이미지 종횡비를 조정할 수도 있다. 다시 말해, 이미지에 마진 또는 패딩을 추가하여 종횡비를 조정할 수 있다.According to another embodiment, the size or aspect ratio of the image may be adjusted by cropping the image or adding pixels to the acquired image. For example, when an image includes a part unnecessary for learning, a part of the image may be cropped to remove it. Alternatively, when a part of the image is cropped and the aspect ratio does not match, a column or row may be added to adjust the image aspect ratio. In other words, you can adjust the aspect ratio by adding margin or padding to the image.

또 다른 일 실시예에 따르면, 이미지의 용량 및 사이즈 또는 종횡비가 함께 조정될 수 있다. 일 예로, 이미지의 용량이 큰 경우에 이미지를 다운샘플링 하여 이미지 용량을 축소하고, 축소된 이미지에 포함된 불필요한 부분을 크롭하여 적절한 이미지 데이터로 변환할 수 있다.According to another embodiment, the capacity and size or aspect ratio of the image may be adjusted together. For example, when the size of the image is large, the image capacity may be reduced by downsampling the image, and unnecessary parts included in the reduced image may be cropped to convert the image data into appropriate image data.

또한, 본 발명의 다른 일 실시예에 따르면, 이미지 데이터의 방향(orientation)이 변경될 수도 있다.Also, according to another embodiment of the present invention, the orientation of image data may be changed.

구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우, 각각의 안저 이미지는 그 용량이 조절되거나, 사이즈가 조정될 수 있다. 안저 이미지의 안저 부분을 제외한 여백 부분을 제거하기 위한 크롭핑 또는 안저 이미지의 잘린 부분을 보충하여 종횡비를 조정하기 위한 패딩을 수행할 수 있다.As a specific example, when a fundus image data set is used as the data set, the capacity or size of each fundus image may be adjusted. Cropping for removing a blank portion excluding the fundus portion of the fundus image or padding for adjusting the aspect ratio by supplementing the cropped portion of the fundus image may be performed.

도 11은 본 발명의 일 실시예에 따른 이미지 리사이징을 설명하기 위한 도면이다. 도 11을 참조하면, 본 발명의 일 실시예에 따른 이미지 리사이징 프로세스에 의하여, 획득된 안저 이미지가 리사이징될 수 있다.11 is a diagram for explaining image resizing according to an embodiment of the present invention. Referring to FIG. 11 , the acquired fundus image may be resized by the image resizing process according to an embodiment of the present invention.

구체적으로, 원본 안저 이미지(a)는 진단 정보 획득에 불필요한 여백 부분이 크롭되고(b) 학습 효율의 증진을 위하여 그 크기가 축소(c)될 수 있다.Specifically, in the original fundus image (a), a blank area unnecessary for obtaining diagnostic information may be cropped (b) and its size may be reduced (c) to improve learning efficiency.

2.2.3 이미지 전처리2.2.3 Image preprocessing

본 발명의 일 실시예에 따르면, 이미지의 전처리가 수행될 수 있다. 이미지를 입력된 그대로 학습에 이용할 경우, 불필요한 특성들에 대한 학습 결과 과적합 현상 등이 발생할 수 있고 학습 효율 역시 저하될 수 있다. According to an embodiment of the present invention, pre-processing of an image may be performed. When an image is used as it is for learning, an overfitting phenomenon may occur as a result of learning about unnecessary characteristics, and learning efficiency may also decrease.

이를 방지하기 위하여, 이미지 데이터를 학습의 목적에 부합하도록 적절히 전처리하여 이용함으로써 학습 효율 및 성능을 향상시킬 수 있다. 예컨대, 안저 이미지에 대하여 안질환의 이상 징후를 검출하기에 용이하도록 하는 전처리 또는 망막 혈관 내지 혈류 변화가 강조되도록 하는 전처리가 수행될 수 있다.In order to prevent this, learning efficiency and performance can be improved by appropriately pre-processing and using image data to meet the purpose of learning. For example, pre-processing for easy detection of abnormal signs of eye disease or pre-processing to emphasize changes in retinal blood vessels or blood flow may be performed on the fundus image.

전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 전처리가 수행될 수 있다. 데이터 가공 모듈은 리사이징된 이미지를 획득하고 학습에 요청되는 전처리를 수행할 수 있다.Pre-processing of the image may be performed by the data processing module of the above-described learning unit. The data processing module may acquire a resized image and perform pre-processing requested for learning.

이미지의 전처리는 전술한 리사이징 처리가 완료된 이미지에 대하여 수행될 수 있다. 다만, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니고, 리사이징 처리를 생략하고 이미지에 대한 전처리가 수행될 수도 있다. 이미지의 전처리를 가하는 것은 이미지에 전처리 필터를 적용하는 것일 수 있다.The image pre-processing may be performed on the image on which the above-described resizing process has been completed. However, the content of the invention disclosed in the present specification is not limited thereto, and pre-processing of the image may be performed while omitting the resizing process. Applying pre-processing of the image may be applying a pre-processing filter to the image.

일 실시예에 따르면, 이미지에 블러(blur) 필터가 적용될 수 있다. 이미지에 가우시안 필터가 적용될 될 수 있다. 이미지에 가우시안 블러 필터가 적용될 수도 있다. 또는, 이미지에 이미지를 선명하게 하는 디블러(deblur) 필터가 적용될 수 있다.According to an embodiment, a blur filter may be applied to the image. A Gaussian filter may be applied to the image. A Gaussian blur filter may be applied to the image. Alternatively, a deblur filter for sharpening the image may be applied to the image.

다른 일 실시예에 따르면, 이미지의 색상을 조정 또는 변조하는 필터가 적용될 수 있다. 예컨대, 이미지를 구성하는 RGB 값 중 일부 성분의 값을 변경하거나, 또는, 이미지를 이진화하는 필터가 적용될 수도 있다. According to another embodiment, a filter for adjusting or modulating the color of the image may be applied. For example, values of some components of RGB values constituting the image may be changed, or a filter for binarizing the image may be applied.

또 다른 일 실시예에 따르면, 이미지에 특정 요소가 강조되도록 하는 필터가 적용될 수 있다. 예컨대, 안저 이미지 데이터에 대하여, 각 이미지로부터 혈관 요소가 강조되도록 하는 전처리가 수행될 수 있다. 이때, 혈관 요소가 강조되도록 하는 전처리는 하나 이상의 필터를 순차적으로 또는 조합하여 적용하는 것일 수 있다.According to another exemplary embodiment, a filter to emphasize a specific element in an image may be applied. For example, on fundus image data, pre-processing may be performed such that vascular elements are emphasized from each image. In this case, the pre-processing to emphasize the vascular element may be to apply one or more filters sequentially or in combination.

본 발명의 일 실시예에 따르면, 이미지의 전처리는 획득하고자 하는 진단 보조 정보의 특성을 고려하여 수행될 수 있다. 예컨대, 망막의 출혈, 드루젠, 미세혈관류, 삼출물 등의 소견과 관련된 진단 보조 정보를 획득하고자 하는 경우에는 획득된 안저 이미지를 레드프리 안저 이미지 형태로 변환하는 전처리를 수행할 수 있다.According to an embodiment of the present invention, pre-processing of an image may be performed in consideration of characteristics of diagnostic auxiliary information to be acquired. For example, when it is desired to acquire diagnostic auxiliary information related to findings such as retinal hemorrhage, drusen, microvascular flow, and exudate, preprocessing of converting the acquired fundus image into a red-free fundus image form may be performed.

2.2.4 이미지 증강(augmentation)2.2.4 Image augmentation

본 발명의 일 실시예에 따르면, 이미지가 증강 또는 확장될 수 있다. 전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 증강이 수행될 수 있다.According to an embodiment of the present invention, the image may be augmented or expanded. Augmentation of the image may be performed by the data processing module of the above-described learning unit.

증강된 이미지들은 신경망 모델의 트레이닝 성능 개선을 위하여 이용될 수 있다. 예컨대, 신경망 모델의 트레이닝을 위한 데이터의 양이 부족한 경우에, 트레이닝을 위한 데이터 수의 확대를 위하여 존재하는 트레이닝 이미지 데이터의 변조를 실시하고, 변조(또는 변화)된 이미지를 원본 이미지와 함께 이용함으로써 트레이닝 이미지 데이터 수를 늘릴 수 있다. 이에 따라 과학습(overfitting)이 억제되고 모델의 레이어를 보다 깊이 형성할 수 있으며, 예측 정확도가 향상될 수 있다.The augmented images may be used to improve training performance of the neural network model. For example, when the amount of data for training a neural network model is insufficient, by modulating the existing training image data to expand the number of data for training, and using the modulated (or changed) image together with the original image. The number of training image data can be increased. Accordingly, overfitting can be suppressed, the layers of the model can be formed more deeply, and the prediction accuracy can be improved.

예를 들어, 이미지 데이터의 확장은, 이미지의 좌우를 반전시키거나, 이미지의 일부를 오려내거나, 이미지의 색상 값을 보정하거나, 또는 인위적인 노이즈를 추가하여 수행될 수 있다. 구체적인 예로, 이미지의 일부를 오려내는 것은 이미지를 구성하는 요소의 일부 영역을 오려내거나, 일부 영역들을 랜덤하게 오려내는 방식으로 수행될 수 있다. 보다 많은 예로, 이미지 데이터를 좌우 반전, 상하 반전, 회전, 일정 비율 리사이징, 크롭핑, 패딩, 색상 조정 또는 밝기 조정 함으로써 이미지 데이터를 확장할 수 있다.For example, the expansion of the image data may be performed by inverting the left and right sides of the image, cutting out a part of the image, correcting a color value of the image, or adding artificial noise. As a specific example, cutting out a part of the image may be performed by cutting out some areas of elements constituting the image or randomly cutting out some areas. As more examples, image data can be expanded by inverting left and right, inverting up and down, rotating, resizing at a certain rate, cropping, padding, adjusting color, or adjusting brightness.

일 예로, 상술한 이미지 데이터의 증강 또는 확장은 일반적으로, 트레이닝 데이터 세트에 대하여 적용될 수 있다. 다만, 이외의 데이터 세트, 예컨대 테스트 데이터 세트, 즉 트레이닝 데이터를 이용한 학습 및 검증 데이터를 이용한 검증이 끝난 모델의 테스트를 위한 데이터 세트에도 적용될 수 있다.As an example, the above-described augmentation or expansion of image data may be generally applied to a training data set. However, it may be applied to other data sets, for example, a test data set, that is, a data set for testing a model that has been trained using training data and verified using verification data.

구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우에, 데이터의 수를 늘리기 위하여 이미지를 반전시키거나, 오려내거나, 노이즈를 추가하거나, 색상을 변경하는 것 중 하나 이상의 처리를 랜덤하게 적용하여 증강된 안저 이미지 데이터 세트를 획득할 수 있다.As a specific example, when a fundus image data set is used as a data set, by randomly applying one or more processing of inverting the image, cropping, adding noise, or changing the color, in order to increase the number of data, An augmented fundus image data set may be acquired.

도 12은 본 발명의 일 실시예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다. 도 12을 참조하면, 본 발명의 일 실시예들에 따른 이미지는 신경망 모델의 예측 정확도를 향상시키기 위하여 변형될 수 있다.12 is a diagram for explaining the expansion of an image data set according to an embodiment of the present invention. 12 , an image according to embodiments of the present invention may be modified to improve prediction accuracy of a neural network model.

구체적으로, 도 12를 참조하면, 본 발명의 일 실시예들에 따른 이미지는 일부 영역이 드롭아웃되거나(a), 좌우가 반전되거나(b), 중심점이 이동되거나 (c, d) 일부 영역의 색상이 변조(e)될 수 있다.Specifically, referring to FIG. 12 , in an image according to an embodiment of the present invention, a partial region is dropped out (a), left and right inverted (b), a center point is moved (c, d), or a partial region is The color may be modulated (e).

2.2.5 이미지 직렬화(serialization)2.2.5 Image serialization

본 발명의 일 실시예에 따르면, 이미지 데이터는 직렬화(linearization) 될 수 있다. 이미지는 전술한 학습부의 데이터 가공 모듈에 의하여 직렬화될 수 있다. 직렬화 모듈은 전처리된 이미지 데이터를 직렬화하고 큐 모듈로 전달할 수 있다.According to an embodiment of the present invention, image data may be linearized. The image may be serialized by the data processing module of the above-described learning unit. The serialization module can serialize the preprocessed image data and pass it to the queue module.

이미지 데이터를 그대로 이용하여 학습에 이용하게 되면, 이미지 데이터는 JPG, PNB, DCM 등의 이미지 파일 형태를 가지기 때문에 디코딩이 필요한데, 매번 디코딩을 거쳐 학습을 수행하게 되면 모델 학습의 성능이 저하될 수 있다. 이에 따라, 이미지 파일을 그대로 학습에 이용하지 않고 직렬화하여 학습을 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 직렬화되는 이미지 데이터는 전술한 이미지 리사이징 및 이미지 전처리 중 하나 이상의 단계가 적용된 이미지 데이터이거나, 둘 다 처리되지 아니한 이미지 데이터일 수 있다.When image data is used for learning as it is, decoding is required because image data has the form of image files such as JPG, PNB, DCM, etc. If learning is performed after decoding each time, the performance of model learning may deteriorate. . Accordingly, it is possible to perform learning by serializing the image file without using it for learning as it is. Accordingly, image data can be serialized to improve learning performance and speed. The image data to be serialized may be image data to which one or more of the above-described image resizing and image pre-processing has been applied, or image data to which both are not processed.

이미지 데이터 세트에 포함되는 각 이미지 데이터는 스트링 형태로 변환될 수 있다. 이미지 데이터는 이진화된 데이터 형태로 변환될 수 있다. 특히, 이미지 데이터는 신경망 모델의 학습에 이용되기에 적합한 데이터 형태로 변환될 수 있다. 일 예로, 이미지 데이터는 텐서플로우(tensorflow)를 이용한 신경망 모델 학습에 이용하기 위한 TFRecord 형태로 변환될 수 있다.Each image data included in the image data set may be converted into a string form. The image data may be converted into a binarized data form. In particular, image data may be converted into a data form suitable for use in training a neural network model. As an example, image data may be converted into a TFRecord form for use in training a neural network model using tensorflow.

구체적인 예로, 데이터 세트로서 안저 이미지 세트가 이용되는 경우에, 획득된 안저 이미지 세트는 TFRecord 형태로 변환되어 신경망 모델의 학습에 이용될 수 있다.As a specific example, when a fundus image set is used as a data set, the acquired fundus image set may be converted into a TFRecord form and used for training a neural network model.

2.2.6 큐(Queue) 2.2.6 Queue

데이터의 병목 현상을 해소하기 위하여 큐(Queue)가 이용될 수 있다. 전술한 학습부의 큐 모듈은 이미지 데이터를 큐에 저장하고, 학습 모델 모듈로 전달할 수 있다.A queue may be used to solve a data bottleneck. The above-described queue module of the learning unit may store image data in a queue and transmit it to the learning model module.

특히 CPU(Central Processing Unit)와 GPU(Graphic Processing Unit)를 함께 이용하여 학습 프로세스를 진행하는 경우에, 큐를 이용함으로써, CPU와 GPU 사이의 병목현상을 최소화하고 데이터베이스에 대한 접근이 원활하게 하며 메모리 사용 효율을 증진할 수 있다. In particular, when the learning process is performed using both the CPU (Central Processing Unit) and the GPU (Graphic Processing Unit), by using a queue, the bottleneck between the CPU and GPU is minimized, access to the database is smooth, and memory Use efficiency can be improved.

큐는 신경망 모델의 학습에 이용되는 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장할 수 있다. 큐에 저장되는 이미지 데이터는 전술한 데이터 가공 프로세스(즉, 리사이징, 전처리 및 증강) 중 적어도 하나가 처리된 이미지 데이터이거나 획득된 상태 그대로의 이미지일 수 있다. The queue may store data used for training the neural network model. A queue can store image data. The image data stored in the queue may be image data processed by at least one of the above-described data processing processes (ie, resizing, pre-processing, and augmentation) or an image as it is acquired.

큐는 이미지 데이터, 바람직하게는 전술한 바와 같이 직렬화된 이미지 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장하고, 신경망 모델로 이미지 데이터를 공급할 수 있다. 큐는 신경망 모델로 배치(batch) 사이즈 단위로 이미지 데이터를 전달할 수 있다.The queue may store image data, preferably serialized image data as described above. The queue stores image data and can supply image data to the neural network model. The queue can deliver image data in units of batch size to the neural network model.

큐는 이미지 데이터를 제공할 수 있다. 큐는 후술하는 학습 모듈에 데이터를 제공할 수 있다. 학습 모듈에서 데이터를 추출함에 따라 큐에 축적된 데이터 수가 줄어들 수 있다.A queue may provide image data. The queue may provide data to a learning module, which will be described later. As data is extracted from the learning module, the number of data accumulated in the queue may be reduced.

신경망 모델의 학습이 진행됨에 큐에 저장된 데이터 수가 기준 이하로 감소하면, 큐는 데이터의 보충을 요청할 수 있다. 큐는 특정 종류 데이터의 보충을 요청할 수 있다. 큐는 학습부는 데이터의 보충이 요청되면, 큐에 데이터를 보충할 수 있다.If the number of data stored in the queue decreases below the standard as the neural network model is trained, the queue may request data replenishment. A queue may request replenishment of certain types of data. In the queue, the learning unit may replenish data to the queue when replenishment of data is requested.

큐는 학습 장치의 시스템 메모리에 마련될 수 있다. 예컨대, 큐는 중앙 처리 장치(CPU)의 RAM(Random Access Memory)에 형성될 수 있다. 이 경우, 큐의 크기 즉, 용량은 CPU의 RAM 용량에 따라 정해질 수 있다. 큐로는 선입선출(FIFO; First In First Out) 큐, 우선순위 큐(Primary Queue) 또는 랜덤 큐가 이용될 수 있다.The queue may be provided in the system memory of the learning device. For example, the queue may be formed in a random access memory (RAM) of a central processing unit (CPU). In this case, the size of the queue, that is, the capacity may be determined according to the RAM capacity of the CPU. As the queue, a First In First Out (FIFO) queue, a primary queue, or a random queue may be used.

2.3 학습 프로세스2.3 Learning process

본 발명의 일 실시예에 의하면, 신경망 모델의 학습 프로세스가 개시될 수 있다. According to an embodiment of the present invention, a learning process of a neural network model may be initiated.

본 발명의 일 실시예에 따르면, 신경망 모델의 학습은 전술한 학습 장치에 의하여 수행될 수 있다. 학습 프로세스는 학습 장치의 제어부에 의해 수행될 수 있다. 학습 프로세스는 전술한 학습부의 학습 모듈에 의하여 수행될 수 있다.According to an embodiment of the present invention, learning of the neural network model may be performed by the above-described learning apparatus. The learning process may be performed by a control unit of the learning apparatus. The learning process may be performed by the learning module of the learning unit described above.

도 13는 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다. 도 13을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스는 데이터를 획득(S1010)하고, 신경망 모델을 학습(S1030)하고, 학습된 모델을 검증(S1050)하고, 학습된 모델의 변수를 획득(S1070)하여 수행될 수 있다.13 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention. Referring to FIG. 13 , the learning process of a neural network model according to an embodiment of the present invention acquires data (S1010), trains the neural network model (S1030), validates the trained model (S1050), and the trained model It can be performed by obtaining the variable of ( S1070 ).

이하에서는, 도 13을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시예를 들어 설명한다.Hereinafter, with reference to FIG. 13 , some embodiments will be described for a learning process of a neural network model.

2.3.1 데이터 입력2.3.1 Data entry

진단 보조 신경망 모델의 학습을 위한 데이터 세트가 획득될 수 있다.A data set for training of a diagnostic auxiliary neural network model may be obtained.

획득되는 데이터는 전술한 데이터 가공 프로세스에 의하여 처리된 이미지 데이터 세트일 수 있다. 일 예로, 데이터 세트는 사이즈가 조정되고 전처리 필터가 적용되고 데이터가 증강된 후 직렬화된 안저 이미지 데이터를 포함할 수 있다.The data obtained may be an image data set processed by the data processing process described above. As an example, the data set may include serialized fundus image data after it has been resized, a pre-processing filter has been applied, and the data has been augmented.

신경망 모델의 학습 단계에서는 트레이닝 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 검증 단계에서는 검증 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 테스트 단계에서는 테스트 데이터 세트가 획득 및 이용될 수 있다. 각 데이터 세트는 안저 이미지 및 라벨을 포함할 수 있다.In the training phase of the neural network model, a training data set may be acquired and used. In the verification phase of the neural network model, a verification data set may be obtained and used. In the testing phase of the neural network model, a test data set may be acquired and used. Each data set may include fundus images and labels.

데이터 세트는 큐로부터 획득될 수 있다. 데이터 세트는 큐로부터 배치 사이즈 단위로 획득될 수 있다. 예컨대, 배치 사이즈로서 60개가 지정된 경우, 데이터 세트는 큐로부터 60개 단위로 추출될 수 있다. 배치 사이즈의 사이즈는 GPU의 RAM 용량에 의해 제한될 수 있다.A data set may be obtained from a queue. The data set may be obtained from the queue in batch size units. For example, when 60 is designated as the batch size, the data set may be extracted from the queue in units of 60. The size of the batch size may be limited by the RAM capacity of the GPU.

데이터 세트는 큐로부터 학습 모듈로 랜덤하게 획득될 수 있다. 데이터 세트는 큐에 축적된 순서대로 획득될 수도 있다. The data set may be obtained randomly from the queue to the learning module. The data sets may be acquired in the order in which they are accumulated in the queue.

학습 모듈은 큐로부터 획득되는 데이터 세트의 구성을 지정하여 추출할 수 있다. 일 예로, 학습 모듈은 특정 피검자의 좌안 라벨을 가지는 안저 이미지와 우안 라벨을 가지는 안저 이미지 데이터가 함께 학습에 이용되도록 추출할 수 있다.The learning module may extract by specifying the configuration of the data set obtained from the queue. For example, the learning module may extract fundus image data having a left eye label and fundus image data having a right eye label of a specific subject to be used for learning together.

학습 모듈은 큐로부터 특정 라벨의 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터 세트를 획득할 수 있다. 학습 모듈은 큐로부터 라벨에 따른 데이터 수의 비율을 지정하여 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터의 수와 진단 정보 라벨이 정상인 안저 이미지 데이터의 수가 1 대 1이 되도록 안저 이미지 데이터 세트를 획득할 수 있다.The learning module may obtain a data set of a specific label from the queue. As an example, the learning module may acquire the fundus image data set in which the diagnostic information label is abnormal from the queue. The learning module may acquire the data set by specifying the ratio of the number of data according to the label from the queue. As an example, the learning module may acquire the fundus image data set such that the number of fundus image data having an abnormal diagnostic information label and the number of fundus image data having a normal diagnostic information label are 1:1 from the queue.

2.3.2 모델의 설계2.3.2 Model design

신경망 모델은 이미지 데이터에 기초하여 진단 보조 정보를 출력하는 진단 보조 모델일 수 있다. 진단 보조 정보 획득을 위한 진단 보조 신경망 모델의 구조는 미리 정해진 형태를 가질 수 있다. 신경망 모델은 복수의 계층 또는 레이어를 포함할 수 있다. The neural network model may be a diagnostic auxiliary model that outputs diagnostic auxiliary information based on image data. A structure of a diagnostic auxiliary neural network model for obtaining diagnostic auxiliary information may have a predetermined shape. A neural network model may include a plurality of layers or layers.

신경망 모델은 진단 보조 정보를 생성하는 분류기(classifier)의 형태로 구현될 수 있다. 분류기는 이중 분류 또는 다중 분류를 수행할 수 있다. 예컨대, 신경망 모델은 입력 데이터를 특정 질병 또는 이상 징후 등의 타겟 진단 보조 정보에 대하여 정상 또는 비정상 클래스로 분류하는 이진 분류 모델일 수 있다. 또는, 신경망 모델은 입력 데이터를 특정 특성(예컨대, 질병의 진행 정도)에 대한 복수의 등급 클래스로 분류하는 다중 분류 모델일 수 있다. 또는, 신경망 모델은 특정 질병과 관련된 특정 수치를 출력하는 회귀 형태의 모델로 구현될 수도 있다. The neural network model may be implemented in the form of a classifier that generates diagnostic auxiliary information. The classifier can perform double classification or multiple classification. For example, the neural network model may be a binary classification model that classifies input data into a normal or abnormal class with respect to target diagnosis auxiliary information such as a specific disease or abnormal symptom. Alternatively, the neural network model may be a multi-classification model that classifies input data into a plurality of class classes for a specific characteristic (eg, a degree of disease progression). Alternatively, the neural network model may be implemented as a regression type model that outputs a specific value related to a specific disease.

신경망 모델은 합성곱 신경망(CNN; Convolutional Neural Network)을 포함할 수 있다. 수 있다. CNN 구조로서, AlexNet, LENET, NIN, VGGNet, ResNet, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySupervisedNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다. The neural network model may include a convolutional neural network (CNN). can As the CNN structure, at least one of AlexNet, LENET, NIN, VGGNet, ResNet, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, and DeeplySupervisedNet may be used. The neural network model may be implemented using a plurality of CNN structures.

일 예로, 신경망 모델은 복수의 VGGNet 블록을 포함하도록 구현될 수 있다. 보다 구체적인 예로, 신경망 모델은 3x3 크기의 64개의 필터를 가지는 CNN 레이어, BN(Batch Normalization) 레이어 및 ReLu 레이어가 순차적으로 결합된 제1 구조 및 3x3 크기의 128개의 필터를 가지는 CNN 레이어, ReLu 레이어 및 BN 레이어가 순차적으로 결합된 제2 블록이 결합되어 마련될 수 있다. As an example, the neural network model may be implemented to include a plurality of VGGNet blocks. As a more specific example, the neural network model has a first structure in which a CNN layer having 64 filters of 3x3 size, a batch normalization (BN) layer, and a ReLu layer are sequentially combined, and a CNN layer having 128 filters of a 3x3 size, a ReLu layer and The second block in which the BN layers are sequentially coupled may be coupled to each other.

신경망 모델은 각 CNN 블록에 이어서, 맥스 풀링 레이어를 포함하고, 종단에는 GAP(Global Average pooling) 레이어, FC(Fully Connected) 레이어 및 활성화 레이어(예컨대, 시그모이드, 소프트맥스 등)를 포함할 수 있다.The neural network model includes a max pooling layer following each CNN block, and a global average pooling (GAP) layer, a fully connected (FC) layer, and an activation layer (eg, sigmoid, softmax, etc.) at the end. have.

2.3.3 모델의 학습2.3.3 Training the model

신경망 모델은 트레이닝 데이터 세트를 이용하여 학습될 수 있다. A neural network model can be trained using a training data set.

신경망 모델은 라벨링된 데이터 세트를 이용하여 학습될 수 있다. 다만, 본 명세서에서 설명하는 진단 보조 신경망 모델의 학습 프로세스가 이에 한정되는 것은 아니며, 신경망 모델은 라벨링되지 아니한 데이터를 이용하여 비지도 형태로 학습될 수도 있다.Neural network models can be trained using labeled data sets. However, the learning process of the diagnostic auxiliary neural network model described in this specification is not limited thereto, and the neural network model may be trained in an unsupervised form using unlabeled data.

신경망 모델의 학습은, 트레이닝 이미지 데이터에 기초하여, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화함으로써 수행할 수 있다. 또한, 신경망 모델의 학습은 후술하는 모델의 검증 결과, 테스트 결과 및/또는 진단 단계로부터의 피드백으로부터 영향을 받을 수 있다. Learning of a neural network model is based on training image data, obtains a result value using a neural network model to which arbitrary weight values are given, compares the obtained result value with a label value of training data, and back propagates according to the error by optimizing the weight values. In addition, learning of the neural network model may be influenced by a verification result of a model, a test result, and/or feedback from a diagnosis step, which will be described later.

상술한 신경망 모델의 학습은 텐서플로우를 이용하여 수행될 수 있다. 다만, 본 발명이 이에 한정되지는 아니하며, 티아노(Theano), 케라스(Keras), 카페(Caffe), 토치(Torch), CNTK(Microsoft Cognitive Toolkit) 등의 프레임워크가 신경망 모델의 학습에 이용될 수도 있다.Learning of the above-described neural network model may be performed using TensorFlow. However, the present invention is not limited thereto, and frameworks such as Theano, Keras, Caffe, Torch, and CNTK (Microsoft Cognitive Toolkit) are used for learning the neural network model. could be

2.3.4 모델의 검증(validation)2.3.4 Model validation

신경망 모델은 검증 데이터 세트를 이용하여 검증될 수 있다. 신경망 모델의 검증은 학습이 진행된 신경망 모델로부터 검증 데이터 세트에 대한 결과값을 획득하고, 결과값과 검증 데이터 세트의 라벨을 비교하여 수행될 수 있다. 검증은 결과값의 정확도(accuracy)를 측정하여 수행될 수 있다. 검증 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다. A neural network model can be validated using a validation data set. Validation of the neural network model may be performed by obtaining a result value for the validation data set from the neural network model in which training has been performed, and comparing the result value with the label of the validation data set. Verification may be performed by measuring the accuracy of the result value. According to the verification result, parameters (eg, weights and/or biases) or hyperparameters (eg, learning rate) of the neural network model may be adjusted.

일 예로, 본 발명의 일 실시예에 따른 학습 장치는, 안저 이미지에 기초하여 진단 보조 정보를 예측하는 신경망 모델을 학습시키고, 학습된 모델의 검증 안저 이미지에 대한 진단 보조 정보를 검증 안저 이미지에 대응되는 검증 라벨과 비교함으로써 진단 보조 신경망 모델의 검증을 수행할 수 있다.As an example, the learning apparatus according to an embodiment of the present invention trains a neural network model for predicting diagnostic auxiliary information based on a fundus image, and corresponds to the verified fundus image with diagnostic auxiliary information on the verified fundus image of the learned model. The validation of the diagnostic auxiliary neural network model can be performed by comparing it with the validation label.

신경망 모델의 검증에는, 별도의 검증 세트(external data set), 즉 트레이닝 데이터 세트에는 포함되지 않은 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. 예를 들어, 별도의 검증 세트는 트레이닝 데이터 세트와 인종, 환경, 나이, 성별 등의 요인이 구별되는 데이터 세트일 수 있다.For the validation of the neural network model, a separate external data set, that is, a data set having distinct factors not included in the training data set, may be used. For example, the separate validation set may be a data set in which factors such as race, environment, age, and gender are distinguished from a training data set.

2.3.5 모델의 테스트2.3.5 Testing the model

신경망 모델은 테스트 데이터 세트를 이용하여 테스트될 수 있다.The neural network model can be tested using a test data set.

도 13에서 도시하지는 아니하였으나, 본 발명의 일 실시예에 따른 학습 프로세스에 의하면, 신경망 모델을 트레이닝 데이터 세트 및 검증 데이터 세트와 구분되는 테스트 데이터 세트를 이용하여 테스트할 수 있다. 테스트 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다.Although not shown in FIG. 13 , according to the learning process according to an embodiment of the present invention, a neural network model can be tested using a test data set that is distinguished from a training data set and a validation data set. Depending on the test results, parameters (eg, weights and/or biases) or hyperparameters (eg, learning rate) of the neural network model may be adjusted.

일 예로, 본 발명의 일 실시예에 따른 학습 장치는 안저 이미지에 기초하여 진단 보조 정보를 예측하도록 학습된 신경망 모델로부터, 트레이닝 및 검증에 이용되지 않은 테스트 안저 이미지 데이터를 입력으로 하는 결과 값을 획득하여, 학습 및 검증된 진단 보조 신경망 모델의 테스트를 수행할 수 있다.For example, the learning apparatus according to an embodiment of the present invention obtains, from a neural network model trained to predict diagnostic auxiliary information based on a fundus image, a result value of inputting test fundus image data that is not used for training and verification as an input. Thus, it is possible to test the trained and verified diagnostic auxiliary neural network model.

신경망 모델의 테스트에는, 별도로 마련된 검증 세트(external data set), 즉 트레이닝 및/또는 검증 데이터와 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. For testing the neural network model, a separately prepared external data set, that is, a data set having factors distinct from training and/or verification data, may be used.

2.3.6 결과의 출력2.3.6 Output of results

신경망 모델의 학습 결과, 최적화된 모델의 파라미터 값이 획득될 수 있다. 전술한 바와 같이 테스트 데이터 세트를 이용하여 모델의 학습을 반복적으로 진행함에 따라, 보다 적절한 파라미터(또는 변수) 값이 얻어질 수 있다. 학습이 충분히 진행되면, 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다. As a result of learning the neural network model, parameter values of the optimized model may be obtained. As described above, more appropriate parameter (or variable) values can be obtained by iteratively training the model using the test data set. When the learning proceeds sufficiently, an optimized value of a weight and/or a bias may be obtained.

본 발명의 일 실시예에 따르면, 학습된 신경망 모델 및/또는 학습된 신경망 모델의 파라미터 또는 변수는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 학습된 신경망 모델은 진단 장치 및/또는 클라이언트 장치 등에 의하여 진단 보조 정보의 예측에 이용될 수 있다. 또한 학습된 신경망 모델의 파라미터 또는 변수는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.According to an embodiment of the present invention, the learned neural network model and/or parameters or variables of the learned neural network model may be stored in a learning device and/or a diagnosis device (or server). The learned neural network model may be used for prediction of diagnostic auxiliary information by a diagnostic device and/or a client device. In addition, parameters or variables of the learned neural network model may be updated by feedback obtained from a diagnostic device or a client device.

2.3.7 모델 앙상블(ensemble)2.3.7 Model ensemble

본 발명의 일 실시예에 따르면, 하나의 진단 보조 신경망 모델을 학습하는 과정에서, 복수의 서브 모델이 동시에 학습될 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. According to an embodiment of the present invention, in the process of learning one diagnostic auxiliary neural network model, a plurality of sub-models may be simultaneously learned. The plurality of sub-models may have different hierarchical structures.

이때, 본 발명의 일 실시예에 따른 진단 보조 신경망 모델은 복수의 서브 신경망 모델을 조합하여 구현될 수 있다. 다시 말해, 복수의 서브 신경망을 조합하는 앙상블 기법을 이용하여 신경망 모델의 학습을 수행할 수 있다.In this case, the diagnostic auxiliary neural network model according to an embodiment of the present invention may be implemented by combining a plurality of sub-neural network models. In other words, learning of the neural network model can be performed using an ensemble technique that combines a plurality of sub-neural networks.

앙상블을 형성하여 진단 보조 신경망 모델을 구성할 경우, 다양한 형태의 서브 신경망 모델로부터 예측되는 결과를 종합하여 예측을 수행할 수 있어, 결과 예측의 정확도가 보다 향상될 수 있다.When an ensemble is formed to construct a diagnostic auxiliary neural network model, the prediction can be performed by synthesizing the results predicted from various types of sub-neural network models, and thus the accuracy of the prediction of the results can be further improved.

도 14은 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다. 도 14를 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스는, 데이터 세트를 획득(S1011)하고, 획득된 데이터를 이용하여 제1 모델(즉, 제1 신경망 모델) 및 제2 모델(즉, 제2 신경망 모델)을 학습(S1031, S1033)하고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 검증(S1051)하고, 최종 신경망 모델을 결정하고 그 파라미터 또는 변수를 획득(S10721)할 수 있다.14 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention. Referring to FIG. 14 , in the learning process of a neural network model according to an embodiment of the present invention, a data set is acquired ( S1011 ), and a first model (ie, a first neural network model) and a second model using the acquired data Train the model (that is, the second neural network model) (S1031, S1033), verify the trained first neural network model and the second neural network model (S1051), determine the final neural network model, and obtain its parameters or variables (S10721) )can do.

이하에서는, 도 14을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시예를 들어 설명한다.Hereinafter, with reference to FIG. 14 , some embodiments will be described for a learning process of a neural network model.

본 발명의 일 실시예에 따르면 복수의 서브 신경망 모델은 동일한 트레이닝 데이터 세트를 획득하고, 개별적으로 출력값을 생성할 수 있다. 이때, 복수의 서브 신경망 모델의 앙상블을 최종 신경망 모델로 결정하고, 복수의 서브 신경망 모델 각각에 대한 파라미터 값이 학습 결과로 얻어질 수 있다. 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델에 의한 출력값의 평균값으로 정해질 수 있다. 또는, 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델 각각에 대한 검증 결과 얻어진 정확도를 고려하여, 각각의 서브 신경망 모델의 출력값에 대한 가중 평균값으로 정해질 수 있다.According to an embodiment of the present invention, a plurality of sub-neural network models may acquire the same training data set and individually generate output values. In this case, an ensemble of a plurality of sub neural network models may be determined as a final neural network model, and parameter values for each of the plurality of sub neural network models may be obtained as a learning result. The output value of the final neural network model may be determined as an average value of output values by each sub-neural network model. Alternatively, the output value of the final neural network model may be determined as a weighted average value of the output values of each sub neural network model in consideration of the accuracy obtained as a result of verification for each sub neural network model.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 기계 학습에 의하여 제1 서브 신경망 모델에 대한 최적화된 파라미터 값 및 제2 서브 신경망 모델의 최적화된 파라미터 값을 획득할 수 있다. 이때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델로부터 각각 획득되는 출력값(예컨대, 특정 진단 보조 정보에 대한 확률 값)들에 대한 평균값을 최종 신경망 모델의 출력값으로 결정할 수 있다.As a more specific example, when the neural network model includes the first sub neural network model and the second sub neural network model, the parameter values optimized for the first sub neural network model and the optimized parameter values for the second sub neural network model by machine learning can be obtained. In this case, an average value of output values (eg, probability values for specific diagnostic auxiliary information) respectively obtained from the first sub-neural network model and the second sub-neural network model may be determined as the output value of the final neural network model.

본 발명의 다른 일 실시예에 따르면, 복수의 서브 신경망 모델 각각에 의한 출력값에 기초하여 개별 서브 신경망 모델의 정확도를 평가할 수 있다. 이때, 정확도에 기초하여 복수의 서브 신경망 모델 중 어느 하나의 모델을 선택하여 최종 서브 신경망 모델로 결정할 수 있다. 결정된 서브 신경망 모델의 구조 및 학습 결과 얻어진 결정된 서브 신경망 모델의 파라미터 값들은 저장될 수 있다.According to another embodiment of the present invention, the accuracy of each sub-neural network model may be evaluated based on output values from each of the plurality of sub-neural network models. In this case, any one of a plurality of sub-neural network models may be selected based on the accuracy and determined as the final sub-neural network model. The structure of the determined sub-neural network model and parameter values of the determined sub-neural network model obtained as a result of learning may be stored.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델 각각에 따른 정확도를 획득하고, 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정할 수 있다.As a more specific example, when the neural network model includes the first sub neural network model and the second sub neural network model, accuracy according to each of the first sub neural network model and the second sub neural network model is obtained, and a more accurate sub neural network model is finalized It can be determined with a neural network model.

본 발명의 또 다른 일 실시예에 따르면, 복수의 신경망 모델 중 적어도 하나의 서브 신경망을 조합하고, 조합된 적어도 하나의 서브 신경망 모델의 앙상블을 형성하고, 각각의 앙상블에 대하여 평가하되, 복수의 앙상블 중 정확도가 높은 앙상블을 형성하는 서브 신경망 모델의 조합을 최종 신경망 모델로 결정할 수 있다. 이때, 복수의 서브 신경망 모델 중 적어도 하나를 선택하는 가능한 모든 경우의 수에 대하여 앙상블을 수행하고, 가장 정확도가 높은 것으로 평가된 서브 신경망 조합을 최종 신경망 모델로 결정할 수도 있다.According to another embodiment of the present invention, at least one sub-neural network among a plurality of neural network models is combined, an ensemble of the combined at least one sub-neural network model is formed, and each ensemble is evaluated, but the plurality of ensembles A combination of sub-neural network models that form an ensemble with high accuracy can be determined as the final neural network model. In this case, the ensemble may be performed on all possible cases of selecting at least one of the plurality of sub neural network models, and the sub neural network combination evaluated as having the highest accuracy may be determined as the final neural network model.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 제1 서브 신경망 모델의 정확도, 제2 서브 신경망 모델의 정확도 및 제1 및 제2 서브 신경망 모델의 앙상블에 의한 정확도를 비교하고, 가장 정확한 경우의 서브 신경망 모델 구성을 최종 신경망 모델로 결정할 수 있다.As a more specific example, when the neural network model includes the first sub neural network model and the second sub neural network model, the accuracy of the first sub neural network model, the accuracy of the second sub neural network model, and the ensemble of the first and second sub neural network models By comparing the accuracies by , it is possible to determine the sub-neural network model configuration in the most accurate case as the final neural network model.

2.4 실시예 1 - 학습 장치의 제어 방법.2.4 Example 1 - Control method of a learning device.

도 15는 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 15 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention.

도 15를 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제1 안저 이미지의 전처리를 수행하는 단계(S110), 전처리된 제1 안저 이미지를 직렬화하는 단계(S130), 제1 신경망 모델을 학습시키는 단계(S150)를 포함할 수 있다.15 , the control method of the learning apparatus according to an embodiment of the present invention includes performing pre-processing of a first fundus image ( S110 ), serializing the pre-processed first fundus image ( S130 ), first It may include training the neural network model (S150).

본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치, 진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치를 포함하는 시스템에 포함되는 학습 장치의 제어 방법일 수 있다.A method of controlling a learning apparatus according to an embodiment of the present invention obtains a first training data set including a plurality of fundus images, processes the fundus image included in the first training data set, and performs the first training A learning apparatus for learning a first neural network model using a data set, acquires a target fundus image for acquiring diagnostic assistance information, and uses the learned first neural network model to assist the diagnosis based on the target fundus image It may be a method of controlling a learning device included in a system including a diagnostic device for acquiring information.

제1 안저 이미지의 전처리를 수행하는 단계(S110)는 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 것을 더 포함할 수 있다. In the step of performing pre-processing of the first fundus image ( S110 ), pre-processing of the first fundus image is performed so that the first fundus image included in the first training data set is converted into a form suitable for learning the first neural network model. may further include

본 발명의 일 실시예에 따른 학습 장치의 제어 방법은, 전처리된 제1 안저 이미지를 직렬화하는 단계(S130)를 포함할 수 있다. 제1 안저 이미지는 신경망 모델의 학습에 용이한 형태로 직렬화될 수 있다.The method of controlling a learning apparatus according to an embodiment of the present invention may include serializing the preprocessed first fundus image (S130). The first fundus image may be serialized in a form that is easy for training of the neural network model.

이때, 제1 신경망 모델을 학습시키는 단계(S150)는 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 것을 더 포함할 수 있다.In this case, the step of training the first neural network model ( S150 ) further includes training the first neural network model for classifying the target fundus image into a first label or a second label by using the serialized first fundus image. can do.

학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시킬 수 있다.The learning apparatus may acquire a second training data set that includes a plurality of fundus images and is at least partially different from the first training data set, and trains a second neural network model by using the second training data set.

본 발명의 일 실시예에 따르면, 학습 장치의 제어 방법은 제2 트레이닝 세트에 포함된 제2 안저 이미지가 제2 신경망 모델의 학습에 적합하도록 제2 안저 이미지의 전처리를 수행하는 단계, 전처리된 제2 안저 이미지를 직렬화하는 단계 및 직렬화된 제2 안저 이미지를 이용하여, 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 제2 신경망 모델을 학습시키는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the method for controlling the learning apparatus includes performing pre-processing of the second fundus image so that the second fundus image included in the second training set is suitable for learning the second neural network model; The method may further include the steps of serializing the second fundus images and training a second neural network model for classifying the target fundus image into a third label or a fourth label by using the serialized second fundus image.

도 16은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제2 안저 이미지의 전처리를 수행하는 단계(S210), 전처리된 제2 안저 이미지를 직렬화하는 단계(S230), 제2 신경망 모델을 학습시키는 단계(S250)를 포함할 수 있다.16 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention. Referring to FIG. 16 , the method for controlling a learning apparatus according to an embodiment of the present invention includes performing pre-processing of a second fundus image (S210), serializing the pre-processed second fundus image (S230), a second It may include training the neural network model (S250).

도 16에서는 설명의 편의를 위하여, 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 제1 안저 이미지의 전처리, 제2 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 수행되는 것으로 묘사하였으나, 본 발명의 내용이 이에 한정되는 것은 아니다.In FIG. 16 , for convenience of explanation, preprocessing of the first fundus image, serialization of the first fundus image, and learning using the first fundus image, followed by preprocessing of the first fundus image, serialization of the second fundus image, and the first fundus image Although it has been described as being performed following learning using , the content of the present invention is not limited thereto.

제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 독립적으로 수행될 수 있다. 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 병렬적으로 수행될 수 있다. 다시 말해, 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 반드시 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습 이후에 이루어지거나, 이전에 이루어져야 하는 것은 아니며, 제1 안저 이미지에 대한 처리 및 제2 안저 이미지에 대한 처리는 상호 의존관계 없이 수행될 수 있다.The preprocessing of the second fundus image included in the second training set, and the serialization of the second fundus image and the learning using the second fundus image are the above-described preprocessing of the first fundus image, serialization of the first fundus image, and the first fundus. It can be performed independently of learning using images. The preprocessing of the second fundus image included in the second training set, and the serialization of the second fundus image and the learning using the second fundus image are the above-described preprocessing of the first fundus image, serialization of the first fundus image, and the first fundus. It can be performed in parallel with learning using images. In other words, the pre-processing of the second fundus image included in the second training set, and the serialization of the second fundus image and learning using the second fundus image must necessarily include the above-described preprocessing of the first fundus image and serialization of the first fundus image. And it does not have to be done after or before learning using the first fundus image, and the processing of the first fundus image and the processing of the second fundus image may be performed without mutual dependence.

제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별될 수 있다. 예컨대, 제1 전처리는 혈관 강조 전처리이고, 제2 전처리는 색상 변조 전처리일 수 있다. 각 전처리는 각 신경망 모델을 통하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다.The first pre-processing performed on the fundus image included in the first training data set may be distinguished from the second pre-processing performed on the fundus image included in the second training data set. For example, the first preprocessing may be a blood vessel enhancement preprocessing, and the second preprocessing may be a color modulation preprocessing. Each preprocessing may be determined in consideration of the diagnostic auxiliary information to be acquired through each neural network model.

본 발명의 일 실시예에 따른 학습 장치의 제어 방법은, 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계 및 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계를 더 포함할 수 있다. 이때, 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행될 수 있다.The method for controlling a learning apparatus according to an embodiment of the present invention evaluates the accuracy of the learned first neural network model using a first verification data set that is at least partially different from a first training data set, Validating the first neural network model and evaluating the accuracy of the learned first neural network model by using a second validation data set that is at least partially distinct from a second training data set, and the second neural network model It may further include the step of verifying. In this case, the verification of the first neural network model and the second neural network model may be independently performed.

직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고, 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다.The serialized first fundus image is sequentially stored in a first queue, and the serialized fundus image stored in the first queue is used for training the first neural network model in a predetermined capacity unit from the first queue, A second fundus image is sequentially stored in a second queue distinct from the first queue, and the serialized fundus image stored in the second queue is used in training of the first neural network model from the second queue in a predetermined capacity unit. can be used

제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 수행될 수 있다.The first neural network model may include a first sub neural network model and a second sub neural network model. In this case, the classification of the target fundus image into the first label or the second label is performed in consideration of the first predicted value predicted by the first sub-neural network model and the second predicted value predicted by the second sub-neural network model. can be performed.

제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측값을 함께 고려하여 수행될 수 있다.The second neural network model may include a third sub neural network model and a fourth sub neural network model. In this case, the classification of the target fundus image into the third label or the fourth label is performed in consideration of the third predicted value predicted by the third sub-neural network model and the fourth predicted value predicted by the fourth sub-neural network model. can be performed.

제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함할 수 있다. 이때, 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통될 수 있다.The first training data set may include at least part of the fundus image labeled with the first label, and the second training data set may include at least part of the fundus image labeled with the third label. In this case, the fundus image labeled with the first label and at least a portion of the fundus image labeled with the third label may be partially in common.

제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 상기 제1 소견에 대하여 정상임을 지시하는 정상 라벨이고, 상기 제2 라벨은 상기 피검체가 상긴 제2 소견에 대하여 비정상임을 지시하는 비정상 라벨일 수 있다.The first label is a normal label indicating that the subject corresponding to the target fundus image is normal with respect to the first observation, and the second label is an abnormal label indicating that the subject is abnormal with respect to the second observation. can

제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 크롭하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함할 수 있다.The pre-processing of the first fundus image may include cropping the first fundus image to satisfy a reference aspect ratio and changing the size of the first fundus image.

제1 안저 이미지의 전처리를 수행하는 단계는, 상기 가공부가 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함할 수 있다.The pre-processing of the first fundus image may further include applying, by the processing unit, a blood vessel enhancement filter to the fundus image so that the blood vessels included in the first fundus image are emphasized.

직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다. 큐는 상기 제1 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청할 수 있다. The serialized first fundus image may be sequentially stored in a queue, and the serialized first fundus image stored in the queue may be used to train the first neural network model in a unit of a predetermined capacity from the queue. The queue may request replenishment of the serialized first fundus image when the serialized first fundus image not used for the first learning decreases below a reference capacity.

제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나일 수 있다.The first finding may be any one of retinal hemorrhage, retinal exudate, lens opacity, and diabetic retinopathy.

도 17은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 17 is a diagram for explaining a method of controlling a learning apparatus according to an embodiment of the present invention.

도 17을 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제1 신경망 모델을 검증하는 단계(S170) 및 제1 신경망 모델을 갱신하는 단계(S190)를 더 포함할 수 있다.Referring to FIG. 17 , the method of controlling a learning apparatus according to an embodiment of the present invention may further include verifying the first neural network model ( S170 ) and updating the first neural network model ( S190 ).

제1 신경망 모델을 검증하는 단계(S170)는 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여 1 신경망 모델을 검증하는 것을 더 포함할 수 있다.The step of verifying the first neural network model ( S170 ) is to evaluate the accuracy of the learned first neural network model by using a first validation data set that is at least partially different from the first training data set to obtain one neural network model. It may further include verifying.

제1 신경망 모델을 갱신하는 단계(S190), 제1 신경망 모델을 검증하는 단계(S170)로부터 얻어진 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계를 더 포함할 수 있다.The method may further include updating the first neural network model by reflecting the verification result obtained from the step of updating the first neural network model ( S190 ) and the step of verifying the first neural network model ( S170 ).

한편, 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 제1 신경망 모델을 학습시키는 단계는 제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고, 상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고, 상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함할 수 있다.Meanwhile, the first neural network model may include a first sub neural network model and a second sub neural network model. In this case, the step of training the first neural network model may include verifying the first sub-neural network model using a first validation data set to obtain accuracy of the first sub-neural network model, and using the first validation data set. Acquire the accuracy of the second sub neural network model by verifying the second sub neural network model, and compare the accuracy of the first sub neural network model and the accuracy of the second sub neural network model to convert the more accurate sub neural network model into the final neural network model This may include deciding

3. 진단 보조 프로세스3. Diagnostic Auxiliary Process

본 발명의 일 실시예에 따르면, 신경망 모델을 이용하여 진단 보조 정보를 획득하는 진단 보조 프로세스(또는 진단 프로세스)가 제공될 수 있다. 구체적인 예로, 진단 보조 프로세스에 의하여, 안저 이미지를 이용하고 학습된 진단 보조 신경망 모델을 통하여 진단 보조 정보(예컨대, 진단 정보 또는 소견 정보)가 예측될 수 있다. According to an embodiment of the present invention, a diagnosis assistance process (or diagnosis process) for obtaining diagnosis assistance information using a neural network model may be provided. As a specific example, the diagnosis assistance information (eg, diagnosis information or observation information) may be predicted by using the fundus image and through the learned diagnosis assistance neural network model by the diagnosis assistance process.

이하에서 설명하는 진단 보조 프로세스는 진단 장치에 의하여 수행될 수 있다. The diagnostic assistance process described below may be performed by the diagnostic apparatus.

3.1 진단부3.1 Diagnostics

본 발명의 일 실시예에 따르면, 진단 프로세스는 진단부(200)에 의해 수행될 수 있다. 진단부(200)는 전술한 진단 장치 내에 마련될 수 있다. According to an embodiment of the present invention, the diagnosis process may be performed by the diagnosis unit 200 . The diagnosis unit 200 may be provided in the above-described diagnosis apparatus.

도 18은 본 발명의 일 실시예에 따른 진단부(200)의 구성을 설명하기 위한 도면이다. 도 18을 참조하면, 진단부(200)는 진단 요청 획득 모듈(210), 데이터 가공 모듈(230), 진단 모듈(250) 및 출력 모듈(270)을 포함할 수 있다. 18 is a diagram for explaining the configuration of the diagnosis unit 200 according to an embodiment of the present invention. Referring to FIG. 18 , the diagnosis unit 200 may include a diagnosis request obtaining module 210 , a data processing module 230 , a diagnosis module 250 , and an output module 270 .

각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만 도 16에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 진단의 양태에 따라 일부 요소가 추가되거나 일부 요소가 생략될 수 있다.Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components and functions performed by the components described in FIG. 16 are essential, and some elements may be added or some elements may be omitted depending on the aspect of diagnosis.

3.2 데이터 획득 및 진단 요청3.2 Data Acquisition and Diagnosis Requests

본 발명의 일 실시예에 따른 진단 장치는 진단 대상 데이터를 획득하고, 이에 기초하여 진단 보조 정보를 획득할 수 있다. 진단 대상 데이터는 이미지 데이터일 수 있다. 전술한 진단부의 진단 요청 획득 모듈에 의하여 데이터 획득 및 진단 요청의 획득이 수행될 수 있다.The diagnosis apparatus according to an embodiment of the present invention may obtain diagnosis target data and may acquire diagnosis auxiliary information based thereon. The diagnosis target data may be image data. Data acquisition and diagnosis request acquisition may be performed by the diagnosis request acquiring module of the diagnosis unit.

도 19는 본 발명의 일 예에 따른 진단 대상 데이터(TD)를 설명하기 위한 도면이다. 도 19를 참조하면, 진단 대상 데이터(TD)는 진단 대상 이미지(TI) 및 진단 대상 객체 정보(PI; patient information)를 포함할 수 있다. 19 is a diagram for explaining diagnosis target data TD according to an embodiment of the present invention. Referring to FIG. 19 , the diagnosis target data TD may include a diagnosis target image TI and patient information (PI).

진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 예컨대, 진단 대상 이미지는 안저 이미지일 수 있다. 진단 대상 (TI)JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.The diagnosis target image TI may be an image for acquiring diagnosis auxiliary information on the diagnosis target object. For example, the diagnosis target image may be a fundus image. Diagnosis target (TI) It may have any one format of JPG, PNG, DCM (DICOM), BMP, GIF, and TIFF.

진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안인지 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다.The diagnosis object information PI may be information for identifying a diagnosis target object. Alternatively, the diagnosis object information PI may be characteristic information of a diagnosis target object or image. For example, the diagnosis object information PI may include information such as an imaging date and time of a diagnosis target image, imaging equipment, an identification number, ID, name, gender, age, or weight of the subject to be diagnosed. When the diagnosis target image is a fundus image, the diagnosis object information PI may further include eye-related information, such as binocular information indicating whether the left eye or the right eye.

진단 장치는 진단 요청을 획득할 수 있다. 진단 장치는 진단 요청과 함께 진단 대상 데이터를 획득할 수 있다. 진단 장치는 진단 요청이 획득되면, 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 장치는 클라이언트 장치로부터 진단 요청을 획득할 수 있다. 또는, 진단 장치는 별도로 마련된 입력 수단을 통하여 사용자로부터 진단 요청을 획득할 수 있다.The diagnostic device may obtain a diagnostic request. The diagnosis apparatus may acquire diagnosis target data together with the diagnosis request. When a diagnosis request is obtained, the diagnosis apparatus may acquire auxiliary diagnosis information by using the learned diagnosis auxiliary neural network model. The diagnostic device may obtain a diagnostic request from the client device. Alternatively, the diagnosis apparatus may obtain a diagnosis request from the user through a separately provided input means.

3.3 데이터 가공 프로세스3.3 Data Processing Process

획득된 데이터는 가공될 수 있다. 데이터의 가공은 전술한 진단부의 데이터 가공 모듈에 의하여 수행될 수 있다.The acquired data can be processed. The data processing may be performed by the data processing module of the above-described diagnostic unit.

데이터 가공 프로세스는 일반적으로, 전술한 학습 프로세스에서의 데이터 가공 프로세스와 유사하게 수행될 수 있다. 이하에서는, 학습 프로세스에서의 데이터 가공 프로세스와의 차이점을 중심으로, 진단 프로세스에서의 데이터 가공 프로세스에 대하여 설명한다.The data processing process may be generally performed similarly to the data processing process in the learning process described above. Hereinafter, the data processing process in the diagnosis process will be described with a focus on the difference from the data processing process in the learning process.

진단 프로세스에서, 진단 장치는 학습 프로세스에서와 마찬가지로 데이터를 획득할 수 있다. 이때, 획득되는 데이터는 학습 프로세스에서 획득되는 데이터와 동일한 형식일 수 있다. 예를 들어, 학습 프로세스에서 학습 장치가 DCM 형식의 이미지 데이터를 이용하여 진단 보조 신경망 모델을 학습시킨 경우, 진단 장치는 DCM 이미지를 획득하고 학습된 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.In the diagnostic process, the diagnostic device may acquire data as in the learning process. In this case, the obtained data may be in the same format as the data obtained in the learning process. For example, in the learning process, when the learning apparatus trains a diagnostic auxiliary neural network model using DCM format image data, the diagnostic apparatus may acquire a DCM image and obtain diagnostic auxiliary information using the learned neural network model. .

진단 프로세스에서, 획득된 진단 대상 이미지는 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 리사이징될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측을 효율적으로 수행하기 위하여, 적절한 용량, 크기 및/또는 종횡비를 가지도록 그 형태가 조정될 수 있다. In the diagnosis process, the acquired diagnosis object image may be resized similarly to image data used in the learning process. The shape of the diagnosis target image may be adjusted to have an appropriate capacity, size, and/or aspect ratio in order to efficiently perform diagnosis assistance information prediction through the learned diagnosis assistance neural network model.

예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 안저 이미지에 기초한 진단 정보의 예측을 위하여, 이미지의 불필요한 부분을 크롭하거나, 그 사이즈를 축소하는 등의 리사이징이 수행될 수 있다.For example, when the diagnosis target image is a fundus image, in order to predict diagnosis information based on the fundus image, resizing, such as cropping an unnecessary part of the image or reducing its size, may be performed.

진단 프로세스에서, 획득된 진단 대상 이미지에는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 전처리 필터가 적용될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측의 정확도가 보다 향상되도록, 적절한 필터가 적용될 수 있다. In the diagnosis process, a preprocessing filter may be applied to the acquired diagnosis target image, similarly to the image data used in the learning process. An appropriate filter may be applied to the diagnosis target image so that the accuracy of prediction of the diagnosis auxiliary information through the learned diagnosis auxiliary neural network model is improved.

예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 정 진단 정보의 예측이 용이하도록 하는 전처리, 예컨대 혈관이 강조되도록 하는 이미지 전처리 또는 특정 색상이 강조되거나 약화되도록 하는 이미지 전처리가 진단 대상 이미지에 적용될 수 있다.For example, when the diagnosis target image is a fundus image, preprocessing for facilitating prediction of positive diagnostic information, such as image preprocessing for emphasizing blood vessels or image preprocessing for emphasizing or weakening a specific color, may be applied to the diagnosis target image. have.

진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 직렬화될 수 있다. 진단 대상 이미지는 특정 워크프레임에서의 진단 모델 구동이 용이한 형태로 변환 또는 직렬화 수 있다. In the diagnosis process, the acquired diagnosis target image may be serialized, similar to the image data used in the learning process. The image to be diagnosed can be converted or serialized into a form that makes it easy to drive a diagnostic model in a specific framework.

진단 대상 이미지의 직렬화는 생략될 수 있다. 이는, 학습 단계에서와 달리 진단 단계에서는 프로세서가 한번에 처리하는 데이터의 수가 많지 않아, 데이터 처리 속도에 대한 부담이 상대적으로 적기 때문일 수 있다.Serialization of the diagnostic target image may be omitted. This may be because, unlike in the learning stage, in the diagnosis stage, the number of data processed by the processor at one time is not large, and the burden on the data processing speed is relatively small.

진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 큐에 저장될 수 있다. 다만, 진단 프로세스에서는 처리 데이터 수가 학습 프로세스에 비하여 적으므로, 데이터를 큐에 저장하는 단계는 생략될 수도 있다.In the diagnosis process, the acquired diagnosis target image may be stored in a queue, similar to image data used in the learning process. However, since the number of processed data in the diagnosis process is smaller than that in the learning process, the step of storing data in the queue may be omitted.

한편, 진단 프로세스에서는, 데이터 수의 증가가 요구되지 않으므로, 정확한 진단 보조 정보의 획득을 위하여, 학습 프로세스와 달리 데이터 증강 또는 이미지 증강 절차는 이용하지 않음이 바람직할 것이다.Meanwhile, since an increase in the number of data is not required in the diagnosis process, it is preferable not to use data augmentation or image augmentation procedures, unlike the learning process, in order to obtain accurate diagnosis auxiliary information.

3.4 진단 프로세스3.4 Diagnostic process

본 발명의 일 실시예에 따르면, 학습된 신경망 모델을 이용한 진단 프로세스가 개시될 수 있다. 진단 프로세스는 전술한 진단 장치에서 수행될 수 있다. 진단 프로세스는 전술한 진단 서버에서 수행될 수 있다. 진단 프로세스는 전술한 진단 장치의 제어부에서 수행될 수 있다. 진단 프로세스는 전술한 진단부의 진단 모듈에 의하여 수행될 수 있다.According to an embodiment of the present invention, a diagnosis process using a learned neural network model may be initiated. The diagnostic process may be performed in the aforementioned diagnostic apparatus. The diagnostic process may be performed in the aforementioned diagnostic server. The diagnosis process may be performed by the control unit of the above-described diagnosis apparatus. The diagnosis process may be performed by the diagnosis module of the above-described diagnosis unit.

도 20은 본 발명의 일 실시예에 따른 진단 프로세스를 설명하기 위한 도면이다. 도 20을 참조하면, 진단 프로세스는 진단 대상 데이터를 획득(S2010)하고, 학습된 신경망 모델을 이용하여(S2030), 획득된 진단 대상 데이터에 대응되는 결과를 획득하여 수행(S2050)될 수 있다. 다만, 데이터의 가공은 선택적으로 수행될 수 있다. 20 is a diagram for explaining a diagnosis process according to an embodiment of the present invention. Referring to FIG. 20 , the diagnosis process may be performed by acquiring the diagnosis target data ( S2010 ), using the learned neural network model ( S2030 ), and obtaining a result corresponding to the acquired diagnosis target data ( S2050 ). However, data processing may be selectively performed.

이하에서는 도 20을 참조하여, 진단 프로세스의 각 단계에 대하여 설명한다. Hereinafter, each step of the diagnosis process will be described with reference to FIG. 20 .

3.4.1 데이터 입력3.4.1 Data entry

본 발명의 일 실시예에 따르면, 진단 모듈은 진단 대상 데이터를 획득할 수 있다. 획득된 데이터는, 전술한 바와 같이 가공된 데이터일 수 있다. 일 예로, 획득된 데이터는 사이즈가 조절되고 혈관이 강조되도록 하는 전처리가 적용된 피검자의 안저 이미지 데이터일 수 있다. 본 발명의 일 실시예에 따르면, 하나의 피검자의 좌안 이미지 및 우안 이미지는 함께 진단 대상 데이터로 입력될 수 있다.According to an embodiment of the present invention, the diagnosis module may acquire diagnosis target data. The acquired data may be data processed as described above. As an example, the acquired data may be fundus image data of a subject to which a size is adjusted and pre-processing for emphasizing blood vessels is applied. According to an embodiment of the present invention, a left eye image and a right eye image of a single subject may be input as diagnostic target data together.

3.4.2 데이터 분류3.4.2 Data classification

분류기 형태로 마련된 진단 보조 신경망 모델은 입력된 진단 대상 이미지를 소정의 라벨에 대하여 긍정 또는 부정 클래스로 분류할 수 있다. The diagnostic auxiliary neural network model prepared in the form of a classifier may classify an input diagnostic target image into a positive or negative class with respect to a predetermined label.

학습된 진단 보조 신경망 모델은 진단 대상 데이터를 입력받고, 예측되는 라벨을 출력할 수 있다. 학습된 진단 보조 신경망 모델은 진단 보조 정보의 예측값을 출력할 수 있다. 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 예측되는 라벨에 기초하여 결정될 수 있다.The trained diagnostic auxiliary neural network model may receive diagnostic target data and output predicted labels. The trained diagnostic auxiliary neural network model may output a predicted value of the diagnostic auxiliary information. Diagnosis auxiliary information may be acquired using the learned diagnostic auxiliary neural network model. The diagnostic assistance information may be determined based on the predicted label.

예를 들어, 진단 보조 신경망 모델은 피검체의 안질환 또는 전신 질환에 대한 진단 정보(즉, 질병의 유무에 대한 정보) 또는 소견 정보(즉, 이상 소견의 유무에 대한 정보)를 예측할 수 있다. 이때, 진단 정보 또는 소견 정보는 확률 형태로 출력될 수 있다. 예컨대, 피검체가 특정 질병을 보유할 확률 또는 피검체의 안저 이미지체 특정 이상 소견이 있을 확률이 출력될 수 있다. 분류기 형태로 마련된 진단 보조 신경망 모델을 이용하는 경우에, 예측되는 라벨은 출력되는 확률값(또는 예측 점수)이 임계값을 초과하는지 여부를 고려하여 결정될 수 있다.For example, the diagnostic auxiliary neural network model may predict diagnostic information (ie, information on the presence or absence of a disease) or observation information (ie, information on the presence or absence of abnormal findings) on an eye disease or systemic disease of the subject. In this case, diagnostic information or observation information may be output in the form of probability. For example, the probability that the subject has a specific disease or the probability that the subject has a specific abnormality in the fundus image of the subject may be output. In the case of using a diagnostic auxiliary neural network model prepared in the form of a classifier, a predicted label may be determined in consideration of whether an output probability value (or prediction score) exceeds a threshold value.

구체적인 예로, 진단 보조 신경망 모델은 피검체의 안저 사진을 진단 대상 이미지로 하여, 피검체의 당뇨 망막증 유무를 확률값으로 출력할 수 있다. 1을 정상으로 하는 분류기 형태의 진단 보조 신경망 모델을 이용하는 경우, 피검체의 안저 사진을 진단 보조 신경망 모델에 입력하고, 피검체의 당뇨 망막증 보유 여부에 대하여, 정상 : 비정상 의 확률 값을 0.74:0.26 등의 형태로 획득할 수 있다.As a specific example, the diagnostic auxiliary neural network model may output the presence or absence of diabetic retinopathy of the subject as a probability value by using the fundus photograph of the subject as a diagnosis target image. In the case of using a classifier-type diagnostic auxiliary neural network model in which 1 is normal, the fundus photograph of the subject is input to the diagnostic auxiliary neural network model, and the probability value of normal: abnormal is 0.74:0.26 for whether the subject has diabetic retinopathy or not. It can be obtained in the form of

여기에서는 분류기 형태의 진단 보조 신경망 모델을 이용하여 데이터를 분류하는 경우를 기준으로 설명하였으나, 본 발명이 이에 한정되지는 아니하며, 회귀 모델 형태로 구현된 진단 보조 신경망 모델을 이용하여 특정한 진단 보조 수치(예컨대, 혈압 등)를 예측할 수도 있다.Herein, the description has been made based on the case of classifying data using a classifier-type diagnostic auxiliary neural network model, but the present invention is not limited thereto, and specific diagnostic auxiliary numerical values ( For example, blood pressure, etc.) may be predicted.

본 발명의 다른 일 실시예에 따르면, 이미지의 적합성 정보가 획득될 수 있다. 적합성 정보는 진단 대상 이미지가 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하기에 적합한지 여부를 나타낼 수 있다. According to another embodiment of the present invention, suitability information of an image may be obtained. The suitability information may indicate whether the diagnosis target image is suitable for acquiring the diagnosis auxiliary information using the diagnosis auxiliary neural network model.

이미지의 적합성 정보는 이미지의 품질 정보일 수 있다. 품질 정보 또는 적합성 정보는, 진단 대상 이미지가 기준 레벨에 미치는지 여부를 나타낼 수 있다. The suitability information of the image may be quality information of the image. The quality information or the suitability information may indicate whether the diagnosis target image reaches the reference level.

예컨대, 진단 대상 이미지가 촬영 장비의 결함 또는 촬영시 조명의 영향 등으로 인하여 결함을 가지는 경우, 해당 진단 대상 이미지에 대하여는 적합성 정보로서 부적합 결과가 출력될 수 있다. 진단 대상 이미지에 노이즈가 일정 수준 이상 포함된 경우, 그 진단 대상 이미지는 부적합한 것으로 판단될 수 있다.For example, when the diagnosis target image has a defect due to a defect in imaging equipment or the influence of lighting during imaging, a non-conformity result may be output as suitability information for the diagnosis target image. When noise is included in the diagnosis target image by a certain level or more, the diagnosis target image may be determined to be inappropriate.

적합성 정보는 신경망 모델을 이용하여 예측된 값일 수 있다. 또는, 적합성 정보는 별도의 이미지 분석 프로세스를 통하여 획득된 정보일 수 있다.The fitness information may be a value predicted using a neural network model. Alternatively, the suitability information may be information obtained through a separate image analysis process.

일 실시예에 따르면, 이미지가 부적합한 것으로 분류된 경우에도, 부적합한 이미지에 기초하여 획득된 진단 보조 정보가 획득될 수 있다.According to an embodiment, even when the image is classified as inappropriate, the diagnosis auxiliary information obtained based on the inappropriate image may be obtained.

일 실시예에 따르면, 부적합한 것으로 분류된 이미지는 진단 보조 신경망 모델에 의하여 재검토될 수 있다.According to an embodiment, the image classified as inappropriate may be reviewed by a diagnostic auxiliary neural network model.

이때, 재검토를 수행하는 진단 보조 신경망 모델은, 최초 검토를 수행하는 진단 보조 신경망 모델과 상이할 수 있다. 예를 들어, 진단 장치는 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 저장하고, 제1 진단 보조 신경망 모델을 통하여 부적합한 것으로 분류된 이미지는 제2 진단 보조 신경망 모델을 통하여 검토될 수 있다.In this case, the diagnostic auxiliary neural network model for performing the review may be different from the diagnostic auxiliary neural network model for performing the initial review. For example, the diagnostic apparatus may store the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model, and images classified as inappropriate through the first diagnostic auxiliary neural network model may be reviewed through the second diagnostic auxiliary neural network model. .

본 발명의 또 다른 일 실시예에 따르면, 학습된 신경망 모델로부터 CAM(Class Activation Map)이 획득될 수 있다. 진단 보조 정보는 CAM을 포함할 수 있다. CAM은 다른 진단 보조 정보와 함께 획득될 수 있다.According to another embodiment of the present invention, a CAM (Class Activation Map) may be obtained from a learned neural network model. The diagnostic auxiliary information may include a CAM. The CAM may be acquired along with other diagnostic assistance information.

CAM의 경우, 선택적으로 획득될 수 있다. 예를 들어, CAM의 경우, 진단 보조 모델에 의하여 획득된 진단 정보 또는 소견 정보가 비정상 클래스로 분류된 경우에 CAM이 추출 및/또는 출력될 수 있다.In the case of CAM, it can be acquired selectively. For example, in the case of the CAM, the CAM may be extracted and/or output when diagnostic information or observation information obtained by the diagnostic assistance model is classified as an abnormal class.

3.5 진단 보조 정보의 출력3.5 Output of diagnostic auxiliary information

진단 보조 정보는, 진단 보조 신경망 모델로부터 예측된 라벨에 기초하여 결정될 수 있다. The diagnostic assistance information may be determined based on a label predicted from the diagnostic assistance neural network model.

진단 보조 정보의 출력은 전술한 진단부의 출력 모듈에 의하여 수행될 수 있다. 진단 보조 정보는 진단 장치로부터 클라이언트 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치로부터 서버 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치 또는 진단 서버에 저장될 수 있다. 진단 보조 정보는 별도로 마련된 서버 장치 등에 저장될 수 있다.The output of the diagnostic auxiliary information may be performed by the above-described output module of the diagnostic unit. The diagnostic auxiliary information may be output from the diagnostic device to the client device. The diagnostic auxiliary information may be output from the diagnostic device to the server device. The diagnostic auxiliary information may be stored in a diagnostic device or a diagnostic server. The diagnosis auxiliary information may be stored in a separately provided server device or the like.

진단 보조 정보는 데이터베이스화 되어 관리될 수 있다. 예컨대, 획득된 진단 보조 정보는 피검체의 식별 번호에 따라 해당 피검체의 진단 대상 이미지와 함께 저장 및 관리될 수 있다. 이때, 피검체의 진단 대상 이미지 및 진단 보조 정보는 시간 순서에 따라 관리될 수 있다. 진단 보조 정보 및 진단 대상 이미지를 시계열적으로 관리함으로써, 개인별 진단 정보의 추적 및 이력 관리가 용이해질 수 있다.Diagnostic auxiliary information may be managed in a database. For example, the acquired diagnosis auxiliary information may be stored and managed together with a diagnosis target image of the subject according to the identification number of the subject. In this case, the diagnosis target image and diagnosis auxiliary information of the subject may be managed according to a time sequence. By managing the diagnosis auxiliary information and the diagnosis target image in time-series, tracking and history management of individual diagnosis information may be facilitated.

진단 보조 정보는 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치에 마련된 시각적 또는 청각적 출력 수단을 통하여 사용자가 인지할 수 있도록 출력될 수 있다. Diagnostic auxiliary information may be provided to the user. The diagnostic auxiliary information may be provided to the user through an output means of the diagnostic device or the client device. The diagnosis auxiliary information may be output so that the user can recognize it through a visual or audio output means provided in the diagnosis device or the client device.

본 발명의 일 실시예에 따르면, 사용자에게 진단 보조 정보를 효과적으로 제공하기 위한 인터페이스가 제공될 수 있다. 이러한 사용자 인터페이스와 관련하여서는 후술하는 5. 사용자 인터페이스 에서 보다 상세히 설명한다.According to an embodiment of the present invention, an interface for effectively providing diagnostic assistance information to a user may be provided. This user interface will be described in more detail in 5. User Interface to be described later.

신경망 모델에 의하여 CAM이 획득된 경우, CAM의 이미지가 함께 제공될 수 있다. CAM 이미지의 경우 선택적으로 제공될 수 있다. 예컨대, 진단 보조 신경망 모델을 통하여 획득된 진단 정보가 정상 소견 정보 또는 정상 진단 정보인 경우 CAM 이미지를 제공하지 않고, 획득된 진단 정보가 비정상 소견 정보 또는 비정상 진단 정보인 경우, 보다 정확한 임상 진단을 위하여 CAM 이미지가 함께 제공될 수 있다.When the CAM is acquired by the neural network model, an image of the CAM may be provided together. In the case of a CAM image, it may be optionally provided. For example, when the diagnostic information obtained through the auxiliary diagnostic neural network model is normal observation information or normal diagnostic information, a CAM image is not provided, and when the acquired diagnostic information is abnormal observation information or abnormal diagnostic information, for more accurate clinical diagnosis A CAM image may be provided.

이미지가 부적합한 것으로 분류된 경우, 이미지의 적합성 정보가 함께 제공될 수 있다. 일 예로, 이미지가 부적합한 것으로 분류된 경우, 해당 이미지에 따라 획득된 진단 보조 정보 및 부적합 판정 정보가 함께 제공될 수 있다. When the image is classified as inappropriate, suitability information of the image may be provided together. As an example, when an image is classified as inappropriate, the diagnosis auxiliary information and non-conformity determination information obtained according to the image may be provided together.

부적합한 것으로 판정된 진단 대상 이미지는 재촬영 대상 이미지로 분류될 수도 있다. 이때, 재촬영 대상으로 분류된 이미지의 대상 객체에 대한 재촬영 안내가 적합성 정보와 함께 제공될 수 있다.The diagnosis target image determined to be inappropriate may be classified as a re-photography target image. In this case, a rephotographing guide for a target object of an image classified as a rephotographing target may be provided together with suitability information.

한편, 신경망 모델을 통하여 획득된 진단 보조 정보를 제공하는 것에 응답하여, 신경망 모델의 학습과 관련된 피드백이 획득될 수 있다. 예컨대, 신경망 모델의 학습과 관련된 파라미터 또는 하이퍼 파라미터를 조정하기 위한 피드백이 획득될 수 있다. 피드백은 진단 장치 또는 클라이언트 장치에 마련된 사용자 입력부를 통하여 획득될 수 있다.Meanwhile, in response to providing the diagnostic assistance information obtained through the neural network model, feedback related to learning of the neural network model may be obtained. For example, feedback may be obtained to adjust parameters or hyperparameters related to training of the neural network model. The feedback may be obtained through a user input unit provided in the diagnosis device or the client device.

본 발명의 일 실시예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 신경망 모델이 다중 분류를 수행하는 분류기 모델인 경우, 등급 정보는 진단 대상 이미지가 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 신경망 모델이 특정 질병과 관련된 수치를 출력하는 회귀 모델인 경우, 등급 정보는 출력되는 수치를 고려하여 결정될 수 있다.According to an embodiment of the present invention, the diagnosis auxiliary information corresponding to the diagnosis target image may include grade information. The rating information may be selected from among a plurality of ratings. The grade information may be determined based on diagnosis information and/or observation information obtained through the neural network model. The grade information may be determined in consideration of suitability information or quality information of an image to be diagnosed. When the neural network model is a classifier model that performs multiple classification, grade information may be determined in consideration of a class into which a diagnosis target image is classified by the neural network model. When the neural network model is a regression model that outputs a numerical value related to a specific disease, grade information may be determined in consideration of the output numerical value.

예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. 또는, 등급 정보는, 신경망 모델을 통하여 획득된 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.For example, the diagnosis auxiliary information obtained in response to the diagnosis target image may include any one selected from the first grade information and the second grade information. The grade information may be selected as the first grade information when abnormal observation information or abnormal diagnosis information is obtained through the neural network model. The grade information may be selected as second grade information when abnormal finding information or abnormal diagnosis information is not obtained through the neural network model. Alternatively, the grade information may be selected as the first grade information when the numerical value obtained through the neural network model exceeds the reference value, and may be selected as the second grade information when the acquired value does not meet the reference value. The first grade information may indicate that abnormal information stronger than the second grade information exists in the diagnosis target image.

한편, 등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.Meanwhile, the grade information may be selected as the third grade information when it is determined that the quality of the image to be diagnosed is less than or equal to the standard using image analysis or a neural network model. Alternatively, the diagnosis auxiliary information may include the third level information together with the first or second level information.

진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.When the diagnosis auxiliary information includes the first level information, the first user guide may be output through the output means. The first user guide may indicate that a more precise examination is required for the subject (ie, the patient) corresponding to the diagnosis auxiliary information. For example, the first user guidance may indicate that a secondary diagnosis (eg, diagnosis in a separate medical institution or power supply procedure) is required for the subject. Alternatively, the first user guidance may indicate a required treatment for the subject. As a specific example, when abnormal information on the macular degeneration of the subject is acquired by the diagnostic auxiliary information, the first user guide provides information on the injection prescription and power supply procedure for the subject (eg, at a hospital where power is available). list) can be included.

진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다. When the diagnosis auxiliary information includes the second level information, the second user guide may be output through the output means. The second user guide may include a post-management plan for the subject corresponding to the diagnosis auxiliary information. For example, the second user guide may instruct the subject's next treatment time, next treatment subject, and the like.

진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.When the diagnosis target information includes the third level information, the third user guide may be output through the output means. The third user guide may indicate that recapture is required for the diagnosis target image. The third user guide may include information on the quality of the image to be diagnosed. For example, the third user guide may include information on defects present in the diagnosis target image (eg, whether bright artifacts or dark artifacts, or a degree thereof).

4. 복수 라벨 대한 진단 보조 시스템4. Diagnostic assistance system for multiple labels

본 발명의 일 실시예에 따르면, 복수 라벨(예컨대, 복수의 진단 보조 정보)에 대하여 예측하기 위한 진단 보조 시스템이 제공될 수 있다. 이를 위하여, 전술한 진단 보조 시스템의 진단 보조 신경망을 복수의 라벨에 대하여 예측하도록 설계할 수 있다.According to an embodiment of the present invention, a diagnosis assistance system for predicting with respect to a plurality of labels (eg, a plurality of diagnostic assistance information) may be provided. To this end, the diagnostic assistance neural network of the aforementioned diagnostic assistance system may be designed to predict a plurality of labels.

또는, 위와 전술한 진단 보조 시스템에 있어서, 서로 다른 라벨에 대하여 예측하는 복수의 진단 보조 신경망이 병렬적으로 이용될 수 있다. 이하에서는, 이러한 병렬 진단 보조 시스템에 대하여 설명한다.Alternatively, in the above-described diagnostic assistance system, a plurality of diagnostic assistance neural networks that predict different labels may be used in parallel. Hereinafter, such a parallel diagnosis assistance system will be described.

4.1 병렬 진단 보조 시스템 구성4.1 Parallel Diagnostic Auxiliary System Configuration

본 발명의 일 실시예에 따르면, 복수의 진단 보조 정보를 획득하기 위한 병렬 진단 보조 시스템이 제공될 수 있다. 병렬 진단 보조 시스템은 복수의 진단 보조 정보를 획득하기 위한 복수의 신경망 모델을 학습시키고, 학습된 복수의 신경망 모델을 이용하여 복수의 진단 보조 정보를 획득할 수 있다. According to an embodiment of the present invention, a parallel diagnosis assistance system for acquiring a plurality of diagnostic assistance information may be provided. The parallel diagnosis assistance system may train a plurality of neural network models for acquiring a plurality of diagnostic assistance information, and acquire a plurality of diagnostic assistance information using the learned plurality of neural network models.

예컨대, 병렬 진단 보조 시스템은 안저 이미지에 기초하여, 피검체의 안질환 유무와 관련된 제1 진단 보조 정보를 획득하는 제1 신경망 모델 및 피검체의 전신 질환 유무와 관련된 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 학습시키고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 피검체의 안질환 유무 및 전신 질환 유무에 관한 진단 보조 정보를 출력할 수 있다. For example, the parallel diagnosis assistance system includes a first neural network model that acquires first diagnostic auxiliary information related to the presence or absence of an eye disease in the subject and second diagnostic auxiliary information related to the presence or absence of a systemic disease in the subject, based on the fundus image. The second neural network model may be trained, and diagnostic auxiliary information regarding the presence or absence of an eye disease and a systemic disease of the subject may be output by using the learned first neural network model and the second neural network model.

도 21 및 22는 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다. 도 21 및 22를 참조하면, 병렬 진단 보조 시스템은 복수의 학습부를 포함할 수 있다.21 and 22 are diagrams for explaining a parallel diagnosis assistance system according to some embodiments of the present invention. 21 and 22 , the parallel diagnosis assistance system may include a plurality of learning units.

도 21을 참조하면, 본 발명의 일 실시예에 따른 병렬 진단 보조 시스템(30)은 학습 장치(1000), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 이때, 학습 장치(1000)는 복수의 학습부를 포함할 수 있다. 예를 들어, 학습 장치(1000)는 제1 학습부(100a) 및 제2 학습부(100b)를 포함할 수 있다. Referring to FIG. 21 , the parallel diagnosis assistance system 30 according to an embodiment of the present invention may include a learning device 1000 , a diagnosis device 2000 , and a client device 3000 . In this case, the learning apparatus 1000 may include a plurality of learning units. For example, the learning apparatus 1000 may include a first learning unit 100a and a second learning unit 100b.

도 22를 참조하면, 본 발명의 일 실시예에 따른 병렬 진단 보조 시스템(40)은 제1 학습 장치(1000a), 제2 학습 장치(1000b), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 제1 학습 장치(1000a)는 제1 학습부(100a)를 포함할 수 있다. 제2 학습 장치(1000b)는 제2 학습부(100b)를 포함할 수 있다. Referring to FIG. 22 , a parallel diagnosis assistance system 40 according to an embodiment of the present invention includes a first learning device 1000a, a second learning device 1000b, a diagnosis device 2000, and a client device 3000. may include The first learning apparatus 1000a may include a first learning unit 100a. The second learning apparatus 1000b may include a second learning unit 100b.

도 21 및 22를 참조하면, 제1 학습부(100a)는 제1 데이터 세트를 획득하고, 제1 신경망 모델에 대하여 학습 결과 얻어진 제1 신경망 모델의 제1 파라미터 세트를 출력할 수 있다. 제2 학습부(100b)는 제2 데이터 세트를 획득하고, 제2 신경망 모델에 대하여 학습 결과 얻어진 제2 신경망 모델의 제2 파라미터 세트를 출력할 수 있다. 21 and 22 , the first learning unit 100a may obtain a first data set and may output a first parameter set of the first neural network model obtained as a result of learning the first neural network model. The second learning unit 100b may obtain a second data set and output a second parameter set of the second neural network model obtained as a result of learning the second neural network model.

진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단 장치(2000) 및 진단부(200)에 대하여는 도 1과 관련하여 설명한 내용이 유사하게 적용될 수 있다. 진단부(200)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 각각 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다. 진단부(2000)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 획득한 학습된 제1 신경망 모델의 파라미터 및 학습된 제2 신경망 모델의 파라미터를 저장할 수 있다.The diagnosis apparatus 2000 may include a diagnosis unit 200 . The contents described with reference to FIG. 1 may be similarly applied to the diagnosis apparatus 2000 and the diagnosis unit 200 . The diagnosis unit 200 obtains the first diagnosis auxiliary information and the second diagnosis auxiliary information by using the first neural network model and the second neural network model learned from the first learning unit 100a and the second learning unit 100b, respectively. can do. The diagnosis unit 2000 may store the learned parameters of the first neural network model and the learned parameters of the second neural network model obtained from the first learner 100a and the second learner 100b.

클라이언트 장치(3000)는 데이터 획득부 예컨대, 촬상부(300)를 포함할 수 있다. 다만, 촬상부(300)는 기타 진단 보조 정보의 획득에 이용되는 데이터의 획득 수단으로 대체될 수 있다. 클라이언트 장치는 진단 장치로 진단 요청 및 진단 대상 데이터(예컨대, 촬상부로부터 획득된 안저 이미지)를 전송할 수 있다. 클라이언트 장치(3000)는 진단 요청을 전송하는 것에 응답하여, 진단 장치로부터, 전송한 진단 대상 데이터에 따른 복수의 진단 보조 정보를 획득할 수 있다.The client device 3000 may include a data acquisition unit, for example, an imaging unit 300 . However, the imaging unit 300 may be replaced with a data acquisition means used to acquire other diagnostic auxiliary information. The client device may transmit a diagnosis request and diagnosis target data (eg, a fundus image obtained from an imaging unit) to the diagnosis device. In response to transmitting the diagnosis request, the client device 3000 may acquire a plurality of diagnosis auxiliary information according to the transmitted diagnosis target data from the diagnosis device.

한편, 도 21 및 22에서는 진단 보조 시스템(40)이 제1 학습부(100a) 및 제2 학습부(100b)를 포함하는 경우를 기준으로 설명하였으나, 본 발명의 내용이 이에 한정되는 것은 아니다. 본 발명의 다른 실시예에 따르면, 학습 장치는 3개 이상의 서로 다른 진단 보조 정보를 획득하는 학습부를 포함할 수 있다. 또는, 진단 보조 시스템은 서로 다른 진단 보조 정보를 획득하는 복수의 학습 장치를 포함할 수도 있다.Meanwhile, in FIGS. 21 and 22 , the diagnosis assistance system 40 has been described with reference to the case in which the first learning unit 100a and the second learning unit 100b are included, but the present invention is not limited thereto. According to another embodiment of the present invention, the learning apparatus may include a learning unit that acquires three or more pieces of different diagnosis auxiliary information. Alternatively, the diagnosis assistance system may include a plurality of learning devices for acquiring different diagnosis assistance information.

학습 장치, 진단 장치 및 클라이언트 장치의 보다 구체적인 동작에 대하여는 이하에서 보다 상세하게 설명하기로 한다.More specific operations of the learning device, the diagnostic device, and the client device will be described in more detail below.

4.2 병렬 트레이닝 프로세스4.2 Parallel training process

본 발명의 일 실시예에 따르면, 복수의 신경망 모델이 학습될 수 있다. 각각의 신경망 모델을 학습하는 트레이닝 프로세스는 병렬적으로 수행될 수 있다. According to an embodiment of the present invention, a plurality of neural network models may be trained. The training process for learning each neural network model may be performed in parallel.

4.2.1 병렬 학습부4.2.1 Parallel Learning Unit

트레이닝 프로세스는 복수의 학습부에 의해 수행될 수 있다. 각각의 트레이닝 프로세스는 서로 독립적으로 수행될 수 있다. 복수의 학습부는 하나의 학습 장치에 마련되거나 복수의 학습 장치에 각각 마련될 수 있다.The training process may be performed by a plurality of learning units. Each training process may be performed independently of each other. The plurality of learning units may be provided in one learning apparatus or may be provided in each of the plurality of learning apparatuses.

도 23은 본 발명의 일 실시예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다. 제1 학습부(100a) 및 제2 학습부(100b) 각각의 구성 및 동작은 도 9와 관련하여 전술한 것과 유사하게 구현될 수 있다.23 is a diagram for explaining a configuration of a learning apparatus including a plurality of learning units according to an embodiment of the present invention. The configuration and operation of each of the first learning unit 100a and the second learning unit 100b may be implemented similarly to those described above with reference to FIG. 9 .

도 23을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 프로세스는, 제1 데이터 가공 모듈(110a), 제1 큐 모듈(130a), 제1 학습 모듈(150a) 및 제1 학습 결과 획득 모듈(170a)을 포함하는 제1 학습부(100a) 및 제2 데이터 가공 모듈(110b), 제2 큐 모듈(130b), 제2 학습 모듈(150b) 및 제2 학습 결과 획득 모듈(170b)을 포함하는 제2 학습부(100b)를 포함하는 학습 장치(1000)에 의하여 수행될 수 있다.Referring to FIG. 23 , in the process of a neural network model according to an embodiment of the present invention, a first data processing module 110a, a first queue module 130a, a first learning module 150a, and a first learning result are obtained The first learning unit 100a and the second data processing module 110b, the second queue module 130b, the second learning module 150b and the second learning result obtaining module 170b including the module 170a This may be performed by the learning apparatus 1000 including the second learning unit 100b.

도 23을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 트레이닝 프로세스는 제1 학습부(100a) 및 제2 학습부(100b)에 의하여 각각 수행될 수 있다. 제1 학습부(100a) 및 제2 학습부(100b)는 독립적으로 제1 신경망 모델 및 제2 신경망 모델의 학습을 수행할 수 있다. 도 23을 참조하면, 제1 학습부(100a) 및 제2 학습부(100b)는 전술한 학습 장치 내에 마련될 수 있다. 또는, 제1 학습부 및 제2 학습부는 서로 다른 학습 장치 내에 마련될 수도 있다.Referring to FIG. 23 , the training process of the neural network model according to an embodiment of the present invention may be performed by the first learner 100a and the second learner 100b, respectively. The first learning unit 100a and the second learning unit 100b may independently learn the first neural network model and the second neural network model. Referring to FIG. 23 , the first learning unit 100a and the second learning unit 100b may be provided in the above-described learning apparatus. Alternatively, the first learning unit and the second learning unit may be provided in different learning devices.

4.2.2 병렬 데이터 획득4.2.2 Parallel Data Acquisition

본 발명의 일 실시예에 따르면, 복수의 학습부는 데이터를 획득할 수 있다. 복수의 학습부는 서로 다른 데이터 세트를 획득할 수 있다. 또는, 복수의 학습부는 동일한 데이터 세트를 획득할 수도 있다. 경우에 따라, 복수의 학습부는 일부가 공통되는 데이터 세트를 획득할 수도 있다. 데이터 세트는 안저 이미지 데이터 세트일 수 있다.According to an embodiment of the present invention, a plurality of learning units may acquire data. The plurality of learning units may acquire different data sets. Alternatively, a plurality of learning units may acquire the same data set. In some cases, a plurality of learning units may acquire a data set in which some are common. The data set may be a fundus image data set.

제1 학습부는 제1 데이터 세트를 획득하고, 제2 학습부는 제2 데이터 세트를 획득할 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 구별될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 일부 공통될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 라벨링된 안저 이미지 데이터 세트일 수 있다.The first learning unit may obtain a first data set, and the second learning unit may obtain a second data set. The first data set and the second data set may be distinguished. The first data set and the second data set may have some in common. The first data set and the second data set may be labeled fundus image data sets.

제1 데이터 세트는 제1 특징에 대하여 정상(normal)으로 라벨링된 데이터 및 제1 특징에 대하여 비정상(abnormal)으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.The first data set may include data labeled as normal for the first characteristic and data labeled as abnormal for the first characteristic. For example, the first data set may include fundus images labeled as normal and fundus images labeled as abnormal with respect to lens opacity.

제2 데이터 세트는 (제1 특징과 구별되는)제2 특징에 대하여 정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제2 데이터 세트는 당뇨 망막증과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.The second data set may include data labeled as normal for the second characteristic (distinct from the first characteristic) and data labeled as abnormal for the second characteristic. For example, with respect to diabetic retinopathy, the second data set may include fundus images labeled as normal and fundus images labeled as abnormal.

제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 정상으로 라벨링된 데이터 세트 및 제2 특징에 대하여 정상으로 라벨링된 데이터는 공통될 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하고, 제2 데이터 세트는 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하되, 제1 데이터 세트에 포함된 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 제2 데이터 세트에 포함된 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지는 공통될 수 있다.The data set labeled as normal for the first feature and data labeled as normal for the second feature included in each of the first data set and the second data set may be common. For example, the first data set includes fundus images labeled normal and abnormal with respect to lens opacity, and the second data set includes fundus images labeled normal and abnormal with respect to diabetic retinopathy. the fundus image labeled as being normal with respect to lens opacity included in the first data set and the fundus image labeled as normal with respect to diabetic retinopathy included in the second data set may be common. can

또는, 제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 비정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터가 공통될 수도 있다. 즉, 복수 특징에 대하여 라벨링된 데이터가 복수 특징에 대한 신경망 모델의 학습에 이용될 수도 있다.Alternatively, data labeled as abnormal for the first characteristic and data labeled as abnormal for the second characteristic included in each of the first data set and the second data set may be common. That is, data labeled with respect to a plurality of features may be used for training a neural network model for a plurality of features.

한편, 제1 데이터 세트는 제1 방법으로 촬영된 안저 이미지 데이터 세트이고, 제2 데이터 세트는 제2 방법으로 촬영된 안저 이미지 데이터 세트일 수 있다. 제1 방법 및 제2 방법은 레드프리 촬영, 파노라마 촬영, 자가형광 촬영, 적외선 촬영 등으로부터 선택된 어느 하나의 방법일 수 있다.Meanwhile, the first data set may be a fundus image data set photographed by the first method, and the second data set may be a fundus image data set photographed by the second method. The first method and the second method may be any one method selected from red-free photographing, panoramic photographing, autofluorescence photographing, infrared photographing, and the like.

각 학습부에서 이용되는 데이터 세트는, 학습되는 신경망에 의하여 획득되는 진단 보조 정보를 고려하여 결정될 수 있다. 예를 들어, 제1 학습부는 망막 이상 소견(예를 들어, 미세혈관류, 삼출물 등)과 관련된 진단 보조 정보를 획득하고자 하는 제1 신경망 모델을 학습시키는 경우, 레드프리 촬영된 제1 안저 이미지 데이터 세트를 획득할 수 있다. 또는, 제2 학습부는 황반 변성과 관련된 진단 보조 정보를 획득하고자 하는 제2 신경망 모델을 학습시키는 경우, 자가형광 촬영된 제2 안저 이미지 데이터 세트를 획득할 수 있다.The data set used in each learning unit may be determined in consideration of the diagnosis auxiliary information obtained by the learned neural network. For example, when the first learning unit trains the first neural network model to acquire diagnostic auxiliary information related to retinal abnormalities (eg, microvascular flow, exudate, etc.), red-free photographed first fundus image data set can be obtained. Alternatively, when the second learning unit trains the second neural network model to acquire diagnostic assistance information related to macular degeneration, the second learning unit may acquire the autofluorescence-captured second fundus image data set.

4.2.3 병렬 데이터 가공4.2.3 Parallel data processing

복수의 학습부는 각각 획득된 데이터를 가공할 수 있다. 전술한 2.2 데이터 가공 프로세스 에서 설명한 것과 같이, 각각의 학습부는, 획득된 데이터에 대하여, 이미지 리사이징, 전처리 필터 적용, 이미지 증강 및 이미지 직렬화 프로세스 중 하나 이상을 적용하여 데이터를 가공할 수 있다. 제1 학습부의 제1 데이터 가공 모듈은 제1 데이터 세트를 가공하고, 제2 학습부의 제2 데이터 가공 모듈은 제2 데이터 세트를 가공할 수 있다.The plurality of learning units may process the acquired data, respectively. As described in 2.2 Data Processing Process above, each learning unit may process data by applying one or more of image resizing, pre-processing filter application, image augmentation, and image serialization processes to the acquired data. The first data processing module of the first learning unit may process the first data set, and the second data processing module of the second learning unit may process the second data set.

복수의 학습부에 포함되는 제1 학습부 및 제2 학습부는 각각에 의해 학습되는 신경망 모델로부터 획득되는 진단 보조 정보를 고려하여 획득된 데이터 세트를 달리 가공할 수 있다. 예를 들어, 제1 학습부는 고혈압과 관련된 제1 진단 보조 정보를 획득하기 위한 제1 신경망 모델을 학습시키기 위하여, 제1 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 혈관이 강조되도록 하는 전처리를 수행할 수 있다. 또는, 제2 학습부는 망막의 삼출물, 미세 혈관 등의 이상 소견과 관련된 제2 진단 보조 정보를 획득하기 위한 제2 신경망 모델을 학습시키기 위하여, 제2 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 레드프리 이미지로 변환하는 전처리를 수행할 수도 있다.The first learning unit and the second learning unit included in the plurality of learning units may differently process the obtained data set in consideration of the diagnosis auxiliary information obtained from the neural network model trained by each. For example, in order to train the first neural network model for acquiring the first diagnostic auxiliary information related to hypertension, the first learning unit performs preprocessing for emphasizing blood vessels with respect to fundus images included in the first fundus image data set. can be done Alternatively, in order to train the second neural network model for acquiring the second diagnostic auxiliary information related to abnormal findings such as retinal exudates, microvessels, and the like, the second learning unit relates to the fundus images included in the second fundus image data set. You can also perform pre-processing to convert it to a red-free image.

4.2.4 병렬 큐4.2.4 Parallel queues

복수의 학습부는 데이터를 큐에 저장할 수 있다. 전술한 2.2.6 큐 에서 설명한 것과 같이, 각각의 학습부는 처리된 데이터를 큐에 저장하고 학습 모듈로 전달할 수 있다. 예를 들어, 제1 학습부는 제1 데이터 세트를 제1 큐 모듈에 저장하고 제1 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다. 제2 학습 모듈은 제2 데이터 세트를 제2 큐 모듈에 저장하고 제2 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다.The plurality of learning units may store data in a queue. As described in 2.2.6 Queue above, each learning unit can store processed data in a queue and deliver it to the learning module. For example, the first learning unit may store the first data set in the first queue module and provide it to the first learning module sequentially or randomly. The second learning module may store the second data set in the second queue module and provide it to the second learning module sequentially or randomly.

4.2.5 병렬 학습 프로세스4.2.5 Parallel Learning Process

복수의 학습부는 신경망 모델을 학습시킬 수 있다. 각각의 학습 모듈은 트레이닝 데이터 세트를 이용하여 서로 다른 라벨에 대하여 예측하는 진단 보조 신경망 모델을 각각 독립적으로 학습시킬 수 있다. 제1 학습부의 제1 학습 모듈은 제1 신경망 모델을 학습시키고, 제2 학습부의 제2 학습 모듈은 제2 신경망 모듈을 학습시킬 수 있다. The plurality of learning units may train the neural network model. Each learning module can independently train a diagnostic auxiliary neural network model that predicts different labels using a training data set. The first learning module of the first learning unit may train the first neural network model, and the second learning module of the second learning unit may train the second neural network module.

복수의 진단 보조 신경망 모델은 병렬적 및/또는 독립적으로 학습될 수 있다. 이와 같이 복수의 신경망 모델을 통하여 서로 다른 라벨에 대하여 예측하도록 모델을 학습시킴으로써, 각 라벨에 대한 예측 정확도가 향상되고, 예측 동작의 효율이 증가될 수 있다.A plurality of diagnostic auxiliary neural network models may be trained in parallel and/or independently. As described above, by training the model to predict different labels through a plurality of neural network models, the prediction accuracy for each label can be improved, and the efficiency of the prediction operation can be increased.

각각의 진단 보조 신경망 모델은 2.3.2 모델의 설계 에서 설명한 것과 유사하게 마련될 수 있다. 각각의 서브 학습 프로세스는 2.3.1 내지 2.3.5 에서 전술한 것과 유사하게 수행될 수 있다.Each diagnostic auxiliary neural network model can be prepared similarly to that described in 2.3.2 Model design. Each sub-learning process may be performed similarly to that described above in 2.3.1 to 2.3.5.

본 발명의 일 실시예에 따른 병렬 학습 프로세스는, 서로 다른 라벨을 예측하는 진단 보조 신경망 모델을 학습시키는 것을 포함할 수 있다. 제1 학습부는 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 제2 학습부는 제2 라벨을 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다. The parallel learning process according to an embodiment of the present invention may include training a diagnostic auxiliary neural network model that predicts different labels. The first learning unit may train the first diagnostic auxiliary neural network model for predicting the first label. The second learning unit may train a second diagnostic auxiliary neural network model for predicting the second label.

제1 학습부는 제1 데이터 세트를 획득하고 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제1 학습부는 황반 변성 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 황반 변성 여부를 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다.The first learning unit may acquire the first data set and train the first diagnostic auxiliary neural network model to predict the first label. For example, the first learning unit may train a first diagnostic auxiliary neural network model for predicting whether or not the subject is macular degeneration from the fundus image by using the fundus image training data set labeled with respect to macular degeneration.

제2 학습부는 제2 데이터 세트를 획득하고 제2 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제2 학습부는 당뇨 망막증 해당 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 당뇨 망막증 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.The second learning unit may acquire the second data set and train the first diagnostic auxiliary neural network model to predict the second label. For example, the second learning unit may train a second diagnostic auxiliary neural network model for predicting whether the subject has diabetic retinopathy from the fundus image by using the fundus image training data set labeled for diabetic retinopathy.

신경망 모델의 학습 프로세스에 대하여는 이하에서 도 24 및 25를 참조하여 보다 구체적으로 설명한다.The learning process of the neural network model will be described in more detail below with reference to FIGS. 24 and 25 .

도 24는 본 발명의 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 병렬 학습 프로세스는, 병렬 진단 보조 시스템이 도 21과 같이 구현된 경우, 도 22과 같이 구현된 경우 및 그 외의 형태로 구현된 경우 모두에 적용될 수 있다. 다만, 설명의 편의를 위하여, 이하에서는 도 21과 같이 구현된 병렬 진단 보조 시스템을 기준으로 설명한다.24 is a diagram for explaining a parallel learning process according to an embodiment of the present invention. The parallel learning process may be applied to both the case where the parallel diagnosis assistance system is implemented as shown in FIG. 21 , the case where the parallel diagnosis assistance system is implemented as shown in FIG. 22 , and other cases. However, for convenience of explanation, the following description will be based on the parallel diagnosis auxiliary system implemented as shown in FIG. 21 .

도 24를 참조하면, 병렬 학습 프로세스는 서로 다른 라벨을 예측하는 복수의 진단 보조 신경망 모델을 각각 학습시키는 복수의 서브 학습 프로세스를 포함할 수 있다. 병렬 학습 프로세스는 제1 신경망 모델을 학습시키는 제1 서브 학습 프로세스 및 제2 신경망 모델을 학습시키는 제2 서브 학습 프로세스를 포함할 수 있다. Referring to FIG. 24 , the parallel learning process may include a plurality of sub-learning processes for respectively learning a plurality of diagnostic auxiliary neural network models that predict different labels. The parallel learning process may include a first sub-learning process for training the first neural network model and a second sub-learning process for training the second neural network model.

예컨대, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1010a), 제1 신경망 모델을 이용하고(S1030a), 제1 모델(즉, 제1 진단 보조 신경망 모델)을 검증하고(S1050a) 제1 신경망 모델의 파라미터를 획득(S1070a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1010b), 제2 신경망 모델을 이용하고(S1030b), 제2 신경망 모델을 검증(즉, 제2 진단 보조 신경망 모델)하고(S1050b) 제2 신경망 모델의 파라미터를 획득(S1070b)하여 수행될 수 있다.For example, the first sub-learning process obtains the first data (S1010a), uses the first neural network model (S1030a), validates the first model (ie, the first diagnostic auxiliary neural network model), and (S1050a) the first This may be performed by acquiring the parameters of the neural network model (S1070a). The second sub-learning process acquires the second data (S1010b), uses the second neural network model (S1030b), validates the second neural network model (ie, the second diagnostic auxiliary neural network model), and (S1050b) the second neural network This may be performed by acquiring the parameters of the model (S1070b).

서브 학습 프로세스는 서브 신경망 모델에 트레이닝 데이터를 입력하고, 출력으로 얻어진 라벨 값을 입력 트레이닝 데이터와 비교하여 모델을 검증하고, 검증 결과를 다시 서브 신경망 모델에 반영함으로써 신경망 모델을 학습시키는 것을 포함할 수 있다.The sub-learning process may include training the neural network model by inputting training data into the sub-neural network model, verifying the model by comparing the label value obtained as an output with the input training data, and reflecting the validation result back to the sub-neural network model. have.

각각의 서브 학습 프로세스는, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화하는 것을 포함할 수 있다. Each sub-learning process obtains a result value using a neural network model to which arbitrary weight values are given, compares the obtained result value with a label value of training data, and performs backpropagation according to the error, may include optimizing them.

각각의 서브 학습 프로세스에서, 진단 보조 신경망 모델은 트레이닝 데이터 세트와 구별되는 검증 데이터 세트를 통하여 검증될 수 있다. 제1 신경망 모델 및 제2 신경망 모델을 검증하기 위한 검증 데이터 세트는 구별될 수 있다. In each sub-learning process, the diagnostic auxiliary neural network model may be validated through a validation data set distinct from the training data set. A validation data set for validating the first neural network model and the second neural network model may be distinguished.

복수의 학습부는 학습 결과를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습 모듈로부터 학습된 신경망 모듈에 관한 정보를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습부로부터 학습된 신경망 모듈의 파라미터 값들을 획득할 수 있다. 제1 학습부의 제1 학습 결과 획득 모듈은 제1 학습 모듈로부터 학습된 제1 신경망 모델의 제1 파라미터 세트를 획득할 수 있다. 제2 학습부의 제2 학습 결과 획득 모듈은 제2 학습 모듈로부터 학습된 제2 신경망 모델의 제2 파라미터 세트를 획득할 수 있다.The plurality of learning units may acquire a learning result. Each of the learning result acquisition modules may acquire information about the neural network module learned from the learning module. Each of the learning result acquisition modules may acquire parameter values of the neural network module learned from the learning unit. The first learning result acquisition module of the first learning unit may acquire a first parameter set of the first neural network model learned from the first learning module. The second learning result acquisition module of the second learning unit may acquire a second parameter set of the second neural network model learned from the second learning module.

각각의 서브 학습 프로세스에 의하여, 학습된 신경망 모델의 최적화된 파라미터 값들, 즉 파라미터 세트가 획득될 수 있다. 보다 많은 트레이닝 데이터 세트를 이용하여 학습을 진행함에 따라, 보다 적절한 파라미터 값들이 얻어질 수 있다.By each sub-learning process, optimized parameter values of the trained neural network model, that is, a parameter set may be obtained. As learning proceeds using more training data sets, more appropriate parameter values may be obtained.

제1 서브 학습 프로세스에 의하여 학습된 제1 진단 보조 신경망 모델의 제1 파라미터 세트가 획득될 수 있다. 제2 서브 학습 프로세스에 의하여 학습된 제2 진단 보조 신경망 모델의 제2 파라미터 세트가 획득될 수 있다. 학습이 충분히 진행됨에 따라, 제1 진단 보조 신경망 모델의 및 제2 진단 보조 신경망 모델의 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.A first parameter set of the first diagnostic auxiliary neural network model learned by the first sub-learning process may be obtained. A second parameter set of the second diagnostic auxiliary neural network model learned by the second sub-learning process may be obtained. As the learning progresses sufficiently, optimized values of weights and/or biases of the first diagnostic auxiliary neural network model and of the second diagnostic auxiliary neural network model may be obtained.

획득된 각 신경망 모델의 파라미터 세트는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 제1 진단 보조 신경망 모델의 제1 파라미터 세트 및 제2 진단 보조 신경망 모델의 제2 파라미터 세트는 함께 또는 따로 저장될 수 있다. 학습된 각 신경망 모델의 파라미터 세트는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.The acquired parameter set of each neural network model may be stored in a learning device and/or a diagnostic device (or server). The first parameter set of the first diagnostic auxiliary neural network model and the second parameter set of the second diagnostic auxiliary neural network model may be stored together or separately. A parameter set of each learned neural network model may be updated by feedback obtained from a diagnostic device or a client device.

4.2.6 병렬 앙상블 학습 프로세스4.2.6 Parallel Ensemble Learning Process

복수의 신경망 모델을 병렬적으로 학습시키는 경우에도, 전술한 앙상블 형태의 모델 학습이 이용될 수 있다. 각각의 서브 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. 이하에서, 별다른 언급이 없는 한 2.3.7 에서 설명한 내용이 유사하게 적용될 수 있다.Even when a plurality of neural network models are trained in parallel, the aforementioned ensemble type model learning may be used. Each sub-learning process may include training a plurality of sub-neural network models. The plurality of sub-models may have different hierarchical structures. Hereinafter, the contents described in 2.3.7 may be similarly applied unless otherwise noted.

복수의 진단 보조 신경망 모델이 병렬적으로 학습되는 경우에, 각각의 진단 보조 신경망 모델을 학습시키는 서브 학습 프로세스 중 일부 서브 학습 프로세스는 단일 모델을 학습시키고, 일부 서브 학습 프로세스는 복수의 서브 모델을 함께 학습시키는 형태로 구현될 수도 있다.When a plurality of diagnostic auxiliary neural network models are trained in parallel, some of the sub-learning processes for training each diagnostic auxiliary neural network model train a single model, and some sub-learning processes train a plurality of sub-models together. It may be implemented in the form of learning.

각 서브 학습 프로세스에서 앙상블을 이용하여 모델을 학습시킴에 따라, 각각의 서브 프로세스에서 보다 최적화된 신경망 모델의 형태를 획득하고, 예측의 오차가 감소될 수 있다.As the model is trained using the ensemble in each sub-learning process, a more optimized form of a neural network model can be obtained in each sub-process, and prediction errors can be reduced.

도 25는 본 발명의 다른 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 도 25를 참조하면, 각 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 25 is a diagram for explaining a parallel learning process according to another embodiment of the present invention. Referring to FIG. 25 , each learning process may include training a plurality of sub-neural network models.

도 25를 참조하면, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1011a), 제 1-1 신경망 모델 및 제1-2 신경망 모델을 이용하고(S1031a, S1033a) 제 1-1 신경망 모델 및 제1-2 신경망 모델을 검증(S1051a)하여, 제1 신경망 모델의 최종 형태 및 그 파라미터를 결정(S1071a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1011b), 제 2-1 신경망 모델 및 제2-2 신경망 모델을 이용하고(S1031b, S1033b) 제 2-1 신경망 모델 및 제2-2 신경망 모델을 검증(S1051b)하여, 제1 모델(즉, 제1 진단 보조 신경망 모델)의 최종 형태 및 그 파라미터를 결정(S1071b)하여 수행될 수 있다.Referring to FIG. 25 , the first sub-learning process acquires first data (S1011a), uses a 1-1 neural network model and a 1-2 neural network model (S1031a, S1033a), and a 1-1 neural network model and This may be performed by verifying the 1-2 neural network model (S1051a), and determining the final shape of the first neural network model and its parameters (S1071a). The second sub-learning process acquires the second data (S1011b), uses the 2-1 neural network model and the 2-2 neural network model (S1031b, S1033b), and the 2-1 neural network model and the 2-2 neural network model can be performed by verifying (S1051b) to determine the final shape of the first model (ie, the first diagnostic auxiliary neural network model) and its parameters (S1071b).

제1 서브 학습 프로세스에서 학습되는 제1 신경망은 제1-1 신경망 모델, 제1-2 신경망 모델을 포함할 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 서로 다른 계층 구조로 마련될 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 제1 데이터 세트를 획득하고 예측되는 라벨을 각각 출력할 수 있다. 또는, 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블에 의한 예측되는 라벨을 최종 예측 라벨로 결정할 수 있다.The first neural network learned in the first sub-learning process may include a 1-1 neural network model and a 1-2 neural network model. The 1-1 neural network model and the 1-2 neural network model may be provided in different hierarchical structures. The 1-1 neural network model and the 1-2 neural network model may obtain a first data set and output predicted labels, respectively. Alternatively, a label predicted by the ensemble of the 1-1 neural network model and the 1-2 neural network model may be determined as the final predicted label.

이때, 제1-1 신경망 모델 및 제1-2 신경망 모델을 검증 데이터 세트를 이용하여 검증하고, 정확도가 높은 신경망 모델을 최종 신경망 모델로 결정할 수 있다. 또는, 제1-1 신경망 모델, 제1-2 신경망 모델 및 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블을 검증하고, 그 중 정확도가 높은 경우의 신경망 모델 형태를 최종 제1 신경망 모델로 결정할 수도 있다.In this case, the 1-1 neural network model and the 1-2 neural network model may be verified using the verification data set, and a neural network model with high accuracy may be determined as the final neural network model. Alternatively, the ensemble of the 1-1 neural network model, the 1-2 neural network model, and the 1-1 neural network model and the 1-2 neural network model is verified, and the neural network model form when the accuracy is high among them is determined as the final first neural network. It can also be determined by the model.

제2 서브 학습 프로세스에 대하여도 마찬가지로, 제2-1 신경망 모델, 제2-2 신경망 모델 및 제2-1 신경망 모델, 제2-2 신경망 모델의 앙상블 중 정확도가 높은 형태의 신경망을 최종 제2 모델(즉, 제2 진단 보조 신경망 모델)로 결정할 수 있다.Similarly for the second sub-learning process, a neural network of a high-accuracy form among the ensemble of the 2-1 neural network model, the 2-2 neural network model, the 2-1 neural network model, and the 2-2 neural network model is finally obtained as the second sub-learning process. It may be determined as a model (ie, the second diagnostic auxiliary neural network model).

한편, 도 25에서는, 편의를 위하여 각 서브 학습 프로세스가 두 개의 서브 모델을 포함하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 본 발명이 이에 한정되지는 않는다. 각 서브 학습 프로세스에서 학습되는 신경망 모델은, 하나의 신경망 모델만을 포함하거나, 세 개 이상의 서브 모델을 포함할 수도 있다.Meanwhile, in FIG. 25 , for convenience, each sub-learning process has been described based on a case in which two sub-models are included, but this is only an example, and the present invention is not limited thereto. The neural network model trained in each sub-learning process may include only one neural network model, or may include three or more sub-models.

4.3 병렬 진단 프로세스4.3 Parallel diagnostic process

본 발명의 일 실시예에 의하면, 복수의 진단 보조 정보를 획득하는 진단 프로세스가 제공될 수 있다. 복수의 진단 보조 정보를 획득하는 진단 프로세스는 서로 독립적인 복수의 진단 프로세스를 포함하는 병렬 진단 보조 프로세스 형태로 구현될 수 있다.According to an embodiment of the present invention, a diagnostic process for obtaining a plurality of diagnostic auxiliary information may be provided. The diagnostic process for acquiring a plurality of diagnostic auxiliary information may be implemented in the form of a parallel diagnostic auxiliary process including a plurality of independent diagnostic processes.

4.3.1 병렬 진단부4.3.1 Parallel Diagnostics

본 발명의 일 실시예에 따르면, 진단 보조 프로세스는 복수의 진단 모듈에 의하여 수행될 수 있다. 각각의 진단 보조 프로세스는 독립적으로 수행될 수 있다. According to an embodiment of the present invention, the diagnostic assistance process may be performed by a plurality of diagnostic modules. Each diagnostic aid process can be performed independently.

도 26은 본 발명의 일 실시예에 따른 진단부(200)를 설명하기 위한 블록도이다.26 is a block diagram illustrating the diagnosis unit 200 according to an embodiment of the present invention.

도 26을 참조하면, 본 발명의 일 실시예에 따른 진단부(200)는 진단 요청 획득 모듈(211), 데이터 가공 모듈(231), 제1 진단 모듈(251), 제2 진단 모듈(253) 및 출력 모듈(271)을 포함할 수 있다. 진단부(200)의 각 모듈은 특별한 언급이 없는 한, 도 18에서 도시하는 진단부의 진단 모듈과 유사하게 동작할 수 있다. Referring to FIG. 26 , the diagnosis unit 200 according to an embodiment of the present invention includes a diagnosis request obtaining module 211 , a data processing module 231 , a first diagnosis module 251 , and a second diagnosis module 253 . and an output module 271 . Each module of the diagnosis unit 200 may operate similarly to the diagnosis module of the diagnosis unit illustrated in FIG. 18 , unless otherwise specified.

도 26에서는, 진단부(200)가 복수의 진단 모듈을 포함하는 경우에도, 진단 요청 획득 모듈(211), 데이터 가공 모듈(231) 및 출력 모듈(271)은 공통되는 것으로 도시하였으나, 본 발명이 이러한 구성에 한정되는 것은 아니며, 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 복수로 마련될 수도 있다. 복수의 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 병렬적으로 동작할 수도 있다.In FIG. 26, even when the diagnostic unit 200 includes a plurality of diagnostic modules, the diagnostic request acquisition module 211, the data processing module 231, and the output module 271 are shown as being common, but the present invention It is not limited to this configuration, and a plurality of diagnostic request acquisition modules, data processing modules, and/or output modules may also be provided. A plurality of diagnostic request obtaining modules, data processing modules and/or output modules may also operate in parallel.

예를 들어, 진단부(200)는 입력된 진단 대상 이미지에 대하여 제1 가공을 수행하는 제1 데이터 가공 모듈 및 진단 대상 이미지에 대하여 제2 데이터 가공을 수행하는 제2 가공 모듈을 포함하고, 제1 진단 모듈은 제1 가공된 진단 대상 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 제2 가공된 진단 대상 이미지에 기초하여 제2 진단 보조 정보를 획득할 수 있다. 제1 가공 및/또는 제2 가공은 이미지 리사이징, 이미지의 색상 변조, 블러 필터 적용, 혈관 강조 처리, 레드프리 변환, 일부 영역 크롭, 일부 요소 추출 중 선택된 어느 하나일 수 있다.For example, the diagnosis unit 200 includes a first data processing module that performs first processing on the input diagnostic target image and a second processing module that performs second data processing on the diagnostic target image, The first diagnosis module may obtain first diagnosis auxiliary information based on the first processed diagnosis subject image, and the second diagnosis module may obtain second diagnosis auxiliary information based on the second processed diagnosis subject image. The first processing and/or the second processing may be any one selected from image resizing, image color modulation, blur filter application, blood vessel enhancement processing, red-free transformation, partial region cropping, and partial element extraction.

복수의 진단 모듈은 서로 다른 진단 보조 정보를 획득할 수 있다. 복수의 진단 모듈은 서로 다른 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 예를 들어, 제1 진단 모듈은 피검체의 안질환 해당 여부를 예측하는 제1 신경망 모델을 이용하여 피검체의 안질환 해당 여부와 관련된 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 피검체의 전신 질환 해당 여부를 예측하는 제2 신경망 모델을 이용하여 피검체의 전신 질환 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.The plurality of diagnostic modules may acquire different diagnostic auxiliary information. The plurality of diagnosis modules may acquire the diagnosis auxiliary information by using different diagnosis auxiliary neural network models. For example, the first diagnosis module acquires first diagnostic auxiliary information related to whether the subject has an eye disease by using a first neural network model that predicts whether the subject has an eye disease, and the second diagnosis module Second diagnostic auxiliary information related to whether the subject corresponds to a systemic disease may be obtained by using the second neural network model for predicting whether the subject corresponds to a systemic disease.

보다 구체적인 예로, 제1 진단 모듈은 안저 이미지에 기초하여 피검체의 당뇨 망막증 해당 여부를 예측하는 제1 진단 보조 신경망 모델을 이용하여 피검체의 당뇨 망막증 해당 여부에 관한 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 안저 이미지에 기초하여 피검체의 고혈압 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 이용하여 피검체의 고혈압 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.As a more specific example, the first diagnosis module obtains first diagnostic auxiliary information regarding whether the subject has diabetic retinopathy by using a first diagnosis auxiliary neural network model that predicts whether the subject has diabetic retinopathy based on the fundus image, , the second diagnosis module may obtain second diagnosis auxiliary information related to whether the subject has hypertension by using a second diagnosis auxiliary neural network model that predicts whether the subject has hypertension based on the fundus image.

4.3.2 병렬 진단 프로세스4.3.2 Parallel diagnostic process

본 발명의 일 실시예에 따른 진단 보조 프로세스는 복수의 서브 진단 프로세스를 포함할 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 보조 신경망 모델을 이용하여 수행될 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 모듈에서 수행될 수 있다. 예컨대, 제1 진단 모듈은 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하는 제1 서브 진단 프로세스를 수행할 수 있다. 또는, 제2 진단 모듈은 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 제2 서브 진단 프로세스를 수행할 수 있다.A diagnosis assistance process according to an embodiment of the present invention may include a plurality of sub-diagnosis processes. Each sub-diagnosis process may be performed using a different diagnostic auxiliary neural network model. Each sub-diagnosis process may be performed in different diagnostic modules. For example, the first diagnosis module may perform a first sub-diagnosis process of acquiring the first diagnosis assistance information through the first diagnosis assistance neural network model. Alternatively, the second diagnosis module may perform a second sub-diagnosis process of acquiring the second diagnosis assistance information through the second diagnosis assistance neural network model.

학습된 복수의 신경망 모델은 진단 대상 데이터를 입력으로 하여, 예측되는 라벨 또는 확률을 출력할 수 있다. 각각의 신경망 모델은 분류기 형태로 마련되고, 입력되는 진단 대상 데이터를 소정의 라벨에 대하여 분류할 수 있다. 이때, 복수의 신경망 모델은 서로 다른 특성에 대하여 학습된 분류기 형태로 마련될 수 있다. 각각의 신경망 모델은 3.4.2 에서 전술한 것과 같이 진단 대상 데이터를 분류할 수 있다.The plurality of learned neural network models may output predicted labels or probabilities by receiving diagnosis target data as input. Each neural network model may be provided in the form of a classifier, and input diagnostic target data may be classified with respect to a predetermined label. In this case, the plurality of neural network models may be provided in the form of classifiers learned for different characteristics. Each neural network model can classify diagnostic target data as described above in 3.4.2.

한편, 각각의 진단 보조 신경망 모델로부터, CAM이 획득될 수 있다, CAM은 선택적으로 획득될 수 있다. CAM은 미리 정해진 조건이 만족되는 경우에 추출될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우에 제1 진단 보조 신경망 모델로부터 제1 CAM이 획득될 수 있다. Meanwhile, from each diagnostic auxiliary neural network model, a CAM may be obtained, and the CAM may be selectively obtained. The CAM may be extracted when a predetermined condition is satisfied. For example, when the first diagnostic assistance information indicates that the subject is abnormal with respect to the first characteristic, the first CAM may be obtained from the first diagnostic assistance neural network model.

도 27은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 27 is a diagram for explaining a diagnosis assistance process according to an embodiment of the present invention.

도 27을 참조하면, 본 발명의 일 실시예에 따른 진단 보조 프로세스는 진단 대상 데이터를 획득(S2011)하고, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 이용하여(S2031a, S2031b) 진단 대상 데이터에 따른 진단 보조 정보를 획득(S2051)하는 것을 포함할 수 있다. 진단 대상 데이터는 가공된 데이터일 수 있다.Referring to FIG. 27 , the diagnosis assistance process according to an embodiment of the present invention acquires diagnosis target data (S2011), and diagnoses using a first diagnosis auxiliary neural network model and a second diagnosis auxiliary neural network model (S2031a, S2031b) It may include obtaining (S2051) diagnosis auxiliary information according to the target data. The diagnostic target data may be processed data.

본 발명의 일 실시예에 따른 진단 보조 프로세스는 학습된 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하고, 학습된 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 동일한 진단 대상 데이터에 기초하여 각각 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다.The diagnosis assistance process according to an embodiment of the present invention includes acquiring first diagnosis auxiliary information through the learned first diagnosis auxiliary neural network model and acquiring second diagnosis auxiliary information through the learned second diagnosis auxiliary neural network model. may include The first diagnosis auxiliary neural network model and the second diagnosis auxiliary neural network model may acquire first diagnosis auxiliary information and second diagnosis auxiliary information, respectively, based on the same diagnosis target data.

예를 들어, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 진단 대상 안저 이미지에 기초하여, 피검체의 황반 변성 여부에 관한 제1 진단 보조 정보 및 피검체의 당뇨 망막증 해당 여부에 관한 제2 진단 보조 정보를 각각 획득할 수 있다.For example, the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model may include, based on the fundus image to be diagnosed, the first diagnostic auxiliary information regarding whether the subject has macular degeneration and the second diagnosis auxiliary information regarding whether the subject corresponds to diabetic retinopathy. Each of the 2 diagnostic auxiliary information may be acquired.

이외에도, 특별한 언급이 없는 한, 도 27과 관련하여 설명하는 진단 보조 프로세스는 도 20과 관련하여 전술한 진단 보조 프로세스와 유사하게 구현될 수 있다.In addition, unless otherwise specified, the diagnosis assistance process described with reference to FIG. 27 may be implemented similarly to the diagnosis assistance process described with reference to FIG. 20 .

4.3.3 진단 보조 정보의 출력4.3.3 Output of diagnostic auxiliary information

본 발명의 일 실시예에 따르면, 병렬 진단 보조 프로세스에 의하여 획득된 진단 보조 정보가 획득될 수 있다. 획득된 진단 보조 정보는 진단 장치, 서버 장치 및/또는 클라이언트 장치에 저장될 수 있다. 획득된 진단 보조 정보는 외부 장치로 전달될 수 있다.According to an embodiment of the present invention, the diagnosis auxiliary information obtained by the parallel diagnosis auxiliary process may be obtained. The obtained diagnostic assistance information may be stored in a diagnostic device, a server device, and/or a client device. The acquired diagnostic auxiliary information may be transmitted to an external device.

복수의 진단 보조 정보는, 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨을 각각 지시할 수 있다. 복수의 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 각각 대응될 수 있다. 또는, 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측된 복수의 라벨에 기초하여 결정된 정보일 수 있다. 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 대응될 수 있다.The plurality of diagnostic auxiliary information may indicate a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models, respectively. The plurality of diagnostic auxiliary information may respectively correspond to a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models. Alternatively, the diagnostic auxiliary information may be information determined based on a plurality of labels predicted by a plurality of diagnostic auxiliary neural network models. The diagnostic auxiliary information may correspond to a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models.

다시 말해, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨에 대응되는 진단 보조 정보일 수 있다. 또는, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨 및 제2 진단 보조 신경망 모델을 통하여 예측된 제2 라벨을 함께 고려하여 결정된 진단 보조 정보일 수 있다.In other words, the first diagnostic auxiliary information may be diagnostic auxiliary information corresponding to the first label predicted through the first diagnostic auxiliary neural network model. Alternatively, the first diagnosis auxiliary information may be diagnosis auxiliary information determined by considering the first label predicted through the first diagnosis auxiliary neural network model and the second label predicted through the second diagnosis auxiliary neural network model together.

한편, 복수의 진단 보조 신경망 모델로부터 획득된 CAM의 이미지가 출력될 수 있다. CAM 이미지는 미리 정해진 조건이 만족되는 경우에 출력될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우 또는 제2 진단 보조 정보가 피검체가 제2 특성에 대하여 비정상임을 지시하는 경우 중 어느 하나의 경우에, 비정상임인 것으로 지시된 진단 보조 정보가 출력된 진단 보조 신경망 모델로부터 획득된 CAM 이미지가 출력될 수 있다.Meanwhile, CAM images obtained from a plurality of diagnostic auxiliary neural network models may be output. The CAM image may be output when a predetermined condition is satisfied. For example, when the first diagnostic auxiliary information indicates that the subject is abnormal with respect to the first characteristic or the second diagnostic auxiliary information indicates that the subject is abnormal with respect to the second characteristic, A CAM image obtained from a diagnostic auxiliary neural network model to which diagnostic auxiliary information indicated to be abnormal is output may be output.

복수의 진단 보조 정보 및/또는 CAM 이미지는 사용자에게 제공될 수 있다. 복수의 진단 보조 정보 등은 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 시각적으로 출력될 수 있다. 이와 관련하여, 5. 사용자 인터페이스에서 보다 상세하게 설명한다.A plurality of diagnostic auxiliary information and/or CAM images may be provided to the user. A plurality of diagnostic auxiliary information and the like may be provided to a user through an output means of a diagnostic device or a client device. The diagnostic auxiliary information may be visually output. In this regard, 5. User interface will be described in more detail.

본 발명의 일 실시예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 복수의 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 등급 정보는 진단 대상 이미지가 복수의 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 등급 정보는 복수의 신경망 모델로부터 출력되는 수치를 고려하여 결정될 수 있다.According to an embodiment of the present invention, the diagnosis auxiliary information corresponding to the diagnosis target image may include grade information. The rating information may be selected from among a plurality of ratings. The grade information may be determined based on a plurality of diagnostic information and/or observation information obtained through the neural network model. The grade information may be determined in consideration of suitability information or quality information of an image to be diagnosed. The grade information may be determined in consideration of the class in which the diagnosis target image is classified by a plurality of neural network models. The grade information may be determined in consideration of numerical values output from a plurality of neural network models.

예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 복수의 신경망 모델을 통하여 획득된 진단 정보 중, 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 중, 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. For example, the diagnosis auxiliary information obtained in response to the diagnosis target image may include any one selected from the first grade information and the second grade information. The grade information may be selected as the first grade information when at least one abnormal finding information or abnormal diagnosis information is acquired from among diagnostic information acquired through a plurality of neural network models. The grade information may be selected as the second grade information when abnormal findings information or abnormal diagnostic information is not obtained from among the diagnostic information acquired through the neural network model.

등급 정보는, 신경망 모델을 통하여 획득된 수치들 중 적어도 하나의 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치들 모두가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.The grade information is selected as the first grade information when at least one of the values obtained through the neural network model exceeds the reference value, and is selected as the second grade information when all of the obtained values do not meet the reference value could be The first grade information may indicate that abnormal information stronger than the second grade information exists in the diagnosis target image.

등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.The rating information may be selected as the third rating information when it is determined that the quality of the image to be diagnosed is below a standard using image analysis or a neural network model. Alternatively, the diagnosis auxiliary information may include the third level information together with the first or second level information.

진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 포함된 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보에 대응되는 사항을 포함할 수 있다. 예컨대, 제1 사용자 안내는, 진단 보조 정보에 포함된 비정상 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.When the diagnosis auxiliary information includes the first level information, the first user guide may be output through the output means. The first user guide may include at least one piece of abnormal observation information included in the diagnosis auxiliary information or information corresponding to the abnormal diagnosis information. For example, the first user guide may indicate that a more precise examination is required for a subject (ie, a patient) corresponding to abnormal information included in the diagnosis auxiliary information. For example, the first user guidance may indicate that a secondary diagnosis (eg, diagnosis in a separate medical institution or power supply procedure) is required for the subject. Alternatively, the first user guidance may indicate a required treatment for the subject. As a specific example, when abnormal information on the macular degeneration of the subject is acquired by the diagnostic auxiliary information, the first user guide provides information on the injection prescription and power supply procedure for the subject (eg, at a hospital where power is available). list) can be included.

진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다. When the diagnosis auxiliary information includes the second level information, the second user guide may be output through the output means. The second user guide may include a post-management plan for the subject corresponding to the diagnosis auxiliary information. For example, the second user guide may instruct the subject's next treatment time, next treatment subject, and the like.

진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.When the diagnosis target information includes the third level information, the third user guide may be output through the output means. The third user guide may indicate that recapture is required for the diagnosis target image. The third user guide may include information on the quality of the image to be diagnosed. For example, the third user guide may include information on defects present in the diagnosis target image (eg, whether bright artifacts or dark artifacts, or a degree thereof).

제1 내지 제3 등급 정보는, 클라이언트 장치 또는 진단 장치의 출력부에 의해 출력될 수 있다. 구체적으로, 후술하는 사용자 인터페이스를 통해 출력될 수 있다.The first to third grade information may be output by an output unit of the client device or the diagnostic device. Specifically, it may be output through a user interface to be described later.

4.4 실시예 2 - 진단 보조 시스템4.4 Example 2 - Diagnostic Aid System

본 발명의 일 실시예에 따른 진단 보조 시스템은 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.A diagnosis assistance system according to an embodiment of the present invention may include a fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.

본 발명의 일 실시예에 따르면, 진단 보조 시스템은 진단 장치를 포함할 수 있다. 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및/또는 진단 정보 출력부를 포함할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 진단 보조 시스템에 포함되는 각 부는 학습 장치, 진단 장치, 학습 진단 서버 및/또는 클라이언트 장치 상의 적절한 위치에 각각 위치될 수 있다. 이하에서는, 편의를 위하여 진단 보조 시스템의 진단 장치가 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함하는 경우를 기준으로 설명한다.According to an embodiment of the present invention, the diagnosis assistance system may include a diagnosis apparatus. The diagnosis apparatus may include a fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and/or a diagnostic information output unit. However, the present invention is not limited thereto, and each unit included in the diagnosis assistance system may be located at an appropriate location on the learning device, the diagnosis device, the learning diagnosis server, and/or the client device. Hereinafter, for convenience, a case in which the diagnosis apparatus of the diagnosis assistance system includes the fundus image acquisition unit, the first processing unit, the second processing unit, the third processing unit, and the diagnostic information output unit will be described.

도 28은 본 발명의 일 실시예에 따른 진단 보조 시스템을 설명하기 위한 도면이다. 도 28을 참조하면, 진단 보조 시스템은 진단 장치를 포함하고, 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.28 is a diagram for explaining a diagnosis assistance system according to an embodiment of the present invention. Referring to FIG. 28 , the diagnosis assistance system may include a diagnosis apparatus, and the diagnosis apparatus may include an fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.

본 발명의 일 실시예에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템은, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함할 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.According to an embodiment of the present invention, a diagnosis assistance system supporting diagnosis of a plurality of diseases based on a fundus image includes a fundus image acquisition unit configured to acquire a target fundus image that is a basis for acquiring diagnostic assistance information for a subject. , a first neural network model with respect to the target fundus image - the first neural network model is machine learned based on the first fundus image set - to obtain a first result related to the first observation on the subject The subject using a first processing unit, a second neural network model for the target fundus image, wherein the second neural network model is machine-learned based on a second fundus image set that is at least partially different from the first fundus image set A second processing unit for obtaining a second result related to a second opinion on It may include a diagnostic information output unit that provides In this case, the first findings and the second findings may be used for diagnosis of different diseases.

제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 라벨 및 비정상 라벨 중 어느 하나로 분류하도록 학습되고, 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 라벨 또는 상기 비정상 라벨 중 어느 하나로 분류하여 상기 제1 결과를 획득할 수 있다.The first neural network model is trained to classify the input fundus image into any one of a normal label and an abnormal label in relation to the first observation, and the first processing unit converts the target fundus image to the normal label using the first neural network model. Alternatively, the first result may be obtained by classifying one of the abnormal labels.

제3 처리부는 제1 결과 및 제2 결과를 함께 고려하여, 대상 안저 이미지에 따른 진단 정보가 정상 정보인지 비정상 정보인지 결정할 수 있다.The third processing unit may determine whether the diagnosis information according to the target fundus image is normal information or abnormal information by considering the first result and the second result together.

제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상 라벨에 우선권을 부여하여 상기 피검체에 대한 진단 정보를 결정할 수 있다.The third processing unit may determine diagnostic information on the subject by giving priority to the abnormal label so as to improve diagnostic accuracy.

제3 처리부는 상기 제1 라벨이 상기 제1 소견에 대한 정상 라벨이고, 상기 제2 라벨이 상기 제2 소견에 대한 정상 라벨인 경우, 상기 진단 정보를 정상으로 결정하고, 제1 라벨이 제1 소견에 대한 정상 라벨이 아니거나 상기 제2 라벨이 상기 제2 소견에 대한 정상 라벨이 아닌 경우, 상기 진단 정보를 비정상으로 결정할 수 있다. If the first label is a normal label for the first observation and the second label is a normal label for the second observation, the third processing unit determines the diagnostic information as normal, and the first label is the first When it is not a normal label for the finding or the second label is not a normal label for the second finding, the diagnostic information may be determined to be abnormal.

제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시할 수 있다. 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시할 수 있다.The first finding may be related to an eye disease, and the first result may indicate whether the subject is normal to the eye disease. The second finding may be related to a systemic disease, and the second result may indicate whether the subject is normal to the systemic disease.

제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.A first finding is related to a first ocular disease, the first result indicates whether the subject is normal for the first ocular disease, and the second finding is a second ocular disease distinct from the first ocular disease. related to a disease, and the second result may indicate whether the subject is normal to the second eye disease.

제1 소견은 제1 안질환을 진단하기 위한 소견이고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 제2 소견은 상기 제1 안질환을 진단하기 위한 상기 제1 소견과 구별되는 소견이고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다. The first observation is an observation for diagnosing a first ocular disease, the first result indicates whether the subject is normal for the first ocular disease, and the second observation is for diagnosing the first ocular disease. It is a finding distinct from the first finding, and the second result may indicate whether the subject is normal to the second eye disease.

제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정될 수 있다.The first neural network model includes a first sub neural network model and a second sub neural network model, and a first result is a first predicted value predicted by the first sub neural network model and a second predicted value predicted by the second sub neural network model It may be determined by considering the predicted values together.

제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 라벨과 관련된 CAM(Class Activation Map)을 획득하고, 진단 정보 출력부는 상기 CAM의 이미지를 출력할 수 있다.The first processing unit may obtain a CAM (Class Activation Map) related to the first label through the first neural network model, and the diagnostic information output unit may output an image of the CAM.

진단 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 정보가 비정상 진단 정보인 경우 상기 CAM의 이미지를 출력할 수 있다.The diagnosis information output unit may output the CAM image when the diagnosis information acquired by the third processing unit is abnormal diagnosis information.

진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고, 진단 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력할 수 있다.The diagnosis assistance system may further include a fourth processing unit configured to acquire quality information of the target fundus image, and the diagnostic information output unit may output quality information of the target fundus image acquired by the fourth processing unit.

제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우, 상기 진단 정보 출력부는, 상기 사용자에게 상기 결정된 진단 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공할 수 있다. When the fourth processing unit determines that the quality information of the target fundus image is equal to or less than a predetermined quality level, the diagnostic information output unit provides the user with the quality information of the target fundus image together with the determined diagnostic information to the user at the predetermined quality level. Information indicating the following may be provided together.

5. 사용자 인터페이스5. User Interface

본 발명의 일 실시예에 따르면, 전술한 클라이언트 장치 또는 진단 장치는 진단 보조 정보를 사용자에게 제공하기 위한 표시부를 가질 수 있다. 이때, 표시부는 사용자에게 진단 보조 정보를 명확히 전달하고, 사용자로부터의 피드백 획득이 용이하도록 마련될 수 있다. According to an embodiment of the present invention, the above-described client device or diagnosis device may have a display unit for providing diagnosis auxiliary information to a user. In this case, the display unit may be provided to clearly transmit the diagnosis auxiliary information to the user and to easily obtain feedback from the user.

표시부의 일 예로서, 사용자에게 시각 정보를 제공하는 디스플레이가 제공될 수 있다. 이때, 사용자에게 진단 보조 정보를 시각적으로 전달하기 위한 그래픽 사용자 인터페이스가 이용될 수 있다. 예컨대, 안저 이미지에 기초하여 진단 보조 정보를 획득하는 안저 진단 보조 시스템에 있어서, 획득된 진단 보조 정보를 효과적으로 표시하고 사용자의 이해를 돕기 위한 그래픽 사용자 인터페이스가 제공될 수 있다.As an example of the display unit, a display providing visual information to a user may be provided. In this case, a graphic user interface for visually delivering the diagnosis auxiliary information to the user may be used. For example, in a fundus diagnosis assisting system for acquiring diagnosis assisting information based on a fundus image, a graphical user interface for effectively displaying the acquired diagnosis assisting information and helping a user to understand may be provided.

도 29 및 30은 본 발명의 몇몇 실시예에 따른 사용자에게 진단 정보를 제공하기 위한 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 이하에서는, 도 29 및 30을 참조하여, 안저 진단 보조 시스템에서 이용될 수 있는 사용자 인터페이스에 대하여 몇몇 실시예를 들어 설명한다.29 and 30 are diagrams for explaining a graphical user interface for providing diagnostic information to a user according to some embodiments of the present invention. Hereinafter, with reference to FIGS. 29 and 30 , a user interface that can be used in the fundus diagnosis assistance system will be described with reference to some embodiments.

도 29를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스는 진단 대상 안저 이미지에 대응되는 피검체의 식별 정보를 표시할 수 있다. 사용자 인터페이스는 피검체(즉, 환자)의 식별 정보 및/또는 진단 대상 안저 이미지의 촬영 정보(예컨대, 촬영 날짜)를 표시하는 대상 이미지 식별 정보 표시부(401)를 포함할 수 있다.Referring to FIG. 29 , the user interface according to an embodiment of the present invention may display identification information of a subject corresponding to a fundus image to be diagnosed. The user interface may include a target image identification information display unit 401 that displays identification information of a subject (ie, a patient) and/or imaging information (eg, imaging date) of a fundus image to be diagnosed.

본 발명의 일 실시예에 따른 사용자 인터페이스는, 동일한 피검체의 좌안의 안저 이미지 및 우안의 안저 이미지를 각각 표시하는 안저 이미지 표시부(405)를 포함할 수 있다. 안저 이미지 표시부(405)는 CAM 이미지를 표시할 수도 있다.The user interface according to an embodiment of the present invention may include a fundus image display unit 405 that displays the fundus image of the left eye and the fundus image of the right eye of the same subject. The fundus image display unit 405 may display a CAM image.

본 발명의 일 실시예에 따른 사용자 인터페이스는 좌안의 안저 이미지 및 우안의 안저 이미지 각각에 대하여 좌안 또는 우안의 이미지임을 표시하고, 각 이미지의 진단 정보 및 사용자 확인 여부를 지시하는 진단 정보 지시자가 표시되는 진단 정보 지시부(403)를 포함할 수 있다. The user interface according to an embodiment of the present invention displays the image of the left eye or the right eye for each of the fundus image of the left eye and the fundus image of the right eye, and diagnostic information of each image and a diagnostic information indicator indicating whether to confirm the user It may include a diagnostic information indicating unit 403 .

진단 정보 지시자의 색상은 대상 안저 이미지에 기초하여 얻어진 진단 보조 정보를 고려하여 결정될 수 있다. 진단 정보 지시자는 진단 보조 정보에 따라 제1 색상 또는 제2 색상으로 표시될 수 있다. 일 예로, 하나의 대상 안저 이미지에 제1 내지 제3 진단 보조 정보를 획득한 경우, 하나의 진단 보조 정보라도 비정상(즉, 이상 소견 있음) 정보를 포함하는 경우, 진단 정보 지시자는 적색으로 표시되고, 모든 진단 보조 정보가 정상(즉, 이상 소견 없음) 정보를 포함하는 경우, 진단 정보 지시자는 녹색으로 표시될 수 있다.The color of the diagnostic information indicator may be determined in consideration of the diagnostic auxiliary information obtained based on the target fundus image. The diagnostic information indicator may be displayed in a first color or a second color according to the diagnostic auxiliary information. For example, when the first to third diagnostic auxiliary information is acquired from one target fundus image, when even one diagnostic auxiliary information includes abnormal (ie, abnormal findings) information, the diagnostic information indicator is displayed in red, , when all of the diagnostic auxiliary information includes normal (ie, no abnormal findings) information, the diagnostic information indicator may be displayed in green.

진단 정보 지시자의 형태는 사용자의 확인 여부에 따라 결정될 수 있다. 진단 정보 지시자는 사용자의 확인 여부에 따라 제1 형태 또는 제2 형태로 표시될 수 있다. 일 예로, 도 25를 참조하면, 사용자에 의해 검토가 완료된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 원으로 표시되고, 사용자에 의해 미검토된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 반원으로 표시될 수 있다.The form of the diagnostic information indicator may be determined according to whether the user confirms it. The diagnostic information indicator may be displayed in the first form or in the second form according to whether the user confirms it. For example, referring to FIG. 25 , the diagnostic information indicator corresponding to the target fundus image reviewed by the user is displayed as a filled circle, and the diagnostic information indicator corresponding to the target fundus image not reviewed by the user is displayed as a filled semicircle. can be displayed.

본 발명의 일 실시예에 따른 사용자 인터페이스는, 진단 보조 정보를 지시하는 진단 정보 지시부(407)를 포함할 수 있다. 진단 보조 정보 지시부는 좌안 및 우안 이미지에 각각 위치될 수 있다. 진단 보조 정보 지시부는 복수의 소견 정보 또는 진단 정보를 지시할 수 있다.The user interface according to an embodiment of the present invention may include a diagnosis information indicating unit 407 indicating auxiliary diagnosis information. The diagnostic auxiliary information indicating unit may be located in the left eye and right eye images, respectively. The diagnostic auxiliary information indicating unit may indicate a plurality of observation information or diagnostic information.

진단 보조 정보 지시부는 적어도 하나의 진단 보조 정보 지시자를 포함할 수 있다. 진단 보조 정보 지시자는 색상 변화를 통하여 각각 대응되는 진단 보조 정보를 지시할 수 있다.The diagnostic auxiliary information indicator may include at least one diagnostic auxiliary information indicator. The diagnostic auxiliary information indicator may indicate corresponding diagnostic auxiliary information through color change.

예를 들어, 진단 대상 안저 이미지에 대하여, 제1 진단 보조 신경망 모델을 통하여 수정체 혼탁 유무를 지시하는 제1 진단 보조 정보, 제2 진단 보조 신경망 모델을 통하여 녹내장 소견 유무를 지시하는 제2 진단 보조 정보, 제3 진단 보조 신경망 모델을 통하여 망막 이상 소견 유무를 지시하는 제3 진단 보조 정보가 획득된 경우에, 진단 정보 지시부는 제1 진단 보조 정보, 제2 진단 보조, 제3 진단 보조 정보를 각각 지시하는 제1 내지 제3 진단 보조 정보 지시자를 포함할 수 있다.For example, with respect to the fundus image to be diagnosed, first diagnosis auxiliary information indicating the presence or absence of lens opacity through the first diagnosis auxiliary neural network model, and second diagnosis auxiliary information indicating the presence or absence of glaucoma findings through the second diagnosis auxiliary neural network model , when the third diagnosis auxiliary information indicating the presence or absence of retinal abnormality is obtained through the third diagnosis auxiliary neural network model, the diagnosis information indicating unit instructs the first diagnosis auxiliary information, the second diagnosis auxiliary information, and the third diagnosis auxiliary information, respectively and first to third diagnostic auxiliary information indicators.

보다 구체적인 예로, 도 29를 참조하면, 좌안 안저 이미지와 관련하여, 진단 정보 지시부(407)는 피검체의 좌안 안저 이미지에 기초하여 획득된 진단 보조 정보가 수정체 혼탁 비정상임을 지시하는 제1 진단 보조 정보, 녹내장 정상(녹내장 없음)을 지시하는 제2 진단 보조 정보 및 망막 비정상(이상 소견 있음)을 지시하는 제3 진단 보조 정보가 획득된 경우에, 제1 색상을 띠는 제1 진단 보조 정보 지시자, 제2 색상을 띠는 제1 진단 보조 정보 지시자 및 제1 색상을 띠는 제3 진단 보조 정보 지시자를 표시할 수 있다.As a more specific example, referring to FIG. 29 , in relation to the left eye fundus image, the diagnostic information indicating unit 407 provides first diagnostic auxiliary information indicating that the diagnostic auxiliary information obtained based on the left eye fundus image of the subject is lens opacity abnormal. , when the second diagnostic auxiliary information indicating normal glaucoma (no glaucoma) and the third diagnostic auxiliary information indicating retinal abnormality (with abnormal findings) are obtained, the first diagnostic auxiliary information indicator having a first color; A first diagnostic auxiliary information indicator having a second color and a third diagnostic auxiliary information indicator having a first color may be displayed.

본 발명의 일 실시예에 따른 사용자 인터페이스는, 사용자로부터 진단 대상 안저 이미지에 대한 사용자 코멘트를 획득할 수 있다. 사용자 인터페이스는 사용자 코멘트 오브젝트(409)를 포함하고, 사용자 코멘트 오브젝트에 대한 사용자 선택에 응답하여, 사용자 입력창을 표시할 수 있다. 사용자로부터 획득된 코멘트는 진단 보조 신경망 모델의 갱신에 이용될 수도 있다. 예컨대, 사용자 코멘트 오브젝트에 대한 선택에 응답하여 표시되는 사용자 입력창은, 신경망을 통한 진단 보조 정보에 대한 사용자 평가를 획득할 수 있고, 획득된 사용자 평가는 신경망 모델의 갱신에 이용될 수 있다.The user interface according to an embodiment of the present invention may obtain a user comment on the fundus image to be diagnosed from the user. The user interface may include a user comment object 409 and, in response to a user selection for the user comment object, may display a user input window. The comments obtained from the user may be used to update the diagnostic auxiliary neural network model. For example, a user input window displayed in response to selection of a user comment object may acquire a user evaluation of the diagnostic assistance information through a neural network, and the obtained user evaluation may be used to update a neural network model.

본 발명의 일 실시예에 따른 사용자 인터페이스는, 각 진단 대상 안저 이미지에 대한 사용자 검토 여부를 표시하는 검토 지시 오브젝트(411)를 포함할 수 있다. 검토 지시 오브젝트는 각 진단 대상 이미지에 대한 사용자 검토가 완료되었음을 나타내는 사용자 입력을 획득 받고, 제1 상태에서 제2 상태로 그 표시가 변경될 수 있다. 예컨대, 도 29 및 도 30을 참조하면, 검토 지시 오브젝트는 확인 요청 문구를 표시하는 제1 상태에서, 사용자 입력이 획득되면, 확인 되었음을 나타내는 제2 상태로 변경될 수 있다. The user interface according to an embodiment of the present invention may include a review instruction object 411 for indicating whether the user reviews each diagnostic target fundus image. The review instruction object may receive a user input indicating that the user review for each diagnosis target image is completed, and the display may be changed from the first state to the second state. For example, referring to FIGS. 29 and 30 , the review instruction object may be changed from a first state of displaying a confirmation request text to a second state indicating that it has been confirmed when a user input is obtained.

진단 대상 안저 이미지의 목록(413)이 표시될 수 있다. 목록에는 피검체의 식별 정보, 이미지 촬영 날짜 및 양안 이미지에 대한 검토 여부 지시자(403)가 함께 표시될 수 있다.A list 413 of fundus images to be diagnosed may be displayed. In the list, identification information of the subject, an image capture date, and an indicator 403 for reviewing both eyes may be displayed together.

진단 대상 안저 이미지의 목록(413)에는 검토가 완료된 진단 대상 안저 이미지를 나타내는 검토 완료 지시자(415)가 표시될 수 있다. 검토 완료 지시자(415)는 해당 이미지의 양안에 대한 검토 지시 오브젝트(411) 모두에 대하여 사용자 선택이 발생한 경우에 표시될 수 있다.A review completion indicator 415 indicating a review target fundus image may be displayed in the list 413 of the diagnostic target fundus image. The review completion indicator 415 may be displayed when the user selects all of the review instruction objects 411 for both eyes of the corresponding image.

도 30을 참조하면, 사용자 그래픽 인터페이스는, 진단 대상 안저 이미지에 품질 이상이 있는 것으로 판단된 경우에, 사용자에게 대상 안저 이미지의 품질에 이상이 있음을 지시하는 저품질 경고 오브젝트(417)를 포함할 수 있다. 저품질 경고 오브젝트(417)는, 진단부로부터 진단 대상 안저 이미지가 진단 보조 신경망 모델로부터 적절한 진단 보조 정보가 예측될 수 있는 수준의 품질(즉, 기준 품질 레벨)에 미치지 아니하는 것으로 판단된 경우에 표시될 수 있다.Referring to FIG. 30 , the user graphic interface may include a low-quality warning object 417 instructing the user that there is an abnormality in the quality of the target fundus image when it is determined that there is a quality abnormality in the fundus image to be diagnosed. have. The low-quality warning object 417 is displayed when it is determined by the diagnostic unit that the fundus image to be diagnosed does not reach a level at which appropriate diagnostic auxiliary information can be predicted from the diagnostic auxiliary neural network model (ie, the reference quality level). can be

또한, 도 28을 참조하면 진단 대상 안저 이미지의 목록(413)에도 저품질 경고 오브젝트(419)가 표시될 수 있다. Also, referring to FIG. 28 , a low-quality warning object 419 may be displayed in the list 413 of the fundus image to be diagnosed.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (31)

안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템에 있어서,
피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부;
상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부;
상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부;
상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 보조 정보를 결정하는 제3 처리부; 및
사용자에게 상기 결정된 진단 보조 정보를 제공하는 정보 출력부; 를 포함하는
상기 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용되는,
진단 보조 시스템.
A diagnosis assistance system for assisting in diagnosis of a plurality of diseases based on a fundus image, comprising:
a fundus image acquisition unit configured to acquire a target fundus image, which is a basis for acquiring diagnostic auxiliary information on the subject;
a first for obtaining a first result related to a first observation on the subject by using a first neural network model with respect to the target fundus image, wherein the first neural network model is machine learned based on the first set of fundus images. 1 processing unit;
Using a second neural network model for the target fundus image, wherein the second neural network model is machine-learned based on a second fundus image set that is at least partially different from the first fundus image set, a second neural network model for the subject is used. a second processing unit for obtaining a second result related to the observation;
a third processing unit configured to determine auxiliary diagnostic information for the subject based on the first result and the second result; and
an information output unit for providing the determined diagnostic auxiliary information to a user; containing
The first findings and the second findings are used for diagnosis of different diseases,
Diagnostic assistance system.
제1항에 있어서,
상기 제3 처리부는 상기 제1 결과 및 상기 제2 결과 중 적어도 하나가 상기 피검체에 대한 비정상 여부를 나타내는 경우, 상기 진단 보조 정보를 비정상 정보로 결정하는,
진단 보조 시스템.
According to claim 1,
wherein the third processing unit determines whether the diagnosis auxiliary information is abnormal information when at least one of the first result and the second result indicates whether the subject is abnormal;
Diagnostic assistance system.
제1항에 있어서,
상기 제3 처리부는 상기 제1 결과에 기초하여 획득된 상기 피검체의 상기 제1 소견과 관련된 제1 진단 보조 정보 및 상기 제2 결과에 기초하여 획득된 상기 피검체의 상기 제2 소견과 관련된 제2 진단 보조 정보를 포함하는 상기 진단 보조 정보를 결정하는,
진단 보조 시스템.
According to claim 1,
The third processing unit includes first diagnostic auxiliary information related to the first finding of the subject obtained based on the first result and a second diagnosis related to the second finding of the subject obtained based on the second result 2 determining the diagnostic auxiliary information including the diagnostic auxiliary information;
Diagnostic assistance system.
제1항에 있어서,
상기 제3 처리부는, 상기 제1 결과에 기초하여 획득된 상기 피검체의 상기 제1 소견과 관련된 제1 진단 보조 정보 및 상기 제2 결과에 기초하여 획득된 상기 피검체의 상기 제2 소견과 관련된 제2 진단 보조 정보 중 적어도 하나를 포함하도록, 상기 진단 보조 정보를 결정하는,
진단 보조 시스템.
According to claim 1,
The third processing unit may include: first diagnostic auxiliary information related to the first finding of the subject acquired based on the first result and related to the second finding of the subject acquired based on the second result determining the diagnostic auxiliary information to include at least one of the second diagnostic auxiliary information;
Diagnostic assistance system.
제1항에 있어서,
상기 제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 라벨 및 비정상 라벨 중 어느 하나로 분류하도록 학습되고,
상기 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 라벨 또는 상기 비정상 라벨 중 어느 하나로 분류하여 상기 제1 결과를 획득하는
진단 보조 시스템.
According to claim 1,
The first neural network model is trained to classify the input fundus image into any one of a normal label and an abnormal label in relation to the first observation,
The first processing unit obtains the first result by classifying the target fundus image as either the normal label or the abnormal label using the first neural network model.
Diagnostic assistance system.
제1항에 있어서,
상기 제3 처리부는 상기 제1 결과 및 상기 제2 결과를 함께 고려하여, 상기 대상 안저 이미지에 따른 상기 진단 보조 정보가 정상 정보인지 비정상 정보인지 결정하는,
진단 보조 시스템.
According to claim 1,
wherein the third processing unit determines whether the diagnosis auxiliary information according to the target fundus image is normal information or abnormal information by considering the first result and the second result together;
Diagnostic assistance system.
제6항에 있어서,
상기 제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상 정보에 우선권을 부여하여 상기 피검체에 대한 진단 보조 정보를 결정하는,
진단 보조 시스템.
7. The method of claim 6,
The third processing unit is configured to give priority to the abnormal information to determine the diagnosis auxiliary information for the subject so as to improve diagnosis accuracy;
Diagnostic assistance system.
제6항에 있어서,
상기 제3 처리부는 상기 제1 결과가 상기 제1 소견에 대한 정상 정보이고, 상기 제2 결과가 상기 제2 소견에 대한 정상 정보인 경우, 상기 진단 보조 정보를 정상 정보로 결정하고,
상기 제1 결과가 제1 소견에 대한 정상 정보가 아니거나 상기 제2 결과가 상기 제2 소견에 대한 정상 정보가 아닌 경우, 상기 진단 보조 정보를 비정상 정보로 결정하는,
진단 보조 시스템.
7. The method of claim 6,
When the first result is normal information for the first observation and the second result is normal information for the second observation, the third processing unit determines the diagnosis auxiliary information as normal information;
When the first result is not normal information for the first observation or the second result is not normal information for the second observation, determining the diagnostic auxiliary information as abnormal information,
Diagnostic assistance system.
제1항에 있어서,
상기 제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시하고,
상기 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시하는,
진단 보조 시스템.
According to claim 1,
The first finding is related to an eye disease, and the first result indicates whether the subject is normal to the eye disease,
wherein the second finding is related to a systemic disease, and the second result indicates whether the subject is normal to the systemic disease,
Diagnostic assistance system.
제1항에 있어서,
상기 제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고,
상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시하는,
진단 보조 시스템.
According to claim 1,
The first finding is related to a first eye disease, and the first result indicates whether the subject is normal to the first eye disease,
The second finding is related to a second eye disease distinct from the first eye disease, and the second result indicates whether the subject is normal for the second eye disease.
Diagnostic assistance system.
제1항에 있어서,
상기 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고,
상기 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정되는,
진단 보조 시스템.
According to claim 1,
The first neural network model includes a first sub-neural network model and a second sub-neural network model,
The first result is determined by considering a first prediction value predicted by the first sub-neural network model and a second prediction value predicted by the second sub-neural network model together,
Diagnostic assistance system.
제1항에 있어서,
상기 제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 결과와 관련된 CAM(Class Activation Map)을 획득하고,
상기 정보 출력부는 상기 CAM의 이미지를 출력하는,
진단 보조 시스템.
According to claim 1,
The first processing unit obtains a CAM (Class Activation Map) related to the first result through the first neural network model,
The information output unit outputs the image of the CAM,
Diagnostic assistance system.
제12항에 있어서,
상기 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 보조 정보가 비정상 정보인 경우 상기 CAM의 이미지를 출력하는,
진단 보조 시스템.
13. The method of claim 12,
The information output unit outputs the image of the CAM when the diagnosis auxiliary information obtained by the third processing unit is abnormal information;
Diagnostic assistance system.
제1항에 있어서,
상기 진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고,
상기 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력하는,
진단 보조 시스템.
According to claim 1,
The diagnosis assistance system further includes a fourth processing unit for acquiring quality information of the target fundus image,
The information output unit outputs quality information of the target fundus image obtained by the fourth processing unit,
Diagnostic assistance system.
제14항에 있어서,
상기 제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우,
상기 정보 출력부는,
상기 사용자에게 상기 결정된 진단 보조 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공하는,
진단 보조 시스템.
15. The method of claim 14,
When the fourth processing unit determines that the quality information of the target fundus image is less than or equal to a predetermined quality level,
The information output unit,
Providing the user with information indicating that the quality information of the target fundus image is equal to or less than the predetermined quality level together with the determined auxiliary information for diagnosis,
Diagnostic assistance system.
복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치;
진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치; 를 포함하는 시스템에 포함되는 상기 학습 장치의 제어 방법에 있어서,
상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 단계;
상기 전처리된 제1 안저 이미지를 직렬화하는 단계; 및
상기 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 단계; 를 포함하는
학습 장치의 제어 방법.
Learning to acquire a first training data set including a plurality of fundus images, process the fundus image included in the first training data set, and train a first neural network model using the first training data set Device;
a diagnostic apparatus for acquiring a target fundus image for acquiring diagnostic assistance information, and acquiring the diagnostic assistance information based on the target fundus image using the learned first neural network model; In the control method of the learning device included in a system comprising a,
performing pre-processing of the first fundus image so that the first fundus image included in the first training data set is converted into a form suitable for training of the first neural network model;
serializing the preprocessed first fundus image; and
training the first neural network model for classifying the target fundus image into a first label or a second label using the serialized first fundus image; containing
How to control the learning device.
제16항에 있어서,
상기 학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시키고,
상기 학습 장치의 제어 방법은
상기 제2 트레이닝 세트에 포함된 제2 안저 이미지가 상기 제2 신경망 모델의 학습에 적합하도록 상기 제2 안저 이미지의 전처리를 수행하는 단계;
상기 전처리된 제2 안저 이미지를 직렬화하는 단계;
상기 직렬화된 상기 제2 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 상기 제2 신경망 모델을 학습시키는 단계; 를 더 포함하는
학습 장치의 제어 방법.
17. The method of claim 16,
The learning apparatus acquires a second training data set that includes a plurality of fundus images and is at least partially different from the first training data set, and uses the second training data set to train a second neural network model;
The control method of the learning device is
performing pre-processing of the second fundus image so that the second fundus image included in the second training set is suitable for learning of the second neural network model;
serializing the preprocessed second fundus image;
training the second neural network model for classifying the target fundus image into a third label or a fourth label by using the serialized second fundus image; further comprising
How to control the learning device.
제17항에 있어서,
상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별되는,
학습 장치의 제어 방법.
18. The method of claim 17,
The first preprocessing performed on the fundus image included in the first training data set is distinct from the second preprocessing performed on the fundus image included in the second training data set,
How to control the learning device.
제17항에 있어서,
상기 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계; 및
상기 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계; 를 더 포함하되,
상기 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행되는,
학습 장치의 제어 방법.
18. The method of claim 17,
verifying the first neural network model by evaluating an accuracy of the learned first neural network model using a first validation data set that is at least partially different from the first training data set; and
verifying the second neural network model by evaluating an accuracy of the learned first neural network model using a second validation data set that is at least partially different from the second training data set; further comprising,
The verification of the first neural network model and the second neural network model is performed independently,
How to control the learning device.
제17항에 있어서,
상기 직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고,
상기 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되는
학습 장치의 제어 방법.
18. The method of claim 17,
The serialized first fundus image is sequentially stored in a first queue, and the serialized fundus image stored in the first queue is used for learning the first neural network model in a predetermined capacity unit from the first queue,
The serialized second fundus image is sequentially stored in a second queue distinct from the first queue, and the serialized fundus image stored in the second queue is the first neural network model from the second queue in a predetermined capacity unit. used for learning
How to control the learning device.
제17항에 있어서,
상기 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고,
상기 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 수행되고,
상기 제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함하고,
상기 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측값을 함께 고려하여 수행되는,
학습 장치의 제어 방법.
18. The method of claim 17,
The first neural network model includes a first sub-neural network model and a second sub-neural network model,
Classifying the target fundus image into the first label or the second label is performed in consideration of the first predicted value predicted by the first sub-neural network model and the second predicted value predicted by the second sub-neural network model become,
The second neural network model includes a third sub neural network model and a fourth sub neural network model,
Classifying the target fundus image into the third label or the fourth label is performed in consideration of a third predicted value predicted by the third sub-neural network model and a fourth predicted value predicted by the fourth sub-neural network model felled,
How to control the learning device.
제17항에 있어서,
상기 제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하되,
상기 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통되는,
학습 장치의 제어 방법.
18. The method of claim 17,
wherein the first training data set includes at least a portion of the fundus image labeled with a first label, and the second training data set includes at least a portion of the fundus image labeled with a third label,
The fundus image labeled with the first label and at least a portion of the fundus image labeled with the third label have some common,
How to control the learning device.
제16항에 있어서,
상기 제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 제1 소견에 대하여 정상임을 지시하는 정상 라벨이고, 상기 제2 라벨은 상기 피검체가 상기 제1 소견에 대하여 비정상임을 지시하는 비정상 라벨인,
학습 장치의 제어 방법.
17. The method of claim 16,
The first label is a normal label indicating that the subject corresponding to the target fundus image is normal with respect to the first observation, and the second label is an abnormal label indicating that the subject is abnormal with respect to the first observation. ,
How to control the learning device.
제16항에 있어서,
상기 제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 상기 제1 안저 이미지의 적어도 일부를 제거하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함하는
학습 장치의 제어 방법.
17. The method of claim 16,
The pre-processing of the first fundus image comprises removing at least a portion of the first fundus image and changing the size of the first fundus image so that the first fundus image satisfies a reference aspect ratio
How to control the learning device.
제16항에 있어서,
상기 제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함하는
학습 장치의 제어 방법.
17. The method of claim 16,
The pre-processing of the first fundus image further comprises applying a blood vessel enhancement filter to the fundus image so that the blood vessels included in the first fundus image are emphasized.
How to control the learning device.
제16항에 있어서,
상기 직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고,
상기 큐는 상기 제1 신경망 모델의 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청하는,
학습 장치의 제어 방법.
17. The method of claim 16,
The serialized first fundus image is sequentially stored in a queue, and the serialized first fundus image stored in the queue is used for learning the first neural network model from the queue in a predetermined capacity unit,
The queue requests replenishment of the serialized first fundus image when the serialized first fundus image that is not used for training of the first neural network model decreases below a reference capacity,
How to control the learning device.
제23항에 있어서,
상기 제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나인,
학습 장치의 제어 방법.
24. The method of claim 23,
The first finding is any one of retinal hemorrhage, retinal exudate, lens opacity, and diabetic retinopathy.
How to control the learning device.
제16항에 있어서,
상기 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계; 를 더 포함하는
학습 장치의 제어 방법.
17. The method of claim 16,
verifying the first neural network model by evaluating an accuracy of the learned first neural network model using a first validation data set that is at least partially different from the first training data set; further comprising
How to control the learning device.
제28항에 있어서,
상기 제1 신경망 모델을 검증하여 획득된 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계;를 더 포함하는
학습 장치의 제어 방법.
29. The method of claim 28,
and updating the first neural network model by reflecting the verification result obtained by verifying the first neural network model.
How to control the learning device.
제16항에 있어서,
상기 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고,
상기 제1 신경망 모델을 학습시키는 단계는
제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고,
상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고,
상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함하는
학습 장치의 제어 방법.
17. The method of claim 16,
The first neural network model includes a first sub-neural network model and a second sub-neural network model,
The step of training the first neural network model is
Validate the first sub-neural network model using a first validation data set to obtain accuracy of the first sub-neural network model;
Validate the second sub-neural network model using the first verification data set to obtain accuracy of the second sub-neural network model;
Comparing the accuracy of the first sub neural network model and the accuracy of the second sub neural network model, determining a more accurate sub neural network model as the final neural network model
How to control the learning device.
제16 내지 30항의 학습 장치의 제어 방법 중 어느 하나의 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
A computer-readable recording medium in which a program for performing any one of the methods for controlling the learning apparatus of claim 16 to 30 is recorded.
KR1020180099370A 2018-07-06 2018-08-24 Diagnosis assistance system and control method thereof KR102301058B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180099370A KR102301058B1 (en) 2018-08-24 2018-08-24 Diagnosis assistance system and control method thereof
PCT/KR2018/015577 WO2020009292A1 (en) 2018-07-06 2018-12-07 Eye fundus image management device and method for determining quality of eye fundus image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180099370A KR102301058B1 (en) 2018-08-24 2018-08-24 Diagnosis assistance system and control method thereof

Publications (2)

Publication Number Publication Date
KR20200023029A KR20200023029A (en) 2020-03-04
KR102301058B1 true KR102301058B1 (en) 2021-09-10

Family

ID=69783530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180099370A KR102301058B1 (en) 2018-07-06 2018-08-24 Diagnosis assistance system and control method thereof

Country Status (1)

Country Link
KR (1) KR102301058B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210115196A (en) * 2020-03-12 2021-09-27 삼성에스디에스 주식회사 Apparatus and method for image-based eye disease diagnosis
KR102435799B1 (en) * 2020-06-29 2022-08-25 주식회사 메디웨일 Diagnosis assistance method and apparatus
KR102406538B1 (en) * 2020-08-13 2022-06-08 순천향대학교 산학협력단 Deep Neural Networks(DNN) based eye diseases diagnosis apparatus using fundus images and method thereof
KR102478613B1 (en) * 2020-08-24 2022-12-16 경희대학교 산학협력단 Evolving symptom-disease prediction system for smart healthcare decision support system
KR20220029799A (en) 2020-08-27 2022-03-10 아이트로스 주식회사 AI-based system and method for remote diagnosis eye diseases
KR102408749B1 (en) * 2020-09-16 2022-06-13 가톨릭대학교 산학협력단 System, method and application for verification and presentation of strabismus test results
KR102313661B1 (en) * 2020-12-30 2021-10-19 뉴로핏 주식회사 Method for, device for, and system for analazing medical image considering a feature information
KR20220102233A (en) 2021-01-13 2022-07-20 주식회사 모바일닥터 Device, method and program that provides reference information for disease diagnosis based on body temperature
KR102639807B1 (en) * 2021-02-23 2024-02-22 인하대학교 산학협력단 Multimodal Multitask Deep Learning Model for Alzheimer's Disease Progression Detection based on Time Series Data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
US20170270653A1 (en) 2016-03-15 2017-09-21 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
KR101828011B1 (en) 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
KR101848321B1 (en) 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150016089A (en) * 2013-08-02 2015-02-11 안병익 Neural network computing apparatus and system, and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
US20170270653A1 (en) 2016-03-15 2017-09-21 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
KR101828011B1 (en) 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
KR101848321B1 (en) 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same

Also Published As

Publication number Publication date
KR20200023029A (en) 2020-03-04

Similar Documents

Publication Publication Date Title
KR102345026B1 (en) Cloud server and diagnostic assistant systems based on cloud server
US11790645B2 (en) Diagnosis assistance system and control method thereof
KR102301058B1 (en) Diagnosis assistance system and control method thereof
KR102333670B1 (en) Diagnostic auxiliary image providing device based on eye image
US11869184B2 (en) Method and device for assisting heart disease diagnosis
US20170357879A1 (en) Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
KR102596534B1 (en) Diagnosis assistance method and apparatus
KR20200139606A (en) Cervical cancer diagnosis system
Sharma et al. Harnessing the Strength of ResNet50 to Improve the Ocular Disease Recognition
Carrillo-Gomez et al. Neovascularization detection on optic disc region using deep learning
WO2019171398A1 (en) A fundus image analysis system
WO2019082203A1 (en) A system and method for detection and classification of retinal disease
Thakoor Robust, Interpretable, and Portable Deep Learning Systems for Detection of Ophthalmic Diseases
Prasad et al. Diabetics Mellitius Caused Vision Impairment Discernment Using ML
Vishnu Priyan et al. A fusion of deep neural networks and game theory for retinal disease diagnosis with OCT images

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant