KR102333670B1 - Diagnostic auxiliary image providing device based on eye image - Google Patents

Diagnostic auxiliary image providing device based on eye image Download PDF

Info

Publication number
KR102333670B1
KR102333670B1 KR1020190086604A KR20190086604A KR102333670B1 KR 102333670 B1 KR102333670 B1 KR 102333670B1 KR 1020190086604 A KR1020190086604 A KR 1020190086604A KR 20190086604 A KR20190086604 A KR 20190086604A KR 102333670 B1 KR102333670 B1 KR 102333670B1
Authority
KR
South Korea
Prior art keywords
image
diagnosis
disease
neural network
diagnostic
Prior art date
Application number
KR1020190086604A
Other languages
Korean (ko)
Other versions
KR20200069209A (en
Inventor
최태근
이근영
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180157562A external-priority patent/KR20200005407A/en
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Publication of KR20200069209A publication Critical patent/KR20200069209A/en
Priority to KR1020210165633A priority Critical patent/KR20210149003A/en
Application granted granted Critical
Publication of KR102333670B1 publication Critical patent/KR102333670B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Abstract

일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성 별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. According to an embodiment, in the apparatus for providing a diagnosis auxiliary image for diagnosing a disease based on a fundus image, a neural network model for diagnosing a disease with respect to an input fundus image - the neural network model includes the Learned to diagnose disease-; a CAM model for outputting a CAM image based on at least one of the input fundus image and information obtained from the neural network model so as to easily identify a region affecting the diagnosis performance of the neural network model; and a lesion emphasizing model for emphasizing a region affecting the diagnosis performance for each characteristic of the disease based on the characteristic of the disease with respect to at least one of the input fundus image and the CAM image, wherein the lesion emphasis model A diagnosis auxiliary image providing apparatus may be provided in which an auxiliary diagnosis image is provided in which an onset location and an onset region of the disease are emphasized through the .

Description

안구 이미지 기반의 진단 보조 이미지 제공 장치 {DIAGNOSTIC AUXILIARY IMAGE PROVIDING DEVICE BASED ON EYE IMAGE}Device for providing diagnostic auxiliary image based on eye image {DIAGNOSTIC AUXILIARY IMAGE PROVIDING DEVICE BASED ON EYE IMAGE}

아래의 실시 예들은 안저 이미지 기반의 진단 보조 이미지 제공 장치에 대한 것이다. The following embodiments relate to an apparatus for providing an auxiliary diagnostic image based on a fundus image.

아래의 실시 예들은 안저 이미지 기반의 병변 별 진단 보조 이미지 제공 시스템에 대한 것이다. The following embodiments relate to a system for providing an auxiliary image for diagnosis for each lesion based on a fundus image.

안저 검사는 망막, 시신경 및 황반부의 이상을 관찰할 수 있으며 비교적 간단하게 촬영을 통하여 결과를 확인할 수 있어 안과에서 빈번하게 활용되는 진단 보조 자료이다. 최근에는 안저 검사를 통하여 안질환 뿐 아니라 고혈압, 당뇨 등의 만성 질환에 의한 혈관 손상 정도를 비침습적 방법으로 관찰할 수 있다는 점에서 더욱 그 쓰임새가 늘어나고 있는 추세이다.Fundus examination can observe abnormalities in the retina, optic nerve, and macula, and is a diagnostic aid frequently used in ophthalmology because the results can be confirmed through relatively simple imaging. Recently, the use of the fundus examination is increasing in that it is possible to observe the degree of damage to blood vessels caused by chronic diseases such as high blood pressure and diabetes in a non-invasive way as well as eye diseases.

한편, 근래의 딥러닝 기술의 도약적인 발전에 의해, 의료 진단 분야, 특히 이미지 기반의 진단 분야에서 진단 인공지능의 개발이 활발하게 이루어지고 있다. 구글, IBM 등의 글로벌 기업들에서도 의료계와의 협업으로 대규모 데이터를 투입하는 등, 다양한 영상 의료 데이터 분석을 위한 인공지능 개발에 투자를 아끼지 않고 있으며, 일부 기업에서는 우수한 진단 결과를 출력하는 인공지능 진단 툴 개발에 성공하기도 하였다. On the other hand, due to the rapid development of deep learning technology in recent years, the development of artificial intelligence for diagnosis is being actively carried out in the medical diagnosis field, particularly in the image-based diagnosis field. Global companies such as Google and IBM are also sparingly investing in the development of artificial intelligence for various image medical data analysis, such as inputting large-scale data in collaboration with the medical community. Tool development was also successful.

다만, 안저 이미지 기반의 진단 결과를 제공함에 있어서, 사용자는 배경 지식의 정도에 따라 상기 안저 이미지를 통해 상기 진단 결과를 이해하는 것이 어려울 수 있다. 다양한 사용자의 배경 지식의 정도를 고려하기 위해, 상기 안저 이미지를 통해 얻은 상기 진단 결과를 용이하게 이해할 수 있는 진단 보조 이미지를 제공할 필요성이 대두되고 있다. However, in providing the diagnosis result based on the fundus image, it may be difficult for the user to understand the diagnosis result through the fundus image depending on the degree of background knowledge. In order to consider the degree of background knowledge of various users, there is a need to provide a diagnosis auxiliary image that can easily understand the diagnosis result obtained through the fundus image.

일 과제는, 안저 이미지에 대한 진단 결과에 대응되는 진단 보조 이미지를 제공하는 것이다.One task is to provide a diagnosis auxiliary image corresponding to a diagnosis result of the fundus image.

일 과제는, 안저 이미지에 대한 진단 결과에 영향을 미치는 정도에 따라 강조되는 진단 보조 이미지를 제공하는 것이다.One task is to provide a diagnostic auxiliary image that is emphasized according to the degree of influence on the diagnostic result for the fundus image.

일 과제는, 안저 이미지에 대한 진단 결과에 영향을 미치는 정도에 따라 강조되되, 병변의 종류 또는 위치 등을 고려한 진단 보조 이미지를 제공하는 것이다.One task is to provide a diagnostic auxiliary image that is emphasized according to the degree of influence on the diagnostic result for the fundus image, but considers the type or location of the lesion.

해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 일 실시 예의 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The problem to be solved is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which an embodiment belongs from the present specification and the accompanying drawings.

일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. According to an embodiment, in the apparatus for providing a diagnosis auxiliary image for diagnosing a disease based on a fundus image, a neural network model for diagnosing a disease with respect to an input fundus image - the neural network model includes the Learned to diagnose disease-; a CAM model for outputting a CAM image based on at least one of the input fundus image and information obtained from the neural network model so as to easily identify a region affecting the diagnosis performance of the neural network model; and a lesion emphasizing model for emphasizing an area affecting the diagnosis performance by characteristics of the disease based on characteristics of the disease with respect to at least one of the input fundus image and the CAM image, wherein the lesion emphasis model A diagnosis auxiliary image providing apparatus may be provided in which an auxiliary diagnosis image is provided in which an onset location and an onset region of the disease are emphasized through the .

일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지를 획득하는 데이터 획득부; 상기 입력된 안저 이미지에 대한 제1 질병의 제1 진단 보조 이미지를 제공하는 제1 모델; 및 상기 입력된 안저 이미지에 대한 제2 질병의 제2 진단 보조 이미지를 제공하는 제2 모델을 포함하고, 상기 제1 모델 및 상기 제2 모델은 상기 입력된 안저 이미지를 상기 제1 질병 또는 상기 제2 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 제1 진단 보조 이미지 또는 제2 진단 보조 이미지가 출력되고, 상기 제1 질병 및 상기 제2 질병은 발병 영역의 적어도 일부가 상이한 질병이고, 상기 제1 진단 보조 이미지 및 상기 제2 진단 보조 이미지는 각각 상기 제1 질병 및 상기 제2 질병의 특성에 기초하여 출력되되, 상기 제1 질병 및 상기 제2 질병의 발병 영역이 강조 처리되어 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. According to one embodiment, there is provided an apparatus for providing an auxiliary diagnosis image for diagnosing a plurality of diseases based on a fundus image, comprising: a data acquisition unit configured to acquire an input fundus image; a first model providing a first diagnosis auxiliary image of a first disease with respect to the input fundus image; and a second model providing a second diagnosis auxiliary image of a second disease with respect to the input fundus image, wherein the first model and the second model convert the input fundus image to the first disease or the second disease. 2 In relation to the disease, the disease is classified as either normal or abnormal, and only when the diagnosis result of the neural network model is abnormal, the first diagnosis auxiliary image or the second diagnosis auxiliary image is output, and the first disease and the second disease is a disease in which at least a portion of an onset region is different, and the first auxiliary diagnosis image and the second auxiliary diagnosis image are respectively output based on characteristics of the first disease and the second disease, wherein the first disease and the second disease 2 An apparatus for providing an auxiliary diagnosis image may be provided, in which the disease onset region is highlighted and output.

일 실시 예에 의하면, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과를 진단 보조 이미지를 통해 용이하게 이해할 수 있다.According to an exemplary embodiment, a diagnosis result of the diagnosis auxiliary apparatus and/or system for the fundus image may be easily understood through the diagnosis auxiliary image.

일 실시 예에 의하면, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과를 진단 보조 이미지를 통해 제공하여, 사용자의 배경 지식의 정도를 고려할 수 있어 상기 진단 결과를 용이하게 이해할 수 있다. According to an embodiment, by providing the diagnosis result of the diagnosis assistance device and/or system for the fundus image through the diagnosis assistance image, the user's level of background knowledge may be taken into consideration, so that the diagnosis result may be easily understood.

일 실시 예에 의하면, 병변 별 특이성을 고려하여 진단 보조 이미지를 제공함에 따라, 안저 이미지에 대한 진단 보조 장치 및/또는 시스템의 진단 결과가 병변 특이적으로 제공될 수 있어, 사용자가 보다 쉽고 명확하게 상기 진단 결과를 이해하고 활용할 수 있다.According to an embodiment, as the diagnosis auxiliary image is provided in consideration of the specificity of each lesion, the diagnosis result of the diagnosis auxiliary device and/or system for the fundus image may be provided specifically for the lesion, so that the user can more easily and clearly The diagnosis result can be understood and used.

일 실시 예의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 일 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Effects of an embodiment are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which an embodiment belongs from the present specification and the accompanying drawings.

도 1은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 2는 일 실시 예에 따른 학습 장치를 설명하기 위한 블록도이다.
도 3은 일 실시 예의 다른 일 실시 예에 따른 학습 장치를 보다 구체적으로 설명하기 위한 블록도이다.
도 4는 일 실시 예에 따른 진단 장치를 설명하기 위한 블록도이다.
도 5는 일 실시 예의 다른 일 실시 예에 따른 진단 장치를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 진단 보조 시스템을 도시한 것이다.
도 7은 일 실시 예에 따른 클라이언트 장치를 설명하기 위한 블록도이다.
도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 학습부의 구성을 설명하기 위한 도면이다.
도 10는 일 실시 예에 따른 이미지 데이터 세트를 설명하기 위한 개념도이다.
도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다.
도 12은 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다.
도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 14은 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다.
도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 18은 일 실시 예에 따른 진단부의 구성을 설명하기 위한 도면이다.
도 19는 일 예에 따른 진단 대상 데이터를 설명하기 위한 도면이다.
도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다.
도 21은 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 22는 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 진단부를 설명하기 위한 블록도이다.
도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 31은 일 실시 예에 따른 진단 보조 이미지를 설명하기 위한 도면이다.
도 32는 일 실시 예에 따른 진단 보조 정보 제공부의 구성을 설명하기 위한 도면이다.
도 33은 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 CAM 제공 프로세스를 설명하기 위한 도면이다.
도 34는 학습된 진단 보조 신경망 모델에 의한 진단 프로세스를 설명하기 위한 도면이다.
도 35은 일 실시 예에 따른 진단 장치의 분류 데이터가 비정상에 해당되는지 여부를 판단하는 프로세스를 설명하기 위한 도면이다.
도 36은 일 실시 예에 따른 진단 장치의 분류 데이터가 정상에 해당되는 여부를 판단하는 프로세스를 설명하기 위한 도면이다.
도 37은 입력 데이터 및 진단 프로세스로부터 얻어진 정보로부터 CAM 이미지를 출력하는 프로세스를 설명하기 위한 도면이다.
도 38은 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 CAM 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 39는 일 실시 예의 다른 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 40은 일 실시 예에 따른 진단 보조 시스템에서 진단되는 복수의 질병이 발생된 안저 이미지를 나타내는 도면이다
도 41은 일 실시 예에 따른 진단 보조 정보 제공부의 구성을 설명하기 위한 도면이다.
도 42는 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 43 내지 도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이다.
도 47 내지 도 50은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 진단 보조 이미지를 나타내는 도면이다.
도 51 및 도 52는 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우를 진단 보조 이미지를 나타내는 도면이다.
도 53은 진단 보조 이미지 제공 방법을 나타내는 순서도이다.
도 54은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부의 구성을 나타내는 도면이다.
도 55는 도 54의 진단 보조 정보 제공부에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
도 56은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부의 구성을 나타내는 도면이다.
도 57는 도 56의 진단 보조 정보 제공부에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다.
1 illustrates a diagnosis assistance system according to an exemplary embodiment.
2 is a block diagram illustrating a learning apparatus according to an exemplary embodiment.
3 is a block diagram illustrating in more detail a learning apparatus according to another exemplary embodiment.
4 is a block diagram illustrating a diagnosis apparatus according to an exemplary embodiment.
5 is a diagram for describing a diagnosis apparatus according to another exemplary embodiment.
6 illustrates a diagnosis assistance system according to an exemplary embodiment.
7 is a block diagram illustrating a client device according to an embodiment.
8 is a diagram for describing a diagnosis assistance process according to an exemplary embodiment.
9 is a diagram for explaining a configuration of a learning unit according to an embodiment.
10 is a conceptual diagram illustrating an image data set according to an exemplary embodiment.
11 is a diagram for describing image resizing according to an exemplary embodiment.
12 is a diagram for explaining an extension of an image data set according to an exemplary embodiment.
13 is a block diagram illustrating a learning process of a neural network model according to an embodiment.
14 is a block diagram illustrating a learning process of a neural network model according to an embodiment.
15 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment.
16 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment.
17 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment.
18 is a diagram for describing a configuration of a diagnosis unit according to an exemplary embodiment.
19 is a diagram for describing diagnosis target data according to an example.
20 is a diagram for describing a diagnosis process according to an exemplary embodiment.
21 is a diagram for describing a parallel diagnosis assistance system according to some embodiments.
22 is a diagram for describing a parallel diagnosis assistance system according to some embodiments.
23 is a diagram for describing a configuration of a learning apparatus including a plurality of learning units according to an exemplary embodiment.
24 is a diagram for describing a parallel learning process according to an embodiment.
25 is a diagram for describing a parallel learning process according to an embodiment.
26 is a block diagram illustrating a diagnosis unit according to an exemplary embodiment.
27 is a diagram for describing a diagnosis assistance process according to an exemplary embodiment.
28 is a diagram for describing a diagnosis assistance system according to an exemplary embodiment.
29 is a diagram for describing a graphic user interface according to an embodiment.
30 is a diagram for describing a graphic user interface according to an exemplary embodiment.
31 is a diagram for describing an auxiliary diagnosis image according to an exemplary embodiment.
32 is a diagram for explaining a configuration of a diagnosis auxiliary information providing unit according to an exemplary embodiment.
33 is a diagram for describing a diagnostic process and a CAM providing process performed by a diagnostic apparatus according to an exemplary embodiment.
34 is a diagram for explaining a diagnosis process by a learned diagnosis auxiliary neural network model.
35 is a diagram for describing a process of determining whether classification data of a diagnostic apparatus corresponds to an abnormality, according to an exemplary embodiment.
36 is a diagram for describing a process of determining whether classification data of a diagnostic apparatus corresponds to normal, according to an exemplary embodiment.
Fig. 37 is a diagram for explaining a process of outputting a CAM image from input data and information obtained from a diagnosis process.
38 is a view for explaining a CAM image providing process according to a diagnosis process in consideration of the degree of progression of a diagnosis disease.
39 is a view for explaining division of a region of a fundus image according to another embodiment of the present invention.
40 is a diagram illustrating a fundus image in which a plurality of diseases diagnosed by the diagnosis assistance system according to an exemplary embodiment;
41 is a diagram for explaining the configuration of a diagnosis auxiliary information providing unit according to an exemplary embodiment.
42 is a diagram for describing a diagnostic process and a diagnostic auxiliary image providing process performed by a diagnostic apparatus according to an exemplary embodiment.
43 to 46 are diagrams illustrating auxiliary diagnostic images when the diagnostic disease of the diagnostic process is glaucoma.
47 to 50 are diagrams illustrating auxiliary diagnostic images when a diagnostic disease of the diagnostic process occurs in a non-specific region.
51 and 52 are diagrams illustrating auxiliary images for diagnosis when the input data of the diagnosis process has a cataract.
53 is a flowchart illustrating a method of providing a diagnostic auxiliary image.
54 is a diagram illustrating a configuration of a parallel diagnosis auxiliary information providing unit for a fundus image according to an exemplary embodiment.
FIG. 55 is a diagram for explaining a diagnosis process performed by the diagnosis auxiliary information providing unit of FIG. 54 and a diagnosis auxiliary image providing process.
56 is a diagram illustrating a configuration of a parallel diagnosis auxiliary information providing unit for a fundus image according to an exemplary embodiment.
FIG. 57 is a diagram for explaining a diagnosis process performed by the diagnosis auxiliary information providing unit of FIG. 56 and a diagnosis auxiliary image providing process.

이하에서는 도면을 참조하여 일 실시 예의 구체적인 실시 예를 상세하게 설명한다. 다만, 일 실시 예의 사상은 제시되는 실시 예에 제한되지 아니하고, 일 실시 예의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 일 실시 예 사상의 범위 내에 포함되는 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.Hereinafter, a specific embodiment of an embodiment will be described in detail with reference to the drawings. However, the spirit of one embodiment is not limited to the presented embodiment, and those skilled in the art who understand the spirit of one embodiment may add, change, delete, etc. other components within the scope of the same idea, and may use other degenerative inventions or work. Other embodiments included within the scope of the spirit of the embodiment may be easily proposed, but this will also be included within the scope of the spirit of the present invention.

또한, 각 실시 예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조 부호를 사용하여 설명한다. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

일 실시 예에 따르면, 안저 이미지에 기초하여 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지에 대한 질병의 진단을 수행하는 신경망 모델 - 상기 신경망 모델은 복수의 안저 이미지 세트를 통해 상기 질병을 진단하도록 학습됨-; 상기 신경망 모델의 진단 수행에 영향을 미치는 영역이 용이하게 파악되도록, 상기 입력된 안저 이미지 및 상기 신경망 모델에서 얻어진 정보 중 적어도 어느 하나에 기초하여 CAM 이미지를 출력하는 CAM 모델; 및 상기 입력된 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나에 대해 상기 질병의 특성에 기초하여 상기 진단 수행에 영향을 미치는 영역을 상기 질병의 특성별로 강조하는 병변 강조 모델을 포함하고, 상기 병변 강조 모델을 통해 상기 질병의 발병 위치 및 발병 영역이 강조되는 진단 보조 이미지가 제공되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. According to an embodiment, in the apparatus for providing a diagnosis auxiliary image for diagnosing a disease based on a fundus image, a neural network model for diagnosing a disease with respect to an input fundus image - the neural network model includes the Learned to diagnose disease-; a CAM model for outputting a CAM image based on at least one of the input fundus image and information obtained from the neural network model so as to easily identify a region affecting the diagnosis performance of the neural network model; and a lesion emphasizing model for emphasizing an area affecting the diagnosis performance by characteristics of the disease based on characteristics of the disease with respect to at least one of the input fundus image and the CAM image, wherein the lesion emphasis model A diagnosis auxiliary image providing apparatus may be provided in which an auxiliary diagnosis image is provided in which an onset location and an onset region of the disease are emphasized through the .

또한, 상기 병변 강조 모델은 상기 CAM 이미지의 픽셀값을 기초로 하여, 상기 CAM 이미지의 픽셀 중 소정의 임계값 이상의 픽셀이 선택적으로 출력되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the lesion enhancement model may provide an apparatus for providing a diagnostic auxiliary image in which lesion enhancement is performed in which pixels of a predetermined threshold value or more are selectively output among pixels of the CAM image based on the pixel value of the CAM image. have.

또한, 상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대응되는 위치 또는 영역에 특이적으로 발병되는 경우, 상기 병변 강조 모델은 상기 CAM 이미지 상에 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the disease occurs specifically in a location or region corresponding to an anatomical region included in the fundus image, the lesion emphasis model is a lesion in which a boundary line corresponding to the anatomical region overlaps on the CAM image. An apparatus for providing a diagnostic auxiliary image in which emphasis is performed may be provided.

또한, 상기 질병이 안저 이미지에 포함되어 있는 해부학적 영역에 대해 비특이적으로 발병되는 경우, 상기 병변 강조 모델은 상기 CAM 이미지를 기초로 상기 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the disease occurs non-specifically with respect to an anatomical region included in the fundus image, the lesion emphasis model is based on the CAM image. An apparatus for providing a diagnostic auxiliary image in which lesion highlighting is performed may be provided.

또한, 상기 질병의 병변 영역이 상기 안저 이미지에 포함되어 있는 해부학적 영역 중 적어도 일부를 가리는 경우, 상기 병변 강조 모델은 상기 병변 영역에 의해 가려진 상기 해부학적 영역에 대응되는 경계선이 상기 안저 이미지 상에 중첩되는 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the diseased lesion region covers at least a portion of anatomical regions included in the fundus image, the lesion highlighting model includes a boundary line corresponding to the anatomical region covered by the lesion region on the fundus image. An apparatus for providing a diagnostic auxiliary image in which overlapping lesion highlighting is performed may be provided.

또한, 상기 신경망 모델은 상기 입력된 안저 이미지를 상기 진단 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 진단 보조 이미지 제공 장치는 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the neural network model classifies the input fundus image as either normal or abnormal in relation to the diagnosis disease, and the diagnosis auxiliary image providing device provides a diagnosis auxiliary image only when the diagnosis result of the neural network model is abnormal. An outputted, diagnostic auxiliary image providing apparatus may be provided.

또한, 상기 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나인, 진단 보조 이미지제공 장치가 제공될 수 있다. In addition, the disease may be any one of glaucoma, retinal hemorrhage, retinal exudate, lens opacity, and diabetic retinopathy, a diagnostic auxiliary image providing apparatus may be provided.

또한, 상기 질병이 발병 시기 및 발병 정도에 따라 제1 기 및 제2 기로 구분되어 진단되는 경우, 상기 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 상기 제1 서브 신경망 모델은 상기 질병의 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하고, 상기 제2 서브 신경망 모델은 상기 제1 기와 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 진단 보조 이미지 제공 장치는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우에 대해서만 진단 보조 이미지가 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the disease is divided into first and second stages according to the onset period and the onset degree and diagnosed, the neural network model includes a first sub-neural network model and a second sub-neural network model, and the first sub-neural network model classifies one of normal and abnormal in relation to the first stage of the disease, and the second sub-neural network model classifies it as either normal or abnormal in relation to the first stage, wherein the diagnostic auxiliary image providing apparatus includes the first stage A diagnostic auxiliary image providing apparatus may be provided, in which a diagnostic auxiliary image is output only when a diagnosis result of at least one of the sub neural network model and the second sub neural network model is abnormal.

또한, 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 적어도 어느 하나의 진단 결과가 비정상인 경우, 상기 질병의 진행 정도를 고려한 진단 보조 이미지를 제공하기 위해, 상기 진단 보조 이미지는 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 정상이라고 판단한 모델의 제1 진단 정보와 상기 제1 서브 신경망 모델 및 상기 제2 서브 신경망 모델 중 비정상이라고 판단한 모델의 제2 진단 정보에 기초하여 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when a diagnosis result of at least one of the first sub-neural network model and the second sub-neural network model is abnormal, in order to provide a diagnosis auxiliary image in consideration of the degree of disease progression, the diagnosis auxiliary image is the first Output based on first diagnostic information of a model determined to be normal among the sub-neural network model and the second sub-neural network model and second diagnostic information of a model determined to be abnormal among the first sub-neural network model and the second sub-neural network model, A diagnostic auxiliary image providing device may be provided.

일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병을 진단하는 진단 보조 이미지 제공 장치에 있어서, 입력된 안저 이미지를 획득하는 데이터 획득부; 상기 입력된 안저 이미지에 대한 제1 질병의 제1 진단 보조 이미지를 제공하는 제1 모델; 및 상기 입력된 안저 이미지에 대한 제2 질병의 제2 진단 보조 이미지를 제공하는 제2 모델을 포함하고, 상기 제1 모델 및 상기 제2 모델은 상기 입력된 안저 이미지를 상기 제1 질병 또는 상기 제2 질병과 관련하여 정상 및 비정상 중 어느 하나로 분류하되, 상기 신경망 모델의 진단 결과가 비정상인 경우에 대해서만 제1 진단 보조 이미지 또는 제2 진단 보조 이미지가 출력되고, 상기 제1 질병 및 상기 제2 질병은 발병 영역의 적어도 일부가 상이한 질병이고, 상기 제1 진단 보조 이미지 및 상기 제2 진단 보조 이미지는 각각 상기 제1 질병 및 상기 제2 질병의 특성에 기초하여 출력되되, 상기 제1 질병 및 상기 제2 질병의 발병 영역이 강조 처리되어 출력되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. According to one embodiment, there is provided an apparatus for providing an auxiliary diagnosis image for diagnosing a plurality of diseases based on a fundus image, comprising: a data acquisition unit configured to acquire an input fundus image; a first model providing a first diagnosis auxiliary image of a first disease with respect to the input fundus image; and a second model providing a second diagnosis auxiliary image of a second disease with respect to the input fundus image, wherein the first model and the second model convert the input fundus image to the first disease or the second disease. 2 In relation to the disease, the disease is classified as either normal or abnormal, and only when the diagnosis result of the neural network model is abnormal, the first diagnosis auxiliary image or the second diagnosis auxiliary image is output, and the first disease and the second disease is a disease in which at least a portion of an onset region is different, and the first auxiliary diagnosis image and the second auxiliary diagnosis image are respectively output based on characteristics of the first disease and the second disease, wherein the first disease and the second disease 2 An apparatus for providing an auxiliary diagnosis image may be provided, in which the disease onset region is highlighted and output.

또한, 상기 제1 모델은 제1 신경망 모델, 제1 CAM 모델, 및 제1 병변 강조 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델, 제2 CAM 모델, 및 제2 병변 강조 모델을 포함하는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first model includes a first neural network model, a first CAM model, and a first lesion enhancement model, and the second model includes a second neural network model, a second CAM model, and a second lesion enhancement model. A diagnostic auxiliary image providing apparatus may be provided.

또한, 상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고, 상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하되, 상기 제1 CAM 이미지에 대해 상기 제1 병변 강조 모델이 제1 진단 질병의 특성을 고려하여 병변 강조가 수행되고, 상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되, 상기 제2 CAM 이미지에 대해 상기 제2 병변 강조 모델이 제2 진단 질병의 특성을 고려하여 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first neural network model is trained to diagnose a first disease based on a plurality of fundus image sets, and the second neural network model is trained to diagnose a second disease based on a plurality of fundus image sets, and the second neural network model is trained to diagnose a second disease based on a plurality of fundus image sets. 1 Based on the diagnostic information obtained from the neural network model, the first CAM model outputs a first CAM image, and the first lesion emphasis model with respect to the first CAM image performs lesion emphasis in consideration of the characteristics of the first diagnostic disease. performed, and based on the diagnostic information obtained from the second neural network model, the second CAM model outputs a second CAM image, and the second lesion emphasis model determines the characteristics of the second diagnostic disease with respect to the second CAM image. An apparatus for providing a diagnostic auxiliary image in which lesion highlighting is performed in consideration of this may be provided.

또한, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값을 기초로 하여, 소정의 임계값 이상의 제1 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값을 기초로 하여, 소정의 임계값 이상의 제2 영역이 선택적으로 출력되는 병변 강조가 수행되는 이미지이고, 상기 제1 영역 및 상기 제2 영역은 적어도 일부가 상이한, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first diagnostic auxiliary image is an image in which a lesion enhancement is performed in which a first area above a predetermined threshold is selectively output based on the pixel value of the first CAM image based on the first CAM image. , the second diagnostic auxiliary image is an image in which lesion enhancement is performed in which a second area above a predetermined threshold is selectively output based on the pixel value of the second CAM image based on the second CAM image, An apparatus for providing an auxiliary diagnosis image may be provided, wherein the first area and the second area are at least partially different.

또한, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 제1 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 제2 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제1 경계선 및 상기 제2 경계선은 적어도 일부가 상이한, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first diagnosis auxiliary image is an image on which a lesion enhancement is performed in which a first boundary line formed with a predetermined threshold value among pixel values of the first CAM image is overlapped based on the first CAM image, and the second diagnosis The auxiliary image is an image on which lesion enhancement is performed in which a second boundary line formed with a predetermined threshold value among pixel values of the second CAM image is overlapped based on the second CAM image, and the first boundary line and the second boundary line are An apparatus for providing a diagnostic auxiliary image, which is at least partially different, may be provided.

또한, 상기 제1 질병의 발병 영역은 안저 이미지에 포함된 복수의 해부학적 영역 중 적어도 어느 하나의 영역과 대응되고, 상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하는 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the onset region of the first disease corresponds to at least any one region among a plurality of anatomical regions included in the fundus image, and the disease onset region is non-specifically located in the fundus image, the first The auxiliary diagnosis image is an image in which lesion enhancement is performed in which a boundary line corresponding to the anatomical region overlaps the first CAM image, and the second diagnosis auxiliary image is the second CAM image based on the second CAM image. An apparatus for providing an auxiliary diagnosis image may be provided, which is an image on which lesion enhancement is performed in which a boundary line formed by a predetermined threshold value among pixel values of is overlapped.

또한, 상기 제1 질병의 발병 영역은 안저 이미지에 포함된 제1 해부학적 영역과 대응되고, 상기 제2 질병의 발병 영역은 상기 제1 질병의 발병 영역과 적어도 일부가 상이한 제2 해부학적 영역에 대응되는 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지에 대해 상기 제1 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지에 대해 상기 제2 해부학적 영역에 대응되는 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first disease onset region corresponds to the first anatomical region included in the fundus image, and the second disease onset region is in a second anatomical region that is at least partially different from the first disease onset region. In a corresponding case, the first auxiliary diagnosis image is an image on which lesion enhancement is performed in which a boundary line corresponding to the first anatomical region overlaps the first CAM image, and the second auxiliary diagnosis image is the second CAM image. An apparatus for providing an auxiliary diagnosis image may be provided, which is an image on which lesion enhancement is performed in which a boundary line corresponding to the second anatomical region overlaps with respect to the image.

또한, 상기 제1 질병의 제1 발병 영역은 안저 이미지에서 비특이적으로 위치하고, 상기 제2 질병의 제2 발병 영역은 안저 이미지에서 비특이적으로 위치하되 상기 제1 발병 영역과는 적어도 일부가 상이한 경우, 상기 제1 진단 보조 이미지는 상기 제1 CAM 이미지를 기초로 상기 제1 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지이고, 상기 제2 진단 보조 이미지는 상기 제2 CAM 이미지를 기초로 상기 제2 CAM 이미지의 픽셀값 중 소정의 임계값으로 형성된 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, when the first diseased region of the first disease is nonspecifically located in the fundus image, and the second diseased region is nonspecifically located in the fundus image, but is at least partially different from the first diseased region, the The first auxiliary diagnosis image is an image on which lesion enhancement is performed in which a boundary line formed by a predetermined threshold among pixel values of the first CAM image is overlapped based on the first CAM image, and the second auxiliary diagnosis image is An apparatus for providing an auxiliary diagnosis image may be provided, which is an image on which lesion enhancement is performed in which a boundary line formed with a predetermined threshold value among pixel values of the second CAM image is overlapped based on the 2 CAM image.

또한, 상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고, 상기 제2 질병의 발병 영역은 안저 이미지에 포함된 해부학적 영역과 대응되되, 상기 해부학적 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우, 상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 해부학적 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, a haze region is generated in the fundus image by the first disease, and the diseased region of the second disease corresponds to an anatomical region included in the fundus image, wherein the anatomical region is in the turbid region of the first disease In the case of being obscured by , the second diagnosis auxiliary image may be an image on which lesion emphasis is performed in which the boundary line of the anatomical region overlaps in the input fundus image, the diagnosis auxiliary image providing apparatus may be provided.

또한, 상기 제1 질병에 의해 안저 이미지에 혼탁 영역이 발생되고, 상기 제1 진단 보조 이미지는 상기 입력된 안저 이미지와 동일하게 출력되고, 상기 제2 질병의 발병 영역은 안저 이미지에서 비특이적으로 위치하되, 상기 발병 영역이 상기 제1 질병의 혼탁 영역에 의해 가려지는 경우, 상기 제2 진단 보조 이미지는 상기 입력된 안저 이미지에서 상기 발병 영역의 경계선이 중첩되는 병변 강조가 수행된 이미지인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, a haze region is generated in the fundus image due to the first disease, the first diagnostic auxiliary image is output identically to the input fundus image, and the diseased region of the second disease is non-specifically located in the fundus image , when the diseased region is obscured by the turbid region of the first disease, the second diagnosis secondary image is an image on which the lesion emphasis is performed in which the boundary line of the diseased region overlaps in the input fundus image. A providing device may be provided.

또한, 상기 제1 모델은 제1 신경망 모델 및 제1 CAM 모델을 포함하고, 상기 제2 모델은 제2 신경망 모델 및 제2 CAM 모델을 포함하고, 상기 진단 보조 이미지 제공 장치는 병변 강조 모델을 더 포함하는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first model includes a first neural network model and a first CAM model, the second model includes a second neural network model and a second CAM model, and the diagnostic auxiliary image providing apparatus further includes a lesion highlighting model. A diagnostic auxiliary image providing apparatus including, may be provided.

또한, 상기 제1 신경망 모델은 복수의 안저 이미지 세트를 기초로 제1 질병을 진단하도록 학습되고, 상기 제2 신경망 모델은 복수의 안저 이미지 세트를 기초로 제2 질병을 진단하도록 학습되고, 상기 제1 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제1 CAM 모델은 제1 CAM 이미지를 출력하고, 상기 제2 신경망 모델에서 얻어진 진단 정보를 기초로 상기 제2 CAM 모델은 제2 CAM 이미지를 출력하되, 상기 제1 CAM 이미지 및 상기 제2 CAM 이미지에 대해 상기 병변 강조 모델에 의해 상기 제1 질병 및 상기 제2 질병의 특성을 고려하여 각각 병변 강조가 수행되는, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first neural network model is trained to diagnose a first disease based on a plurality of fundus image sets, and the second neural network model is trained to diagnose a second disease based on a plurality of fundus image sets, and the second neural network model is trained to diagnose a second disease based on a plurality of fundus image sets. 1 Based on the diagnostic information obtained from the neural network model, the first CAM model outputs a first CAM image, and the second CAM model outputs a second CAM image based on the diagnostic information obtained from the second neural network model, A diagnostic auxiliary image providing apparatus may be provided in which lesion enhancement is performed on the first CAM image and the second CAM image in consideration of characteristics of the first disease and the second disease by the lesion enhancement model, respectively. .

또한, 상기 제1 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나이고, 상기 제2 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증에서 상기 제1 질병을 제외한 나머지 중 어느 하나인, 진단 보조 이미지 제공 장치가 제공될 수 있다. In addition, the first disease is any one of glaucoma, retinal hemorrhage, retinal exudate generation, lens opacity, and diabetic retinopathy, and the second disease is glaucoma, retinal hemorrhage, retinal exudate generation, lens opacity, and diabetic retinopathy. An apparatus for providing an auxiliary diagnosis image, which is any one except for 1 disease, may be provided.

이하에서는, 일 실시 예의 안저 이미지를 이용한 진단 보조 결과 및 진단 보조 이미지를 제공하는 진단 보조 장치 및/또는 시스템에 대하여 설명하고자 한다. Hereinafter, a diagnosis assistance apparatus and/or system for providing a diagnosis assistance result and a diagnosis assistance image using a fundus image according to an exemplary embodiment will be described.

1. 안저 이미지를 이용한 진단 보조1. Diagnosis assistance using fundus images

1.1 진단 보조 시스템 및 프로세스1.1 Diagnostic Auxiliary Systems and Processes

1.1.1 목적 및 정의1.1.1 Purpose and Definition

이하에서는, 안저 이미지에 기초하여 질병 또는 질환의 유무 또는 그 판단의 근거가 되는 이상 여부 등의 판단을 보조하기 위한 진단 보조 시스템 및 방법 등에 대하여 설명한다. 특히, 딥러닝 기법을 이용하여 질병을 진단하기 위한 신경망 모델을 구축하고, 구축된 모델을 이용하여 질병 유무 또는 이상 소견의 검출을 보조하는 진단 보조 시스템 또는 방법에 대하여 설명한다. Hereinafter, a diagnosis assistance system and method for assisting in the determination of the presence or absence of a disease or disease or an abnormality as a basis for the determination based on the fundus image will be described. In particular, a diagnosis assistance system or method for constructing a neural network model for diagnosing a disease using a deep learning technique and assisting in detecting the presence or absence of a disease or abnormal findings using the constructed model will be described.

일 실시 예에 의하면, 안저 이미지에 기초하여 질병의 유무와 관련된 진단 정보 또는 질병 유무의 진단에 이용되는 소견 정보 등을 획득하고, 이를 이용하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. According to an embodiment, a diagnosis assistance system or method may be provided for acquiring diagnostic information related to the presence or absence of a disease or observation information used for diagnosing the presence or absence of a disease based on a fundus image and assisting the diagnosis by using the acquired information. .

일 실시 예에 의하면, 안저 이미지에 기초하여 안질환의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 검사 대상자의 녹내장, 백내장, 황반 변성, 미숙아 망막증의 유무와 관련된 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. According to an embodiment, a diagnosis assistance system or method for assisting in diagnosing an eye disease based on a fundus image may be provided. For example, a diagnostic assistance system or method may be provided to assist a diagnosis by acquiring diagnostic information related to the presence or absence of glaucoma, cataract, macular degeneration, and retinopathy of prematurity of a test subject.

일 실시 예에 의하면, 안질환이 아닌 타 질환(예컨대, 전신 질환 또는 만성 질환)의 지단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 고혈압, 당뇨병, 알츠하이머, 거대 세포 바이러스, 뇌졸중, 심장 질환, 동맥 경화증 등의 전신 질환의 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.According to an embodiment, a diagnostic assistance system or method for assisting in the diagnosis of other diseases (eg, systemic diseases or chronic diseases) other than eye diseases may be provided. For example, a diagnostic assistance system or method may be provided to assist in diagnosis by acquiring diagnostic information of systemic diseases such as hypertension, diabetes, Alzheimer's, cytomegalovirus, stroke, heart disease, arteriosclerosis, and the like.

일 실시 예에 의하면, 안질환 또는 타 질환의 진단에 이용될 수 있는 이상 안저 소견을 검출하기 위한 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio: cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견 정보를 획득하는 진단 보조 시스템 또는 방법이 제공될 수 있다.According to an embodiment, a diagnostic auxiliary system or method for detecting abnormal fundus findings that can be used for diagnosing an eye disease or other disease may be provided. For example, overall fundus color abnormality, lens opacity, optic disc ratio (C/D ratio: cup to disc ratio) abnormality, macular abnormality (eg, macular foramen), blood vessel diameter, travel A diagnostic assistance system or method for acquiring information on findings such as abnormality of the back, abnormal diameter of retinal artery, retinal hemorrhage, occurrence of exudate, drusen, and the like may be provided.

본 명세서에서, 진단 보조 정보라 함은, 질환 유무의 판단에 따른 진단 정보 또는 그 기초가 되는 소견 정보 등을 포괄하는 것으로 이해될 수 있다.In the present specification, the diagnosis auxiliary information may be understood to include diagnosis information according to the determination of the presence or absence of a disease, or observation information that is the basis thereof.

1.1.2 진단 보조 시스템 구성1.1.2 Diagnostic Auxiliary System Configuration

일 실시 예에 의하면, 진단 보조 시스템이 제공될 수 있다. According to an embodiment, a diagnosis assistance system may be provided.

도 1은 일 실시 예에 의한 진단 보조 시스템(10)을 도시한 것이다. 도 1을 참조하면, 진단 보조 시스템(10)은 진단 모델을 트레이닝하는 학습 장치(1000), 진단 모델을 이용하여 진단을 수행하는 진단 장치(2000) 및 진단 요청을 획득하는 클라이언트 장치(3000)를 포함할 수 있다. 진단 보조 시스템(10)은 복수의 학습 장치, 복수의 진단 장치, 또는 복수의 클라이언트 장치를 포함할 수 있다. 1 illustrates a diagnosis assistance system 10 according to an exemplary embodiment. Referring to FIG. 1 , the diagnosis assistance system 10 includes a learning device 1000 for training a diagnosis model, a diagnosis device 2000 for performing diagnosis using the diagnosis model, and a client device 3000 for obtaining a diagnosis request. may include The diagnosis assistance system 10 may include a plurality of learning devices, a plurality of diagnostic devices, or a plurality of client devices.

학습 장치(1000)는 학습부(100)를 포함할 수 있다. 학습부(100)는 신경망 모델의 트레이닝을 수행할 수 있다. 일 예로, 학습부(100)는 안저 이미지 데이터 세트를 획득하고, 안저 이미지로부터 질환 또는 이상 소견을 검출하는 신경망 모델의 트레이닝을 수행할 수 있다. The learning apparatus 1000 may include the learning unit 100 . The learning unit 100 may train the neural network model. As an example, the learner 100 may acquire a fundus image data set and train a neural network model for detecting a disease or abnormality from the fundus image.

진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단부(200)는 신경망 모델을 이용하여 질환의 진단 또는 진단에 이용되는 보조 정보의 획득을 수행할 수 있다. 일 예로, 진단부(200)는 학습부(100)에 의하여 트레이닝된 진단 모델을 이용하여 진단 보조 정보의 획득을 수행할 수 있다. The diagnosis apparatus 2000 may include a diagnosis unit 200 . The diagnosis unit 200 may diagnose a disease or acquire auxiliary information used for diagnosis by using the neural network model. For example, the diagnosis unit 200 may obtain the diagnosis auxiliary information by using a diagnosis model trained by the learning unit 100 .

클라이언트 장치(3000)는 촬상부(300)를 포함할 수 있다. 촬상부(300)는 안저 이미지를 촬상할 수 있다. 클라이언트 장치는 안과용 안저 촬영 장치일 수 있다. 또는 클라이언트 장치(3000)는 스마트폰, 태블릿 PC 등의 휴대용(handheld) 디바이스일 수 있다. The client device 3000 may include an imaging unit 300 . The imaging unit 300 may capture a fundus image. The client device may be an ophthalmic fundus imaging device. Alternatively, the client device 3000 may be a handheld device such as a smart phone or a tablet PC.

본 실시 예에 따른 진단 보조 시스템(10)에서, 학습 장치(1000)는 데이터 세트를 획득하여 신경망 모델의 학습을 수행함으로써 진단 보조에 이용하기 위한 신경망 모델을 결정하고, 진단 장치(2000)는 클라이언트로부터 정보 요청이 획득되면 결정된 신경망 모델을 이용하여 진단 대상 이미지에 따른 진단 보조 정보를 획득하고, 클라이언트 장치(3000)는 상기 진단 장치(2000)로 정보를 요청하고 이에 응답하여 전송된 진단 보조 정보를 획득할 수 있다. 'In the diagnosis assistance system 10 according to the present embodiment, the learning apparatus 1000 determines a neural network model to be used for diagnosis assistance by acquiring a data set and learning the neural network model, and the diagnosis apparatus 2000 is a client When the information request is obtained from can be obtained '

다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습 및 이를 이용한 진단을 수행하는 진단 장치 및 클라이언트 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습, 진단 요청의 획득 및 진단을 수행하는 진단 장치를 포함할 수 있다. 또 다른 일 실시 예에 따른 진단 보조 시스템은, 진단 모델의 학습을 수행하는 학습 장치 및 진단 요청을 획득하고, 진단을 수행하는 진단 장치를 포함할 수 있다. A diagnosis assistance system according to another exemplary embodiment may include a diagnosis apparatus and a client apparatus for learning a diagnosis model and performing diagnosis using the same. A diagnosis assistance system according to another exemplary embodiment may include a diagnosis apparatus that learns a diagnosis model, obtains a diagnosis request, and performs diagnosis. A diagnosis assistance system according to another embodiment may include a learning apparatus for learning a diagnostic model, and a diagnostic apparatus for obtaining a diagnosis request and performing a diagnosis.

본 명세서에서 개시하는 진단 보조 시스템이 위에서 설명한 실시 예들에 한정되는 것은 아니고, 모델의 학습을 수행하는 학습부, 학습된 모델에 따라 진단 보조 정보를 획득하는 진단부 및 진단 대상 이미지를 획득하는 촬상부를 포함하는 어떠한 형태로든 구현될 수 있다. The diagnosis assistance system disclosed herein is not limited to the above-described embodiments, and a learning unit for learning a model, a diagnosis unit for acquiring diagnosis assistance information according to the learned model, and an imaging unit for acquiring an image to be diagnosed It may be implemented in any form including.

이하에서는, 시스템을 구성하는 각 장치의 몇몇 실시 예에 대하여 설명한다. Hereinafter, some embodiments of each device constituting the system will be described.

1.1.2.1 학습 장치1.1.2.1 Learning device

일 실시 예에 따른 학습 장치는 진단을 보조하는 신경망 모델의 트레이닝을 수행할 수 있다.The learning apparatus according to an embodiment may train a neural network model that assists in diagnosis.

도 2는 일 실시 예에 따른 학습 장치(1000)를 설명하기 위한 블록도이다. 도 2를 참조하면, 학습 장치(1000)는 제어부(1200) 및 메모리부(1100)를 포함할 수 있다. 2 is a block diagram illustrating the learning apparatus 1000 according to an exemplary embodiment. Referring to FIG. 2 , the learning apparatus 1000 may include a control unit 1200 and a memory unit 1100 .

학습 장치(1000)는 제어부(1200)를 포함할 수 있다. 제어부(1200)는 학습 장치(1000)의 동작을 제어할 수 있다.The learning apparatus 1000 may include a controller 1200 . The controller 1200 may control the operation of the learning apparatus 1000 .

제어부(1200)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다. The control unit 1200 includes at least one of a central processing unit (CPU), a random access memory (RAM), a graphic processing unit (GPU), one or more microprocessors, and other electronic components capable of processing input data according to a predetermined logic. may include

제어부(1200)는 메모리부(1100)에 저장된 시스템 프로그램 및 다양한 프로세싱 프로그램을 판독할 수 있다. 일 예로, 제어부(1200)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스, 진단 프로세스 등을 RAM 상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다. 제어부(1200)는 후술하는 신경망 모델의 학습을 수행할 수 있다.The controller 1200 may read a system program and various processing programs stored in the memory unit 1100 . For example, the controller 1200 may develop a data processing process, a diagnostic process, etc. for performing diagnosis assistance, which will be described later, on the RAM, and may perform various processes according to the developed program. The controller 1200 may perform learning of a neural network model, which will be described later.

학습 장치(1000)는 메모리부(1100)를 포함할 수 있다. 메모리부(1100)는 학습에 필요한 데이터 및 학습 모델을 저장할 수 있다.The learning apparatus 1000 may include a memory unit 1100 . The memory unit 1100 may store data required for learning and a learning model.

메모리부(1100)는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM, ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 이외의 유형의(tangible) 비휘발성 기록 매체 등으로 구현될 수 있다. The memory unit 1100 may include a nonvolatile semiconductor memory, a hard disk, a flash memory, a RAM, a read only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), or other tangible nonvolatile recording media, etc. can be implemented as

메모리부(1100)는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 일 예로, 메모리부(1100)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스 프로그램, 진단 프로세스 프로그램, 각 프로그램의 수행을 위한 파라미터 및 이러한 프로그램의 수행에 따라 얻어진 데이터(예컨대, 가공된 데이터 또는 진단 결과값) 등을 저장할 수 있다.The memory unit 1100 may store various processing programs, parameters for performing processing of the programs, or data as a result of such processing. For example, the memory unit 1100 may include a data processing process program, a diagnostic process program, parameters for execution of each program, and data (eg, processed data or diagnostics) obtained according to the execution of the program to be described later for performing the diagnosis assistance. result) and so on.

학습 장치(1000)는 별도의 학습부(또는 학습 모듈)를 포함할 수 있다. 학습부는 신경망 모델의 학습을 수행할 수 있다. 학습의 수행과 관련하여서는 이하의 목차 2. 학습 프로세스 에서 보다 상세히 설명하기로 한다.The learning apparatus 1000 may include a separate learning unit (or learning module). The learning unit may perform learning of the neural network model. In relation to the performance of learning, it will be described in more detail in Table of Contents 2. Learning process below.

학습부는 전술한 제어부(1200)에 포함될 수 있다. 학습부는 전술한 메모리부(1100)에 저장될 수 있다. 학습부는 전술한 제어부(1200) 및 메모리부(1100)의 일부 구성에 의하여 구현될 수 있다. 예컨대, 학습부는 메모리부(1100)에 저장되고, 제어부(1200)에 의하여 구동될 수 있다. The learning unit may be included in the above-described control unit 1200 . The learning unit may be stored in the aforementioned memory unit 1100 . The learning unit may be implemented by some configurations of the control unit 1200 and the memory unit 1100 described above. For example, the learning unit may be stored in the memory unit 1100 and driven by the control unit 1200 .

학습 장치(1000)는 통신부(1300)를 더 포함할 수 있다. 통신부(1300)는 외부 장치와 통신을 수행할 수 있다. 예컨대, 통신부(1300)는 후술하는 진단 장치, 서버 장치 또는 클라이언트 장치와 통신할 수 있다. 통신부(1300)는 유선 또는 무선 통신을 수행할 수 있다. 통신부(1300)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다. The learning apparatus 1000 may further include a communication unit 1300 . The communication unit 1300 may communicate with an external device. For example, the communication unit 1300 may communicate with a diagnostic device, a server device, or a client device, which will be described later. The communication unit 1300 may perform wired or wireless communication. The communication unit 1300 may perform bi-directional or unidirectional communication.

도 3은 일 실시 예에 따른 학습 장치(1000)를 보다 구체적으로 설명하기 위한 블록도이다. 도 3을 참조하면, 학습 장치(1000)는 프로세서(1050), 휘발성 메모리(1010), 비휘발성 메모리(1030), 대용량 저장 장치(1070) 및 통신 인터페이스(1090)를 포함할 수 있다.3 is a block diagram illustrating the learning apparatus 1000 according to an exemplary embodiment in more detail. Referring to FIG. 3 , the learning apparatus 1000 may include a processor 1050 , a volatile memory 1010 , a nonvolatile memory 1030 , a mass storage device 1070 , and a communication interface 1090 .

학습 장치(1000)의 프로세서(1050)는 데이터 가공 모듈(1051) 및 학습 모듈(1053)을 포함할 수 있다. 프로세서(1050)는 데이터 가공 모듈(1051)을 통하여 대용량 저장 장치 또는 비휘발성 메모리에 저장된 데이터 세트를 가공할 수 있다. 프로세서(1050)는 학습 모듈(1053)을 통하여, 진단 보조 신경망 모델의 트레이닝을 수행할 수 있다. 프로세서(1050)는 로컬 메모리를 포함할 수 있다. 통신 인터페이스(1090)는 네트워크(1110)와 연결될 수 있다.The processor 1050 of the learning apparatus 1000 may include a data processing module 1051 and a learning module 1053 . The processor 1050 may process a data set stored in a mass storage device or a non-volatile memory through the data processing module 1051 . The processor 1050 may train the diagnostic auxiliary neural network model through the learning module 1053 . The processor 1050 may include local memory. The communication interface 1090 may be connected to the network 1110 .

다만, 도 3에서 도시하는 학습 장치(1000)는, 예시에 불과하며, 일 실시 예에 따른 학습 장치(1000)의 구성이 이에 한정되지는 않는다. 특히, 데이터 가공 모듈(1051) 또는 학습 모듈(1053)은 도 3에서 도시하는 것과 다른 위치에 마련될 수 있다.However, the learning apparatus 1000 illustrated in FIG. 3 is merely an example, and the configuration of the learning apparatus 1000 according to an exemplary embodiment is not limited thereto. In particular, the data processing module 1051 or the learning module 1053 may be provided at a location different from that shown in FIG. 3 .

1.1.2.2 진단 장치1.1.2.2 Diagnostic device

진단 장치는 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.The diagnostic apparatus may obtain diagnostic auxiliary information by using the neural network model.

도 4는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 블록도이다. 도 4를 참조하면, 진단 장치(2000)는 제어부(2200) 및 메모리부(2100)를 포함할 수 있다. 4 is a block diagram illustrating a diagnosis apparatus 2000 according to an exemplary embodiment. Referring to FIG. 4 , the diagnosis apparatus 2000 may include a control unit 2200 and a memory unit 2100 .

제어부(2200)는 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 생성할 수 있다. 제어부(2200)는 진단을 위한 진단 데이터(예컨대, 피검자의 안저 데이터)를 획득하고 학습된 진단 보조 신경망 모델을 이용하여 진단 데이터에 의해 예측되는 진단 보조 정보를 획득할 수 있다. The controller 2200 may generate the diagnosis auxiliary information by using the diagnosis auxiliary neural network model. The controller 2200 may acquire diagnostic data for diagnosis (eg, fundus data of a subject) and acquire auxiliary diagnostic information predicted by the diagnostic data using the learned diagnostic auxiliary neural network model.

메모리부(2100)는 학습된 진단 보조 신경망 모델을 저장할 수 있다. 메모리부(2100)는 진단 보조 신경망 모델의 파라미터, 변수 등을 저장할 수 있다. The memory unit 2100 may store the learned diagnostic auxiliary neural network model. The memory unit 2100 may store parameters and variables of the auxiliary diagnostic neural network model.

진단 장치(2000)는 통신부(2300)를 더 포함할 수 있다. 통신부(2300)는 학습 장치 및/또는 클라이언트 장치와 통신할 수 있다. 일 예로, 진단 장치(2000)는 클라이언트 장치와 통신하는 서버 형태로 마련될 수 있다. 이와 관련하여, 이하에서 보다 상세히 설명한다. The diagnosis apparatus 2000 may further include a communication unit 2300 . The communication unit 2300 may communicate with the learning device and/or the client device. For example, the diagnosis apparatus 2000 may be provided in the form of a server communicating with a client device. In this regard, it will be described in more detail below.

도 5는 일 실시 예에 따른 진단 장치(2000)를 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시 예에 따른 진단 장치(2000)는 프로세서(2050), 휘발성 메모리(2030), 비휘발성 메모리(2010), 대용량 저장 장치(2070), 및 통신 인터페이스(2090)를 포함할 수 있다.5 is a diagram for describing a diagnosis apparatus 2000 according to an exemplary embodiment. Referring to FIG. 5 , the diagnostic apparatus 2000 according to an embodiment includes a processor 2050 , a volatile memory 2030 , a non-volatile memory 2010 , a mass storage device 2070 , and a communication interface 2090 . can do.

진단 장치의 프로세서(2050)는 데이터 가공 모듈(2051) 및 진단 모듈(2053)을 포함할 수 있다. 프로세서(2050)는 데이터 가공 모듈(2051)을 통하여 진단 데이터의 가공을 수행하고, 진단 모듈(2053)을 통하여 진단 데이터에 따른 진단 보조 정보를 획득할 수 있다.The processor 2050 of the diagnostic apparatus may include a data processing module 2051 and a diagnostic module 2053 . The processor 2050 may process diagnostic data through the data processing module 2051 and obtain diagnostic auxiliary information according to the diagnostic data through the diagnostic module 2053 .

1.1.2.3 서버 장치1.1.2.3 Server device

일 실시 예에 따르면, 진단 보조 시스템은 서버 장치를 포함할 수 있다. 일 실시 예에 따른 진단 보조 시스템은, 복수의 서버 장치를 포함할 수도 있다. According to an embodiment, the diagnosis assistance system may include a server device. A diagnosis assistance system according to an embodiment may include a plurality of server devices.

서버 장치는 신경망 모델을 저장 및/또는 구동할 수 있다. 서버 장치는 학습된 신경망 모델을 구성하는 가중치 값들을 저장할 수 있다. 서버 장치는 진단 보조에 이용되는 데이터를 수집 또는 저장할 수 있다.The server device may store and/or run the neural network model. The server device may store weight values constituting the learned neural network model. The server device may collect or store data used for diagnosis assistance.

서버 장치는 신경망 모델을 이용한 진단 보조 프로세스의 결과를 클라이언트 장치로 출력할 수 있다. 서버 장치는 클라이언트 장치로부터 피드백을 획득할 수 있다. 서버 장치는 전술한 진단 장치와 유사하게 동작할 수 있다. The server device may output the result of the diagnostic auxiliary process using the neural network model to the client device. The server device may obtain feedback from the client device. The server device may operate similarly to the diagnostic device described above.

도 6은 일 실시 예에 따른 진단 보조 시스템(20)을 도시한 것이다. 도 6을 참조하면, 일 실시 예에 따른 진단 보조 시스템(20)은 진단 서버(4000), 학습 장치 및 클라이언트 장치를 포함할 수 있다. 6 illustrates a diagnosis assistance system 20 according to an exemplary embodiment. Referring to FIG. 6 , the diagnosis assistance system 20 according to an embodiment may include a diagnosis server 4000 , a learning device, and a client device.

진단 서버(4000), 즉 서버 장치는 복수의 학습 장치 또는 복수의 진단 장치와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 학습 장치(1000a) 및 제2 학습 장치(1000b)와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 클라이언트 장치(3000a) 및 제2 클라이언트 장치(3000b)와 통신할 수 있다. The diagnosis server 4000 , that is, a server device may communicate with a plurality of learning devices or a plurality of diagnostic devices. Referring to FIG. 6 , the diagnosis server 4000 may communicate with the first learning apparatus 1000a and the second learning apparatus 1000b. Referring to FIG. 6 , the diagnosis server 4000 may communicate with a first client device 3000a and a second client device 3000b .

예컨대, 진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델을 학습시키는 제1 학습 장치(1000a) 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 학습시키는 제2 학습 장치(1000b)와 통신할 수 있다. For example, the diagnosis server 4000 may be configured to train the first learning apparatus 1000a for learning the first auxiliary diagnosis neural network model to obtain the first diagnosis auxiliary information and the second diagnosis auxiliary neural network model to obtain the second diagnosis auxiliary information. It may communicate with the second learning apparatus 1000b.

진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 저장하고, 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로부터의 지단 보조 정보 획득 요청에 응답하여 진단 보조 정보를 획득하고, 획득된 진단 보조 정보를 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로 전송할 수 있다. The diagnostic server 4000 stores a first diagnostic auxiliary neural network model for obtaining the first diagnostic auxiliary information and a second diagnostic auxiliary neural network model for obtaining the second diagnostic auxiliary information, the first client device 3000a or the second client Diagnosis auxiliary information may be obtained in response to a request for obtaining zidan auxiliary information from the device 3000b , and the obtained diagnosis auxiliary information may be transmitted to the first client device 3000a or the second client device 3000b .

또는, 진단 서버(4000)는 제1 진단 보조 정보를 요청하는 제1 클라이언트 장치(3000a) 및 제2 진단 보조 정보를 요청하는 제2 클라이언트 장치(3000b)와 통신할 수도 있다.Alternatively, the diagnosis server 4000 may communicate with the first client device 3000a requesting the first diagnosis assistance information and the second client device 3000b requesting the second diagnosis assistance information.

1.1.2.4 클라이언트 장치 1.1.2.4 Client Device

클라이언트 장치는 진단 장치 또는 서버 장치로 진단 보조 정보를 요청할 수 있다. 클라이언트 장치는 진단에 필요한 데이터를 획득하고, 진단 장치로 획득한 데이터를 전송할 수 있다.The client device may request the diagnostic assistance information from the diagnostic device or the server device. The client device may acquire data required for diagnosis and transmit the acquired data to the diagnosis device.

클라이언트 장치는 데이터 획득부를 포함할 수 있다. 데이터 획득부는 진단 보조에 필요한 데이터를 획득할 수 있다. 데이터 획득부는 진단 보조 모델에 이용되는 이미지를 획득하는 촬상부일 수 있다. The client device may include a data acquisition unit. The data acquisition unit may acquire data necessary for diagnosis assistance. The data acquisition unit may be an imaging unit that acquires an image used for the diagnosis assistance model.

도 7은 일 실시 예에 따른 클라이언트 장치(3000)를 설명하기 위한 블록도이다. 도 7을 참조하면, 일 실시 예에 따른 클라이언트 장치(3000)는 촬상부(3100), 제어부(3200), 및 통신부(3300)를 포함할 수 있다.7 is a block diagram illustrating a client device 3000 according to an exemplary embodiment. Referring to FIG. 7 , the client device 3000 according to an embodiment may include an imaging unit 3100 , a control unit 3200 , and a communication unit 3300 .

촬상부(3100)는 이미지 또는 영상 데이터를 획득할 수 있다. 촬상부(3100)는 안저 이미지를 획득할 수 있다. 다만, 클라이언트 장치(3000)는 촬상부(3100)가 아닌 다른 형태의 데이터 획득부로 대체될 수도 있다.The imaging unit 3100 may acquire an image or image data. The imaging unit 3100 may acquire a fundus image. However, the client device 3000 may be replaced with a data acquisition unit other than the imaging unit 3100 .

통신부(3300)는 외부 장치, 예컨대 진단 장치 또는 서버 장치와 통신할 수 있다. 통신부(3300)는 유선 또는 무선 통신을 수행할 수 있다.The communication unit 3300 may communicate with an external device, for example, a diagnostic device or a server device. The communication unit 3300 may perform wired or wireless communication.

제어부(3200)는 촬상부(3100)가 이미지 또는 데이터를 획득하도록 제어할 수 있다. 제어부(3200)는 촬상부(3100)가 안저 이미지를 획득하도록 제어할 수 있다. 제어부(3200)는 획득된 안저 이미지를 진단 장치로 전송할 수 있다. 제어부는 촬상부(3100)를 통하여 획득한 이미지를 통신부(3300)를 통하여 서버 장치로 전송하고, 이에 기초하여 생성된 진단 보조 정보를 획득할 수 있다. The controller 3200 may control the imaging unit 3100 to acquire an image or data. The controller 3200 may control the imaging unit 3100 to acquire a fundus image. The controller 3200 may transmit the acquired fundus image to the diagnosis apparatus. The controller may transmit the image acquired through the imaging unit 3100 to the server device through the communication unit 3300, and may acquire the generated diagnostic auxiliary information based thereon.

도시하지는 아니하였으나, 클라이언트 장치는 출력부를 더 포함할 수 있다. 출력부는 영상 또는 이미지를 출력하는 디스플레이 또는 음성을 출력하는 스피커를 포함할 수 있다. 출력부는 획득된 촬상부에 의해 획득된 영상 또는 이미지 데이터를 출력할 수 있다. 출력부는 진단 장치로부터 획득된 진단 보조 정보를 출력할 수 있다. Although not shown, the client device may further include an output unit. The output unit may include a display that outputs an image or image, or a speaker that outputs an audio. The output unit may output an image or image data acquired by the acquired imaging unit. The output unit may output the diagnosis auxiliary information obtained from the diagnosis apparatus.

도시하지는 아니하였으나, 클라이언트 장치는 입력부를 더 포함할 수 있다. 입력부는 사용자 입력을 획득할 수 있다. 예컨대, 입력부는 진단 보조 정보를 요청하는 사용자 입력을 획득할 수 있다. 입력부는 진단 장치로부터 획득된 진단 보조 정보를 평가하는 사용자 정보를 획득할 수 있다.Although not shown, the client device may further include an input unit. The input unit may obtain a user input. For example, the input unit may obtain a user input for requesting diagnosis auxiliary information. The input unit may obtain user information for evaluating the diagnosis auxiliary information obtained from the diagnosis apparatus.

또한, 도시하지는 아니하였으나, 클라이언트 장치는 메모리부를 더 포함할 수 있다. 메모리부는 촬상부에 의해 획득된 이미지를 저장할 수 있다. Also, although not shown, the client device may further include a memory unit. The memory unit may store an image acquired by the imaging unit.

1.1.3 진단 보조 프로세스 개요 1.1.3 Diagnostic Auxiliary Process Overview

본 명세서에서 개시하는 진단 보조 시스템 또는 진단 보조 장치에 의하여 진단 보조 프로세스가 수행될 수 있다. 진단 보조 프로세스는 크게 진단 보조에 이용되는 진단 보조 모델을 학습하는 트레이닝 프로세스, 진단 보조 모델을 이용하는 진단 프로세스로 나누어 고려될 수 있다.A diagnostic assistance process may be performed by a diagnostic assistance system or a diagnostic assistance apparatus disclosed herein. The diagnosis assistance process may be divided into a training process for learning a diagnosis assistance model used for diagnosis assistance and a diagnosis process using the diagnosis assistance model.

도 8은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는, 데이터를 획득하고, 가공하여(S110) 신경망 모델을 학습하고(S130), 학습된 신경망 모델의 변수를 획득(S150)하는 학습 프로세스 및 진단 대상 데이터를 획득하고(S210) 진단 대상 데이터에 기초하여 학습된 신경망 모델(S230)을 이용하여 진단 보조 정보를 획득(S250)하는 진단 보조 프로세스를 포함할 수 있다. 8 is a diagram for describing a diagnosis assistance process according to an exemplary embodiment. Referring to FIG. 8 , the diagnosis assistance process according to an embodiment includes a learning process of acquiring and processing data (S110) to learn a neural network model (S130), and acquiring variables of the learned neural network model (S150); It may include a diagnosis auxiliary process of acquiring the diagnosis target data (S210) and acquiring the diagnosis auxiliary information using the neural network model (S230) learned based on the diagnosis target data (S250).

보다 구체적으로, 트레이닝 프로세스는 입력된 학습 이미지 데이터를 가공하여 모델의 트레이닝에 이용될 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 모델을 트레이닝하는 학습 프로세스를 포함할 수 있다. 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.More specifically, the training process may include a data processing process of processing the input training image data to a state that can be used for training of the model, and a learning process of training the model using the processed data. The training process may be performed by the above-described learning device.

진단 프로세스는 입력된 검사 대상 이미지 데이터를 가공하여 신경망 모델을 이용한 진단을 수행할 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 진단을 수행하는 진단 프로세스를 포함할 수 있다. 진단 프로세스는 전술한 진단 장치 또는 서버 장치에 의하여 수행될 수 있다.The diagnosis process may include a data processing process of processing input test target image data to a state capable of performing diagnosis using a neural network model, and a diagnosis process of performing diagnosis using the processed data. The diagnostic process may be performed by the aforementioned diagnostic device or the server device.

이하에서는, 각 프로세스에 대하여 설명한다. Below, each process is demonstrated.

1.2 트레이닝 프로세스1.2 Training process

일 실시 예에 따르면, 신경망 모델을 트레이닝하는 프로세스가 제공될 수 있다. 구체적인 예로, 안저 이미지에 기초하여 진단을 수행하거나 보조하는 신경망 모델을 트레이닝하는 프로세스가 개시될 수 있다. According to an embodiment, a process for training a neural network model may be provided. As a specific example, a process of training a neural network model for performing or assisting a diagnosis based on a fundus image may be disclosed.

이하에서는 설명하는 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.The training process to be described below may be performed by the above-described learning apparatus.

1.2.1 학습부1.2.1 Study Department

일 실시 예에 따르면, 트레이닝 프로세스는 학습부에 의해 수행될 수 있다. 학습부는 전술한 학습 장치 내에 마련될 수 있다.According to an embodiment, the training process may be performed by the learner. The learning unit may be provided in the above-described learning apparatus.

도 9는 일 실시 예에 따른 학습부(100)의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 학습부(100)는 데이터 가공 모듈(110), 큐 모듈(130), 학습 모듈(150) 및 학습 결과 모듈(170)을 포함할 수 있다. 각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 9에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적이지는 아니하며, 학습 형태에 따라, 일부 요소가 추가되거나 일부 요소들이 생략될 수 있다. 9 is a diagram for explaining the configuration of the learning unit 100 according to an embodiment. Referring to FIG. 9 , the learning unit 100 may include a data processing module 110 , a queue module 130 , a learning module 150 , and a learning result module 170 . Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components and functions performed by the components described in FIG. 9 are essential, and some elements may be added or some elements may be omitted depending on the learning form.

1.2.2 데이터 가공 프로세스1.2.2 Data Processing Process

1.2.2.1 이미지 데이터 획득1.2.2.1 Image data acquisition

일 실시 예에 따르면, 데이터 세트가 획득될 수 있다. 일 실시 예에 따르면, 데이터 가공 모듈은 데이터 세트를 획득할 수 있다.According to an embodiment, a data set may be obtained. According to an embodiment, the data processing module may acquire a data set.

데이터 세트는 이미지 데이터 세트일 수 있다. 구체적으로, 안저 이미지 데이터 세트일 수 있다. 안저 이미지 데이터 세트는 일반적인 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가 형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), EMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다. The data set may be an image data set. Specifically, it may be a fundus image data set. The fundus image data set may be acquired using a general annovulatory fundus camera or the like. The fundus image may be a panoramic image. The fundus image may be a red-free image. The fundus image may be an infrared photographed image. The fundus image may be an autofluorescence photographed image. The image data may be acquired in any one of JPG, PNG, DCM (DICOM), EMP, GIF, and TIFF format.

데이터 세트는 트레이닝 데이터 세트를 포함할 수 있다. 데이터 세트는 테스트 데이터 세트를 포함할 수 있다. 데이터 세트는 검증(validation) 데이터 세트를 포함할 수 있다. 다시 말해, 데이터 세트는 트레이닝 데이터 세트, 테스트 데이터 세트, 및 검증 데이터 세트 중 적어도 하나의 데이터 세트로 할당될 수 있다.The data set may include a training data set. The data set may include a test data set. The data set may include a validation data set. In other words, the data set may be assigned as at least one of a training data set, a test data set, and a validation data set.

데이터 세트는 해당 데이터 세트를 통해 학습되는 신경망 모델을 이용하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다. 예컨대, 백내장과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 적외선 안저 이미지 데이터 세트로 결정될 수 있다. 또는, 황반 변성과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 자가형광 촬영된 안저 이미지 데이터 세트일 수 있다. The data set may be determined in consideration of auxiliary diagnostic information to be obtained using a neural network model learned through the data set. For example, when training a neural network model for acquiring cataract-related diagnostic assistance information, the acquired data set may be determined as an infrared fundus image data set. Alternatively, when training a neural network model for acquiring diagnostic auxiliary information related to macular degeneration, the acquired data set may be an autofluorescence-captured fundus image data set.

데이터 세트에 포함되는 개별 데이터는 라벨을 포함할 수 있다. 라벨은 복수 개일 수 있다. 다시 말해, 데이터 세트에 포함되는 개별 데이터는 적어도 하나의 특징에 대하여 라벨링되어 있을 수 있다. 일 예로, 데이터 세트는 복수의 안저 이미지 데이터를 포함하는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 따른 진단 정보 라벨(예컨대, 특정 질환의 유무) 및/또는 소견 정보(예컨대, 특정 부위의 이상 여부) 라벨을 포함할 수 있다. Individual data included in a data set may include a label. There may be a plurality of labels. In other words, individual data included in the data set may be labeled with respect to at least one characteristic. For example, the data set is a fundus image data set including a plurality of fundus image data, and each fundus image data is a diagnostic information label (eg, presence or absence of a specific disease) and/or observation information (eg, specific Whether there is an abnormality in the site) label may be included.

다른 예로, 데이터 세트는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 대한 주변 정보 라벨을 포함할 수 있다. 예컨대, 각각의 안저 이미지 데이터는 해당 안저 이미지가 좌안의 이미지인지 또는 우안의 이미지인지에 대한 좌우안 정보, 여성의 안저 이미지인지 또는 남성의 안저 이미지인지에 대한 성별 정보, 해당 안저 이미지를 촬영한 피검자의 나이에 대한 나이 정보 등을 포함하는 주변 정보 라벨을 포함할 수 있다. As another example, the data set is a fundus image data set, and each fundus image data may include a peripheral information label for the corresponding image. For example, each fundus image data includes left and right eye information on whether the corresponding fundus image is an image of the left eye or the image of the right eye, gender information on whether the fundus image is a female fundus image or a male fundus image, and a subject who has taken the corresponding fundus image It may include a peripheral information label including age information on the age of the .

도 10은 일 실시 예에 따른 이미지 데이터 세트(DS)를 설명하기 위한 개념도이다. 도 10을 참조하면, 일 실시 예에 따른 이미지 데이터 세트(DS)는 복수의 이미지 데이터(ID)를 포함할 수 있다. 각 이미지 데이터(ID)는 이미지(I) 및 이미지에 할당된 라벨(L)을 포함할 수 있다. 도 10을 참조하면, 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1)은 제1 이미지(I1) 및 제1 이미지에 대응되는 제1 라벨(L1)을 포함할 수 있다. 10 is a conceptual diagram illustrating an image data set DS according to an exemplary embodiment. Referring to FIG. 10 , an image data set DS according to an embodiment may include a plurality of image data IDs. Each image data ID may include an image I and a label L assigned to the image. Referring to FIG. 10 , in the image data set DS, the first image data ID1 may include a first image I1 and a first label L1 corresponding to the first image.

도 10에서는 하나의 이미지 데이터가 하나의 라벨을 포함하는 경우를 기준으로 설명하였으나, 전술한 바와 같이 하나의 이미지 데이터는 복수의 라벨을 포함할 수 있다. In FIG. 10 , the description is based on a case in which one image data includes one label, but as described above, one image data may include a plurality of labels.

1.2.2.2 이미지 리사이징1.2.2.2 Image resizing

일 실시 예에 따르면, 획득된 이미지 데이터의 크기가 조정될 수 있다. 즉, 이미지들이 리사이징 될 수 있다. 일 실시 예에 따르면, 전술한 학습부의 데이터 가공 모듈에 의하여 이미지 리사이징이 수행될 수 있다.According to an embodiment, the size of the acquired image data may be adjusted. That is, images may be resized. According to an embodiment, the image resizing may be performed by the data processing module of the above-described learning unit.

이미지의 크기 또는 종횡비가 조정될 수 있다. 획득된 복수의 이미지들은 일정한 크기를 가지도록 그 크기가 조정될 수 있다. 또는, 이미지들은 일정한 종횡비(aspect ratio)를 가지도록 그 크기를 조정할 수 있다. 이미지를 리사이징 하는 것은 이미지에 이미지 변환 필터를 적용하는 것일 수 있다. The size or aspect ratio of the image can be adjusted. The size of the plurality of acquired images may be adjusted to have a constant size. Alternatively, the images may be resized to have a constant aspect ratio. Resizing the image may be applying an image transformation filter to the image.

획득된 개별 이미지들의 사이즈 또는 용량이 과도하게 크거나 작은 경우에, 이미지의 사이즈 또는 용량을 조정하여 적절한 사이즈로 변환할 수 있다. 또는 개별 이미지들의 사이즈 또는 용량이 다양한 경우에, 리사이징을 통하여 사이즈 또는 용량을 통일시킬 수 있다. When the size or capacity of the obtained individual images is excessively large or small, the size or capacity of the image may be adjusted to convert the image to an appropriate size. Alternatively, when the sizes or capacities of individual images vary, the sizes or capacities may be unified through resizing.

일 실시 예에 따르면, 이미지의 용량이 조정될 수 있다. 예컨대, 이미지의 용량이 적정 범위를 초과하는 경우에, 다운 샘플링(down sampling)을 통하여 이미지를 축소시킬 수 있다. 또는 이미지의 용량이 적정 범위에 못 미치는 경우에, 업 샘플링(upsampling) 또는 보간(interpolating)을 통하여 이미지를 확대할 수 있다.According to an embodiment, the capacity of the image may be adjusted. For example, when the capacity of the image exceeds an appropriate range, the image may be reduced through down sampling. Alternatively, when the capacity of the image is less than an appropriate range, the image may be enlarged through upsampling or interpolating.

다른 일 실시 예에 따르면, 이미지를 자르거나 획득한 이미지에 픽셀을 덧붙여 이미지의 사이즈 또는 종횡비를 조정할 수 있다. 예컨대, 이미지에 학습에 불필요한 부분이 포함되어 있는 경우에, 이를 제거하기 위하여 이미지 일부를 크롭할 수 있다. 또는, 이미지의 일부가 잘려나가 종횡비가 맞지 않는 경우에 칼럼(column) 또는 로(row)를 추가하여 이미지 종횡비를 조정할 수 도 있다. 다시 말해, 이미지에 마진 또는 패딩을 추가하여 종횡비를 조정할 수 있다. According to another embodiment, the size or aspect ratio of the image may be adjusted by cropping the image or adding pixels to the acquired image. For example, when an image includes a part unnecessary for learning, a part of the image may be cropped to remove it. Alternatively, if a part of the image is cropped and the aspect ratio does not match, a column or row may be added to adjust the image aspect ratio. In other words, you can adjust the aspect ratio by adding margin or padding to the image.

또 다른 일 실시 예에 따르면, 이미지의 용량 및 사이즈 또는 종횡비가 함께 조정될 수 있다. 일 예로, 이미지의 용량이 큰 경우에 이미지를 다운 샘플링하여 이미지 용량을 축소하고, 축소된 이미지에 포함된 불필요한 부분을 크롭하여 적절한 이미지 데이터로 변환할 수 있다.According to another embodiment, the capacity and size or aspect ratio of the image may be adjusted together. For example, when the size of the image is large, the image capacity may be reduced by downsampling the image, and unnecessary parts included in the reduced image may be cropped to convert the image data into appropriate image data.

또한, 일 실시 예에 따르면, 이미지 데이터의 방향(orientation)이 변경될 수도 있다.Also, according to an embodiment, the orientation of the image data may be changed.

구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우, 각각의 안저 이미지는 그 용량이 조절되거나, 사이즈가 조정될 수 있다. 안저 이미지의 안저 부분을 제외한 여백 부분을 제거하기 위한 크롭핑 또는 안저 이미지의 잘린 부분을 보충하여 종횡비를 조정하기 위한 패딩을 수행할 수 있다. As a specific example, when a fundus image data set is used as the data set, the capacity or size of each fundus image may be adjusted. Cropping for removing a blank portion excluding the fundus portion of the fundus image or padding for adjusting the aspect ratio by supplementing the cropped portion of the fundus image may be performed.

도 11은 일 실시 예에 따른 이미지 리사이징을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시 예에 따른 이미지 리사이징 프로세스에 의하여, 획득된 안저 이미지가 리사이징될 수 있다.11 is a diagram for describing image resizing according to an exemplary embodiment. Referring to FIG. 11 , the acquired fundus image may be resized by the image resizing process according to an embodiment.

구체적으로 원본 안저 이미지(a)는 진단 정보 획득에 불필요한 여백 부분이 크롭되고(b), 학습 효율의 증진을 위하여 그 크기가 축소(c)될 수 있다. Specifically, in the original fundus image (a), a blank portion unnecessary for acquiring diagnostic information may be cropped (b), and its size may be reduced (c) to improve learning efficiency.

1.2.2.3 이미지 전처리1.2.2.3 Image preprocessing

일 실시 예에 따르면, 이미지 전처리가 수행될 수 있다. 이미지를 입력된 그대로 학습에 이용할 경우, 불필요한 특성들에 대한 학습 결과 과적합 현상 등이 발생할 수 있고, 학습 효율 역시 저하될 수 있다. According to an embodiment, image pre-processing may be performed. When an image is used as input for learning, overfitting may occur as a result of learning about unnecessary characteristics, and learning efficiency may also decrease.

이를 방지하기 위하여, 이미지 데이터를 학습의 목적에 부합하도록 적절히 전처리하여 이용함으로써 학습 효율 및 성능을 향상시킬 수 있다. 예컨대, 안저 이미지에 대하여 안질환의 이상 징후를 검출하기에 용하이하도록 하는 전처리 또는 망막 혈관 내지 혈류 변화가 강조되도록 하는 전처리가 수행될 수 있다.In order to prevent this, learning efficiency and performance can be improved by appropriately pre-processing and using image data to meet the purpose of learning. For example, a preprocessing for easy detection of abnormal signs of an eye disease or a preprocessing for emphasizing changes in retinal blood vessels or blood flow may be performed on the fundus image.

전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 전처리가 수행될 수 있다. 데이터 가공 모듈은 리사이징된 이미지를 획득하고 학습에 요청되는 전처리를 수행할 수 있다. Pre-processing of the image may be performed by the data processing module of the above-described learning unit. The data processing module may acquire a resized image and perform pre-processing requested for learning.

이미지 전처리는 전술한 리사이징 처리가 완료된 이미지에 대하여 수행될 수 있다. 다만, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니고, 리사이징 처리를 생략하고 이미지에 대한 전처리가 수행될 수도 있다. 이미지의 전처리를 가하는 것은 이미지에 전처리 필터를 적용하는 것일 수 있다.The image pre-processing may be performed on the image on which the above-described resizing process has been completed. However, the content of the invention disclosed in the present specification is not limited thereto, and pre-processing of the image may be performed while omitting the resizing process. Applying pre-processing of the image may be applying a pre-processing filter to the image.

일 실시 예에 따르면, 이미지에 블러(blur) 필터가 적용될 수 있다. 이미지에 가우시안 필터가 적용될 수 있다. 이미지에 가우시안 블러 필터가 적용될 수 도 있다. 또는, 이미지에 이미지를 선명하게 하는 디블러(deblur) 필터가 적용될 수 있다.According to an embodiment, a blur filter may be applied to an image. A Gaussian filter may be applied to the image. A Gaussian blur filter may be applied to the image. Alternatively, a deblur filter for sharpening the image may be applied to the image.

다른 일 실시 예에 따르면, 이미지의 색상을 조정 또는 변조하는 필터가 적용될 수 있다. 예컨대, 이미지를 구성하는 RGB 값 중 일부 성분의 값을 변경하거나, 또는 이미지를 이진화하는 필터가 적용될 수도 있다. According to another embodiment, a filter for adjusting or modulating the color of the image may be applied. For example, a filter for changing the values of some components among RGB values constituting the image or for binarizing the image may be applied.

또 다른 일 실시 예에 따르면, 이미지에 특정 요소가 강조되도록 하는 필터가 적용될 수 있다. 예컨대, 안저 이미지 데이터에 대하여, 각 이미지로부터 혈관 요소가 강조되도록 하는 전처리가 수행될 수 있다. 이 때, 혈관 요소가 강조되도록 하는 전처리는 하나 이상의 필터를 순차적으로 조합하여 적용하는 것일 수 있다. According to another embodiment, a filter for emphasizing a specific element in an image may be applied. For example, pre-processing may be performed on fundus image data so that vascular elements are emphasized from each image. In this case, the pre-processing for emphasizing the vascular element may be applying one or more filters sequentially in combination.

일 실시 예에 따르면, 이미지의 전처리는 획득하고자 하는 진단 보조 정보의 특성을 고려하여 수행될 수 있다. 예컨대, 망막의 출혈, 드루젠, 미세혈관류, 삼출물 등의 소견과 관련된 진단 보조 정보를 획득하고자 하는 경우에는 획득된 안저 이미지를 레드프리 안저 이미지 형태로 변환하는 전처리를 수행할 수 있다. According to an embodiment, the image pre-processing may be performed in consideration of the characteristics of the diagnostic auxiliary information to be acquired. For example, when it is desired to acquire diagnostic auxiliary information related to findings such as retinal hemorrhage, drusen, microvascular flow, and exudate, preprocessing of converting the acquired fundus image into a red-free fundus image form may be performed.

1.2.2.4 이미지 증강(augmentation)1.2.2.4 Image augmentation

일 실시 예에 따르면, 이미지가 증강 또는 확장될 수 있다. 전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 증강이 수행될 수 있다.According to an embodiment, the image may be augmented or expanded. Augmentation of the image may be performed by the data processing module of the above-described learning unit.

증강된 이미지들은 신경망 모델의 트레이닝 성능 개선을 위하여 이용될 수 있다. 예컨대, 신경망 모델의 트레이닝을 위한 데이터의 양이 부족한 경우에, 트레이닝을 위한 데이터 수의 확대를 위하여 존재하는 트레이닝 이미지 데이터의 변조를 실시하고, 변조(또는 변화)된 이미지를 원본 이미지와 함께 이용함으로써 트레이닝 이미지 데이터 수를 늘릴 수 있다. 이에 따라 과학습(overfitting)이 억제되고 모델의 레이어를 보다 깊이 형성할 수 있으며, 예측 정확도가 향상될 수 있다. The augmented images may be used to improve training performance of the neural network model. For example, when the amount of data for training the neural network model is insufficient, by performing modulation of the existing training image data to expand the number of data for training, and using the modulated (or changed) image together with the original image The number of training image data can be increased. Accordingly, overfitting can be suppressed, a model layer can be formed more deeply, and prediction accuracy can be improved.

예를 들어, 이미지 데이터의 확장은, 이미지의 좌우를 반전시키거나, 이미지의 일부를 오려내거나, 이미지의 색상 값을 보정하거나, 또는 인위적인 노이즈를 추가하여 수행될 수 있다. 구체적인 예로, 이미지의 일부를 오려내는 것은 이미지를 구성하는 요소의 일부 영역을 오려내거나, 일부 영역들을 랜덤하게 오려내는 방식으로 수행될 수 있다. 보다 많은 예로, 이미지 데이터를 좌우 반전, 상하 반전, 회전, 일정 비율 리사이징, 크롭핑, 패딩, 색상 조정 또는 밝기 조정 함으로써 이미지 데이터를 확장할 수 있다. For example, the image data expansion may be performed by inverting the left and right sides of the image, cutting out a part of the image, correcting a color value of the image, or adding artificial noise. As a specific example, cutting out a part of the image may be performed by cutting out some areas of elements constituting the image or randomly cutting out some areas. As more examples, image data may be expanded by inverting left and right, inverting up/down, rotating, resizing, cropping, padding, adjusting color, or adjusting brightness of image data.

일 예로, 상술한 이미지 데이터의 증강 또는 확장은 일반적으로, 트레이닝 데이터 세트에 대하여 적용될 수 있다. 다만, 이외의 데이터 세트, 예컨대, 테스트 데이터 세트, 즉 트레이닝 데이터를 이용한 학습 및 검증 데이터를 이용한 검증이 끝난 모델의 테스트를 위한 데이터 세트에도 적용될 수 있다. As an example, the above-described augmentation or expansion of image data may be generally applied to a training data set. However, it may be applied to other data sets, for example, a test data set, that is, a data set for testing a model that has been trained using training data and verified using verification data.

구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우에, 데이터의 수를 늘리기 위하여 이미지를 반전시키거나, 오려내거나, 노이즈를 추가하거나, 색상을 변경하는 것 중 하나 이상의 처리를 랜덤하게 적용하여 증강된 안저 이미지 데이터 세트를 획득할 수 있다. As a specific example, when a fundus image data set is used as a data set, by randomly applying one or more processing of inverting the image, cropping, adding noise, or changing the color, in order to increase the number of data, An augmented fundus image data set may be acquired.

도 12는 일 실시 예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다. 도 12를 참조하면, 일 실시 예들에 따른 이미지는 신경망 모델의 예측 정확도를 향상시키기 위하여 변형될 수 있다.12 is a diagram for describing an extension of an image data set according to an exemplary embodiment. Referring to FIG. 12 , an image according to embodiments may be modified to improve prediction accuracy of a neural network model.

구체적으로, 도 12를 참조하면, 일 실시 예들에 따른 이미지는 일부 영역이 드롭-아웃되거나(a), 좌우가 반전되거나(b), 중심점이 이동되거나(c, d), 일부 영역의 색상이 변조(e)될 수 있다. Specifically, referring to FIG. 12 , in an image according to an embodiment, a partial region is dropped out (a), left and right inverted (b), a center point is moved (c, d), or a color of a partial region is changed It can be modulated (e).

1.2.2.5 이미지 직렬화(serialization)1.2.2.5 Image serialization

일 실시 예에 따르면, 이미지 데이터는 직렬화(linearization)될 수 있다. 이미지는 전술한 학습부의 데이터 가공 모듈에 의하여 직렬화될 수 있다. 직렬화 모듈은 전처리된 이미지 데이터를 직렬화하고 큐 모듈로 전달할 수 있다.According to an embodiment, the image data may be linearized. The image may be serialized by the data processing module of the above-described learning unit. The serialization module can serialize the preprocessed image data and pass it to the queue module.

이미지 데이터를 그대로 이용하여 학습에 이용하게 되면, 이미지 데이터는 JPG, PNB, DCM 등의 이미지 파일 형태를 가지기 때문에 디코딩이 필요한데, 매번 디코딩을 거쳐 학습을 수행하게 되면 모델 학습의 성능이 저하될 수 있다. 이에 따라, 이미지 파일을 그대로 학습에 이용하지 않고 직렬화하여 학습을 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 직렬화되는 이미지 데이터는 전술한 이미지 리사이징 및 이미지 전처리 중 하나 이상의 단계가 적용된 이미지 데이터거나, 둘 다 처리되지 아니한 이미지 데이터일 수 있다. If the image data is used for learning as it is, decoding is required because the image data has the form of an image file such as JPG, PNB, DCM. . Accordingly, it is possible to perform learning by serializing the image file without using it for learning as it is. Accordingly, image data can be serialized to improve learning performance and speed. Accordingly, image data can be serialized to improve learning performance and speed. The image data to be serialized may be image data to which one or more of the above-described image resizing and image pre-processing has been applied, or image data to which both are not processed.

이미지 데이터 세트에 포함되는 각 이미지 데이터는 스트링 형태로 변환될 수 있다. 이미지 데이터는 이진화된 데이터 형태로 변환될 수 있다. 특히, 이미지 데이터는 신경망 모델의 학습에 이요되겡 적합한 데이터 형태로 변환될 수 있다. 일 예로, 이미지 데이터는 텐서플로우(tensorflow)를 이용한 신경망 모델 학습에 이용하기 위한 TFRecord 형태로 변환될 수 있다.Each image data included in the image data set may be converted into a string form. The image data may be converted into a binary data form. In particular, image data may be converted into a data format suitable for training of a neural network model. As an example, image data may be converted into a TFRecord form for use in training a neural network model using tensorflow.

구체적인 예로, 데이터 세트로서 안저 이미지 세트가 이용되는 경우에, 획득된 안저 이미지 세트는 TFReocrd 형태로 변환되어 신경망 모델의 학습에 이용될 수 있다. As a specific example, when a fundus image set is used as a data set, the acquired fundus image set may be converted into a TFReocrd form and used for training a neural network model.

1.2.2.6 큐(Queue)1.2.2.6 Queue

데이터의 병목 현상을 해소하기 위하여 큐(Queue)가 이용될 수 있다. 전술한 학습부의 큐 모듈의 이미지 데이터를 큐에 저장하고, 학습 모델 모듈로 전달할 수 있다.A queue may be used to solve a data bottleneck. The image data of the queue module of the above-described learning unit may be stored in a queue and transmitted to the learning model module.

특히 CPU(Central Processing Unit)와 GPU(Graphic Processing Unit)를 함께 이용하여 학습 프로세스를 진행하는 경우에, 큐를 이용함으로써, CPU와 GPU 사이의 병목 현상을 최소화하고 데이터베이스에 대한 접근이 원활하게 하며 메모리 사용 효율을 증진할 수 있다. In particular, when the learning process is performed using both the CPU (Central Processing Unit) and the GPU (Graphic Processing Unit), by using the queue, the bottleneck between the CPU and GPU is minimized, access to the database is smooth, and the memory Use efficiency can be improved.

큐는 신경망 모델의 학습에 이용되는 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장할 수 있다. 큐에 저장되는 이미지 데이터는 전술한 데이터 가공 프로세스(즉, 리사이징, 전처리 및 증강) 중 적어도 하나가 처리된 이미지 데이터이거나 획득된 상태 그대로의 이미지일 수 있다.The queue may store data used for training the neural network model. A queue can store image data. The image data stored in the queue may be image data processed by at least one of the aforementioned data processing processes (ie, resizing, pre-processing, and augmentation) or an image as it is acquired.

큐는 이미지 데이터, 바람직하게는 전술한 바와 같이 직렬화된 이미지 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장하고, 신경망 모델로 이미지 데이터를 공급할 수 있다. 큐는 신경망 모델로 배치(batch) 사이즈 단위로 이미지 데이터를 전달할 수 있다.The queue may store image data, preferably serialized image data as described above. The queue stores image data and can supply image data to the neural network model. The queue can deliver image data in units of batch size to the neural network model.

큐는 이미지 데이터를 제공할 수 있다. 큐는 후술하는 학습 모듈에 데이터를 제공할 수 있다. 학습 모듈에서 데이터를 추출함에 따라 큐에 축적된 데이터 수가 줄어들 수 있다.A queue may provide image data. The queue may provide data to a learning module, which will be described later. As data is extracted from the learning module, the number of data accumulated in the queue may be reduced.

신경망 모델의 학습이 진행됨에 큐에 저장된 데이터 수가 기준 이하로 감소하면, 큐는 데이터의 보충을 요청할 수 있다. 큐는 특정 종류 데이터의 보충을 요청할 수 있다. 큐는 학습부가 데이터의 보충이 요청되면, 큐에 데이터를 보충할 수 있다.If the number of data stored in the queue decreases below the standard as the neural network model is trained, the queue may request data replenishment. A queue may request replenishment of certain types of data. The queue may supplement data to the queue when the learning unit requests replenishment of data.

큐는 학습 장치의 시스템 메모리에 마련될 수 있다. 예컨대, 큐는 중앙 처리 장치(CPU)의 RAM(Random Access Memory)에 형성될 수 있다. 이 경우, 큐의 크기 즉, 용량은 CPU의 RAM 용량에 따라 정해질 수 있다. 큐로는 선입선출(FIFO; First In First Out) 큐, 우선순위 큐(Primary Queue) 또는 랜덤 큐가 이용될 수 있다. The queue may be provided in the system memory of the learning device. For example, the queue may be formed in a random access memory (RAM) of a central processing unit (CPU). In this case, the size of the queue, that is, the capacity may be determined according to the RAM capacity of the CPU. As the queue, a First In First Out (FIFO) queue, a primary queue, or a random queue may be used.

1.2.3 학습 프로세스1.2.3 Learning process

일 실시 예에 따르면, 신경망 모델의 학습 프로세스가 개시될 수 있다. According to an embodiment, a learning process of a neural network model may be started.

일 실시 예에 따르면, 신경망 모델의 학습은 전술한 학습 장치에 의하여 수행될 수 있다. 학습 프로세스는 학습 장치의 제어부에 의해 수행될 수 있다. 학습 프로세스는 전술한 학습부의 학습 모듈에 의하여 수행될 수 있다.According to an embodiment, learning of the neural network model may be performed by the above-described learning apparatus. The learning process may be performed by a control unit of the learning apparatus. The learning process may be performed by the learning module of the learning unit described above.

도 13는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 13을 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는 데이터를 획득(S1010)하고, 신경망 모델을 학습(S1030)하고, 학습된 모델을 검증(S1050)하고, 학습된 모델의 변수를 획득(S1070)하여 수행될 수 있다.13 is a block diagram illustrating a learning process of a neural network model according to an embodiment. Referring to FIG. 13 , the learning process of a neural network model according to an embodiment acquires data (S1010), trains the neural network model (S1030), validates the learned model (S1050), and determines the parameters of the learned model Acquisition (S1070) may be performed.

이하에서는, 도 13을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다. Hereinafter, with reference to FIG. 13 , some embodiments will be described for a learning process of a neural network model.

1.2.3.1 데이터 입력1.2.3.1 Data entry

진단 보조 신경망 모델의 학습을 위한 데이터 세트가 획득될 수 있다.A data set for training of a diagnostic auxiliary neural network model may be obtained.

획득되는 데이터는 전술한 데이터 가공 프로세스에 의하여 처리된 이미지 데이터 세트일 수 있다. 일 예로, 데이터 세트는 사이즈가 조정되고 전처리 필터가 적용되고 데이터가 증강된 후 직렬화된 안저 이미지 데이터를 포함할 수 있다. The data obtained may be an image data set processed by the data processing process described above. As an example, the data set may include serialized fundus image data after it has been resized, a pre-processing filter has been applied, and the data has been augmented.

신경망 모델의 학습 단계에서는 트레이닝 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 검증 단계에서는 검증 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 테스트 단계에서는 테스트 데이터 세트가 획득 및 이용될 수 있다. 각 데이터 세트는 안저 이미지 및 라벨을 포함할 수 있다. In the learning phase of the neural network model, a training data set may be acquired and used. In the verification phase of the neural network model, a verification data set may be obtained and used. In the testing phase of the neural network model, a test data set may be acquired and used. Each data set may include fundus images and labels.

데이터 세트는 큐로부터 획득될 수 있다. 데이터 세트는 큐로부터 배치 사이즈 단위로 획득될 수 있다. 예컨대, 배치 사이즈로서 60개가 지정된 경우, 데이터 세트는 큐로부터 60개 단위로 추출될 수 있다. 배치 사이즈의 사이즈는 GPU의 RAM 용량에 의해 제한될 수 있다. A data set may be obtained from a queue. The data set may be obtained from the queue in units of batch sizes. For example, when 60 is designated as the batch size, the data set may be extracted from the queue in units of 60. The size of the batch size may be limited by the RAM capacity of the GPU.

데이터 세트는 큐로부터 학습 모듈로 랜덤하게 획득될 수 있다. 데이터 세트는 큐에 축적된 순서대로 획득될 수도 있다. The data set may be obtained randomly from the queue to the learning module. Data sets may be acquired in the order in which they are accumulated in the queue.

학습 모듈은 큐로부터 획득되는 데이터 세트의 구성을 지정하여 추출할 수 있다. 일 예로, 학습 모듈로 특정 피검자의 좌안 라벨을 가지는 안저 이미지와 우안 라벨을 가지는 안저 이미지 데이터가 함께 학습에 이용되도록 추출할 수 있다. The learning module may extract by specifying the configuration of the data set obtained from the queue. As an example, the learning module may extract fundus image data having a left eye label and fundus image data having a right eye label of a specific subject to be used for learning together.

학습 모듈은 큐로부터 특정 라벨의 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터 세트를 획득할 수 있다. 학습 모듈은 큐로부터 라벨에 따른 데이터 수의 비율을 지정하여 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터의 수와 진단 정보 라벨이 정상인 안저 이미지 데이터의 수가 1 대 1이 되도록 안저 이미지 데이터 세트를 획득할 수 있다. The learning module may obtain a data set of a specific label from the queue. As an example, the learning module may acquire the fundus image data set in which the diagnostic information label is abnormal from the queue. The learning module may acquire the data set by specifying the ratio of the number of data according to the label from the queue. As an example, the learning module may acquire the fundus image data set from the queue so that the number of fundus image data having an abnormal diagnostic information label and the number of fundus image data having a normal diagnostic information label are 1:1.

1.2.3.2 모델의 설계1.2.3.2 Model design

신경망 모델은 이미지 데이터에 기초하여 진단 보조 정보를 출력하는 진단 보조 모델일 수 있다. 진단 보조 정보 획득을 위한 진단 보조 신경망 모델의 구조는 미리 정해진 형태를 가질 수 있다. 신경망 모델은 복수의 계층 또는 레이어를 포함할 수 있다. The neural network model may be a diagnostic assistance model that outputs diagnostic assistance information based on image data. A structure of a diagnostic auxiliary neural network model for obtaining diagnostic auxiliary information may have a predetermined shape. A neural network model may include a plurality of layers or layers.

신경망 모델은 진단 보조 정보를 생성하는 분류기(Classifier)의 형태로 구현될 수 있다. 분류기는 이중 분류 또는 다중 분류를 수행할 수 있다. 예컨대, 신경망 모델은 입력 데이터를 특정 질병 또는 이상 징후 등의 타겟 진단 보조 정보에 대하여 정상 또는 비정상 클래스로 분류하는 이진 분류 모델일 수 있다. 또는, 신경망 모델은 입력 데이터를 특정 특성(예컨대, 질병의 진행 정도)에 대한 복수의 등급 클래스로 분류하는 다중 분류 모델일 수 있다. 또는, 신경망 모델은 특정 질병과 관련된 특정 수치를 출력하는 회귀 형태의 모델로 구현될 수도 있다.The neural network model may be implemented in the form of a classifier that generates diagnostic auxiliary information. The classifier can perform double classification or multiple classification. For example, the neural network model may be a binary classification model that classifies input data into a normal or abnormal class with respect to target diagnosis auxiliary information such as a specific disease or abnormal symptom. Alternatively, the neural network model may be a multi-classification model that classifies input data into a plurality of class classes for a specific characteristic (eg, a degree of disease progression). Alternatively, the neural network model may be implemented as a regression type model that outputs a specific value related to a specific disease.

신경망 모델은 합성곱 신경망(CNN; Convolutional Neural Network)을 포함할 수 있다. CNN 구조로서, Alexnet, LENET, NIN, VGGNet, ResNEt, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySuperviseNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다. The neural network model may include a convolutional neural network (CNN). As the CNN structure, at least one of Alexnet, LENET, NIN, VGGNet, ResNEt, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, and DeeplySuperviseNet may be used. The neural network model may be implemented using a plurality of CNN structures.

일 예로, 신경망 모델은 복수의 VGGNet 블록을 포함하도록 구현될 수 있다. 보다 구체적인 예로, 신경망 모델은 3x3 크기의 64개의 필터를 가지는 CNN 레이어, BN(Batch Normalization) 레이어, 및 ReLu 레이어가 순차적으로 결합된 제1 구조 및 3x3 크기의 128개의 필터를 가지는 CNN 레이어, ReLu 레이어 및 BN 레이어가 순차적으로 결합된 제2 블록이 결합되어 마련될 수 있다.As an example, the neural network model may be implemented to include a plurality of VGGNet blocks. As a more specific example, the neural network model consists of a first structure in which a CNN layer having 64 filters of 3x3 size, a batch normalization (BN) layer, and a ReLu layer are sequentially combined, and a CNN layer and ReLu layer having 128 filters of 3x3 size. and a second block in which BN layers are sequentially combined may be combined.

신경망 모델은 각 CNN 블록에 이어서, 맥스 풀링 레이어를 포함하고, 종단에는 GAP(Global Average Pooling) 레이어, FC(Fully Connected) 레이어, 및 활성화 레이어(예컨대, 시그모이드, 소프트 맥스 등)를 포함할 수 있다. The neural network model includes a max pooling layer following each CNN block, and a Global Average Pooling (GAP) layer, a Fully Connected (FC) layer, and an activation layer (eg, sigmoid, soft max, etc.) at the end. can

1.2.3.3 모델의 학습1.2.3.3 Training the model

신경망 모델은 트레이닝 데이터 세트를 이용하여 학습될 수 있다.A neural network model can be trained using a training data set.

신경망 모델은 라벨링된 데이터 세트를 이용하여 학습될 수 있다. 다만, 본 명세서에서 설명하는 진단 보조 신경망 모델의 학습 프로세스가 이에 한정되는 것은 아니며, 신경망 모델은 라벨링되지 아니한 데이터를 이용하여 비지도 형태로 학습될 수도 있다. A neural network model can be trained using labeled data sets. However, the learning process of the diagnostic auxiliary neural network model described in this specification is not limited thereto, and the neural network model may be trained in an unsupervised form using unlabeled data.

신경망 모델의 학습은, 트레이닝 이미지 데이터에 기초하여, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화함으로써 수행할 수 있다. 또한, 신경망 모델의 학습은 후술하는 모델의 검증 결과, 테스트 결과 및/또는 진단 단계로부터의 피드백으로부터 영향을 받을 수 있다. Learning of a neural network model is based on training image data, obtains a result value using a neural network model to which arbitrary weight values are given, compares the obtained result value with a label value of training data, and back propagates according to the error by optimizing the weight values. In addition, learning of the neural network model may be influenced by a verification result of a model, a test result, and/or a feedback from a diagnosis step, which will be described later.

상술한 신경망 모델의 학습은 텐서플로우를 이용하여 수행될 수 있다. 다만, 일 실시 예가 이에 한정되지는 아니하며, 티아노(Theano), 케라스(Keras), 카페(Caffe), 토치(Torch), CNTK(Microsoft Cognitive Toolkit) 등의 프레임워크가 신경망 모델의 학습이 이용될 수도 있다. Learning of the above-described neural network model may be performed using TensorFlow. However, one embodiment is not limited thereto, and frameworks such as Theano, Keras, Caffe, Torch, and CNTK (Microsoft Cognitive Toolkit) are used to train the neural network model. it might be

1.2.3.4 모델의 검증(validation)1.2.3.4 Model validation

신경망 모델은 검증 데이터 세트를 이용하여 검증될 수 있다. 신경망 모델의 검증은 학습이 진행된 신경망 모델로부터 검증 데이터 세트에 대한 결과값을 획득하고, 결과값과 검증 데이터 세트의 라벨을 비교하여 수행될 수 있다. 검증은 결과값의 정확도(accuracy)를 측정하여 수행될 수 있다. 검증 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)가 조정될 수 있다.The neural network model can be validated using a validation data set. The validation of the neural network model may be performed by obtaining a result value for the validation data set from the neural network model in which training has been performed, and comparing the result value with the label of the validation data set. Verification may be performed by measuring the accuracy of the result value. According to the verification result, parameters (eg, weight and/or bias) or hyperparameters (eg, learning rate) of the neural network model may be adjusted.

일 예로, 일 실시 예에 따른 학습 장치는, 안저 이미지에 기초하여 진단 보조 정보를 예측하는 신경망 모델을 학습시키고, 학습된 모델의 검증 안저 이미지에 대한 진단 보조 정보를 검증 안저 이미지에 대응되는 검증 라벨과 비교함으로써 진단 보조 신경망 모델의 검증을 수행할 수 있다. For example, the learning apparatus according to an embodiment trains a neural network model for predicting diagnostic auxiliary information based on a fundus image, and verifies the diagnostic auxiliary information on the verified fundus image of the learned model. A verification label corresponding to the fundus image By comparing with , validation of the diagnostic auxiliary neural network model can be performed.

신경망 모델의 검증에는, 별도의 검증 세트(external data set), 즉 트레이닝 데이터 세트에는 포함되지 않는 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. 예를 들어, 별도의 검증 세트는 트레이닝 데이터 세트와 인종, 환경, 나이, 성별 등의 요인이 구별되는 데이터 세트일 수 있다. For the validation of the neural network model, a separate external data set, that is, a data set having distinct factors not included in the training data set, may be used. For example, the separate validation set may be a data set in which factors such as race, environment, age, and gender are distinguished from a training data set.

1.2.3.5 모델의 테스트1.2.3.5 Testing the model

신경망 모델은 테스트 데이터 세트를 이용하여 테스트될 수 있다.The neural network model can be tested using a test data set.

도 13에서 도시하지는 아니하였으나, 일 실시 예에 따른 학습 프로세스에 의하면, 신경망 모델을 트레이닝 데이터 세트 및 검증 데이터 세트와 구분되는 테스트 데이터 세트를 이용하여 테스트할 수 있다. 테스트 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다. Although not shown in FIG. 13 , according to the learning process according to an embodiment, the neural network model may be tested using a test data set that is distinguished from a training data set and a verification data set. Depending on the test results, parameters (eg, weights and/or biases) or hyperparameters (eg, learning rate) of the neural network model may be adjusted.

일 예로, 일 실시 예에 따른 학습 장치는 안저 이미지에 기초하여 진단 보조 정보를 예측하도록 학습된 신경망 모델로부터, 트레이닝 및 검증에 이용되지 않은 테스트 안저 이미지 데이터를 입력으로 하는 결과 값을 획득하여, 학습 및 검증된 진단 보조 신경망 모델의 테스트를 수행할 수 있다. For example, the learning apparatus according to an embodiment acquires, from a neural network model trained to predict diagnostic auxiliary information based on a fundus image, a result value of which test fundus image data that is not used for training and verification is input, and learns and testing of the validated diagnostic auxiliary neural network model.

신경망 모델의 테스트에는, 별도로 마련된 검증 세트(external data set), 즉, 트레이닝 및/또는 검증 데이터와 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. For testing the neural network model, a separately prepared external data set, that is, a data set having factors distinct from training and/or verification data, may be used.

1.2.3.6 결과의 출력1.2.3.6 Output of results

신경망 모델의 학습 결과, 최적화된 모델의 파라미터 값이 획득될 수 있다. 전술한 바와 같이 테스트 데이터 세트를 이용하여 모델의 학습을 반복적으로 진행함에 따라, 보다 적절한 파라미터(또는 변수) 값이 얻어질 수 있다. 학습이 충분히 진행되면, 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다. As a result of learning the neural network model, parameter values of the optimized model may be obtained. As described above, more appropriate parameter (or variable) values can be obtained by iteratively training the model using the test data set. When the learning proceeds sufficiently, an optimized value of a weight and/or a bias may be obtained.

일 실시 예에 따르면, 학습된 신경망 모델 및/또는 학습된 신경망 모델의 파라미터 또는 변수는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 학습된 신경망 모델은 진단 장치 및/또는 클라이언트 장치 등에 의하여 진단 보조 정보의 예측에 이용될 수 있다. 또한, 학습된 신경망 모델의 파라미터 또는 변수는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다. According to an embodiment, the learned neural network model and/or parameters or variables of the learned neural network model may be stored in a learning device and/or a diagnosis device (or a server). The learned neural network model may be used for prediction of diagnostic auxiliary information by a diagnostic device and/or a client device. In addition, parameters or variables of the learned neural network model may be updated by feedback obtained from a diagnostic device or a client device.

1.2.3.7 모델 앙상블(ensemble)1.2.3.7 Model ensemble

일 실시 예에 따르면, 하나의 진단 보조 신경망 모델을 학습하는 과정에서, 복수의 서브 모델이 동시에 학습될 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. According to an embodiment, in the process of learning one diagnostic auxiliary neural network model, a plurality of sub-models may be simultaneously learned. The plurality of sub-models may have different hierarchical structures.

이 때, 일 실시 예에 따른 진단 보조 신경망 모델은 복수의 서브 신경망 모델을 조합하여 구현될 수 있다. 다시 말해, 복수의 서브 신경망을 조합하는 앙상블 기법을 이용하여 신경망 모델의 학습을 수행할 수 있다.In this case, the auxiliary diagnostic neural network model according to an embodiment may be implemented by combining a plurality of sub-neural network models. In other words, learning of the neural network model may be performed using an ensemble technique that combines a plurality of sub-neural networks.

앙상블을 형성하여 진단 보조 신경망 모델을 구성할 경우, 다양한 형태의 서브 신경망 모델로부터 예측되는 결과를 종합하여 예측을 수행할 수 있어, 결과 예측의 정확도가 보다 향상될 수 있다. When an ensemble is formed to configure a diagnostic auxiliary neural network model, prediction can be performed by synthesizing the results predicted from various types of sub-neural network models, so that the accuracy of result prediction can be further improved.

도 14는 일 실시 예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블록도이다. 도 14를 참조하면, 일 실시 예에 따른 신경망 모델의 학습 프로세스는, 데이터 세트를 획득(S1011)하고, 획득된 데이터를 이용하여 제1 모델(즉, 제1 신경망 모델) 및 제2 모델(즉, 제2 신경망 모델)을 학습(S1031, S1033)하고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 검증(S1051)하고, 최종 신경망 모델을 결정하고 그 파라미터 또는 변수를 획득(S1072)할 수 있다. 14 is a block diagram illustrating a learning process of a neural network model according to an embodiment. Referring to FIG. 14 , in the learning process of a neural network model according to an embodiment, a data set is acquired ( S1011 ), and a first model (ie, a first neural network model) and a second model (ie, a first neural network model) and a second model (ie, a first neural network model) using the acquired data , the second neural network model) is trained (S1031, S1033), the learned first neural network model and the second neural network model are verified (S1051), the final neural network model is determined, and its parameters or variables can be obtained (S1072). have.

이하에서는, 도 14를 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시 예를 들어 설명한다. Hereinafter, with reference to FIG. 14 , a learning process of a neural network model will be described with reference to some embodiments.

일 실시 예에 따르면 복수의 서브 신경망 모델은 동일한 트레이닝 데이터 세트를 획득하고, 개별적으로 출력값을 생성할 수 있다. 이 때, 복수의 서브 신경망 모델의 앙상블을 최종 신경망 모델로 결정하고, 복수의 서브 신경망 모델 각각에 대한 파라미터 값이 학습 결과로 얻어질 수 있다. 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델에 의한 출력값의 평균값으로 정해질 수 있다. 또는, 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델의 출력값에 대한 가중 평균값으로 정해질 수 있다. According to an embodiment, the plurality of sub-neural network models may acquire the same training data set and individually generate output values. In this case, an ensemble of a plurality of sub neural network models may be determined as a final neural network model, and parameter values for each of the plurality of sub neural network models may be obtained as a learning result. The output value of the final neural network model may be determined as an average value of output values by each sub-neural network model. Alternatively, the output value of the final neural network model may be determined as a weighted average value of the output values of each sub-neural network model.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 기계 학습에 의하여 제1 서브 신경망 모델에 대한 최적화된 파라미터 값 및 제2 서브 신경망 모델의 최적화된 파라미터 값을 획득할 수 있다. 이 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델로부터 각각 획득되는 출력값(예컨대, 특정 진단 보조 정보에 대한 확률 값)들에 대한 평균값을 최종 신경망 모델의 출력값으로 결정할 수 있다. As a more specific example, when the neural network model includes the first sub neural network model and the second sub neural network model, the parameter values optimized for the first sub neural network model and the optimized parameter values of the second sub neural network model are obtained by machine learning. can be obtained In this case, an average value of output values (eg, probability values for specific diagnostic auxiliary information) respectively obtained from the first sub-neural network model and the second sub-neural network model may be determined as the output value of the final neural network model.

일 실시 예의 다른 일 실시 예에 따르면, 복수의 서브 신경망 모델 각각에 의한 출력값에 기초하여 개별 서브 신경망 모델의 정확도를 평가할 수 있다. 이때, 정확도에 기초하여 복수의 서브 신경망 모델 중 어느 하나의 모델을 선택하여 최종 서브 신경망 모델로 결정할 수 있다. 결정된 서브 신경망 모델의 구조 및 학습 결과 얻어진 결정된 서브 신경망 모델의 파라미터 값들은 저장될 수 있다. According to another embodiment of the present embodiment, the accuracy of each sub-neural network model may be evaluated based on output values from each of the plurality of sub-neural network models. In this case, one of a plurality of sub-neural network models may be selected based on the accuracy and determined as the final sub-neural network model. The structure of the determined sub-neural network model and parameter values of the determined sub-neural network model obtained as a result of learning may be stored.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델 각각에 따른 정확도를 획득하고, 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정할 수 있다. As a more specific example, when the neural network model includes the first sub-neural network model and the second sub-neural network model, accuracy according to each of the first sub-neural network model and the second sub-neural network model is obtained, and the more accurate sub-neural network model is converted into a final neural network can be determined by the model.

일 실시 예의 또 다른 일 실시 예에 따르면, 복수의 신경망 모델 중 적어도 하나의 서브 신경망을 조합하고, 조합된 적어도 하나의 서브 신경망 모델의 앙상블을 형성하고, 각각의 앙상블에 대하여 평가하되, 복수의 앙상블 중 정확도가 높은 앙상블을 형성하는 서브 신경망 모델의 조합을 최종 신경망 모델로 결정할 수 있다. 이 때, 복수의 서브 신경망 모델 중 적어도 하나를 선택하는 가능한 모든 경우의 수에 대하여 앙상블을 수행하고, 가장 정확도가 높은 것으로 평가된 서브 신경망 조합을 최종 신경망 모델로 결정할 수도 있다. According to another embodiment of the present embodiment, at least one sub-neural network among a plurality of neural network models is combined, an ensemble of the combined at least one sub-neural network model is formed, and each ensemble is evaluated, but the plurality of ensembles A combination of sub-neural network models that form an ensemble with high accuracy can be determined as the final neural network model. In this case, the ensemble may be performed on all possible cases of selecting at least one of the plurality of sub neural network models, and the sub neural network combination evaluated as having the highest accuracy may be determined as the final neural network model.

보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 대, 제1 서브 신경망 모델의 정확도, 제2 서브 신경망 모델의 정확도, 및 제1 및 제2 서브 신경망 모델의 앙상블에 의한 정확도를 비교하고, 가장 정확한 경우의 서브 신경망 모델 구성을 최종 신경망 모델로 결정할 수 있다. As a more specific example, when the neural network model includes the first sub-neural network model and the second sub-neural network model, the accuracy of the first sub-neural network model, the accuracy of the second sub-neural network model, and the ensemble of the first and second sub-neural network models By comparing the accuracies by , it is possible to determine the sub-neural network model configuration in the most accurate case as the final neural network model.

1.2.4 실시 예 1 - 학습 장치의 제어 방법1.2.4 Example 1 - Control method of learning device

도 15는 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.15 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment.

도 15를 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 안저 이미지의 전처리를 수행하는 단계(S110), 전처리된 제1 안저 이미지를 직렬화하는 단계(S130), 제1 신경망 모델을 학습시키는 단계(S150)를 포함할 수 있다.15 , the control method of the learning apparatus according to an embodiment includes performing pre-processing of a first fundus image ( S110 ), serializing the pre-processed first fundus image ( S130 ), and a first neural network model. It may include the step of learning (S150).

일 실시 예에 따른 학습 장치의 제어 방법은 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치, 진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치를 포함하는 시스템에 포함되는 학습 장치의 제어 방법일 수 있다.The control method of the learning apparatus according to an embodiment obtains a first training data set including a plurality of fundus images, processes the fundus image included in the first training data set, and uses the first training data set a learning apparatus for learning the first neural network model, acquires a target fundus image for acquiring diagnosis auxiliary information, and uses the learned first neural network model to acquire the diagnostic auxiliary information based on the target fundus image It may be a control method of a learning device included in a system including a diagnostic device for

제1 안저 이미지의 전처리를 수행하는 단계(S110)는 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 것을 더 포함할 수 있다. In the step of performing pre-processing of the first fundus image ( S110 ), pre-processing of the first fundus image is performed so that the first fundus image included in the first training data set is converted into a form suitable for learning the first neural network model. may further include

일 실시 예에 따른 학습 장치의 제어 방법은, 전처리된 제1 안저 이미지를 직렬화하는 단계(S130)를 포함할 수 있다. 제1 안저 이미지는 신경망 모델의 학습에 용이한 형태로 직렬화될 수 있다.The method of controlling the learning apparatus according to an embodiment may include serializing the preprocessed first fundus image (S130). The first fundus image may be serialized in a form that is easy for training of the neural network model.

이때, 제1 신경망 모델을 학습시키는 단계(S150)는 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 것을 더 포함할 수 있다.In this case, the step of training the first neural network model (S150) further includes training the first neural network model for classifying the target fundus image into a first label or a second label using the serialized first fundus image. can do.

학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시킬 수 있다.The learning apparatus may acquire a second training data set that includes a plurality of fundus images and is at least partially different from the first training data set, and trains a second neural network model by using the second training data set.

일 실시 예에 따르면, 학습 장치의 제어 방법은 제2 트레이닝 세트에 포함된 제2 안저 이미지가 제2 신경망 모델의 학습에 적합하도록 제2 안저 이미지의 전처리를 수행하는 단계, 전처리된 제2 안저 이미지를 직렬화하는 단계 및 직렬화된 제2 안저 이미지를 이용하여, 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 제2 신경망 모델을 학습시키는 단계를 더 포함할 수 있다.According to an embodiment, the method of controlling the learning apparatus includes preprocessing the second fundus image so that the second fundus image included in the second training set is suitable for learning the second neural network model, the preprocessed second fundus image The method may further include training a second neural network model for classifying the target fundus image into a third label or a fourth label by using the serializing step and the serialized second fundus image.

도 16은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제2 안저 이미지의 전처리를 수행하는 단계(S210), 전처리된 제2 안저 이미지를 직렬화하는 단계(S230), 제2 신경망 모델을 학습시키는 단계(S250)를 포함할 수 있다.16 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment. Referring to FIG. 16 , the method for controlling the learning apparatus according to an embodiment includes performing pre-processing of a second fundus image ( S210 ), serializing the pre-processed second fundus image ( S230 ), and a second neural network model. It may include a learning step (S250).

도 16에서는 설명의 편의를 위하여, 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 제1 안저 이미지의 전처리, 제2 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 수행되는 것으로 묘사하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다.In FIG. 16, for convenience of explanation, preprocessing of the first fundus image, serialization of the first fundus image, and learning using the first fundus image, followed by preprocessing of the first fundus image, serialization of the second fundus image, and the first fundus image Although it has been described as being performed following learning using

제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 독립적으로 수행될 수 있다. 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 병렬적으로 수행될 수 있다. 다시 말해, 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 반드시 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습 이후에 이루어지거나, 이전에 이루어져야 하는 것은 아니며, 제1 안저 이미지에 대한 처리 및 제2 안저 이미지에 대한 처리는 상호 의존관계 없이 수행될 수 있다.The preprocessing of the second fundus image included in the second training set, and the serialization of the second fundus image and the learning using the second fundus image are the above-described preprocessing of the first fundus image, serialization of the first fundus image, and the first fundus. It can be performed independently of learning using images. The preprocessing of the second fundus image included in the second training set, and the serialization of the second fundus image and the learning using the second fundus image are the above-described preprocessing of the first fundus image, serialization of the first fundus image, and the first fundus. It can be performed in parallel with learning using images. In other words, the pre-processing of the second fundus image included in the second training set, and the serialization of the second fundus image and learning using the second fundus image must necessarily include the above-described preprocessing of the first fundus image and serialization of the first fundus image. And it does not have to be done after or before learning using the first fundus image, and the processing of the first fundus image and the processing of the second fundus image may be performed without mutual dependence.

제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별될 수 있다. 예컨대, 제1 전처리는 혈관 강조 전처리이고, 제2 전처리는 색상 변조 전처리일 수 있다. 각 전처리는 각 신경망 모델을 통하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다.The first pre-processing performed on the fundus image included in the first training data set may be distinguished from the second pre-processing performed on the fundus image included in the second training data set. For example, the first preprocessing may be a blood vessel enhancement preprocessing, and the second preprocessing may be a color modulation preprocessing. Each preprocessing may be determined in consideration of the diagnostic auxiliary information to be acquired through each neural network model.

일 실시 예에 따른 학습 장치의 제어 방법은, 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계 및 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계를 더 포함할 수 있다. 이때, 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행될 수 있다.The method of controlling a learning apparatus according to an embodiment includes evaluating the accuracy of the learned first neural network model using a first verification data set that is at least partially different from a first training data set, and the first Validating the neural network model and using a second validation data set that is at least partially distinct from the second training data set, evaluating the accuracy of the learned first neural network model, and validating the second neural network model It may include further steps. In this case, the verification of the first neural network model and the second neural network model may be independently performed.

직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고, 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다.The serialized first fundus image is sequentially stored in a first queue, and the serialized fundus image stored in the first queue is used for training of the first neural network model in a predetermined capacity unit from the first queue, A second fundus image is sequentially stored in a second queue distinct from the first queue, and the serialized fundus image stored in the second queue is used in training of the first neural network model from the second queue in a predetermined capacity unit. can be used

제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측 값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측 값을 함께 고려하여 수행될 수 있다.The first neural network model may include a first sub neural network model and a second sub neural network model. In this case, classifying the target fundus image into the first label or the second label includes the first predicted value predicted by the first sub-neural network model and the second predicted value predicted by the second sub-neural network model together. It can be done taking into account.

제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측 값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측 값을 함께 고려하여 수행될 수 있다.The second neural network model may include a third sub neural network model and a fourth sub neural network model. In this case, classifying the target fundus image into the third label or the fourth label includes a third predicted value predicted by the third sub-neural network model and a fourth predicted value predicted by the fourth sub-neural network model. It can be done taking into account.

제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함할 수 있다. 이때, 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통될 수 있다.The first training data set may include at least part of the fundus image labeled with the first label, and the second training data set may include at least part of the fundus image labeled with the third label. In this case, the fundus image labeled with the first label and at least a portion of the fundus image labeled with the third label may have some common features.

제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 상기 제1 소견에 대하여 정상임을 지시하는 정상이고, 상기 제2 라벨은 상기 피검체가 상긴 제2 소견에 대하여 비정상임을 지시하는 비정상일 수 있다.The first label may be normal indicating that the subject corresponding to the target fundus image is normal with respect to the first finding, and the second label may be abnormal indicating that the subject corresponding to the target fundus image is abnormal with respect to the second finding. .

제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 크롭하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함할 수 있다.The pre-processing of the first fundus image may include cropping the first fundus image to satisfy a reference aspect ratio and changing the size of the first fundus image.

제1 안저 이미지의 전처리를 수행하는 단계는, 상기 가공부가 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함할 수 있다.The pre-processing of the first fundus image may further include applying, by the processing unit, a blood vessel enhancement filter to the fundus image so that the blood vessels included in the first fundus image are emphasized.

직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다. 큐는 상기 제1 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청할 수 있다. The serialized first fundus image may be sequentially stored in a queue, and the serialized first fundus image stored in the queue may be used to train the first neural network model in a unit of a predetermined capacity from the queue. The queue may request replenishment of the serialized first fundus image when the serialized first fundus image not used for the first learning decreases below a reference capacity.

제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나일 수 있다.The first finding may be any one of retinal hemorrhage, retinal exudate, lens opacity, and diabetic retinopathy.

도 17은 일 실시 예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 17 is a diagram for describing a method of controlling a learning apparatus according to an exemplary embodiment.

도 17을 참조하면, 일 실시 예에 따른 학습 장치의 제어 방법은 제1 신경망 모델을 검증하는 단계(S170) 및 제1 신경망 모델을 갱신하는 단계(S190)를 더 포함할 수 있다.Referring to FIG. 17 , the method of controlling a learning apparatus according to an embodiment may further include verifying the first neural network model ( S170 ) and updating the first neural network model ( S190 ).

제1 신경망 모델을 검증하는 단계(S170)는 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여 1 신경망 모델을 검증하는 것을 더 포함할 수 있다.The step of verifying the first neural network model ( S170 ) is to evaluate the accuracy of the learned first neural network model by using a first validation data set that is at least partially different from the first training data set to obtain one neural network model. It may further include verifying.

제1 신경망 모델을 갱신하는 단계(S190), 제1 신경망 모델을 검증하는 단계(S170)로부터 얻어진 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계를 더 포함할 수 있다.The method may further include updating the first neural network model by reflecting the verification result obtained from the step of updating the first neural network model ( S190 ) and the step of verifying the first neural network model ( S170 ).

한편, 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 제1 신경망 모델을 학습시키는 단계는 제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고, 상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고, 상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함할 수 있다.Meanwhile, the first neural network model may include a first sub neural network model and a second sub neural network model. In this case, the step of training the first neural network model includes verifying the first sub-neural network model using a first validation data set to obtain accuracy of the first sub-neural network model, and using the first validation data set. Acquire the accuracy of the second sub-neural network model by verifying the second sub-neural network model, and compare the accuracy of the first sub-neural network model with the accuracy of the second sub-neural network model to convert the more accurate sub-neural network model into the final neural network model This may include deciding

1.3 진단 보조 프로세스1.3 Diagnostic Auxiliary Process

일 실시 예에 따르면, 신경망 모델을 이용하여 진단 보조 정보를 획득하는 진단 보조 프로세스(또는 진단 프로세스)가 제공될 수 있다. 구체적인 예로, 진단 보조 프로세스에 의하여, 안저 이미지를 이용하고 학습된 진단 보조 신경망 모델을 통하여 진단 보조 정보(예컨대, 진단 정보 또는 소견 정보)가 예측될 수 있다.According to an embodiment, a diagnosis assistance process (or diagnosis process) for acquiring diagnosis assistance information using a neural network model may be provided. As a specific example, the diagnosis assistance information (eg, diagnosis information or observation information) may be predicted by using the fundus image and through the learned diagnosis assistance neural network model by the diagnosis assistance process.

이하에서 설명하는 진단 보조 프로세스는 진단 장치에 의하여 수행될 수 있다. The diagnostic assistance process described below may be performed by the diagnostic apparatus.

1.3.1 진단부1.3.1 Diagnostics

일 실시 예에 따르면, 진단 프로세스는 진단부(200)에 의해 수행될 수 있다. 진단부(200)는 전술한 진단 장치 내에 마련될 수 있다. According to an embodiment, the diagnosis process may be performed by the diagnosis unit 200 . The diagnosis unit 200 may be provided in the above-described diagnosis apparatus.

도 18은 일 실시 예에 따른 진단부(200)의 구성을 설명하기 위한 도면이다. 도 18을 참조하면, 진단부(200)는 진단 요청 획득 모듈(210), 데이터 가공 모듈(230), 진단 모듈(250) 및 출력 모듈(270)을 포함할 수 있다.18 is a diagram for explaining the configuration of the diagnosis unit 200 according to an exemplary embodiment. Referring to FIG. 18 , the diagnosis unit 200 may include a diagnosis request obtaining module 210 , a data processing module 230 , a diagnosis module 250 , and an output module 270 .

각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만, 도 16에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 진단의 양태에 따라 일부 요소가 추가되거나 일부 요소가 생략될 수 있다. Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components and functions performed by the components described in FIG. 16 are essential, and some elements may be added or some elements may be omitted depending on the aspect of diagnosis.

1.3.2 데이터 획득 및 진단 요청1.3.2 Data Acquisition and Diagnosis Request

일 실시 예에 따른 진단 장치는 진단 대상 데이터를 획득하고, 이에 기초하여, 진단 보조 정보를 획득할 수 있다. 진단 대상 데이터는 이미지 데이터일 수 있다. 전술한 진단부의 진단 요청 획득 모듈에 의하여 데이터 획득 및 진단 요청의 획득이 수행될 수 있다. The diagnostic apparatus according to an embodiment may acquire diagnostic target data and, based on the acquired diagnostic target data, acquire diagnostic auxiliary information. The diagnosis target data may be image data. Data acquisition and diagnosis request acquisition may be performed by the diagnostic request acquisition module of the diagnostic unit.

도 19는 일 예에 따른 진단 대상 데이터(TD)를 설명하기 위한 도면이다. 도 19를 참조하면, 진단 대상 데이터(TD)는 진단 대상 이미지(T1) 및 진단 대상 객체 정보(PI; patient information)를 포함할 수 있다.19 is a diagram for describing diagnosis target data TD according to an example. Referring to FIG. 19 , the diagnosis target data TD may include a diagnosis target image T1 and patient information (PI).

진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 예컨대, 진단 대상 이미지는 안저 이미지일 수 있다. 진단 대상 이미지(TI)는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.The diagnosis target image TI may be an image for acquiring diagnosis auxiliary information on the diagnosis target object. For example, the diagnosis target image may be a fundus image. The diagnosis target image TI may have any one format among JPG, PNG, DCM (DICOM), BMP, GIF, and TIFF.

진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안인지 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다. The diagnosis object information PI may be information for identifying a diagnosis target object. Alternatively, the diagnosis object information PI may be characteristic information of a diagnosis target object or image. For example, the diagnosis object information PI may include information such as an imaging date and time of a diagnosis target image, imaging equipment, an identification number, ID, name, gender, age, or weight of a subject to be diagnosed. When the diagnosis target image is the fundus image, the diagnosis object information PI may further include eye-related information such as binocular information indicating whether the left eye is the right eye.

진단 장치는 진단 요청을 획득할 수 있다. 진단 장치는 진단 요청과 함께 진단 대상 데이터를 획득할 수 있다. 진단 장치는 진단 요청이 획득되면, 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 장치는 클라이언트 장치로부터 진단 요청을 획득할 수 있다. 또는, 진단 장치는 별도로 마련된 입력 수단을 통하여 사용자로부터 진단 요청을 획득할 수 있다.The diagnostic device may obtain a diagnostic request. The diagnosis apparatus may acquire diagnosis target data together with the diagnosis request. When a diagnosis request is obtained, the diagnosis apparatus may acquire auxiliary diagnosis information by using the learned diagnosis auxiliary neural network model. The diagnostic device may obtain a diagnostic request from the client device. Alternatively, the diagnosis apparatus may obtain a diagnosis request from the user through a separately provided input means.

1.3.3 데이터 가공 프로세스1.3.3 Data Processing Process

획득된 데이터는 가공될 수 있다. 데이터의 가공은 전술한 진단부의 데이터 가공 모듈에 의하여 수행될 수 있다. The obtained data may be processed. The data processing may be performed by the data processing module of the above-described diagnostic unit.

데이터 가공 프로세스는 일반적으로, 전술한 학습 프로세스에서의 데이터 가공 프로세스와 유사하게 수행될 수 있다. 이하에서는, 학습 프로세스에서의 데이터 가공 프로세스와의 차이점을 중심으로, 진단 프로세스에서의 데이터 가공 프로세스에 대하여 설명한다.The data processing process may be generally performed similarly to the data processing process in the learning process described above. Hereinafter, the data processing process in the diagnostic process will be described with a focus on the difference from the data processing process in the learning process.

진단 프로세스에서, 진단 장치는 학습 프로세스에서와 마찬가지로 데이터를 획득할 수 있다. 이때, 획득되는 데이터는 학습 프로세스에서 획득되는 데이터와 동일한 형식일 수 있다. 예를 들어, 학습 프로세스에서 학습 장치가 DCM 형식의 이미지 데이터를 이용하여 진단 보조 신경망 모델을 학습시킨 경우, 진단 장치는 DCM 이미지를 획득하고 학습된 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.In the diagnostic process, the diagnostic device may acquire data as in the learning process. In this case, the obtained data may be in the same format as the data obtained in the learning process. For example, in the learning process, when the learning apparatus trains a diagnostic auxiliary neural network model using DCM format image data, the diagnostic apparatus acquires a DCM image and obtains diagnostic auxiliary information using the learned neural network model. .

진단 프로세스에서, 획득된 진단 대상 이미지는 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 리사이징될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측을 효율적으로 수행하기 위하여, 적절한 용량, 크기 및/또는 종횡비를 가지도록 그 형태가 조정될 수 있다. In the diagnosis process, the acquired diagnosis target image may be resized similarly to image data used in the learning process. The shape of the diagnosis target image may be adjusted to have an appropriate capacity, size, and/or aspect ratio in order to efficiently perform diagnosis assistance information prediction through the learned diagnosis assistance neural network model.

예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 안저 이미지에 기초한 진단 정보의 예측을 위하여, 이미지의 불필요한 부분을 크롭하거나, 그 사이즈를 축소하는 등의 리사이징이 수행될 수 있다.For example, when the diagnosis target image is a fundus image, in order to predict diagnosis information based on the fundus image, resizing such as cropping an unnecessary part of the image or reducing its size may be performed.

진단 프로세스에서, 획득된 진단 대상 이미지에는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 전처리 필터가 적용될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측의 정확도가 보다 향상되도록, 적절한 필터가 적용될 수 있다. In the diagnosis process, a preprocessing filter may be applied to the acquired diagnosis target image, similarly to image data used in the learning process. An appropriate filter may be applied to the diagnosis target image so that the accuracy of prediction of the diagnosis auxiliary information through the learned diagnosis auxiliary neural network model is improved.

예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 정 진단 정보의 예측이 용이하도록 하는 전처리, 예컨대 혈관이 강조되도록 하는 이미지 전처리 또는 특정 색상이 강조되거나 약화되도록 하는 이미지 전처리가 진단 대상 이미지에 적용될 수 있다.For example, when the diagnosis target image is a fundus image, preprocessing for facilitating prediction of positive diagnostic information, such as image preprocessing for emphasizing blood vessels or image preprocessing for emphasizing or weakening a specific color, may be applied to the diagnosis target image. have.

진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 직렬화될 수 있다. 진단 대상 이미지는 특정 워크프레임에서의 진단 모델 구동이 용이한 형태로 변환 또는 직렬화 수 있다. In the diagnosis process, the acquired diagnosis target image may be serialized, similar to image data used in the learning process. The image to be diagnosed can be converted or serialized into a form that makes it easy to drive a diagnostic model in a specific framework.

진단 대상 이미지의 직렬화는 생략될 수 있다. 이는, 학습 단계에서와 달리 진단 단계에서는 프로세서가 한번에 처리하는 데이터의 수가 많지 않아, 데이터 처리 속도에 대한 부담이 상대적으로 적기 때문일 수 있다.Serialization of the diagnosis target image may be omitted. This may be because, unlike in the learning stage, in the diagnosis stage, the number of data processed by the processor at one time is not large, and the burden on the data processing speed is relatively small.

진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 큐에 저장될 수 있다. 다만, 진단 프로세스에서는 처리 데이터 수가 학습 프로세스에 비하여 적으므로, 데이터를 큐에 저장하는 단계는 생략될 수도 있다.In the diagnosis process, the acquired diagnosis target image may be stored in a queue, similar to image data used in the learning process. However, since the number of processed data in the diagnosis process is smaller than that in the learning process, the step of storing data in the queue may be omitted.

한편, 진단 프로세스에서는, 데이터 수의 증가가 요구되지 않으므로, 정확한 진단 보조 정보의 획득을 위하여, 학습 프로세스와 달리 데이터 증강 또는 이미지 증강 절차는 이용하지 않음이 바람직할 것이다.Meanwhile, since an increase in the number of data is not required in the diagnosis process, it is preferable not to use data augmentation or image augmentation procedures, unlike the learning process, in order to obtain accurate diagnosis auxiliary information.

1.3.4 진단 프로세스1.3.4 Diagnostic process

일 실시 예에 따르면, 학습된 신경망 모델을 이용한 진단 프로세스가 개시될 수 있다. 진단 프로세스는 전술한 진단 장치에서 수행될 수 있다. 진단 프로세스는 전술한 진단 서버에서 수행될 수 있다. 진단 프로세스는 전술한 진단 장치의 제어부에서 수행될 수 있다. 진단 프로세스는 전술한 진단부의 진단 모듈에 의하여 수행될 수 있다. According to an embodiment, a diagnosis process using a learned neural network model may be initiated. The diagnostic process may be performed in the aforementioned diagnostic apparatus. The diagnostic process may be performed in the aforementioned diagnostic server. The diagnosis process may be performed by the control unit of the above-described diagnosis apparatus. The diagnosis process may be performed by the diagnosis module of the above-described diagnosis unit.

도 20은 일 실시 예에 따른 진단 프로세스를 설명하기 위한 도면이다. 도 20을 참조하면, 진단 프로세스는 진단 대상 데이터를 획득(S2010)하고, 학습된 신경망 모델을 이용하여(S2030), 획득된 진단 대상 데이터에 대응되는 결과를 획득하여 수행(S2050)될 수 있다. 다만, 데이터의 가공은 선택적으로 수행될 수 있다. 20 is a diagram for describing a diagnosis process according to an exemplary embodiment. Referring to FIG. 20 , the diagnosis process may be performed by acquiring the diagnosis target data ( S2010 ), using the learned neural network model ( S2030 ), and obtaining a result corresponding to the acquired diagnosis target data ( S2050 ). However, data processing may be selectively performed.

이하에서는 도 20을 참조하여, 진단 프로세스의 각 단계에 대하여 설명한다. Hereinafter, each step of the diagnosis process will be described with reference to FIG. 20 .

1.3.4.1 데이터 입력1.3.4.1 Data entry

일 실시 예에 따르면, 진단 모듈은 진단 대상 데이터를 획득할 수 있다. 획득된 데이터는, 전술한 바와 같이 가공된 데이터일 수 있다. 일 예로, 획득된 데이터는 사이즈가 조절되고 혈관이 강조되도록 하는 전처리가 적용된 피검자의 안저 이미지 데이터일 수 있다. 일 실시 예에 따르면, 하나의 피검자의 좌안 이미지 및 우안 이미지는 함께 진단 대상 데이터로 입력될 수 있다. According to an embodiment, the diagnosis module may acquire diagnosis target data. The acquired data may be data processed as described above. As an example, the acquired data may be fundus image data of a subject to which a size is adjusted and pre-processing for emphasizing blood vessels is applied. According to an embodiment, the left eye image and the right eye image of one subject may be input together as diagnosis target data.

1.3.4.2 데이터 분류1.3.4.2 Data classification

분류기 형태로 마련된 진단 보조 신경망 모델은 입력된 진단 대상 이미지를 소정의 라벨에 대하여 긍정 또는 부정 클래스로 분류할 수 있다. The diagnostic auxiliary neural network model prepared in the form of a classifier may classify an input diagnostic target image into a positive or negative class with respect to a predetermined label.

학습된 진단 보조 신경망 모델은 진단 대상 데이터를 입력받고, 예측되는 라벨을 출력할 수 있다. 학습된 진단 보조 신경망 모델은 진단 보조 정보의 예측값을 출력할 수 있다. 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 예측되는 라벨에 기초하여 결정될 수 있다.The trained diagnostic auxiliary neural network model may receive diagnostic target data and output predicted labels. The trained diagnostic auxiliary neural network model may output a predicted value of the diagnostic auxiliary information. Diagnosis auxiliary information may be obtained by using the learned diagnostic auxiliary neural network model. The diagnostic assistance information may be determined based on the predicted label.

예를 들어, 진단 보조 신경망 모델은 피검체의 안질환 또는 전신 질환에 대한 진단 정보(즉, 질병의 유무에 대한 정보) 또는 소견 정보(즉, 이상 소견의 유무에 대한 정보)를 예측할 수 있다. 이때, 진단 정보 또는 소견 정보는 확률 형태로 출력될 수 있다. 예컨대, 피검체가 특정 질병을 보유할 확률 또는 피검체의 안저 이미지체 특정 이상 소견이 있을 확률이 출력될 수 있다. 분류기 형태로 마련된 진단 보조 신경망 모델을 이용하는 경우에, 예측되는 라벨은 출력되는 확률값(또는 예측 점수)이 임계값을 초과하는지 여부를 고려하여 결정될 수 있다.For example, the diagnostic auxiliary neural network model may predict diagnostic information (ie, information on the presence or absence of a disease) or observation information (ie, information on the presence or absence of abnormal findings) on an eye disease or systemic disease of the subject. In this case, diagnostic information or observation information may be output in the form of probability. For example, a probability that the subject has a specific disease or a probability that the subject has a specific abnormality in the fundus image of the subject may be output. In the case of using a diagnostic auxiliary neural network model prepared in the form of a classifier, a predicted label may be determined in consideration of whether an output probability value (or prediction score) exceeds a threshold value.

구체적인 예로, 진단 보조 신경망 모델은 피검체의 안저 사진을 진단 대상 이미지로 하여, 피검체의 당뇨 망막증 유무를 확률값으로 출력할 수 있다. 1을 정상으로 하는 분류기 형태의 진단 보조 신경망 모델을 이용하는 경우, 피검체의 안저 사진을 진단 보조 신경망 모델에 입력하고, 피검체의 당뇨 망막증 보유 여부에 대하여, 정상: 비정상의 확률 값을 0.74:0.26 등의 형태로 획득할 수 있다.As a specific example, the diagnostic auxiliary neural network model may output the presence or absence of diabetic retinopathy of the subject as a probability value by using the fundus photograph of the subject as a diagnosis target image. In the case of using a classifier type diagnostic auxiliary neural network model in which 1 is normal, the fundus photograph of the subject is input to the diagnostic auxiliary neural network model, and the probability value of normal: abnormal is 0.74:0.26 for whether the subject has diabetic retinopathy or not. It can be obtained in the form of

여기에서는 분류기 형태의 진단 보조 신경망 모델을 이용하여 데이터를 분류하는 경우를 기준으로 설명하였으나, 일 실시 예가 이에 한정되지는 아니하며, 회귀 모델 형태로 구현된 진단 보조 신경망 모델을 이용하여 특정한 진단 보조 수치(예컨대, 혈압 등)를 예측할 수도 있다.Herein, the case where data is classified using a classifier-type diagnostic auxiliary neural network model has been described, but one embodiment is not limited thereto, and a specific diagnostic auxiliary numerical value ( For example, blood pressure, etc.) may be predicted.

일 실시 예의 다른 일 실시 예에 따르면, 이미지의 적합성 정보가 획득될 수 있다. 적합성 정보는 진단 대상 이미지가 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하기에 적합한지 여부를 나타낼 수 있다. According to another exemplary embodiment, suitability information of an image may be obtained. The suitability information may indicate whether the diagnosis target image is suitable for acquiring the diagnosis assistance information using the diagnosis assistance neural network model.

이미지의 적합성 정보는 이미지의 품질 정보일 수 있다. 품질 정보 또는 적합성 정보는, 진단 대상 이미지가 기준 레벨에 미치는지 여부를 나타낼 수 있다. The suitability information of the image may be quality information of the image. The quality information or the suitability information may indicate whether the diagnosis target image reaches the reference level.

예컨대, 진단 대상 이미지가 촬영 장비의 결함 또는 촬영시 조명의 영향 등으로 인하여 결함을 가지는 경우, 해당 진단 대상 이미지에 대하여는 적합성 정보로서 부적합 결과가 출력될 수 있다. 진단 대상 이미지에 노이즈가 일정 수준 이상 포함된 경우, 그 진단 대상 이미지는 부적합한 것으로 판단될 수 있다.For example, when the diagnosis target image has a defect due to a defect in imaging equipment or the influence of lighting during imaging, a non-conformity result may be output as suitability information for the diagnosis target image. When noise is included in the diagnosis target image at a certain level or more, the diagnosis target image may be determined to be inappropriate.

적합성 정보는 신경망 모델을 이용하여 예측된 값일 수 있다. 또는, 적합성 정보는 별도의 이미지 분석 프로세스를 통하여 획득된 정보일 수 있다.The fitness information may be a value predicted using a neural network model. Alternatively, the suitability information may be information obtained through a separate image analysis process.

일 실시 예에 따르면, 이미지가 부적합한 것으로 분류된 경우에도, 부적합한 이미지에 기초하여 획득된 진단 보조 정보가 획득될 수 있다.According to an embodiment, even when the image is classified as inappropriate, the diagnosis auxiliary information obtained based on the inappropriate image may be obtained.

일 실시 예에 따르면, 부적합한 것으로 분류된 이미지는 진단 보조 신경망 모델에 의하여 재검토될 수 있다.According to an embodiment, the image classified as inappropriate may be reviewed by a diagnostic auxiliary neural network model.

이때, 재검토를 수행하는 진단 보조 신경망 모델은, 최초 검토를 수행하는 진단 보조 신경망 모델과 상이할 수 있다. 예를 들어, 진단 장치는 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 저장하고, 제1 진단 보조 신경망 모델을 통하여 부적합한 것으로 분류된 이미지는 제2 진단 보조 신경망 모델을 통하여 검토될 수 있다.In this case, the diagnostic auxiliary neural network model for performing the review may be different from the diagnostic auxiliary neural network model for performing the initial review. For example, the diagnostic apparatus may store the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model, and images classified as inappropriate through the first diagnostic auxiliary neural network model may be reviewed through the second diagnostic auxiliary neural network model. .

일 실시 예의 또 다른 일 실시 예에 따르면, 학습된 신경망 모델로부터 CAM(Class Activation Map)이 획득될 수 있다. 진단 보조 정보는 CAM을 포함할 수 있다. CAM은 다른 진단 보조 정보와 함께 획득될 수 있다.According to another embodiment of an embodiment, a CAM (Class Activation Map) may be obtained from a learned neural network model. The diagnostic auxiliary information may include a CAM. The CAM may be acquired along with other diagnostic assistance information.

CAM의 경우, 선택적으로 획득될 수 있다. 예를 들어, CAM의 경우, 진단 보조 모델에 의하여 획득된 진단 정보 또는 소견 정보가 비정상 클래스로 분류된 경우에 CAM이 추출 및/또는 출력될 수 있다.In the case of CAM, it can be acquired selectively. For example, in the case of CAM, when diagnostic information or observation information acquired by the diagnostic assistance model is classified as an abnormal class, the CAM may be extracted and/or output.

1.3.5 진단 보조 정보의 출력1.3.5 Output of diagnostic auxiliary information

진단 보조 정보는, 진단 보조 신경망 모델로부터 예측된 라벨에 기초하여 결정될 수 있다. The diagnostic assistance information may be determined based on a label predicted from the diagnostic assistance neural network model.

진단 보조 정보의 출력은 전술한 진단부의 출력 모듈에 의하여 수행될 수 있다. 진단 보조 정보는 진단 장치로부터 클라이언트 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치로부터 서버 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치 또는 진단 서버에 저장될 수 있다. 진단 보조 정보는 별도로 마련된 서버 장치 등에 저장될 수 있다.The output of the diagnostic auxiliary information may be performed by the above-described output module of the diagnostic unit. The diagnostic auxiliary information may be output from the diagnostic device to the client device. The diagnostic auxiliary information may be output from the diagnostic device to the server device. The diagnostic auxiliary information may be stored in a diagnostic device or a diagnostic server. The diagnosis auxiliary information may be stored in a separately provided server device or the like.

진단 보조 정보는 데이터베이스화 되어 관리될 수 있다. 예컨대, 획득된 진단 보조 정보는 피검체의 식별 번호에 따라 해당 피검체의 진단 대상 이미지와 함께 저장 및 관리될 수 있다. 이때, 피검체의 진단 대상 이미지 및 진단 보조 정보는 시간 순서에 따라 관리될 수 있다. 진단 보조 정보 및 진단 대상 이미지를 시계열적으로 관리함으로써, 개인별 진단 정보의 추적 및 이력 관리가 용이해질 수 있다.Diagnostic auxiliary information may be managed in a database. For example, the acquired diagnosis auxiliary information may be stored and managed together with a diagnosis target image of the subject according to the identification number of the subject. In this case, the diagnosis target image of the subject and the diagnosis auxiliary information may be managed according to a time sequence. By managing the diagnosis auxiliary information and the diagnosis target image in time series, it is possible to easily track and manage individual diagnosis information.

진단 보조 정보는 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치에 마련된 시각적 또는 청각적 출력 수단을 통하여 사용자가 인지할 수 있도록 출력될 수 있다. Diagnostic auxiliary information may be provided to the user. The diagnostic auxiliary information may be provided to the user through an output means of the diagnostic device or the client device. The diagnosis auxiliary information may be output so that the user can recognize it through a visual or auditory output means provided in the diagnosis apparatus or the client apparatus.

일 실시 예에 따르면, 사용자에게 진단 보조 정보를 효과적으로 제공하기 위한 인터페이스가 제공될 수 있다. 이러한 사용자 인터페이스와 관련하여서는 후술하는 5. 사용자 인터페이스 에서 보다 상세히 설명한다.According to an embodiment, an interface for effectively providing diagnostic assistance information to a user may be provided. This user interface will be described in more detail in 5. User Interface to be described later.

신경망 모델에 의하여 CAM이 획득된 경우, CAM의 이미지가 함께 제공될 수 있다. CAM 이미지의 경우 선택적으로 제공될 수 있다. 예컨대, 진단 보조 신경망 모델을 통하여 획득된 진단 정보가 정상 소견 정보 또는 정상 진단 정보인 경우 CAM 이미지를 제공하지 않고, 획득된 진단 정보가 비정상 소견 정보 또는 비정상 진단 정보인 경우, 보다 정확한 임상 진단을 위하여 CAM 이미지가 함께 제공될 수 있다.When the CAM is acquired by the neural network model, an image of the CAM may be provided together. In the case of a CAM image, it may be optionally provided. For example, when the diagnostic information obtained through the auxiliary diagnostic neural network model is normal observation information or normal diagnostic information, a CAM image is not provided, and when the acquired diagnostic information is abnormal observation information or abnormal diagnostic information, for more accurate clinical diagnosis A CAM image may be provided.

이미지가 부적합한 것으로 분류된 경우, 이미지의 적합성 정보가 함께 제공될 수 있다. 일 예로, 이미지가 부적합한 것으로 분류된 경우, 해당 이미지에 따라 획득된 진단 보조 정보 및 부적합 판정 정보가 함께 제공될 수 있다. When the image is classified as inappropriate, suitability information of the image may be provided together. As an example, when an image is classified as inappropriate, the diagnosis auxiliary information and non-conformity determination information obtained according to the image may be provided together.

부적합한 것으로 판정된 진단 대상 이미지는 재촬영 대상 이미지로 분류될 수도 있다. 이때, 재촬영 대상으로 분류된 이미지의 대상 객체에 대한 재촬영 안내가 적합성 정보와 함께 제공될 수 있다.The diagnosis target image determined to be inappropriate may be classified as a re-photography target image. In this case, a rephotographing guide for a target object of an image classified as a rephotographing target may be provided together with suitability information.

한편, 신경망 모델을 통하여 획득된 진단 보조 정보를 제공하는 것에 응답하여, 신경망 모델의 학습과 관련된 피드백이 획득될 수 있다. 예컨대, 신경망 모델의 학습과 관련된 파라미터 또는 하이퍼 파라미터를 조정하기 위한 피드백이 획득될 수 있다. 피드백은 진단 장치 또는 클라이언트 장치에 마련된 사용자 입력부를 통하여 획득될 수 있다.Meanwhile, in response to providing the diagnostic assistance information obtained through the neural network model, feedback related to learning of the neural network model may be obtained. For example, feedback for adjusting parameters or hyperparameters related to training of the neural network model may be obtained. The feedback may be obtained through a user input unit provided in the diagnosis device or the client device.

일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 신경망 모델이 다중 분류를 수행하는 분류기 모델인 경우, 등급 정보는 진단 대상 이미지가 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 신경망 모델이 특정 질병과 관련된 수치를 출력하는 회귀 모델인 경우, 등급 정보는 출력되는 수치를 고려하여 결정될 수 있다.According to an embodiment, the diagnosis auxiliary information corresponding to the diagnosis target image may include grade information. The rating information may be selected from among a plurality of ratings. The grade information may be determined based on diagnosis information and/or observation information obtained through the neural network model. The grade information may be determined in consideration of suitability information or quality information of an image to be diagnosed. When the neural network model is a classifier model that performs multiple classification, grade information may be determined in consideration of a class into which a diagnosis target image is classified by the neural network model. When the neural network model is a regression model that outputs a numerical value related to a specific disease, grade information may be determined in consideration of the output numerical value.

예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. 또는, 등급 정보는, 신경망 모델을 통하여 획득된 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.For example, the diagnosis auxiliary information obtained in response to the diagnosis target image may include any one selected from the first grade information and the second grade information. The grade information may be selected as the first grade information when abnormal observation information or abnormal diagnosis information is acquired through the neural network model. The grade information may be selected as second grade information when abnormal findings information or abnormal diagnosis information is not obtained through the neural network model. Alternatively, the grade information may be selected as the first grade information when the numerical value obtained through the neural network model exceeds the reference value, and may be selected as the second grade information when the obtained value does not meet the reference value. The first grade information may indicate that abnormal information stronger than the second grade information exists in the diagnosis target image.

한편, 등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.Meanwhile, the grade information may be selected as the third grade information when it is determined that the quality of the image to be diagnosed is less than or equal to the standard using image analysis or a neural network model. Alternatively, the diagnosis auxiliary information may include the third level information together with the first or second level information.

진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.When the diagnosis auxiliary information includes the first level information, the first user guide may be output through the output means. The first user guide may indicate that a more precise examination is required for the subject (ie, the patient) corresponding to the diagnosis auxiliary information. For example, the first user guidance may indicate that a secondary diagnosis (eg, diagnosis at a separate medical institution or power supply procedure) is required for the subject. Alternatively, the first user guidance may indicate a required treatment for the subject. As a specific example, when abnormal information on the macular degeneration of the subject is acquired by the diagnostic auxiliary information, the first user guide provides information on the injection prescription and power supply procedure for the subject (eg, at a hospital where power is available). list) can be included.

진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다. When the diagnosis auxiliary information includes the second level information, the second user guide may be output through the output means. The second user guide may include a post-management plan for the subject corresponding to the diagnosis auxiliary information. For example, the second user guide may instruct the subject's next treatment time, next treatment subject, and the like.

진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.When the diagnosis target information includes the third level information, the third user guide may be output through the output means. The third user guide may indicate that recapture is required for the diagnosis target image. The third user guide may include information on the quality of the image to be diagnosed. For example, the third user guide may include information on defects present in the diagnosis target image (eg, whether bright artifacts or dark artifacts, or a degree thereof).

1.4 복수 라벨에 대한 진단 보조 시스템1.4 Diagnostic assistance system for multiple labels

일 실시 예에 따르면, 복수 라벨(예컨대, 복수의 진단 보조 정보)에 대하여 예측하기 위한 진단 보조 시스템이 제공될 수 있다. 이를 위하여, 전술한 진단 보조 시스템의 진단 보조 신경망을 복수의 라벨에 대하여 예측하도록 설계할 수 있다.According to an embodiment, a diagnosis assistance system for predicting with respect to a plurality of labels (eg, a plurality of diagnostic assistance information) may be provided. To this end, the diagnostic assistance neural network of the aforementioned diagnostic assistance system may be designed to predict a plurality of labels.

또는, 위와 전술한 진단 보조 시스템에 있어서, 서로 다른 라벨에 대하여 예측하는 복수의 진단 보조 신경망이 병렬적으로 이용될 수 있다. Alternatively, in the above-described diagnostic assistance system, a plurality of diagnostic assistance neural networks that predict different labels may be used in parallel.

이하에서는, 이러한 병렬 진단 보조 시스템에 대하여 설명한다. Hereinafter, such a parallel diagnosis assistance system will be described.

1.4.1 병렬 진단 보조 시스템 구성 1.4.1 Parallel Diagnostic Auxiliary System Configuration

일 실시 예에 따르면, 복수의 진단 보조 정보를 획득하기 위한 병렬 진단 보조 시스템이 제공될 수 있다. 병렬 진단 보조 시스템은 복수의 진단 보조 정보를 획득하기 위한 복수의 신경망 모델을 학습시키고, 학습된 복수의 신경망 모델을 이용하여 복수의 진단 보조 정보를 획득할 수 있다.According to an embodiment, a parallel diagnosis assistance system for acquiring a plurality of diagnostic assistance information may be provided. The parallel diagnosis assistance system may train a plurality of neural network models for acquiring a plurality of diagnostic assistance information, and acquire a plurality of diagnostic assistance information using the learned plurality of neural network models.

예컨대, 병렬 진단 보조 시스템은 안저 이미지에 기초하여, 피검체의 안질환 유무와 관련된 제1 진단 보조 정보를 획득하는 제1 신경망 모델 및 피검체의 전신 질환 유무와 관련된 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 학습시키고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 피검체의 안질환 유무 및 전신 질환 유무에 관한 진단 보조 정보를 출력할 수 있다. For example, the parallel diagnosis assistance system includes a first neural network model that acquires first diagnostic auxiliary information related to the presence or absence of an eye disease in the subject and second diagnostic auxiliary information related to the presence or absence of a systemic disease in the subject, based on the fundus image. The second neural network model may be trained, and diagnostic auxiliary information regarding the presence or absence of an eye disease and a systemic disease of the subject may be output by using the learned first neural network model and the second neural network model.

도 21 및 22는 일 실시 예의 몇몇 실시 예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다. 도 21 및 22를 참조하면, 병렬 진단 보조 시스템은 복수의 학습부를 포함할 수 있다.21 and 22 are diagrams for explaining a parallel diagnosis assistance system according to some example embodiments. 21 and 22 , the parallel diagnosis assistance system may include a plurality of learning units.

도 21을 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(30)은 학습 장치(1000), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 이때, 학습 장치(1000)는 복수의 학습부를 포함할 수 있다. 예를 들어, 학습 장치(1000)는 제1 학습부(100a) 및 제2 학습부(100b)를 포함할 수 있다. Referring to FIG. 21 , the parallel diagnosis assistance system 30 according to an embodiment may include a learning device 1000 , a diagnosis device 2000 , and a client device 3000 . In this case, the learning apparatus 1000 may include a plurality of learning units. For example, the learning apparatus 1000 may include a first learning unit 100a and a second learning unit 100b.

도 22를 참조하면, 일 실시 예에 따른 병렬 진단 보조 시스템(40)은 제1 학습 장치(1000a), 제2 학습 장치(1000b), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 제1 학습 장치(1000a)는 제1 학습부(100a)를 포함할 수 있다. 제2 학습 장치(1000b)는 제2 학습부(100b)를 포함할 수 있다. Referring to FIG. 22 , the parallel diagnosis assistance system 40 according to an embodiment may include a first learning device 1000a, a second learning device 1000b, a diagnosis device 2000, and a client device 3000 . have. The first learning apparatus 1000a may include a first learning unit 100a. The second learning apparatus 1000b may include a second learning unit 100b.

도 21 및 22를 참조하면, 제1 학습부(100a)는 제1 데이터 세트를 획득하고, 제1 신경망 모델에 대하여 학습 결과 얻어진 제1 신경망 모델의 제1 파라미터 세트를 출력할 수 있다. 제2 학습부(100b)는 제2 데이터 세트를 획득하고, 제2 신경망 모델에 대하여 학습 결과 얻어진 제2 신경망 모델의 제2 파라미터 세트를 출력할 수 있다. 21 and 22 , the first learning unit 100a may obtain a first data set and may output a first parameter set of the first neural network model obtained as a result of learning the first neural network model. The second learning unit 100b may obtain a second data set and output a second parameter set of the second neural network model obtained as a result of learning the second neural network model.

진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단 장치(2000) 및 진단부(200)에 대하여는 도 1과 관련하여 설명한 내용이 유사하게 적용될 수 있다. 진단부(200)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 각각 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다. 진단부(2000)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 획득한 학습된 제1 신경망 모델의 파라미터 및 학습된 제2 신경망 모델의 파라미터를 저장할 수 있다.The diagnosis apparatus 2000 may include a diagnosis unit 200 . The contents described with reference to FIG. 1 may be similarly applied to the diagnosis apparatus 2000 and the diagnosis unit 200 . The diagnosis unit 200 obtains the first diagnosis auxiliary information and the second diagnosis auxiliary information by using the first neural network model and the second neural network model learned from the first learning unit 100a and the second learning unit 100b, respectively. can do. The diagnosis unit 2000 may store the learned parameters of the first neural network model and the learned parameters of the second neural network model obtained from the first learner 100a and the second learner 100b.

클라이언트 장치(3000)는 데이터 획득부 예컨대, 촬상부(300)를 포함할 수 있다. 다만, 촬상부(300)는 기타 진단 보조 정보의 획득에 이용되는 데이터의 획득 수단으로 대체될 수 있다. 클라이언트 장치는 진단 장치로 진단 요청 및 진단 대상 데이터(예컨대, 촬상부로부터 획득된 안저 이미지)를 전송할 수 있다. 클라이언트 장치(3000)는 진단 요청을 전송하는 것에 응답하여, 진단 장치로부터, 전송한 진단 대상 데이터에 따른 복수의 진단 보조 정보를 획득할 수 있다.The client device 3000 may include a data acquisition unit, for example, an imaging unit 300 . However, the imaging unit 300 may be replaced with a data acquisition means used to acquire other diagnostic auxiliary information. The client device may transmit a diagnosis request and diagnosis target data (eg, a fundus image obtained from an imaging unit) to the diagnosis device. In response to transmitting the diagnosis request, the client device 3000 may acquire a plurality of diagnosis auxiliary information according to the transmitted diagnosis target data from the diagnosis device.

한편, 도 21 및 22에서는 진단 보조 시스템(40)이 제1 학습부(100a) 및 제2 학습부(100b)를 포함하는 경우를 기준으로 설명하였으나, 일 실시 예의 내용이 이에 한정되는 것은 아니다. 일 실시 예의 다른 실시 예에 따르면, 학습 장치는 3개 이상의 서로 다른 진단 보조 정보를 획득하는 학습부를 포함할 수 있다. 또는, 진단 보조 시스템은 서로 다른 진단 보조 정보를 획득하는 복수의 학습 장치를 포함할 수도 있다.Meanwhile, in FIGS. 21 and 22 , a case in which the diagnosis assistance system 40 includes the first learning unit 100a and the second learning unit 100b has been described as a reference, but the content of the exemplary embodiment is not limited thereto. According to another embodiment of an embodiment, the learning apparatus may include a learning unit that acquires three or more pieces of different diagnosis auxiliary information. Alternatively, the diagnosis assistance system may include a plurality of learning devices for acquiring different diagnosis assistance information.

학습 장치, 진단 장치 및 클라이언트 장치의 보다 구체적인 동작에 대하여는 이하에서 보다 상세하게 설명하기로 한다.More specific operations of the learning device, the diagnostic device, and the client device will be described in more detail below.

1.4.2 병렬 트레이닝 프로세스1.4.2 Parallel training process

일 실시 예에 따르면, 복수의 신경망 모델이 학습될 수 있다. 각각의 신경망 모델을 학습하는 트레이닝 프로세스는 병렬적으로 수행될 수 있다. According to an embodiment, a plurality of neural network models may be trained. The training process for learning each neural network model may be performed in parallel.

1.4.2.1 병렬 학습부1.4.2.1 Parallel Learning Unit

트레이닝 프로세스는 복수의 학습부에 의해 수행될 수 있다. 각각의 트레이닝 프로세스는 서로 독립적으로 수행될 수 있다. 복수의 학습부는 하나의 학습 장치에 마련되거나 복수의 학습 장치에 각각 마련될 수 있다. The training process may be performed by a plurality of learning units. Each training process may be performed independently of each other. The plurality of learning units may be provided in one learning apparatus or may be provided in each of the plurality of learning apparatuses.

도 23은 일 실시 예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다. 제1 학습부(100a) 및 제2 학습부(100b) 각각의 구성 및 동작은 도 9와 관련하여 전술한 것과 유사하게 구현될 수 있다.23 is a diagram for describing a configuration of a learning apparatus including a plurality of learning units according to an exemplary embodiment. The configuration and operation of each of the first learning unit 100a and the second learning unit 100b may be implemented similarly to those described above with reference to FIG. 9 .

도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 프로세스는, 제1 데이터 가공 모듈(110a), 제1 큐 모듈(130a), 제1 학습 모듈(150a) 및 제1 학습 결과 획득 모듈(170a)을 포함하는 제1 학습부(100a) 및 제2 데이터 가공 모듈(110b), 제2 큐 모듈(130b), 제2 학습 모듈(150b) 및 제2 학습 결과 획득 모듈(170b)을 포함하는 제2 학습부(100b)를 포함하는 학습 장치(1000)에 의하여 수행될 수 있다.Referring to FIG. 23 , the neural network model process according to an embodiment includes a first data processing module 110a, a first queue module 130a, a first learning module 150a, and a first learning result obtaining module 170a. ) including a first learning unit 100a and a second data processing module 110b, a second queue module 130b, a second learning module 150b and a second learning result obtaining module 170b including 2 It may be performed by the learning apparatus 1000 including the learning unit 100b.

도 23을 참조하면, 일 실시 예에 따른 신경망 모델의 트레이닝 프로세스는 제1 학습부(100a) 및 제2 학습부(100b)에 의하여 각각 수행될 수 있다. 제1 학습부(100a) 및 제2 학습부(100b)는 독립적으로 제1 신경망 모델 및 제2 신경망 모델의 학습을 수행할 수 있다. 도 23을 참조하면, 제1 학습부(100a) 및 제2 학습부(100b)는 전술한 학습 장치 내에 마련될 수 있다. 또는, 제1 학습부 및 제2 학습부는 서로 다른 학습 장치 내에 마련될 수도 있다.Referring to FIG. 23 , the training process of the neural network model according to an embodiment may be performed by the first learner 100a and the second learner 100b, respectively. The first learning unit 100a and the second learning unit 100b may independently learn the first neural network model and the second neural network model. Referring to FIG. 23 , the first learning unit 100a and the second learning unit 100b may be provided in the above-described learning apparatus. Alternatively, the first learning unit and the second learning unit may be provided in different learning devices.

1.4.2.2 병렬 데이터 획득1.4.2.2 Parallel Data Acquisition

일 실시 예에 따르면, 복수의 학습부는 데이터를 획득할 수 있다. 복수의 학습부는 서로 다른 데이터 세트를 획득할 수 있다. 또는, 복수의 학습부는 동일한 데이터 세트를 획득할 수도 있다. 경우에 따라, 복수의 학습부는 일부가 공통되는 데이터 세트를 획득할 수도 있다. 데이터 세트는 안저 이미지 데이터 세트일 수 있다. According to an embodiment, the plurality of learning units may acquire data. The plurality of learning units may acquire different data sets. Alternatively, a plurality of learning units may acquire the same data set. In some cases, a plurality of learning units may acquire a data set in which some are common. The data set may be a fundus image data set.

제1 학습부는 제1 데이터 세트를 획득하고, 제2 학습부는 제2 데이터 세트를 획득할 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 구별될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 일부 공통될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 라벨링된 안저 이미지 데이터 세트일 수 있다.The first learning unit may obtain a first data set, and the second learning unit may obtain a second data set. The first data set and the second data set may be distinguished. The first data set and the second data set may have some common features. The first data set and the second data set may be labeled fundus image data sets.

제1 데이터 세트는 제1 특징에 대하여 정상(normal)으로 라벨링된 데이터 및 제1 특징에 대하여 비정상(abnormal)으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.The first data set may include data labeled as normal for the first characteristic and data labeled as abnormal for the first characteristic. For example, the first data set may include fundus images labeled as normal and fundus images labeled as abnormal with respect to lens opacity.

제2 데이터 세트는 (제1 특징과 구별되는)제2 특징에 대하여 정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제2 데이터 세트는 당뇨 망막증과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.The second data set may include data labeled as normal for the second characteristic (distinct from the first characteristic) and data labeled as abnormal for the second characteristic. For example, with respect to diabetic retinopathy, the second data set may include fundus images labeled as normal and fundus images labeled as abnormal.

제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 정상으로 라벨링된 데이터 세트 및 제2 특징에 대하여 정상으로 라벨링된 데이터는 공통될 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하고, 제2 데이터 세트는 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하되, 제1 데이터 세트에 포함된 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 제2 데이터 세트에 포함된 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지는 공통될 수 있다.The data set labeled as normal for the first feature and data labeled as normal for the second feature included in each of the first data set and the second data set may be common. For example, the first data set includes fundus images labeled normal and abnormal with respect to lens opacity, and the second data set includes fundus images labeled normal and abnormal with respect to diabetic retinopathy. a fundus image labeled as being normal with respect to lens opacity included in the first data set and fundus images labeled normal with respect to diabetic retinopathy included in the second data set may be common. can

또는, 제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 비정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터가 공통될 수도 있다. 즉, 복수 특징에 대하여 라벨링된 데이터가 복수 특징에 대한 신경망 모델의 학습에 이용될 수도 있다.Alternatively, data labeled as abnormal for the first characteristic and data labeled as abnormal for the second characteristic included in each of the first data set and the second data set may be common. That is, data labeled with respect to a plurality of features may be used for training a neural network model for a plurality of features.

한편, 제1 데이터 세트는 제1 방법으로 촬영된 안저 이미지 데이터 세트이고, 제2 데이터 세트는 제2 방법으로 촬영된 안저 이미지 데이터 세트일 수 있다. 제1 방법 및 제2 방법은 레드프리 촬영, 파노라마 촬영, 자가형광 촬영, 적외선 촬영 등으로부터 선택된 어느 하나의 방법일 수 있다.Meanwhile, the first data set may be a fundus image data set photographed by the first method, and the second data set may be a fundus image data set photographed by the second method. The first method and the second method may be any one method selected from red-free photographing, panoramic photographing, autofluorescence photographing, infrared photographing, and the like.

각 학습부에서 이용되는 데이터 세트는, 학습되는 신경망에 의하여 획득되는 진단 보조 정보를 고려하여 결정될 수 있다. 예를 들어, 제1 학습부는 망막 이상 소견(예를 들어, 미세혈관류, 삼출물 등)과 관련된 진단 보조 정보를 획득하고자 하는 제1 신경망 모델을 학습시키는 경우, 레드프리 촬영된 제1 안저 이미지 데이터 세트를 획득할 수 있다. 또는, 제2 학습부는 황반 변성과 관련된 진단 보조 정보를 획득하고자 하는 제2 신경망 모델을 학습시키는 경우, 자가형광 촬영된 제2 안저 이미지 데이터 세트를 획득할 수 있다.The data set used in each learning unit may be determined in consideration of the diagnosis auxiliary information obtained by the learned neural network. For example, when the first learning unit trains the first neural network model to acquire diagnostic auxiliary information related to retinal abnormalities (eg, microvascular flow, exudates, etc.), red-free photographed first fundus image data set can be obtained. Alternatively, when the second learning unit trains the second neural network model to acquire diagnostic auxiliary information related to macular degeneration, the second learning unit may acquire the autofluorescence-captured second fundus image data set.

1.4.2.3 병렬 데이터 가공1.4.2.3 Parallel data processing

복수의 학습부는 각각 획득된 데이터를 가공할 수 있다. 전술한 2.2 데이터 가공 프로세스 에서 설명한 것과 같이, 각각의 학습부는, 획득된 데이터에 대하여, 이미지 리사이징, 전처리 필터 적용, 이미지 증강 및 이미지 직렬화 프로세스 중 하나 이상을 적용하여 데이터를 가공할 수 있다. 제1 학습부의 제1 데이터 가공 모듈은 제1 데이터 세트를 가공하고, 제2 학습부의 제2 데이터 가공 모듈은 제2 데이터 세트를 가공할 수 있다. The plurality of learning units may process the obtained data, respectively. As described above in 2.2 Data Processing Process, each learning unit may process data by applying one or more of image resizing, pre-processing filter application, image augmentation, and image serialization processes to the acquired data. The first data processing module of the first learning unit may process the first data set, and the second data processing module of the second learning unit may process the second data set.

복수의 학습부에 포함되는 제1 학습부 및 제2 학습부는 각각에 의해 학습되는 신경망 모델로부터 획득되는 진단 보조 정보를 고려하여 획득된 데이터 세트를 달리 가공할 수 있다. 예를 들어, 제1 학습부는 고혈압과 관련된 제1 진단 보조 정보를 획득하기 위한 제1 신경망 모델을 학습시키기 위하여, 제1 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 혈관이 강조되도록 하는 전처리를 수행할 수 있다. 또는, 제2 학습부는 망막의 삼출물, 미세 혈관 등의 이상 소견과 관련된 제2 진단 보조 정보를 획득하기 위한 제2 신경망 모델을 학습시키기 위하여, 제2 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 레드프리 이미지로 변환하는 전처리를 수행할 수도 있다.The first learning unit and the second learning unit included in the plurality of learning units may differently process the obtained data set in consideration of the diagnosis auxiliary information obtained from the neural network model trained by each. For example, in order to train the first neural network model for acquiring the first diagnostic auxiliary information related to hypertension, the first learning unit performs preprocessing for emphasizing blood vessels with respect to fundus images included in the first fundus image data set. can be done Alternatively, in order to train the second neural network model for acquiring second diagnostic auxiliary information related to abnormal findings such as retinal exudate, microvascular, and the like, the second learning unit relates to the fundus images included in the second fundus image data set. It is also possible to perform pre-processing to convert it to a red-free image.

1.4.2.4 병렬 큐1.4.2.4 Parallel queues

복수의 학습부는 데이터를 큐에 저장할 수 있다. 전술한 2.2.6 큐 에서 설명한 것과 같이, 각각의 학습부는 처리된 데이터를 큐에 저장하고 학습 모듈로 전달할 수 있다. 예를 들어, 제1 학습부는 제1 데이터 세트를 제1 큐 모듈에 저장하고 제1 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다. 제2 학습 모듈은 제2 데이터 세트를 제2 큐 모듈에 저장하고 제2 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다.The plurality of learning units may store data in a queue. As described in 2.2.6 Queue above, each learning unit can store processed data in a queue and deliver it to the learning module. For example, the first learning unit may store the first data set in the first queue module and provide it to the first learning module sequentially or randomly. The second learning module may store the second data set in the second queue module and provide it to the second learning module sequentially or randomly.

1.4.2.5 병렬 학습 프로세스1.4.2.5 Parallel Learning Process

복수의 학습부는 신경망 모델을 학습시킬 수 있다. 각각의 학습 모듈은 트레이닝 데이터 세트를 이용하여 서로 다른 라벨에 대하여 예측하는 진단 보조 신경망 모델을 각각 독립적으로 학습시킬 수 있다. 제1 학습부의 제1 학습 모듈은 제1 신경망 모델을 학습시키고, 제2 학습부의 제2 학습 모듈은 제2 신경망 모듈을 학습시킬 수 있다. The plurality of learning units may train the neural network model. Each learning module can independently train a diagnostic auxiliary neural network model that predicts different labels using a training data set. The first learning module of the first learning unit may train the first neural network model, and the second learning module of the second learning unit may train the second neural network module.

복수의 진단 보조 신경망 모델은 병렬적 및/또는 독립적으로 학습될 수 있다. 이와 같이 복수의 신경망 모델을 통하여 서로 다른 라벨에 대하여 예측하도록 모델을 학습시킴으로써, 각 라벨에 대한 예측 정확도가 향상되고, 예측 동작의 효율이 증가될 수 있다.A plurality of diagnostic auxiliary neural network models may be trained in parallel and/or independently. As described above, by training the model to predict different labels through a plurality of neural network models, the prediction accuracy for each label can be improved, and the efficiency of the prediction operation can be increased.

각각의 진단 보조 신경망 모델은 2.3.2 모델의 설계 에서 설명한 것과 유사하게 마련될 수 있다. 각각의 서브 학습 프로세스는 2.3.1 내지 2.3.5 에서 전술한 것과 유사하게 수행될 수 있다.Each diagnostic auxiliary neural network model can be prepared similarly to that described in 2.3.2 Model design. Each sub-learning process may be performed similarly to that described above in 2.3.1 to 2.3.5.

일 실시 예에 따른 병렬 학습 프로세스는, 서로 다른 라벨을 예측하는 진단 보조 신경망 모델을 학습시키는 것을 포함할 수 있다. 제1 학습부는 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 제2 학습부는 제2 라벨을 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다. The parallel learning process according to an embodiment may include training a diagnostic auxiliary neural network model that predicts different labels. The first learning unit may train the first diagnostic auxiliary neural network model for predicting the first label. The second learning unit may train the second diagnostic auxiliary neural network model for predicting the second label.

제1 학습부는 제1 데이터 세트를 획득하고 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제1 학습부는 황반 변성 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 황반 변성 여부를 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다.The first learning unit may acquire the first data set and train the first diagnostic auxiliary neural network model to predict the first label. For example, the first learning unit may train a first diagnostic auxiliary neural network model for predicting whether the subject is macular degeneration from the fundus image by using the fundus image training data set labeled for macular degeneration.

제2 학습부는 제2 데이터 세트를 획득하고 제2 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제2 학습부는 당뇨 망막증 해당 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 당뇨 망막증 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.The second learning unit may acquire the second data set and train the first diagnostic auxiliary neural network model to predict the second label. For example, the second learning unit may train a second diagnostic auxiliary neural network model for predicting whether the subject has diabetic retinopathy from the fundus image by using the fundus image training data set labeled with respect to diabetic retinopathy.

신경망 모델의 학습 프로세스에 대하여는 이하에서 도 24 및 25를 참조하여 보다 구체적으로 설명한다.The learning process of the neural network model will be described in more detail below with reference to FIGS. 24 and 25 .

도 24는 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 병렬 학습 프로세스는, 병렬 진단 보조 시스템이 도 21과 같이 구현된 경우, 도 22과 같이 구현된 경우 및 그 외의 형태로 구현된 경우 모두에 적용될 수 있다. 다만, 설명의 편의를 위하여, 이하에서는 도 21과 같이 구현된 병렬 진단 보조 시스템을 기준으로 설명한다.24 is a diagram for describing a parallel learning process according to an embodiment. The parallel learning process may be applied to both the case where the parallel diagnosis assistance system is implemented as shown in FIG. 21 , the case where the parallel diagnosis assistance system is implemented as shown in FIG. 22 , and other cases. However, for convenience of explanation, the following description will be based on the parallel diagnosis auxiliary system implemented as shown in FIG. 21 .

도 24를 참조하면, 병렬 학습 프로세스는 서로 다른 라벨을 예측하는 복수의 진단 보조 신경망 모델을 각각 학습시키는 복수의 서브 학습 프로세스를 포함할 수 있다. 병렬 학습 프로세스는 제1 신경망 모델을 학습시키는 제1 서브 학습 프로세스 및 제2 신경망 모델을 학습시키는 제2 서브 학습 프로세스를 포함할 수 있다. Referring to FIG. 24 , the parallel learning process may include a plurality of sub-learning processes for respectively learning a plurality of diagnostic auxiliary neural network models that predict different labels. The parallel learning process may include a first sub-learning process for training the first neural network model and a second sub-learning process for training the second neural network model.

예컨대, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1010a), 제1 신경망 모델을 이용하고(S1030a), 제1 모델(즉, 제1 진단 보조 신경망 모델)을 검증하고(S1050a) 제1 신경망 모델의 파라미터를 획득(S1070a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1010b), 제2 신경망 모델을 이용하고(S1030b), 제2 신경망 모델을 검증(즉, 제2 진단 보조 신경망 모델)하고(S1050b) 제2 신경망 모델의 파라미터를 획득(S1070b)하여 수행될 수 있다.For example, the first sub-learning process obtains the first data (S1010a), uses the first neural network model (S1030a), validates the first model (ie, the first diagnostic auxiliary neural network model), and (S1050a) the first This may be performed by acquiring the parameters of the neural network model (S1070a). The second sub-learning process acquires the second data (S1010b), uses the second neural network model (S1030b), validates the second neural network model (ie, the second diagnostic auxiliary neural network model), and (S1050b) the second neural network This may be performed by acquiring the parameters of the model (S1070b).

서브 학습 프로세스는 서브 신경망 모델에 트레이닝 데이터를 입력하고, 출력으로 얻어진 라벨 값을 입력 트레이닝 데이터와 비교하여 모델을 검증하고, 검증 결과를 다시 서브 신경망 모델에 반영함으로써 신경망 모델을 학습시키는 것을 포함할 수 있다.The sub-learning process may include training the neural network model by inputting training data into the sub-neural network model, verifying the model by comparing the label value obtained as an output with the input training data, and reflecting the validation result back to the sub-neural network model. have.

각각의 서브 학습 프로세스는, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화하는 것을 포함할 수 있다. Each sub-learning process obtains a result value using a neural network model to which arbitrary weight values are given, compares the obtained result value with a label value of training data, and performs backpropagation according to the error, may include optimizing them.

각각의 서브 학습 프로세스에서, 진단 보조 신경망 모델은 트레이닝 데이터 세트와 구별되는 검증 데이터 세트를 통하여 검증될 수 있다. 제1 신경망 모델 및 제2 신경망 모델을 검증하기 위한 검증 데이터 세트는 구별될 수 있다. In each sub-learning process, the diagnostic auxiliary neural network model may be validated through a validation data set distinct from the training data set. A validation data set for validating the first neural network model and the second neural network model may be distinguished.

복수의 학습부는 학습 결과를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습 모듈로부터 학습된 신경망 모듈에 관한 정보를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습부로부터 학습된 신경망 모듈의 파라미터 값들을 획득할 수 있다. 제1 학습부의 제1 학습 결과 획득 모듈은 제1 학습 모듈로부터 학습된 제1 신경망 모델의 제1 파라미터 세트를 획득할 수 있다. 제2 학습부의 제2 학습 결과 획득 모듈은 제2 학습 모듈로부터 학습된 제2 신경망 모델의 제2 파라미터 세트를 획득할 수 있다.The plurality of learning units may acquire a learning result. Each of the learning result acquisition modules may acquire information about the neural network module learned from the learning module. Each learning result acquisition module may acquire parameter values of the neural network module learned from the learning unit. The first learning result obtaining module of the first learning unit may obtain a first parameter set of the first neural network model learned from the first learning module. The second learning result obtaining module of the second learning unit may obtain a second parameter set of the second neural network model learned from the second learning module.

각각의 서브 학습 프로세스에 의하여, 학습된 신경망 모델의 최적화된 파라미터 값들, 즉 파라미터 세트가 획득될 수 있다. 보다 많은 트레이닝 데이터 세트를 이용하여 학습을 진행함에 따라, 보다 적절한 파라미터 값들이 얻어질 수 있다.By each sub-learning process, optimized parameter values of the learned neural network model, that is, a parameter set may be obtained. As learning proceeds using more training data sets, more appropriate parameter values may be obtained.

제1 서브 학습 프로세스에 의하여 학습된 제1 진단 보조 신경망 모델의 제1 파라미터 세트가 획득될 수 있다. 제2 서브 학습 프로세스에 의하여 학습된 제2 진단 보조 신경망 모델의 제2 파라미터 세트가 획득될 수 있다. 학습이 충분히 진행됨에 따라, 제1 진단 보조 신경망 모델의 및 제2 진단 보조 신경망 모델의 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.A first parameter set of the first diagnostic auxiliary neural network model learned by the first sub-learning process may be obtained. A second parameter set of the second diagnostic auxiliary neural network model learned by the second sub-learning process may be obtained. As the learning progresses sufficiently, optimized values of weights and/or biases of the first diagnostic auxiliary neural network model and of the second diagnostic auxiliary neural network model may be obtained.

획득된 각 신경망 모델의 파라미터 세트는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 제1 진단 보조 신경망 모델의 제1 파라미터 세트 및 제2 진단 보조 신경망 모델의 제2 파라미터 세트는 함께 또는 따로 저장될 수 있다. 학습된 각 신경망 모델의 파라미터 세트는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.The acquired parameter set of each neural network model may be stored in a learning device and/or a diagnostic device (or server). The first parameter set of the first diagnostic auxiliary neural network model and the second parameter set of the second diagnostic auxiliary neural network model may be stored together or separately. The parameter set of each learned neural network model may be updated by feedback obtained from a diagnostic device or a client device.

1.4.2.6 병렬 앙상블 학습 프로세스1.4.2.6 Parallel Ensemble Learning Process

복수의 신경망 모델을 병렬적으로 학습시키는 경우에도, 전술한 앙상블 형태의 모델 학습이 이용될 수 있다. 각각의 서브 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. 이하에서, 별다른 언급이 없는 한 2.3.7에서 설명한 내용이 유사하게 적용될 수 있다. Even when a plurality of neural network models are trained in parallel, the aforementioned ensemble type model learning may be used. Each sub-learning process may include training a plurality of sub-neural network models. The plurality of sub-models may have different hierarchical structures. Hereinafter, the contents described in 2.3.7 may be similarly applied unless otherwise noted.

복수의 진단 보조 신경망 모델이 병렬적으로 학습되는 경우에, 각각의 진단 보조 신경망 모델을 학습시키는 서브 학습 프로세스 중 일부 서브 학습 프로세스는 단일 모델을 학습시키고, 일부 서브 학습 프로세스는 복수의 서브 모델을 함께 학습시키는 형태로 구현될 수도 있다.When a plurality of diagnostic auxiliary neural network models are trained in parallel, some of the sub-learning processes for training each diagnostic auxiliary neural network model train a single model, and some sub-learning processes train a plurality of sub-models together. It may be implemented in the form of learning.

각 서브 학습 프로세스에서 앙상블을 이용하여 모델을 학습시킴에 따라, 각각의 서브 프로세스에서 보다 최적화된 신경망 모델의 형태를 획득하고, 예측의 오차가 감소될 수 있다.As the model is trained using an ensemble in each sub-learning process, a more optimized form of a neural network model can be obtained in each sub-process, and prediction errors can be reduced.

도 25는 일 실시 예의 다른 일 실시 예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 도 25를 참조하면, 각 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 25 is a diagram for describing a parallel learning process according to another embodiment of an embodiment. Referring to FIG. 25 , each learning process may include training a plurality of sub-neural network models.

도 25를 참조하면, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1011a), 제 1-1 신경망 모델 및 제1-2 신경망 모델을 이용하고(S1031a, S1033a) 제 1-1 신경망 모델 및 제1-2 신경망 모델을 검증(S1051a)하여, 제1 신경망 모델의 최종 형태 및 그 파라미터를 결정(S1071a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1011b), 제 2-1 신경망 모델 및 제2-2 신경망 모델을 이용하고(S1031b, S1033b) 제 2-1 신경망 모델 및 제2-2 신경망 모델을 검증(S1051b)하여, 제1 모델(즉, 제1 진단 보조 신경망 모델)의 최종 형태 및 그 파라미터를 결정(S1071b)하여 수행될 수 있다.Referring to FIG. 25 , the first sub-learning process acquires first data (S1011a), uses a 1-1 neural network model and a 1-2 neural network model (S1031a, S1033a), and a 1-1 neural network model and This may be performed by verifying the 1-2 neural network model (S1051a), and determining the final shape of the first neural network model and its parameters (S1071a). The second sub-learning process acquires the second data (S1011b), uses the 2-1 neural network model and the 2-2 neural network model (S1031b, S1033b), and the 2-1 neural network model and the 2-2 neural network model can be performed by verifying (S1051b) to determine the final shape of the first model (ie, the first diagnostic auxiliary neural network model) and its parameters (S1071b).

제1 서브 학습 프로세스에서 학습되는 제1 신경망은 제1-1 신경망 모델, 제1-2 신경망 모델을 포함할 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 서로 다른 계층 구조로 마련될 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 제1 데이터 세트를 획득하고 예측되는 라벨을 각각 출력할 수 있다. 또는, 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블에 의한 예측되는 라벨을 최종 예측 라벨로 결정할 수 있다.The first neural network learned in the first sub-learning process may include a 1-1 neural network model and a 1-2 neural network model. The 1-1 neural network model and the 1-2 neural network model may be provided in different hierarchical structures. The 1-1 neural network model and the 1-2 neural network model may obtain a first data set and output predicted labels, respectively. Alternatively, a label predicted by the ensemble of the 1-1 neural network model and the 1-2 neural network model may be determined as the final predicted label.

이때, 제1-1 신경망 모델 및 제1-2 신경망 모델을 검증 데이터 세트를 이용하여 검증하고, 정확도가 높은 신경망 모델을 최종 신경망 모델로 결정할 수 있다. 또는, 제1-1 신경망 모델, 제1-2 신경망 모델 및 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블을 검증하고, 그 중 정확도가 높은 경우의 신경망 모델 형태를 최종 제1 신경망 모델로 결정할 수도 있다.In this case, the 1-1 neural network model and the 1-2 neural network model may be verified using the validation data set, and a neural network model with high accuracy may be determined as the final neural network model. Alternatively, the ensemble of the 1-1 neural network model, the 1-2 neural network model, the 1-1 neural network model, and the 1-2 neural network model is verified, and the neural network model form when the accuracy is high among them is determined as the final first neural network. It can also be determined by the model.

제2 서브 학습 프로세스에 대하여도 마찬가지로, 제2-1 신경망 모델, 제2-2 신경망 모델 및 제2-1 신경망 모델, 제2-2 신경망 모델의 앙상블 중 정확도가 높은 형태의 신경망을 최종 제2 모델(즉, 제2 진단 보조 신경망 모델)로 결정할 수 있다.Similarly for the second sub-learning process, a neural network of a high-accuracy form among the ensembles of the 2-1 neural network model, the 2-2 neural network model, the 2-1 neural network model, and the 2-2 neural network model is finally obtained as the second sub-learning process. It may be determined as a model (ie, the second diagnostic auxiliary neural network model).

한편, 도 25에서는, 편의를 위하여 각 서브 학습 프로세스가 두 개의 서브 모델을 포함하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 일 실시 예가 이에 한정되지는 않는다. 각 서브 학습 프로세스에서 학습되는 신경망 모델은, 하나의 신경망 모델만을 포함하거나, 세 개 이상의 서브 모델을 포함할 수도 있다.Meanwhile, in FIG. 25 , for convenience, each sub-learning process has been described based on a case in which two sub-models are included, but this is only an example, and an embodiment is not limited thereto. The neural network model trained in each sub-learning process may include only one neural network model, or may include three or more sub-models.

1.4.3 병렬 진단 프로세스1.4.3 Parallel diagnostic process

일 실시 예에 의하면, 복수의 진단 보조 정보를 획득하는 진단 프로세스가 제공될 수 있다. 복수의 진단 보조 정보를 획득하는 진단 프로세스는 서로 독립적인 복수의 진단 프로세스를 포함하는 병렬 진단 보조 프로세스 형태로 구현될 수 있다. According to an embodiment, a diagnostic process for acquiring a plurality of diagnostic auxiliary information may be provided. The diagnostic process for acquiring a plurality of diagnostic auxiliary information may be implemented in the form of a parallel diagnostic auxiliary process including a plurality of independent diagnostic processes.

1.4.3.1 병렬 진단부1.4.3.1 Parallel Diagnostics

일 실시 예에 따르면, 진단 보조 프로세스는 복수의 진단 모듈에 의하여 수행될 수 있다. 각각의 진단 보조 프로세스는 독립적으로 수행될 수 있다.According to an embodiment, the diagnostic auxiliary process may be performed by a plurality of diagnostic modules. Each diagnostic auxiliary process may be performed independently.

도 26은 일 실시 예에 따른 진단부(200)를 설명하기 위한 블록도이다.26 is a block diagram illustrating the diagnosis unit 200 according to an exemplary embodiment.

도 26을 참조하면, 일 실시 예에 따른 진단부(200)는 진단 요청 획득 모듈(211), 데이터 가공 모듈(231), 제1 진단 모듈(251), 제2 진단 모듈(253) 및 출력 모듈(271)을 포함할 수 있다. 진단부(200)의 각 모듈은 특별한 언급이 없는 한, 도 18에서 도시하는 진단부의 진단 모듈과 유사하게 동작할 수 있다. Referring to FIG. 26 , the diagnosis unit 200 according to an exemplary embodiment includes a diagnosis request obtaining module 211 , a data processing module 231 , a first diagnosis module 251 , a second diagnosis module 253 , and an output module. (271) may be included. Each module of the diagnosis unit 200 may operate similarly to the diagnosis module of the diagnosis unit illustrated in FIG. 18 , unless otherwise specified.

도 26에서는, 진단부(200)가 복수의 진단 모듈을 포함하는 경우에도, 진단 요청 획득 모듈(211), 데이터 가공 모듈(231) 및 출력 모듈(271)은 공통되는 것으로 도시하였으나, 일 실시 예가 이러한 구성에 한정되는 것은 아니며, 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 복수로 마련될 수도 있다. 복수의 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 병렬적으로 동작할 수도 있다.In FIG. 26 , even when the diagnostic unit 200 includes a plurality of diagnostic modules, the diagnostic request obtaining module 211 , the data processing module 231 , and the output module 271 are illustrated as being common, but in one embodiment It is not limited to this configuration, and a plurality of diagnostic request acquisition modules, data processing modules, and/or output modules may also be provided. A plurality of diagnostic request obtaining modules, data processing modules and/or output modules may also operate in parallel.

예를 들어, 진단부(200)는 입력된 진단 대상 이미지에 대하여 제1 가공을 수행하는 제1 데이터 가공 모듈 및 진단 대상 이미지에 대하여 제2 데이터 가공을 수행하는 제2 가공 모듈을 포함하고, 제1 진단 모듈은 제1 가공된 진단 대상 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 제2 가공된 진단 대상 이미지에 기초하여 제2 진단 보조 정보를 획득할 수 있다. 제1 가공 및/또는 제2 가공은 이미지 리사이징, 이미지의 색상 변조, 블러 필터 적용, 혈관 강조 처리, 레드프리 변환, 일부 영역 크롭, 일부 요소 추출 중 선택된 어느 하나일 수 있다.For example, the diagnosis unit 200 includes a first data processing module that performs first processing on the input diagnosis target image and a second processing module that performs second data processing on the diagnosis target image, The first diagnosis module may obtain first diagnosis auxiliary information based on the first processed diagnosis subject image, and the second diagnosis module may obtain second diagnosis auxiliary information based on the second processed diagnosis subject image. The first processing and/or the second processing may be any one selected from image resizing, image color modulation, blur filter application, blood vessel enhancement processing, red-free transformation, partial region cropping, and partial element extraction.

복수의 진단 모듈은 서로 다른 진단 보조 정보를 획득할 수 있다. 복수의 진단 모듈은 서로 다른 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 예를 들어, 제1 진단 모듈은 피검체의 안질환 해당 여부를 예측하는 제1 신경망 모델을 이용하여 피검체의 안질환 해당 여부와 관련된 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 피검체의 전신 질환 해당 여부를 예측하는 제2 신경망 모델을 이용하여 피검체의 전신 질환 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.The plurality of diagnostic modules may acquire different diagnostic auxiliary information. The plurality of diagnosis modules may acquire the diagnosis auxiliary information by using different diagnosis auxiliary neural network models. For example, the first diagnosis module obtains first diagnostic auxiliary information related to whether the subject has an eye disease by using a first neural network model that predicts whether the subject has an eye disease, and the second diagnosis module Second diagnostic auxiliary information related to whether the subject corresponds to a systemic disease may be obtained by using the second neural network model for predicting whether the subject corresponds to a systemic disease.

보다 구체적인 예로, 제1 진단 모듈은 안저 이미지에 기초하여 피검체의 당뇨 망막증 해당 여부를 예측하는 제1 진단 보조 신경망 모델을 이용하여 피검체의 당뇨 망막증 해당 여부에 관한 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 안저 이미지에 기초하여 피검체의 고혈압 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 이용하여 피검체의 고혈압 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.As a more specific example, the first diagnosis module obtains first diagnostic auxiliary information regarding whether the subject has diabetic retinopathy by using a first diagnosis auxiliary neural network model that predicts whether the subject has diabetic retinopathy based on the fundus image, , the second diagnosis module may obtain second diagnosis auxiliary information related to whether the subject has hypertension by using a second diagnosis auxiliary neural network model that predicts whether the subject has hypertension based on the fundus image.

1.4.3.2 병렬 진단 프로세스1.4.3.2 Parallel diagnostic process

일 실시 예에 따른 진단 보조 프로세스는 복수의 서브 진단 프로세스를 포함할 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 보조 신경망 모델을 이용하여 수행될 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 모듈에서 수행될 수 있다. 예컨대, 제1 진단 모듈은 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하는 제1 서브 진단 프로세스를 수행할 수 있다. 또는, 제2 진단 모듈은 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 제2 서브 진단 프로세스를 수행할 수 있다.A diagnosis auxiliary process according to an embodiment may include a plurality of sub-diagnosis processes. Each sub-diagnosis process may be performed using a different diagnostic auxiliary neural network model. Each sub-diagnosis process may be performed in different diagnostic modules. For example, the first diagnosis module may perform a first sub-diagnosis process of acquiring the first diagnosis assistance information through the first diagnosis assistance neural network model. Alternatively, the second diagnosis module may perform a second sub-diagnosis process of acquiring second diagnosis auxiliary information through the second diagnosis auxiliary neural network model.

학습된 복수의 신경망 모델은 진단 대상 데이터를 입력으로 하여, 예측되는 라벨 또는 확률을 출력할 수 있다. 각각의 신경망 모델은 분류기 형태로 마련되고, 입력되는 진단 대상 데이터를 소정의 라벨에 대하여 분류할 수 있다. 이때, 복수의 신경망 모델은 서로 다른 특성에 대하여 학습된 분류기 형태로 마련될 수 있다. 각각의 신경망 모델은 3.4.2 에서 전술한 것과 같이 진단 대상 데이터를 분류할 수 있다.The plurality of learned neural network models may output predicted labels or probabilities by receiving diagnosis target data as input. Each neural network model may be provided in the form of a classifier, and input diagnostic target data may be classified with respect to a predetermined label. In this case, the plurality of neural network models may be provided in the form of classifiers learned for different characteristics. Each neural network model can classify diagnostic target data as described above in 3.4.2.

한편, 각각의 진단 보조 신경망 모델로부터, CAM이 획득될 수 있다, CAM은 선택적으로 획득될 수 있다. CAM은 미리 정해진 조건이 만족되는 경우에 추출될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우에 제1 진단 보조 신경망 모델로부터 제1 CAM이 획득될 수 있다. Meanwhile, from each diagnostic auxiliary neural network model, a CAM may be obtained, and the CAM may be selectively obtained. The CAM may be extracted when a predetermined condition is satisfied. For example, when the first diagnostic assistance information indicates that the subject is abnormal with respect to the first characteristic, the first CAM may be obtained from the first diagnostic assistance neural network model.

도 27은 일 실시 예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 27 is a diagram for describing a diagnosis assistance process according to an exemplary embodiment.

도 27을 참조하면, 일 실시 예에 따른 진단 보조 프로세스는 진단 대상 데이터를 획득(S2011)하고, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 이용하여(S2031a, S2031b) 진단 대상 데이터에 따른 진단 보조 정보를 획득(S2051)하는 것을 포함할 수 있다. 진단 대상 데이터는 가공된 데이터일 수 있다.Referring to FIG. 27 , the diagnosis assistance process according to an exemplary embodiment acquires diagnosis target data (S2011), and uses the first diagnosis auxiliary neural network model and the second diagnosis auxiliary neural network model (S2031a, S2031b) to obtain the diagnosis target data. It may include acquiring ( S2051 ) diagnostic auxiliary information. The diagnosis target data may be processed data.

일 실시 예에 따른 진단 보조 프로세스는 학습된 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하고, 학습된 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 동일한 진단 대상 데이터에 기초하여 각각 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다.The diagnosis assistance process according to an embodiment may include acquiring first diagnosis assistance information through the learned first diagnosis assistance neural network model and acquiring second diagnosis assistance information through the learned second diagnosis assistance neural network model. have. The first auxiliary diagnosis neural network model and the second auxiliary diagnosis neural network model may acquire first diagnosis auxiliary information and second diagnosis auxiliary information, respectively, based on the same diagnosis target data.

예를 들어, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 진단 대상 안저 이미지에 기초하여, 피검체의 황반 변성 여부에 관한 제1 진단 보조 정보 및 피검체의 당뇨 망막증 해당 여부에 관한 제2 진단 보조 정보를 각각 획득할 수 있다.For example, the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model may include, based on the fundus image to be diagnosed, the first diagnostic auxiliary information regarding whether the subject has macular degeneration and the second diagnosis auxiliary information regarding whether the subject has diabetic retinopathy. Each of the 2 diagnostic auxiliary information can be obtained.

이외에도, 특별한 언급이 없는 한, 도 27과 관련하여 설명하는 진단 보조 프로세스는 도 20과 관련하여 전술한 진단 보조 프로세스와 유사하게 구현될 수 있다.In addition, unless otherwise specified, the diagnosis assistance process described with reference to FIG. 27 may be implemented similarly to the diagnosis assistance process described with reference to FIG. 20 .

1.4.3.3 진단 보조 정보의 출력1.4.3.3 Output of diagnostic auxiliary information

일 실시 예에 따르면, 병렬 진단 보조 프로세스에 의하여 획득된 진단 보조 정보가 획득될 수 있다. 획득된 진단 보조 정보는 진단 장치, 서버 장치 및/또는 클라이언트 장치에 저장될 수 있다. 획득된 진단 보조 정보는 외부 장치로 전달될 수 있다.According to an embodiment, the diagnosis auxiliary information obtained by the parallel diagnosis auxiliary process may be obtained. The obtained diagnostic assistance information may be stored in a diagnostic device, a server device, and/or a client device. The acquired diagnostic auxiliary information may be transmitted to an external device.

복수의 진단 보조 정보는, 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨을 각각 지시할 수 있다. 복수의 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 각각 대응될 수 있다. 또는, 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측된 복수의 라벨에 기초하여 결정된 정보일 수 있다. 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 대응될 수 있다.The plurality of diagnostic auxiliary information may indicate a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models, respectively. The plurality of diagnostic auxiliary information may respectively correspond to a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models. Alternatively, the diagnostic auxiliary information may be information determined based on a plurality of labels predicted by a plurality of diagnostic auxiliary neural network models. The diagnostic auxiliary information may correspond to a plurality of labels predicted by the plurality of diagnostic auxiliary neural network models.

다시 말해, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨에 대응되는 진단 보조 정보일 수 있다. 또는, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨 및 제2 진단 보조 신경망 모델을 통하여 예측된 제2 라벨을 함께 고려하여 결정된 진단 보조 정보일 수 있다.In other words, the first diagnostic auxiliary information may be diagnostic auxiliary information corresponding to the first label predicted through the first diagnostic auxiliary neural network model. Alternatively, the first diagnosis auxiliary information may be diagnosis auxiliary information determined by considering the first label predicted through the first diagnosis auxiliary neural network model and the second label predicted through the second diagnosis auxiliary neural network model together.

한편, 복수의 진단 보조 신경망 모델로부터 획득된 CAM의 이미지가 출력될 수 있다. CAM 이미지는 미리 정해진 조건이 만족되는 경우에 출력될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우 또는 제2 진단 보조 정보가 피검체가 제2 특성에 대하여 비정상임을 지시하는 경우 중 어느 하나의 경우에, 비정상임인 것으로 지시된 진단 보조 정보가 출력된 진단 보조 신경망 모델로부터 획득된 CAM 이미지가 출력될 수 있다.Meanwhile, CAM images obtained from a plurality of diagnostic auxiliary neural network models may be output. The CAM image may be output when a predetermined condition is satisfied. For example, in either case where the first diagnostic auxiliary information indicates that the subject is abnormal with respect to the first characteristic or the second diagnostic auxiliary information indicates that the subject is abnormal with respect to the second characteristic, A CAM image obtained from a diagnostic auxiliary neural network model to which diagnostic auxiliary information indicated to be abnormal may be output.

복수의 진단 보조 정보 및/또는 CAM 이미지는 사용자에게 제공될 수 있다. 복수의 진단 보조 정보 등은 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 시각적으로 출력될 수 있다. 이와 관련하여, 5. 사용자 인터페이스에서 보다 상세하게 설명한다.A plurality of diagnostic auxiliary information and/or CAM images may be provided to the user. A plurality of diagnostic auxiliary information and the like may be provided to a user through an output means of a diagnostic device or a client device. The diagnostic auxiliary information may be visually output. In this regard, 5. User interface will be described in more detail.

일 실시 예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 복수의 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 등급 정보는 진단 대상 이미지가 복수의 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 등급 정보는 복수의 신경망 모델로부터 출력되는 수치를 고려하여 결정될 수 있다.According to an embodiment, the diagnosis auxiliary information corresponding to the diagnosis target image may include grade information. The rating information may be selected from among a plurality of ratings. The grade information may be determined based on a plurality of diagnostic information and/or observation information obtained through the neural network model. The grade information may be determined in consideration of suitability information or quality information of an image to be diagnosed. The grade information may be determined in consideration of the class into which the diagnosis target image is classified by a plurality of neural network models. The grade information may be determined in consideration of numerical values output from a plurality of neural network models.

예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 복수의 신경망 모델을 통하여 획득된 진단 정보 중, 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 중, 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. For example, the diagnosis auxiliary information obtained in response to the diagnosis target image may include any one selected from the first grade information and the second grade information. The grade information may be selected as the first grade information when at least one abnormal finding information or abnormal diagnosis information is acquired from among diagnostic information acquired through a plurality of neural network models. The grade information may be selected as the second grade information when abnormal findings information or abnormal diagnostic information is not acquired among the diagnostic information acquired through the neural network model.

등급 정보는, 신경망 모델을 통하여 획득된 수치들 중 적어도 하나의 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치들 모두가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.The grade information is selected as the first grade information when at least one of the values obtained through the neural network model exceeds the reference value, and is selected as the second grade information when all of the obtained values do not meet the reference value it might be The first grade information may indicate that abnormal information stronger than the second grade information exists in the diagnosis target image.

등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.The rating information may be selected as the third rating information when it is determined that the quality of the image to be diagnosed is less than or equal to a standard using image analysis or a neural network model. Alternatively, the diagnosis auxiliary information may include the third level information together with the first or second level information.

진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 포함된 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보에 대응되는 사항을 포함할 수 있다. 예컨대, 제1 사용자 안내는, 진단 보조 정보에 포함된 비정상 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.When the diagnosis auxiliary information includes the first level information, the first user guide may be output through the output means. The first user guide may include at least one piece of abnormal observation information included in the diagnosis auxiliary information or items corresponding to the abnormal diagnosis information. For example, the first user guide may indicate that a more precise examination is required for the subject (ie, the patient) corresponding to the abnormal information included in the diagnosis auxiliary information. For example, the first user guidance may indicate that a secondary diagnosis (eg, diagnosis at a separate medical institution or power supply procedure) is required for the subject. Alternatively, the first user guidance may indicate a required treatment for the subject. As a specific example, when abnormal information on the macular degeneration of the subject is acquired by the diagnostic auxiliary information, the first user guide provides information on the injection prescription and power supply procedure for the subject (eg, at a hospital where power is available). list) can be included.

진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다. When the diagnosis auxiliary information includes the second level information, the second user guide may be output through the output means. The second user guide may include a post-management plan for the subject corresponding to the diagnosis auxiliary information. For example, the second user guide may instruct the subject's next treatment time, next treatment subject, and the like.

진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.When the diagnosis target information includes the third level information, the third user guide may be output through the output means. The third user guide may indicate that recapture is required for the diagnosis target image. The third user guide may include information on the quality of the image to be diagnosed. For example, the third user guide may include information on defects present in the diagnosis target image (eg, whether bright artifacts or dark artifacts, or a degree thereof).

제1 내지 제3 등급 정보는, 클라이언트 장치 또는 진단 장치의 출력부에 의해 출력될 수 있다. 구체적으로, 후술하는 사용자 인터페이스를 통해 출력될 수 있다.The first to third grade information may be output by an output unit of the client device or the diagnostic device. Specifically, it may be output through a user interface to be described later.

1.4.4 실시 예 2 - 진단 보조 시스템1.4.4 Example 2 - Diagnostic Aid System

일 실시 예에 따른 진단 보조 시스템은 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.A diagnosis assistance system according to an embodiment may include a fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.

일 실시 예에 따르면, 진단 보조 시스템은 진단 장치를 포함할 수 있다. 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및/또는 진단 정보 출력부를 포함할 수 있다. 다만, 일 실시 예가 이에 한정되는 것은 아니며, 진단 보조 시스템에 포함되는 각 부는 학습 장치, 진단 장치, 학습 진단 서버 및/또는 클라이언트 장치 상의 적절한 위치에 각각 위치될 수 있다. 이하에서는, 편의를 위하여 진단 보조 시스템의 진단 장치가 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함하는 경우를 기준으로 설명한다.According to an embodiment, the diagnosis assistance system may include a diagnosis apparatus. The diagnosis apparatus may include a fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and/or a diagnostic information output unit. However, the exemplary embodiment is not limited thereto, and each unit included in the diagnosis assistance system may be located at an appropriate location on the learning device, the diagnosis device, the learning diagnosis server, and/or the client device. Hereinafter, for convenience, a case in which the diagnosis apparatus of the diagnosis assistance system includes the fundus image acquisition unit, the first processing unit, the second processing unit, the third processing unit, and the diagnostic information output unit will be described.

도 28은 일 실시 예에 따른 진단 보조 시스템을 설명하기 위한 도면이다. 도 28을 참조하면, 진단 보조 시스템은 진단 장치를 포함하고, 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.28 is a diagram for describing a diagnosis assistance system according to an exemplary embodiment. Referring to FIG. 28 , the diagnosis assistance system may include a diagnosis apparatus, and the diagnosis apparatus may include an fundus image acquisition unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.

일 실시 예에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템은, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함할 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.According to an embodiment of the present disclosure, a diagnosis assistance system supporting diagnosis of a plurality of diseases based on a fundus image includes: a fundus image acquisition unit configured to acquire a target fundus image that is a basis for acquiring diagnostic assistance information on a subject; A first processing unit for obtaining a first result related to a first observation on the subject by using a first neural network model with respect to the fundus image, wherein the first neural network model is machine learned based on the first set of fundus images , a second neural network model for the target fundus image, wherein the second neural network model is machine learned based on a second fundus image set that is at least partially different from the first fundus image set. 2 A second processing unit for obtaining a second result related to the observation, a third processing unit for determining diagnostic information about the subject based on the first result and the second result, and providing the determined diagnostic information to a user It may include a diagnostic information output unit. In this case, the first observation and the second observation may be used for diagnosis of different diseases.

제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 및 비정상 중 어느 하나로 분류하도록 학습되고, 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 또는 상기 비정상 중 어느 하나로 분류하여 상기 제1 결과를 획득할 수 있다.The first neural network model is trained to classify the input fundus image as either normal or abnormal in relation to the first observation, and the first processing unit converts the target fundus image to the normal or abnormal using the first neural network model. The first result may be obtained by classifying it as any one of them.

제3 처리부는 제1 결과 및 제2 결과를 함께 고려하여, 대상 안저 이미지에 따른 진단 정보가 정상 정보인지 비정상 정보인지 결정할 수 있다.The third processing unit may determine whether the diagnosis information according to the target fundus image is normal information or abnormal information by considering the first result and the second result together.

제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상에 우선권을 부여하여 상기 피검체에 대한 진단 정보를 결정할 수 있다.The third processing unit may determine the diagnosis information on the subject by giving priority to the abnormality so as to improve diagnosis accuracy.

제3 처리부는 상기 제1 라벨이 상기 제1 소견에 대한 정상이고, 상기 제2 라벨이 상기 제2 소견에 대한 정상인 경우, 상기 진단 정보를 정상으로 결정하고, 제1 라벨이 제1 소견에 대한 정상이 아니거나 상기 제2 라벨이 상기 제2 소견에 대한 정상이 아닌 경우, 상기 진단 정보를 비정상으로 결정할 수 있다. When the first label is normal for the first observation and the second label is normal for the second observation, the third processing unit determines the diagnostic information as normal, and the first label is normal for the first observation When it is not normal or the second label is not normal for the second observation, the diagnostic information may be determined to be abnormal.

제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시할 수 있다. 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시할 수 있다.The first finding may be related to an eye disease, and the first result may indicate whether the subject is normal to the eye disease. The second finding may be related to a systemic disease, and the second result may indicate whether the subject is normal to the systemic disease.

제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.A first finding is related to a first ocular disease, the first result indicates whether the subject is normal for the first ocular disease, and the second finding is a second ocular disease distinct from the first ocular disease. related to a disease, and the second result may indicate whether the subject is normal to the second eye disease.

제1 소견은 제1 안질환을 진단하기 위한 소견이고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 제2 소견은 상기 제1 안질환을 진단하기 위한 상기 제1 소견과 구별되는 소견이고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다. The first observation is an observation for diagnosing a first ocular disease, the first result indicates whether the subject is normal for the first ocular disease, and the second observation is for diagnosing the first ocular disease. It is a finding distinct from the first finding, and the second result may indicate whether the subject is normal to the second eye disease.

제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정될 수 있다.The first neural network model includes a first sub neural network model and a second sub neural network model, and a first result is a first predicted value predicted by the first sub neural network model and a second predicted value predicted by the second sub neural network model It may be determined by considering the predicted values together.

제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 라벨과 관련된 CAM(Class Activation Map)을 획득하고, 진단 정보 출력부는 상기 CAM의 이미지를 출력할 수 있다.The first processing unit may obtain a CAM (Class Activation Map) related to the first label through the first neural network model, and the diagnostic information output unit may output an image of the CAM.

진단 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 정보가 비정상 진단 정보인 경우 상기 CAM의 이미지를 출력할 수 있다.The diagnosis information output unit may output the CAM image when the diagnosis information acquired by the third processing unit is abnormal diagnosis information.

진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고, 진단 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력할 수 있다.The diagnosis assistance system may further include a fourth processing unit configured to acquire quality information of the target fundus image, and the diagnostic information output unit may output quality information of the target fundus image acquired by the fourth processing unit.

제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우, 상기 진단 정보 출력부는, 상기 사용자에게 상기 결정된 진단 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공할 수 있다. When the fourth processing unit determines that the quality information of the target fundus image is equal to or less than a predetermined quality level, the diagnostic information output unit provides the user with the quality information of the target fundus image together with the determined diagnostic information to the user at the predetermined quality level. Information indicating the following may be provided together.

1.5 사용자 인터페이스1.5 User Interface

일 실시 예에 따르면, 전술한 클라이언트 장치 또는 진단 장치는 진단 보조 정보를 사용자에게 제공하기 위한 표시부를 가질 수 있다. 이때, 표시부는 사용자에게 진단 보조 정보를 명확히 전달하고, 사용자로부터의 피드백 획득이 용이하도록 마련될 수 있다. According to an embodiment, the above-described client device or diagnosis device may have a display unit for providing diagnosis auxiliary information to a user. In this case, the display unit may be provided to clearly transmit the diagnosis auxiliary information to the user and to easily obtain feedback from the user.

표시부의 일 예로서, 사용자에게 시각 정보를 제공하는 디스플레이가 제공될 수 있다. 이때, 사용자에게 진단 보조 정보를 시각적으로 전달하기 위한 그래픽 사용자 인터페이스가 이용될 수 있다. 예컨대, 안저 이미지에 기초하여 진단 보조 정보를 획득하는 안저 진단 보조 시스템에 있어서, 획득된 진단 보조 정보를 효과적으로 표시하고 사용자의 이해를 돕기 위한 그래픽 사용자 인터페이스가 제공될 수 있다.As an example of the display unit, a display providing visual information to a user may be provided. In this case, a graphic user interface for visually delivering the diagnosis auxiliary information to the user may be used. For example, in a fundus diagnosis assistance system that acquires diagnosis assistance information based on a fundus image, a graphical user interface for effectively displaying the acquired diagnosis assistance information and helping a user to understand may be provided.

도 29 및 30은 일 실시 예의 몇몇 실시 예에 따른 사용자에게 진단 정보를 제공하기 위한 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 이하에서는, 도 29 및 30을 참조하여, 안저 진단 보조 시스템에서 이용될 수 있는 사용자 인터페이스에 대하여 몇몇 실시 예를 들어 설명한다.29 and 30 are diagrams for explaining a graphical user interface for providing diagnostic information to a user according to some embodiments of the present disclosure; Hereinafter, with reference to FIGS. 29 and 30 , a user interface that can be used in the fundus diagnosis assistance system will be described with reference to some embodiments.

도 29를 참조하면, 일 실시 예에 따른 사용자 인터페이스는 진단 대상 안저 이미지에 대응되는 피검체의 식별 정보를 표시할 수 있다. 사용자 인터페이스는 피검체(즉, 환자)의 식별 정보 및/또는 진단 대상 안저 이미지의 촬영 정보(예컨대, 촬영 날짜)를 표시하는 대상 이미지 식별 정보 표시부(401)를 포함할 수 있다.Referring to FIG. 29 , the user interface according to an embodiment may display identification information of a subject corresponding to a fundus image to be diagnosed. The user interface may include a target image identification information display unit 401 that displays identification information of a subject (ie, a patient) and/or imaging information (eg, imaging date) of a fundus image to be diagnosed.

일 실시 예에 따른 사용자 인터페이스는, 동일한 피검체의 좌안의 안저 이미지 및 우안의 안저 이미지를 각각 표시하는 안저 이미지 표시부(405)를 포함할 수 있다. 안저 이미지 표시부(405)는 CAM 이미지를 표시할 수도 있다.The user interface according to an embodiment may include a fundus image display unit 405 that displays the fundus image of the left eye and the fundus image of the right eye of the same subject. The fundus image display unit 405 may display a CAM image.

일 실시 예에 따른 사용자 인터페이스는 좌안의 안저 이미지 및 우안의 안저 이미지 각각에 대하여 좌안 또는 우안의 이미지임을 표시하고, 각 이미지의 진단 정보 및 사용자 확인 여부를 지시하는 진단 정보 지시자가 표시되는 진단 정보 지시부(403)를 포함할 수 있다. The user interface according to an embodiment displays a left eye or right eye image for each of the fundus image of the left eye and the fundus image of the right eye, and the diagnostic information indicating unit for displaying the diagnostic information of each image and a diagnostic information indicator indicating whether to confirm the user (403) may be included.

진단 정보 지시자의 색상은 대상 안저 이미지에 기초하여 얻어진 진단 보조 정보를 고려하여 결정될 수 있다. 진단 정보 지시자는 진단 보조 정보에 따라 제1 색상 또는 제2 색상으로 표시될 수 있다. 일 예로, 하나의 대상 안저 이미지에 제1 내지 제3 진단 보조 정보를 획득한 경우, 하나의 진단 보조 정보라도 비정상(즉, 이상 소견 있음) 정보를 포함하는 경우, 진단 정보 지시자는 적색으로 표시되고, 모든 진단 보조 정보가 정상(즉, 이상 소견 없음) 정보를 포함하는 경우, 진단 정보 지시자는 녹색으로 표시될 수 있다.The color of the diagnostic information indicator may be determined in consideration of the diagnostic auxiliary information obtained based on the target fundus image. The diagnostic information indicator may be displayed in a first color or a second color according to the diagnostic auxiliary information. For example, when the first to third diagnostic auxiliary information is acquired from one target fundus image, when even one diagnostic auxiliary information includes abnormal (that is, abnormal findings) information, the diagnostic information indicator is displayed in red, , when all of the diagnostic auxiliary information includes normal (ie, no abnormal findings) information, the diagnostic information indicator may be displayed in green.

진단 정보 지시자의 형태는 사용자의 확인 여부에 따라 결정될 수 있다. 진단 정보 지시자는 사용자의 확인 여부에 따라 제1 형태 또는 제2 형태로 표시될 수 있다. 일 예로, 도 25를 참조하면, 사용자에 의해 검토가 완료된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 원으로 표시되고, 사용자에 의해 미검토된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 반원으로 표시될 수 있다.The type of the diagnostic information indicator may be determined according to whether the user confirms it. The diagnostic information indicator may be displayed in a first form or a second form depending on whether the user confirms it. For example, referring to FIG. 25 , the diagnostic information indicator corresponding to the target fundus image reviewed by the user is displayed as a filled circle, and the diagnostic information indicator corresponding to the target fundus image not reviewed by the user is represented by a filled semicircle. can be displayed.

일 실시 예에 따른 사용자 인터페이스는, 진단 보조 정보를 지시하는 진단 정보 지시부(407)를 포함할 수 있다. 진단 보조 정보 지시부는 좌안 및 우안 이미지에 각각 위치될 수 있다. 진단 보조 정보 지시부는 복수의 소견 정보 또는 진단 정보를 지시할 수 있다.The user interface according to an embodiment may include a diagnosis information indicating unit 407 indicating auxiliary diagnosis information. The diagnostic auxiliary information indicating unit may be located in the left eye and right eye images, respectively. The diagnosis auxiliary information indicating unit may indicate a plurality of observation information or diagnostic information.

진단 보조 정보 지시부는 적어도 하나의 진단 보조 정보 지시자를 포함할 수 있다. 진단 보조 정보 지시자는 색상 변화를 통하여 각각 대응되는 진단 보조 정보를 지시할 수 있다.The diagnostic auxiliary information indicator may include at least one diagnostic auxiliary information indicator. The diagnostic auxiliary information indicator may indicate corresponding diagnostic auxiliary information through color change.

예를 들어, 진단 대상 안저 이미지에 대하여, 제1 진단 보조 신경망 모델을 통하여 수정체 혼탁 유무를 지시하는 제1 진단 보조 정보, 제2 진단 보조 신경망 모델을 통하여 당뇨 망막증 소견 유무를 지시하는 제2 진단 보조 정보, 제3 진단 보조 신경망 모델을 통하여 망막 이상 소견 유무를 지시하는 제3 진단 보조 정보가 획득된 경우에, 진단 정보 지시부는 제1 진단 보조 정보, 제2 진단 보조, 제3 진단 보조 정보를 각각 지시하는 제1 내지 제3 진단 보조 정보 지시자를 포함할 수 있다.For example, with respect to the fundus image to be diagnosed, first diagnostic auxiliary information indicating the presence or absence of lens opacity through the first diagnostic auxiliary neural network model, and second diagnostic auxiliary information indicating the presence or absence of diabetic retinopathy through the second diagnostic auxiliary neural network model When the third diagnosis auxiliary information indicating the presence or absence of retinal abnormality is acquired through the information and the third diagnosis auxiliary neural network model, the diagnosis information indicating unit displays the first diagnosis auxiliary information, the second diagnosis auxiliary information, and the third diagnosis auxiliary information, respectively. It may include first to third diagnostic auxiliary information indicators indicating.

보다 구체적인 예로, 도 29를 참조하면, 좌안 안저 이미지와 관련하여, 진단 정보 지시부(407)는 피검체의 좌안 안저 이미지에 기초하여 획득된 진단 보조 정보가 수정체 혼탁 비정상임을 지시하는 제1 진단 보조 정보, 당뇨 망막증 정상(이상 소견 없음)을 지시하는 제2 진단 보조 정보 및 망막 비정상(이상 소견 있음)을 지시하는 제3 진단 보조 정보가 획득된 경우에, 제1 색상을 띠는 제1 진단 보조 정보 지시자, 제2 색상을 띠는 제1 진단 보조 정보 지시자 및 제1 색상을 띠는 제3 진단 보조 정보 지시자를 표시할 수 있다.As a more specific example, referring to FIG. 29 , in relation to the left eye fundus image, the diagnostic information indicating unit 407 provides first diagnostic auxiliary information indicating that the diagnostic auxiliary information obtained based on the left eye fundus image of the subject is lens opacity abnormal. , first diagnostic auxiliary information having a first color when second diagnostic auxiliary information indicating normal diabetic retinopathy (no abnormal findings) and third diagnostic auxiliary information indicating retinal abnormalities (abnormal findings) are obtained An indicator, a first diagnostic auxiliary information indicator having a second color, and a third diagnostic auxiliary information indicator having a first color may be displayed.

일 실시 예에 따른 사용자 인터페이스는, 사용자로부터 진단 대상 안저 이미지에 대한 사용자 코멘트를 획득할 수 있다. 사용자 인터페이스는 사용자 코멘트 오브젝트(409)를 포함하고, 사용자 코멘트 오브젝트에 대한 사용자 선택에 응답하여, 사용자 입력창을 표시할 수 있다. 사용자로부터 획득된 코멘트는 진단 보조 신경망 모델의 갱신에 이용될 수도 있다. 예컨대, 사용자 코멘트 오브젝트에 대한 선택에 응답하여 표시되는 사용자 입력창은, 신경망을 통한 진단 보조 정보에 대한 사용자 평가를 획득할 수 있고, 획득된 사용자 평가는 신경망 모델의 갱신에 이용될 수 있다.The user interface according to an embodiment may obtain a user comment on the fundus image to be diagnosed from the user. The user interface may include a user comment object 409 and, in response to a user selection for the user comment object, may display a user input window. The comments obtained from the user may be used to update the diagnostic auxiliary neural network model. For example, a user input window displayed in response to a selection of a user comment object may acquire a user evaluation of diagnostic assistance information through a neural network, and the obtained user evaluation may be used to update a neural network model.

일 실시 예에 따른 사용자 인터페이스는, 각 진단 대상 안저 이미지에 대한 사용자 검토 여부를 표시하는 검토 지시 오브젝트(411)를 포함할 수 있다. 검토 지시 오브젝트는 각 진단 대상 이미지에 대한 사용자 검토가 완료되었음을 나타내는 사용자 입력을 획득 받고, 제1 상태에서 제2 상태로 그 표시가 변경될 수 있다. 예컨대, 도 29 및 도 30을 참조하면, 검토 지시 오브젝트는 확인 요청 문구를 표시하는 제1 상태에서, 사용자 입력이 획득되면, 확인 되었음을 나타내는 제2 상태로 변경될 수 있다. The user interface according to an embodiment may include a review instruction object 411 indicating whether the user reviews each diagnosis target fundus image. The review instruction object may receive a user input indicating that the user review for each diagnosis target image is completed, and the display may be changed from the first state to the second state. For example, referring to FIGS. 29 and 30 , the review instruction object may be changed from a first state of displaying a confirmation request phrase to a second state indicating that it has been confirmed when a user input is obtained.

진단 대상 안저 이미지의 목록(413)이 표시될 수 있다. 목록에는 피검체의 식별 정보, 이미지 촬영 날짜 및 양안 이미지에 대한 검토 여부 지시자(403)가 함께 표시될 수 있다.A list 413 of fundus images to be diagnosed may be displayed. In the list, identification information of the subject, an image capture date, and an indicator 403 for reviewing both eyes may be displayed together.

진단 대상 안저 이미지의 목록(413)에는 검토가 완료된 진단 대상 안저 이미지를 나타내는 검토 완료 지시자(415)가 표시될 수 있다. 검토 완료 지시자(415)는 해당 이미지의 양안에 대한 검토 지시 오브젝트(411) 모두에 대하여 사용자 선택이 발생한 경우에 표시될 수 있다.A review completion indicator 415 indicating a review target fundus image may be displayed in the list 413 of the diagnostic target fundus image. The review completion indicator 415 may be displayed when the user selects all of the review instruction objects 411 for both eyes of the corresponding image.

도 30을 참조하면, 사용자 그래픽 인터페이스는, 진단 대상 안저 이미지에 품질 이상이 있는 것으로 판단된 경우에, 사용자에게 대상 안저 이미지의 품질에 이상이 있음을 지시하는 저품질 경고 오브젝트(417)를 포함할 수 있다. 저품질 경고 오브젝트(417)는, 진단부로부터 진단 대상 안저 이미지가 진단 보조 신경망 모델로부터 적절한 진단 보조 정보가 예측될 수 있는 수준의 품질(즉, 기준 품질 레벨)에 미치지 아니하는 것으로 판단된 경우에 표시될 수 있다.Referring to FIG. 30 , the user graphic interface may include a low-quality warning object 417 instructing the user that there is an abnormality in the quality of the target fundus image when it is determined that there is a quality abnormality in the fundus image to be diagnosed. have. The low-quality warning object 417 is displayed when it is determined by the diagnostic unit that the fundus image to be diagnosed does not reach a level at which appropriate diagnostic auxiliary information can be predicted from the diagnostic auxiliary neural network model (that is, the reference quality level). can be

또한, 도 28을 참조하면 진단 대상 안저 이미지의 목록(413)에도 저품질 경고 오브젝트(419)가 표시될 수 있다. Also, referring to FIG. 28 , a low-quality warning object 419 may be displayed in the list 413 of the fundus image to be diagnosed.

2. 안저 이미지를 이용한 진단 보조 이미지 2. Diagnosis auxiliary image using fundus image

2.1 배경 및 목적2.1 Background and purpose

본 명세서에서는 안저 이미지를 이용하여 복수의 병변의 진단을 수행하고, 상기 복수의 병변의 진단 결과를 제공함에 있어서, 진단 보조 이미지를 제공하는 장치 및 방법 등에 대하여 설명한다. In the present specification, an apparatus and method for providing a diagnosis auxiliary image in performing diagnosis of a plurality of lesions using an fundus image and providing a diagnosis result of the plurality of lesions will be described.

본 명세서의 일 실시 예에 따른 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과는 상기 안저 이미지에 대해 복수의 라벨로 판단할 수 있고, 바람직하게는 의심(또는 비정상) 또는 정상으로 판단하여 제공할 수 있다. 상기 의심은 질병에 대한 보유가 의심되는 경우를 의미할 수 있고, 상기 정상은 질병에 대한 보유가 없는 정상적인 상태인 경우를 의미할 수 있다. The diagnostic result provided by the diagnostic auxiliary device and/or system according to an embodiment of the present specification may be determined by a plurality of labels for the fundus image, and preferably provided as suspicious (or abnormal) or normal. can The suspicion may mean a case in which possession of a disease is suspected, and the normal may mean a case in which there is no possession of a disease.

다만, 사용자 또는 피검자는 상기 안저 이미지에서 상기 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과가 도출되는 근거에 대해 파악하고자 하는 필요성을 가질 수 있다. 또한, 사용자 또는 피검자는 상기 안저 이미지 상에서 상기 진단 보조 장치 및/또는 시스템이 제공하는 진단 결과에 영향을 미치는 영역을 파악하고자 하는 필요성을 가질 수 있다.However, the user or the examinee may have a need to understand the basis for deriving a diagnosis result provided by the diagnosis auxiliary device and/or system from the fundus image. In addition, the user or the examinee may have a need to identify a region on the fundus image that affects the diagnosis result provided by the diagnosis assistance device and/or system.

본 명세서는 안저 이미지에 대해 기계 학습된 신경망 모델을 통해 복수의 질병에 대한 진단을 수행하는 진단 보조 장치 및/또는 시스템와 함께 진단 보조 이미지를 출력될 수 있는 진단 보조 이미지 장치 및/또는 시스템을 제공하고 있으며, 상기 진단 보조 이미지는 상기 안저 이미지의 어떤 영역이 상기 진단 보조 장치 및/또는 시스템을 통해 얻은 진단 결과에 영향을 미치는지에 대해 파악하기 위해 제공될 수 있다.The present specification provides a diagnostic auxiliary imaging device and/or system capable of outputting a diagnostic auxiliary image together with a diagnostic auxiliary device and/or system for performing diagnosis for a plurality of diseases through a machine-learned neural network model on the fundus image, In addition, the diagnosis auxiliary image may be provided to determine which region of the fundus image affects the diagnosis result obtained through the diagnosis auxiliary device and/or system.

이를 통해, 사용자는 상기 진단 보조 이미지를 통해 상기 진단 결과에 영향을 미친 영역을 용이하게 파악할 수 있어, 사용자는 상기 진단 결과에 관한 전문가로 제한되지 않을 수 있다. 또한, 사용자는 비전문가로서 상기 진단 보조 이미지를 통해 피검자에 대해 상기 진단 결과를 설명해줄 수 있다. 또한, 사용자는 피검자 본인으로서 상기 진단 보조 이미지를 통해 상기 진단 결과를 용이하게 이해할 수 있다. Through this, the user can easily identify the region that has affected the diagnosis result through the diagnosis auxiliary image, and thus the user may not be limited to an expert on the diagnosis result. In addition, as a non-expert, the user may explain the diagnosis result to the subject through the diagnosis auxiliary image. In addition, the user may easily understand the diagnosis result through the diagnosis auxiliary image as the subject himself/herself.

2.2 CAM(Class Activation Map) 이미지 제공 장치 및 시스템2.2 CAM (Class Activation Map) image providing device and system

2.2.1 CAM 이미지 2.2.1 CAM image

도 31은 일 실시 예에 따른 진단 보조 이미지를 설명하기 위한 도면이다. 도 31에서, (a)는 상기 진단 보조 장치 및/또는 시스템에 입력된 이미지이고, (b)는 상기 진단 보조 장치 및/또는 시스템에서 제공하는 진단 보조 이미지로써 CAM 이미지를 나타낸 것이다. 31 is a diagram for describing an auxiliary diagnosis image according to an exemplary embodiment. In FIG. 31 , (a) is an image input to the diagnostic auxiliary apparatus and/or system, and (b) is a CAM image as a diagnostic auxiliary image provided by the diagnostic auxiliary apparatus and/or system.

기계 학습에 따른 신경망을 학습 모델 및/또는 진단 모델에서 사용하는 경우, 상기 진단 보조 이미지 제공 장치는 상기 학습 모델 및/또는 진단 모델을 통해 얻은 결과에 대한 근거를 제공할 수 있는 이미지가 제공될 수 있다. 합성곱 신경망을 학습 모델 및/또는 진단 모델에서 사용하는 경우, CAM 이미지는 합성공 신경망을 통해 얻은 결과에 대한 근거를 제공할 수 있는 이미지일 수 있다. 일 실시 예에 따르면, 안저 이미지를 이용한 진단 보조 시스템으로서 합성곱 신경망을 사용하는 경우, CAM 이미지는 상기 안저 이미지에 대한 진단 결과에 대한 근거를 제공할 수 있는 이미지로서 제공될 수 있다. 또한, 안저 이미지를 이용한 진단 보조 시스템으로서 합성곱 신경망을 사용하는 경우, CAM 이미지는 상기 안저 이미지에 대한 진단 결과에 영향을 미친 영역을 나타낼 수 있는 이미지로서 제공될 수 있다. 또한, CAM 이미지는 상기 진단 보조 장치 및/또는 시스템이 진단 결과를 도출하기 위해 중점적으로 고려된 영역을 나타낸 이미지일 수 있다. CAM 이미지는 상기 진단 보조 장치 및/또는 시스템의 진단 결과를 판단하기 위한 대상 영역을 검출하여, 해당 대상 영역을 강조하여 나타낸 이미지일 수 있다. When a neural network according to machine learning is used in a learning model and/or a diagnostic model, the apparatus for providing an auxiliary diagnostic image may provide an image capable of providing a basis for a result obtained through the learning model and/or the diagnostic model. have. When a convolutional neural network is used in a learning model and/or a diagnostic model, the CAM image may be an image that can provide a basis for results obtained through the synthetic neural network. According to an embodiment, when a convolutional neural network is used as a diagnostic assistance system using a fundus image, the CAM image may be provided as an image that may provide a basis for a diagnosis result with respect to the fundus image. In addition, when a convolutional neural network is used as a diagnostic assistance system using a fundus image, the CAM image may be provided as an image that may indicate a region that has affected a diagnosis result for the fundus image. In addition, the CAM image may be an image representing an area that the diagnostic assistance device and/or system focused on to derive a diagnostic result. The CAM image may be an image in which a target area for determining a diagnosis result of the diagnostic auxiliary device and/or system is detected and the corresponding target area is emphasized.

도 31 (a)를 참조하면, 입력된 이미지에서 점선으로 표시된 영역(L)은 병변 영역 또는 진단 보조 장치 및/또는 시스템의 진단 결과에 영향을 미친 영역일 때, 진단 보조 이미지는 영향을 미친 정도에 따라 서로 상이한 색으로 표현될 수 있다. 또한, 진단 보조 이미지는 상기 진단 결과에 영향을 미친 정도에 따라 서로 동일한 색이되, 상이한 명도 또는 강도로 표현될 수 있다. Referring to FIG. 31 ( a ) , when the area L indicated by a dotted line in the input image is a lesion area or an area that has affected the diagnosis result of the diagnostic auxiliary device and/or system, the degree of influence of the diagnostic auxiliary image may be expressed in different colors depending on the In addition, the diagnosis auxiliary images may have the same color but different brightness or intensity depending on the degree of influence on the diagnosis result.

도 31 (b)를 참조하면, CAM 이미지는 진단 결과에 영향을 미친 정도를 제1 레벨(15010), 제2 레벨(15020), 제3 레벨(15030), 제4 레벨(15040), 제5 레벨(15050)로 구분할 수 있고, 상기 제1 클래스(15010) 내지 상기 제5 클래스(15050)는 서로 소정의 차이를 가지는 상이한 색으로 표현될 수 있다. 또한, CAM 이미지는 상기 진단 보조 장치 및/또는 시스템이 포함한 진단 모델에 의해 도출된 진단 결과를 기초로 입력된 안저 이미지에 대한 히트맵(heat-map) 형태의 처리를 통해 나타낸 이미지일 수 있다. Referring to FIG. 31 ( b ) , the CAM image shows the degree of influence on the diagnosis result in the first level 15010 , the second level 15020 , the third level 15030 , the fourth level 15040 , and the fifth level. It can be divided into levels 15050 , and the first class 15010 to the fifth class 15050 can be expressed with different colors having a predetermined difference from each other. In addition, the CAM image may be an image displayed through heat-map processing of an input fundus image based on a diagnosis result derived by a diagnosis model included in the diagnosis auxiliary device and/or system.

CAM 이미지는 별도의 색으로 처리하는 히트맵(Heat-map) 형태로 RGB 색을 기준으로 하여 제공하되, 진단 결과에 가장 영향을 많이 미친 영역은 빨간색으로, 가장 영향을 적게 미친 영역은 파란색으로 처리할 수 있다. CAM 이미지는 별도의 색으로 처리하는 히트맵(Heat-map) 형태로 흑백을 기준으로 하여 제공하되, 진단 결과에 가장 영향을 많이 미친 영역은 검은색으로, 가장 영향을 적게 미친 영역은 흰색으로 처리할 수 있다. CAM 이미지는 이미지 상에 중첩되는 히트맵 형태의 이미지여서, 사용자는 진단 결과에 영향을 미친 영역을 용이하게 인식할 수 있고, 시각적으로 보다 명확하게 파악할 수 있다. The CAM image is provided based on RGB color in the form of a heat-map that is processed as a separate color, but the area that has the most influence on the diagnosis result is treated as red, and the area with the least influence is treated as blue can do. The CAM image is provided in the form of a heat-map that is processed as a separate color and is based on black and white, but the area that has the most influence on the diagnosis result is treated as black and the area with the least influence is treated as white can do. Since the CAM image is an image in the form of a heat map that is superimposed on the image, the user can easily recognize the area that has affected the diagnosis result, and can visually identify it more clearly.

또한, CAM 이미지는 진단 보조 장치 및/또는 시스템의 진단 결과와 동시에 또는 별도로 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지 상에 중첩되어 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지와는 별도로 제공될 수 있다. CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 이미지에 대한 별도의 처리를 통해 제공될 수 있다. 일 예로, CAM 이미지는 진단 보조 장치 및/또는 시스템에 입력된 안저 이미지를 마우스로 클릭하거나, 마우스 커서를 상기 안저 이미지에 위치시키는 경우에 제공될 수 있다. In addition, the CAM image may be provided concurrently with or separately from the diagnostic results of the diagnostic assistance device and/or system. The CAM image may be provided overlaid on the fundus image input to the diagnostic assistance device and/or system. The CAM image may be provided separately from the fundus image input to the diagnostic assistance device and/or system. The CAM image may be provided through a separate processing for the image input to the diagnostic assistance device and/or the system. As an example, the CAM image may be provided when a user clicks a fundus image input to the diagnostic auxiliary device and/or system with a mouse or places a mouse cursor on the fundus image.

CAM 이미지는 시각적 설명 (visual explanation) 이미지 중 하나이며, 상기 CAM 이미지는 다양한 기법의 시각적 설명 이미지로 대체될 수 있다. 상기 CAM 이미지는 LIME(Local Interpretable Model-agnostic Explainations) 기법, Grad-CAM(Gradient-Class Activation Map) 기법, RISE(Randomized Input Sampling) 기법 등을 사용한 시각적 설명 이미지로 대체될 수 있다. 일 실시 예는 CAM 이미지를 이용한 진단 보조 이미지 장치 및/또는 시스템에 대해 보다 구체적으로 설명하고자 한다. The CAM image is one of visual explanation images, and the CAM image may be replaced with a visual explanation image of various techniques. The CAM image may be replaced with a visual explanatory image using a Local Interpretable Model-agnostic Explainations (LIME ) technique, a Gradient-Class Activation Map (Grad-CAM) technique, a Randomized Input Sampling (RISE) technique, or the like. An embodiment is intended to describe in more detail a diagnostic auxiliary imaging apparatus and/or system using a CAM image.

2.2.2 CAM 이미지 제공 프로세스2.2.2 CAM image delivery process

일 실시 예에 따르면, CAM 이미지 제공 장치는 신경망 모델을 이용하여 CAM 이미지를 진단 보조 정보(또는 진단 보조 이미지)로서 획득하는 CAM 이미지 제공 프로세스(또는 진단 보조 이미지 제공 프로세스)가 제공될 수 있다. 구체적인 예로, CAM 이미지 제공 장치는 진단 보조 정보 제공부를 통한 CAM 이미지 제공 프로세스에 의하여 CAM 이미지가 출력될 수 있고, 사용자는 CAM 이미지를 통해 상기 진단 보조 장치가 안저 이미지를 기초로 판단한 진단 결과를 쉽게 파악할 수 있다. According to an embodiment, the CAM image providing apparatus may provide a CAM image providing process (or diagnostic auxiliary image providing process) for acquiring a CAM image as diagnostic auxiliary information (or diagnostic auxiliary image) using a neural network model. As a specific example, the CAM image providing apparatus may output a CAM image through a CAM image providing process through the diagnostic auxiliary information providing unit, and the user can easily grasp the diagnosis result determined by the diagnostic auxiliary apparatus based on the fundus image through the CAM image. can

도 32는 일 실시 예에 따른 진단 보조 정보 제공부(400)의 구성을 설명하기 위한 도면이다. 도 32를 참조하면, 진단 보조 정보 제공부(400)는 진단 요청 획득 모듈(410), 데이터 가공 모듈(430), 진단 모듈(450), CAM 제공 모듈(470), 및 출력 모듈(490)를 포함할 수 있다. 32 is a diagram for explaining the configuration of the diagnostic auxiliary information providing unit 400 according to an exemplary embodiment. Referring to FIG. 32 , the diagnostic auxiliary information providing unit 400 provides a diagnostic request obtaining module 410 , a data processing module 430 , a diagnostic module 450 , a CAM providing module 470 , and an output module 490 . may include

도 33은 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로 세스 및 CAM 제공 프로세스를 설명하기 위한 도면이다. 33 is a diagram for describing a diagnostic process and a CAM providing process performed by a diagnostic apparatus according to an exemplary embodiment.

이하에서 설명하는 CAM 이미지 제공 프로세스는 진단 보조 장치 또는 별도의 장치를 통해 제공될 수 있다. The CAM image providing process described below may be provided through a diagnostic auxiliary device or a separate device.

2.2.2.1 진단 보조 정보 제공부2.2.2.1 Diagnostic auxiliary information provider

일 실시 예에 따르면, CAM 이미지 제공 프로세스는 진단 보조 정보 제공부(400)에 의해 수행될 수 있다. 상기 진단 보조 정보 제공부(400)는 전술한 진단 장치 내에 마련될 수 있다. 상기 진단 보조 정보 제공부(400)는 상기 진단 장치에 의해 진단 보조 정보가 출력될 수 있고, 상기 진단 보조 정보는 진단 결과와 함께 또는 별도로 CAM 이미지가 출력될 수 있다. According to an embodiment, the CAM image providing process may be performed by the diagnostic auxiliary information providing unit 400 . The diagnosis auxiliary information providing unit 400 may be provided in the above-described diagnosis apparatus. The diagnosis auxiliary information providing unit 400 may output auxiliary diagnosis information by the diagnosis apparatus, and the auxiliary diagnosis information may output a CAM image together with or separately from the diagnosis result.

각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 CAM 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 32에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. Each module may perform individual steps, such as a diagnostic assistance process and a CAM provisioning process, as described below. However, not all components and functions performed by the components described in FIG. 32 are essential, and some components and functions may be added or omitted.

2.2.2.2 데이터 획득 및 가공 프로세스2.2.2.2 Data Acquisition and Processing Process

데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.The data acquisition and processing process may be the same as described above in 1.3.2 Data acquisition and diagnosis request and 1.3.3 data processing process. However, each process is not essential, and may be omitted or a separate process may be added depending on a diagnosis target, a diagnosis disease, and the like.

2.2.2.3 진단 프로세스2.2.2.3 Diagnostic process

도 32를 참조하면, 상기 진단 프로세스는 진단 모듈(450)에 의해 수행될 수 있다. 도 33을 참조하면, 상기 진단 프로세스는 데이터 획득(S4010), 학습된 진단 보조 신경망 모델(S4020), 및 진단 결과 출력(S4030)을 포함할 수 있다. 도 33을 참조하면, 상기 진단 프로세스는 데이터 획득(S4010), 학습된 진단 보조 신경망 모델(S4020), 및 진단 결과 출력(S4030)을 통해 진단 보조 정보를 출력(S4060)할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 CAM 이미지 제공 프로세스에 이용될 수 있다. Referring to FIG. 32 , the diagnosis process may be performed by the diagnosis module 450 . Referring to FIG. 33 , the diagnosis process may include data acquisition ( S4010 ), a learned diagnosis auxiliary neural network model ( S4020 ), and outputting a diagnosis result ( S4030 ). Referring to FIG. 33 , in the diagnosis process, the diagnosis auxiliary information may be output ( S4060 ) through data acquisition ( S4010 ), the learned diagnosis auxiliary neural network model ( S4020 ), and the diagnosis result output ( S4030 ). The diagnosis process may output a diagnosis result as the diagnosis auxiliary information. A diagnosis result obtained in the diagnosis process may be used in a CAM image providing process to be described later.

진단 프로세스에 관한 내용은 1.3.4 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.The contents regarding the diagnosis process may be the same as those described above in 1.3.4 diagnosis process. However, each process is not essential, and may be omitted or a separate process may be added according to a diagnosis target, a diagnosis disease, provided information, and the like.

2.2.2.4 CAM 이미지 제공 프로세스2.2.2.4 CAM image delivery process

도 32를 참조하면, 일 실시 예에 따른 진단 장치는 상기 CAM 제공 모듈(470)에 의해 CAM 이미지 제공 프로세스가 수행될 수 있다. 상기 CAM 제공 모듈(470)은 입력된 진단 대상 데이터 및 상기 진단 모듈(450)에서 얻어진 정보 중 적어도 어느 하나를 기초로 CAM 이미지 제공 프로세스가 수행될 수 있다. 상기 CAM 제공 모듈(470)은 입력된 진단 대상 데이터 및 상기 진단 모듈(450)에서 얻어진 정보를 기초로 CAM 이미지 제공 프로세스가 수행될 수 있다. Referring to FIG. 32 , in the diagnosis apparatus according to an embodiment, a CAM image providing process may be performed by the CAM providing module 470 . The CAM providing module 470 may perform a CAM image providing process based on at least one of inputted diagnostic target data and information obtained by the diagnostic module 450 . The CAM providing module 470 may perform a CAM image providing process based on the inputted diagnostic target data and information obtained from the diagnostic module 450 .

도 33을 참조하면, 상기 CAM 제공 프로세스는 데이터 획득(S4010), CAM 이미지 제공 모듈(S4040), 및 CAM 이미지 출력(S4050)을 포함할 수 있다. 상기 CAM 제공 프로세스는 데이터 획득(S4010), CAM 이미지 제공 모듈(S4040), 및 CAM 이미지 출력(S4050)을 통해 진단 보조 정보가 출력(S4060)될 수 있다. 상기 CAM 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다. 상기 CAM 제공 프로세스는 획득된 데이터 및 상기 진단 프로세스에서 얻어진 정보 중 적어도 어느 하나에 기초하여, 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다. 상기 CAM 제공 프로세스는 데이터 획득(S4010)에서 획득된 데이터, 학습된 진단 보조 신경망 모델(S4020)에서 얻어진 정보, 및 진단 결과 출력(S4030)을 통해 얻어진 결과 중 적어도 어느 하나에 기초하여, 상기 진단 보조 정보로서 CAM 이미지가 출력될 수 있다.Referring to FIG. 33 , the CAM providing process may include data acquisition (S4010), a CAM image providing module (S4040), and a CAM image output (S4050). In the CAM providing process, diagnostic auxiliary information may be output ( S4060 ) through data acquisition ( S4010 ), the CAM image providing module ( S4040 ), and the CAM image output ( S4050 ). In the CAM provision process, a CAM image may be output as the diagnosis auxiliary information. In the CAM providing process, a CAM image may be output as the diagnosis auxiliary information based on at least one of the acquired data and the information acquired in the diagnosis process. The CAM providing process is based on at least one of the data obtained in the data acquisition (S4010), the information obtained in the learned diagnostic auxiliary neural network model (S4020), and the result obtained through the diagnosis result output (S4030), the diagnosis assistance A CAM image may be output as information.

후술될 내용에서, 상기 CAM 제공 프로세스에 대해서 구체적으로 설명하고자 한다.In the following description, the CAM providing process will be described in detail.

2.2.2.4.1 진단 프로세스로부터 얻어진 정보2.2.2.4.1 Information obtained from the diagnostic process

도 34는 학습된 진단 보조 신경망 모델(S4020)에 의한 진단 프로세스를 설명하기 위한 도면이다. 34 is a diagram for explaining a diagnosis process by the learned diagnosis auxiliary neural network model S4020.

도 32 내지 도 34를 참조하면, CAM 이미지 제공 장치는 학습된 진단 보조 신경망 모델(S4020)에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지를 제공할 수 있다. 32 to 34 , the CAM image providing apparatus may provide a CAM image based on information obtained by a diagnosis process using the learned diagnosis auxiliary neural network model S4020.

일 실시 예에 따르면, CAM 이미지 제공 장치는 복수의 층(500)을 포함한 합성곱 신경망 모델에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지가 제공될 수 있다. 또한, 일 실시 예에 따르면, CAM 이미지 제공 장치는 합성곱 신경망 모델에 의한 진단 프로세스에 의해 얻어진 정보에 기초하여 CAM 이미지가 제공될 수 있다. 다만, 상기 학습된 진단 보조 신경망 모델(S4020)은 이에 제한되는 것은 아니며, 다른 신경망 모델에 의해서도 CAM 이미지가 제공될 수 있다. According to an embodiment, the CAM image providing apparatus may provide a CAM image based on information obtained by a diagnosis process using a convolutional neural network model including a plurality of layers 500 . Also, according to an embodiment, the CAM image providing apparatus may provide a CAM image based on information obtained by a diagnosis process using a convolutional neural network model. However, the learned diagnostic auxiliary neural network model S4020 is not limited thereto, and the CAM image may be provided by other neural network models as well.

상기 CAM 이미지 제공 장치는 상기 학습된 진단 보조 신경망 모델(S4020)에서 제공되는 제1 정보 및 제2 정보 중 적어도 어느 하나에 기초하여 CAM 이미지가 제공될 수 있다. 상기 제1 정보는 상기 학습된 진단 보조 신경망 모델(S4020)에서 얻어지는 마지막 레이어의 피쳐맵(510)이 가지는 피쳐값일 수 있고, 상기 제2 정보는 마지막 레이어의 피쳐맵(510)에 기초하여 진단 질병에 관한 정상라벨 또는 비정상라벨에 해당되는 확률값(W)일 수 있다. The CAM image providing apparatus may provide a CAM image based on at least one of first information and second information provided from the learned diagnostic auxiliary neural network model S4020. The first information may be a feature value of the feature map 510 of the last layer obtained from the learned diagnostic auxiliary neural network model S4020, and the second information may be a diagnosis disease based on the feature map 510 of the last layer. It may be a probability value (W) corresponding to a normal label or an abnormal label for .

이하에서는 진단 프로세스에 의해 얻어진 정보 중 CAM 이미지 제공 장치에 사용될 수 있는 정보에 대해 보다 구체적으로 설명하고자 한다. 이를 위해 우선적으로, 진단 프로세스에서 사용된 학습된 진단 보조 신경망 모델(S4020)에 대해 설명하고자 한다. Hereinafter, among the information obtained by the diagnosis process, information that can be used in the CAM image providing apparatus will be described in more detail. To this end, first of all, the learned diagnosis auxiliary neural network model S4020 used in the diagnosis process will be described.

상기 학습된 진단 보조 신경망 모델(S4020)은 복수의 층을 가지는 신경망일 수 있다. 상기 학습된 진단 보조 신경망 모델(S4020)은 합성곱 신경망 모델일 수 있다. 상기 학습된 진단 보조 신경망 모델(S4020)이 합성곱 신경망 모델인 경우, 상기 학습된 진단 보조 신경망 모델(S4020)은 복수의 레이어(500)을 가지는 신경망을 가질 수 있다. The learned diagnostic auxiliary neural network model S4020 may be a neural network having a plurality of layers. The learned diagnostic auxiliary neural network model S4020 may be a convolutional neural network model. When the learned diagnosis auxiliary neural network model S4020 is a convolutional neural network model, the learned diagnosis auxiliary neural network model S4020 may have a neural network having a plurality of layers 500 .

상기 복수의 레이어(500)은 복수의 컨벌루션 레이어(convolution layer)일 수 있다. 상기 컨벌루션 레이어는 입력된 데이터에 대해 컨벌루션 연산을 수행할 수 있다. 상기 컨벌루션 레이어는 입력된 데이터에 대한 컨벌루션 연산을 통해 복수의 피쳐맵(feature map)을 추출시킬 수 있다. 상기 피쳐맵의 개수는 상기 컨벌루션 레이어에서 사용되는 필터의 개수에 따라 달라질 수 있다. 상기 컨벌루션 레이어는 입력된 데이터 세트에 대해 동일한 필터에 의한 컨벌루션 연산이 수행될 수 있고, 이를 통해 얻어진 복수의 피쳐맵은 축적되어 다음 단계의 레이어 또는 출력 레이어에 입력될 수 있다. 또한, 상기 컨벌루션 레이어는 입력된 데이터 세트에 대해 상이한 필터에 의한 컨벌루션 연산이 각각 수행될 수 있고, 이를 통해 얻어진 복수의 피쳐맵은 각각 축적되어 다음 단계의 레이어 또는 출력 레이어에 입력될 수 있다. The plurality of layers 500 may be a plurality of convolution layers. The convolutional layer may perform a convolution operation on input data. The convolution layer may extract a plurality of feature maps through a convolution operation on input data. The number of the feature maps may vary according to the number of filters used in the convolutional layer. The convolutional layer may be subjected to a convolution operation by the same filter on the input data set, and a plurality of feature maps obtained through this may be accumulated and input to a next layer or an output layer. Also, in the convolution layer, convolution operation by different filters may be performed on an input data set, respectively, and a plurality of feature maps obtained through this may be respectively accumulated and input to a next layer or an output layer.

입력 데이터가 상기 복수의 컨벌루션 레이어를 통과함에 따라, 상기 입력 데이터가 가지는 특징들을 추출할 수 있다. 상기 입력 데이터가 가지는 특징은 상기 복수의 컨벌루션 레이어에서 사용된 복수의 필터를 기초로 추출될 수 있다. 상기 입력 데이터가 가지는 특징은 상기 복수의 필터를 기초로 얻어진 추상적인 특징이 추출될 수 있다. 상기 입력 데이터로부터 상기 복수의 필터를 기초로 얻어진 특징은 상기 진단 결과와 관련된 상기 입력 데이터가 가지는 핵심적 특징일 수 있다. As input data passes through the plurality of convolutional layers, features of the input data may be extracted. The feature of the input data may be extracted based on a plurality of filters used in the plurality of convolutional layers. As for the features of the input data, abstract features obtained based on the plurality of filters may be extracted. A characteristic obtained from the input data based on the plurality of filters may be a core characteristic of the input data related to the diagnosis result.

또한, 상기 복수의 컨벌루션 레이어 사이에는 풀링 레이어(pooling layer)가 포함될 수 있다. 상기 풀링 레이어는 컨벌루션 레이어가 추출한 피쳐맵 대해 사용될 수 있다. 상기 풀링 레이어는 입력된 데이터에 대한 풀링 연산이 수행될 수 있다. 상기 풀링 레이어는 상기 피쳐맵에 대한 풀링 연산이 수행되어, 상기 피쳐맵의 크기를 감소시킴과 동시에 상기 피쳐맵의 노이즈를 제거할 수 있다. 상기 풀링 레이어는 맥스 풀링(max pooling), 에버리지 풀링(average pooling) 등의 방법으로 수행될 수 있다. 상기 풀링 레이어가 맥스 풀링을 통해 수행되는 경우, 상기 피쳐맵에서 특징값이 작은 노이즈를 제거되고, 이에 따라 상기 피쳐맵 상에 나타난 핵심적인 특징이 보다 잘 추출될 수 있다. 또한, 상기 풀링 레이어가 에버리지 풀링을 통해 수행되는 경우, 상기 피쳐맵에서 특징값이 평균값으로 추출되고, 이에 따라 상기 피쳐맵 상에 나타난 전반적인 특징이 보다 잘 추출될 수 있다. 상기 풀링 연산은 상기 모델이 판단하고자 하는 대상, 결과, 분류 대상 등을 기초로 다양한 연산 방법을 선택하여 사용될 수 있다. In addition, a pooling layer may be included between the plurality of convolutional layers. The pooling layer may be used for the feature map extracted by the convolutional layer. The pooling layer may perform a pooling operation on input data. The pooling layer may perform a pooling operation on the feature map to reduce the size of the feature map and remove noise from the feature map. The pooling layer may be performed by a method such as max pooling or average pooling. When the pooling layer is performed through max pooling, noise having a small feature value is removed from the feature map, and accordingly, a key feature displayed on the feature map may be better extracted. In addition, when the pooling layer is performed through average pooling, a feature value is extracted from the feature map as an average value, and thus the overall feature displayed on the feature map can be better extracted. The pooling operation may be used by selecting various calculation methods based on an object to be determined by the model, a result, a classification object, and the like.

일 실시 예에 따르면, 상기 학습된 보조 신경망 모델(S4020)에 포함되는 복수의 레이어(500) 중 마지막 레이어에서 얻어진 피쳐맵(510)을 기초로 진단 결과가 추출될 수 있다. 상기 마지막 레이어에서 얻어진 복수의 피쳐맵(510)은 상기 복수의 레이어(500) 중 마지막 컨벌루션 레이어에서 얻어진 피쳐맵(510)을 기초로 진단 결과가 추출될 수 있다. 상기 복수의 레이어(500) 중 마지막 레이어에서 얻어진 복수의 피쳐맵(510)은 상기 입력 데이터에서 진단 질병에 관하여 가장 추상화된 특징(또는 핵심적 특징)이 추출될 수 있다. 마지막 레이어에서 얻어진 상기 복수의 피쳐맵(510)은 진단 질병에 관하여 가장 추상화된 특징(또는 핵심적 특징)이 추출되어 있어, 상기 복수의 피쳐맵(510)을 통해 상기 진단 질병의 진단 결과를 도출하기 용이할 수 있다. According to an embodiment, the diagnosis result may be extracted based on the feature map 510 obtained from the last layer among the plurality of layers 500 included in the learned auxiliary neural network model S4020. For the plurality of feature maps 510 obtained from the last layer, a diagnosis result may be extracted based on the feature map 510 obtained from the last convolutional layer among the plurality of layers 500 . In the plurality of feature maps 510 obtained from the last layer among the plurality of layers 500 , the most abstract feature (or key feature) with respect to a diagnosis disease may be extracted from the input data. In the plurality of feature maps 510 obtained from the last layer, the most abstract features (or core features) with respect to the diagnosis disease are extracted, so that the diagnosis result of the diagnosis disease is derived through the plurality of feature maps 510 . It can be easy.

상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 제1 정보가 될 수 있다. 상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 상기 CAM 제공 장치에 제1 정보로 제공될 수 있다. 상기 복수의 피쳐맵(510)에서 추출된 추상화된 특징을 고려하기 위해, 상기 복수의 피쳐맵(510)에서 얻어진 피쳐값들은 상기 CAM 제공장치에 제1 정보로 제공될 수 있다. 상기 CAM 제공 장치는 상기 제1 정보를 통해 진단 질병과 관련하여, 입력 데이터를 구성하는 복수의 픽셀들의 어떤 특징이 상기 진단 질병에 관한 특징인지를 CAM 이미지로 제공될 수 있다. Feature values obtained from the plurality of feature maps 510 may be first information. The feature values obtained from the plurality of feature maps 510 may be provided to the CAM providing apparatus as first information. In order to consider the abstracted features extracted from the plurality of feature maps 510 , the feature values obtained from the plurality of feature maps 510 may be provided as first information to the CAM providing apparatus. The CAM providing apparatus may provide, as a CAM image, which characteristics of a plurality of pixels constituting input data are characteristics related to the diagnosis disease in relation to the diagnosis disease through the first information.

또한, 일 실시 예에 따르면, 마지막 레이어의 복수의 피쳐맵(510)은 진단 질병에 관한 진단 결과를 비정상(또는 의심) 또는 정상인지 여부를 판단하는 기초가 될 수 있다. 마지막 레이어의 복수의 피쳐맵(510)은 진단 질병에 관한 비정상 또는 정상을 판단하는 분류 단계를 거칠 수 있다. 상기 분류 단계를 거치기 위해 상기 복수의 피쳐맵(510)은 별도의 처리(520)가 수행될 수 있다. 상기 처리(520)가 수행된 상기 복수의 피쳐맵(510)은 복수의 분류 데이터(530)가 될 수 있다. 상기 복수의 분류 데이터(530)는 진단 질병에 관한 비정상 또는 정상에 대한 분류가 수행됨에 따라, 해당 라벨에 대한 웨이트값(W)을 기초로 상기 분류 데이터(530)가 해당 라벨에 해당될 수 있는 확률값을 얻을 수 있다. Also, according to an embodiment, the plurality of feature maps 510 of the last layer may serve as a basis for determining whether a diagnosis result related to a diagnosis disease is abnormal (or suspicious) or normal. The plurality of feature maps 510 of the last layer may go through a classification step of determining abnormality or normality with respect to a diagnosed disease. In order to go through the classification step, a separate process 520 may be performed on the plurality of feature maps 510 . The plurality of feature maps 510 on which the process 520 has been performed may become a plurality of classification data 530 . As for the plurality of classification data 530, the classification data 530 may correspond to the corresponding label based on the weight value (W) of the corresponding label as the classification of the abnormal or normal related to the diagnosis disease is performed. You can get a probability value.

상기 별도의 처리(520)는 GAP(Global Average Pooling) 또는 FC(Fully-Connected) layer를 거치는 것을 의미할 수 있다. 상기 별도의 처리(520)로서 GAP가 수행되는 경우, 상기 복수의 피쳐맵(510)의 피쳐들이 가지는 공간 정보가 유지될 수 있다. 상기 복수의 피쳐맵(510)은 GAP이 수행됨에 따라 GAP 데이터(530)를 얻을 수 있다. 상기 GAP 데이터(530)는 상기 진단 질병을 판단하기 위해, 상기 GAP 데이터(530)는 해당 라벨에 대한 웨이트값(W)을 기초로 진단 결과를 판단할 수 있다. The separate processing 520 may mean passing through a Global Average Pooling (GAP) or a Fully-Connected (FC) layer. When GAP is performed as the separate process 520 , spatial information of features of the plurality of feature maps 510 may be maintained. The plurality of feature maps 510 may obtain GAP data 530 as GAP is performed. The GAP data 530 may determine the diagnosis result, and the GAP data 530 may determine the diagnosis result based on the weight value W for the corresponding label.

상기 분류 데이터(530)에 대한 분류가 수행됨에 따라, 분류 데이터(530)의 해당 라벨에 대한 판단의 기초가 되는 웨이트 값(W)은 제2 정보가 될 수 있다. 상기 분류 데이터(530)의 웨이트값(W)은 상기 CAM 제공 장치에 제2 정보로 제공될 수 있다. 상기 복수의 피쳐맵(510)들이 진단 질병에 대해 가지는 각각의 웨이트값(W)은 상기 CAM 제공 장치에 제2 정보로 제공될 수 있다. 상기 웨이트값(W)은 상기 복수의 피쳐맵(510)을 구성하는 피쳐값 중 상기 진단 질병에 관한 라벨을 판단함에 있어 중요한 부분을 나타낼 수 있어, 상기 피쳐값 중 상기 진단 질병에 관한 라벨 판단에 대한 노이즈를 제거할 수 있다. As the classification data 530 is classified, the weight value W, which is a basis for determining the corresponding label of the classification data 530 , may be the second information. The weight value W of the classification data 530 may be provided to the CAM providing apparatus as second information. Each weight value W of the plurality of feature maps 510 for a diagnosis disease may be provided to the CAM providing apparatus as second information. The weight value W may represent an important part in determining the label related to the diagnostic disease among the feature values constituting the plurality of feature maps 510. noise can be removed.

도 35은 상기 분류 데이터(530)가 비정상에 해당되는지 여부를 판단하는 프로세스를 설명하기 위한 도면이고, 도 36은 상기 분류 데이터(530)가 정상에 해당되는 여부를 판단하는 프로세스를 설명하기 위한 도면이다.FIG. 35 is a diagram for explaining a process of determining whether the classification data 530 corresponds to abnormal, and FIG. 36 is a diagram for explaining a process for determining whether the classification data 530 corresponds to normal am.

도 35 및 도 36을 참조하면, 일 실시 예에 따른 상기 복수의 피쳐맵(510)은 제1 피쳐맵(511), 제2 피쳐맵(513), 내지 제n 피쳐맵(515)을 포함할 수 있고, 상기 GAP 데이터(530)는 제1 GAP 데이터(531), 제2 GAP 데이터(533), 내지 제n GAP 데이터(535)를 포함할 수 있다. 상기 제1 GAP 데이터(531)은 상기 제1 피쳐맵(511)으로부터 GAP이 수행됨에 따라 얻어지며, 상기 제1 GAP 데이터(531)는 진단 질병에 대한 비정상을 판단하기 위해 제1 비정상 웨이트값(W1)이 고려되어 판단될 수 있다. 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535) 또한 상기 제2 피쳐맵(513) 내지 상기 제n 피쳐맵(515)으로부터 각각 GAP 수행됨에 따라 얻어지며, 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535)는 제2 비정상 웨이트값(W2) 내지 제n 비정상 웨이트값(Wn)이 각각 고려되어 판단될 수 있다. 35 and 36 , the plurality of feature maps 510 according to an embodiment may include a first feature map 511 , a second feature map 513 , and an n-th feature map 515 . The GAP data 530 may include first GAP data 531 , second GAP data 533 , to n-th GAP data 535 . The first GAP data 531 is obtained from the first feature map 511 as GAP is performed, and the first GAP data 531 is a first abnormal weight value ( W1) can be considered and judged. The second GAP data 533 to the n-th GAP data 535 are also obtained by performing GAP from the second feature map 513 to the n-th feature map 515, respectively, and the second GAP data ( 533) to the nth GAP data 535 may be determined by considering the second abnormal weight value W2 to the nth abnormal weight value Wn, respectively.

또한, 상기 제1 GAP 데이터(531)는 진단 질병에 대한 정상을 판단하기 위해 제1 정상 웨이트값(W1')이 고려되어 판단될 수 있다. 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535) 또한 상기 제2 피쳐맵(513) 내지 상기 제n 피쳐맵(515)으로부터 각각 GAP 수행됨에 따라 얻어지며, 상기 제2 GAP 데이터(533) 내지 상기 제n GAP 데이터(535)는 진단 질병에 대한 정상을 판단하기 위해 제2 정상 웨이트값(W2') 내지 제n 정상 웨이트값(Wn')이 각각 고려되어 판단될 수 있다. In addition, the first GAP data 531 may be determined in consideration of the first normal weight value W1 ′ in order to determine the normality of the diagnosed disease. The second GAP data 533 to the n-th GAP data 535 are also obtained by performing GAP from the second feature map 513 to the n-th feature map 515, respectively, and the second GAP data ( 533) to the n-th GAP data 535 may be determined by considering the second normal weight value W2' to the n-th normal weight value Wn' in order to determine the normality of the diagnosed disease.

따라서, 상기 웨이트값(W)을 제2 정보로 CAM 제공 장치에 제공됨에 따라, 상기 CAM 제공 장치는 제1 정보에서 상기 제2 정보를 고려할 수 있어, 상기 CAM 제공 장치는 입력 데이터에서 상기 진단 질병에 관한 핵심적 특징들이 추출된 CAM 이미지(540)를 제공할 수 있다. 또한, 상기 웨이트값은 진단 질병에 대해 판단하고자 하는 라벨에 따라 달라질 수 있고, 비정상에 대한 비정상 웨이트값(W1 내지 Wn) 및 정상에 대한 정상 웨이트값(W1' 내지 Wn')이 각각 제2 정보로서 제공될 수 있다. 즉, 상기 CAM 제공 장치는 입력 데이터에 대한 제1 정보와 함께 비정상에 대한 비정상 웨이트 값(W1 내지 Wn)인 제2 정보를 통해, 비정상에 해당되는 경우의 CAM 이미지(540)를 제공할 수 있고, 제1 정보와 함께 정상에 대한 정상 웨이트 값(W1' 내지 Wn')인 제2 정보를 통해, 정상에 해당되는 경우의 CAM 이미지(540')를 제공할 수 있다. Accordingly, as the weight value W is provided to the CAM providing apparatus as second information, the CAM providing apparatus may consider the second information in the first information, so that the CAM providing apparatus determines the diagnosis disease from the input data. It is possible to provide the CAM image 540 from which the key features of the extracted. In addition, the weight value may vary depending on a label to be determined for a diagnosed disease, and the abnormal weight values (W1 to Wn) and the normal weight values (W1' to Wn') for the abnormal are the second information, respectively. can be provided as That is, the CAM providing apparatus may provide the CAM image 540 in the case of abnormality through second information that is abnormal weight values (W1 to Wn) for abnormality together with first information on input data, and , through the second information that is the normal weight values (W1' to Wn') for the normal together with the first information, the CAM image 540 ′ in the case of the normal may be provided.

다만, 일 실시 예에 따르면, CAM 이미지가 제공되는 목적은 진단 질병이 발생되는 위치를 보다 용이하게 판단할 수 있도록 하기 위한 점에서, 제1 정보와 더불어 비정상에 대한 비정상 웨이트 값(W1 내지 Wn)을 포함한 제2 정보를 통해 비정상에 대한 CAM 이미지(540)를 제공하는 것이 주 목적일 수 있다. However, according to an embodiment, the purpose of providing the CAM image is to more easily determine a location where a diagnostic disease occurs, so that the abnormal weight values (W1 to Wn) for the abnormality together with the first information are provided. It may be a main purpose to provide the CAM image 540 for the abnormality through the second information including.

2.2.2.4.2 CAM 이미지 출력2.2.2.4.2 CAM image output

도 37은 입력 데이터 및 진단 프로세스로부터 얻어진 정보로부터 CAM 이미지를 출력하는 프로세스를 설명하기 위한 도면이다. Fig. 37 is a diagram for explaining a process of outputting a CAM image from input data and information obtained from a diagnosis process;

도 31 내지 도 37을 참조하면, 상기 CAM 이미지 제공 장치는 입력 데이터, 상기 제1 정보, 및 상기 제2 정보 중 적어도 어느 하나를 기초로 CAM 이미지가 제공될 수 있다. 상기 CAM 이미지는 입력 데이터, 상기 제1 정보, 및 상기 제2 정보 중 적어도 어느 하나를 기초로 제공될 수 있다. 상기 CAM 이미지는 상기 제1 정보가 포함하는 피쳐값들에 대해 제2 정보를 고려한 값을 기초로 제공될 수 있다. 31 to 37 , the CAM image providing apparatus may provide a CAM image based on at least one of input data, the first information, and the second information. The CAM image may be provided based on at least one of input data, the first information, and the second information. The CAM image may be provided based on a value in consideration of the second information with respect to the feature values included in the first information.

도 35 내지 도 37을 참조하면, 상기 CAM 이미지는 상기 제1 정보로 제공되는 복수의 피쳐맵(510)에 대해 제2 정보를 고려하여 나타낼 수 있다. 상기 복수의 피쳐맵(510)은 복수의 층을 통과하여, 상기 입력 데이터에 비해 그 크기가 작을 수 있다. 일 실시 예에 따르면, 상기 CAM 이미지 제공 장치는 상기 제1 정보로서 복수의 피쳐맵(510)에 상기 제2 정보를 고려한 제1 CAM 이미지(541)를 기초로 입력 데이터와 크기가 동일한 제2 CAM 이미지(549)가 제공될 수 있다. 35 to 37 , the CAM image may be displayed in consideration of second information for a plurality of feature maps 510 provided as the first information. The plurality of feature maps 510 may pass through a plurality of layers and may have a smaller size than the input data. According to an embodiment, the CAM image providing apparatus is a second CAM having the same size as input data based on a first CAM image 541 considering the second information in a plurality of feature maps 510 as the first information. An image 549 may be provided.

상기 CAM 이미지 제공 장치는 상기 제1 정보 및 상기 제2 정보를 기초로 진단 질병에 관한 비정상을 판단 하기 위해, 제1 피쳐맵(531)과 제1 비정상 웨이트값(W1)이 고려된 제1 피쳐값, 제2 피쳐맵(533)과 제2 비정상 웨이트값(W2)이 고려된 제2 피쳐값, 내지 제n 피쳐맵(535)과 제n 비정상 웨이트값(Wn)이 고려된 제n 피쳐값이 모두 고려될 수 있다. 상기 CAM 이미지 제공 장치는 제1 피쳐맵(531)과 제1 비정상 웨이트값(W1)이 고려된 제1 피쳐값, 제2 피쳐맵(533)과 제2 비정상 웨이트값(W2)이 고려된 제2 피쳐값, 내지 제n 피쳐맵(535)과 제n 비정상 웨이트값(Wn)이 고려된 제n 피쳐값이 모두 더해진 진단 피쳐맵에 대한 정보를 기초로 진단 질병에 관한 비정상을 판단할 수 있다. 이는 정상을 판단하기 위한 제1 정보 및 제2 정보인 경우에도 그 내용은 대응될 수 있다. The CAM image providing apparatus is a first feature in which a first feature map 531 and a first abnormal weight value W1 are considered in order to determine an abnormality related to a diagnosis disease based on the first information and the second information. value, the second feature value considering the second feature map 533 and the second abnormal weight value W2, to the nth feature value considering the nth feature map 535 and the nth abnormal weight value Wn All of these can be considered. The CAM image providing apparatus includes a first feature map 531 and a first abnormal weight value W1 in consideration, a second feature map 533 and a second abnormal weight value W2 in consideration of the first feature value W2. It is possible to determine abnormality regarding a diagnosed disease based on the information on the diagnostic feature map to which all of the 2nd feature values, to the nth feature map 535 and the nth feature value in which the nth abnormal weight value Wn is considered are added. . Even if this is the first information and the second information for judging normal, the contents may correspond.

상기 제1 CAM 이미지는 상기 비정상에 대한 진단 결과를 고려한 CAM 이미지(540) 및 상기 정상에 대한 진단 결과를 고려한 CAM 이미지(540')를 포함할 수 있다. 상기 제1 CAM 이미지(541)는 상기 복수의 피쳐맵(510)을 기초로 해당 라벨에 따른 웨이트값(W)을 고려하여 제공됨에 따라, 그 입력된 데이터에 비해 크기가 작고 선명도가 낮아질 수 있다. 따라서, 상기 제1 CAM 이미지(541)는 추가적인 처리가 수행됨에 따라 제2 CAM 이미지(549)로 제공될 수 있다. The first CAM image may include a CAM image 540 in consideration of the abnormal diagnosis result and a CAM image 540' in consideration of the normal diagnosis result. As the first CAM image 541 is provided in consideration of the weight value W according to the corresponding label based on the plurality of feature maps 510, the size may be smaller than that of the input data and the sharpness may be lowered. . Accordingly, the first CAM image 541 may be provided as the second CAM image 549 as additional processing is performed.

일 실시 예에 따르면, 상기 제1 CAM 이미지(541)는 상기 피쳐맵(510)을 기초로 제공될 수 있되, 상기 피쳐맵을 구성하는 진단 피쳐값들(543)을 제1 CAM 이미지와 분리시킬 수 있다. 이 때, 분리된 진단 피쳐값들(543)은 그 값을 기초로 색 스펙트럼 또는 히트 맵 형태로 나타나있을 수 있고, 수치 값을 기초로 나타나 있을 수 있다. 상기 분리된 진단 피쳐값들(543)은 입력 데이터의 크기에 대응되게 확대될 수 있다. 상기 분리된 진단 피쳐값들(543)은 입력 데이터의 크기에 대응되게 확대되되, 확대된 이미지(545)는 그 값을 기초로 색 스펙트럼 또는 히트 맵 형태로 나타날 수 있다. 확대된 이미지(545)는 입력 데이터(547)에 중첩될 수 있다. 상기 입력 데이터(547)에 확대된 이미지(545)가 중첩된 이미지(549)는 제2 CAM 이미지로 제공될 수 있다. 상기 제2 CAM 이미지는 상기 확대된 이미지(545)가 투명도를 높이는 처리를 거친 후 입력 데이터(547)에 중첩된 이미지일 수 있다. According to an embodiment, the first CAM image 541 may be provided based on the feature map 510 , and the diagnostic feature values 543 constituting the feature map may be separated from the first CAM image. can In this case, the separated diagnostic feature values 543 may be displayed in the form of a color spectrum or a heat map based on the value, or may be displayed based on a numerical value. The separated diagnostic feature values 543 may be enlarged to correspond to the size of the input data. The separated diagnostic feature values 543 are enlarged to correspond to the size of the input data, and the enlarged image 545 may be displayed in the form of a color spectrum or a heat map based on the values. The enlarged image 545 may be superimposed on the input data 547 . The image 549 in which the enlarged image 545 is superimposed on the input data 547 may be provided as a second CAM image. The second CAM image may be an image superimposed on the input data 547 after the enlarged image 545 undergoes a process to increase transparency.

상기 제2 CAM 이미지는 상기 제1 CAM 이미지와 달리 입력 데이터가 선명하게 나타날 수 있어, 입력 데이터 상에 진단 질병의 진단 결과와 관련된 위치를 보다 용이하게 파악할 수 있다. 상기 제2 CAM 이미지는 입력 데이터 상에 제1 정보 및 제2 정보를 고려한 특징들을 부각시켜 나타남에 따라, 비숙련자도 쉽게 진단 질병의 진단 결과와 관련된 위치를 파악할 수 있다. Unlike the first CAM image, the second CAM image may display input data clearly, so that a location related to a diagnosis result of a diagnosis disease may be more easily identified on the input data. As the second CAM image is displayed by emphasizing features in consideration of the first information and the second information on the input data, even an unskilled person can easily identify a location related to a diagnosis result of a diagnosed disease.

2.2.2.5 진단 보조 정보2.2.2.5 Diagnostic aids

2.2.2.5.1 진단 보조 정보의 정의2.2.2.5.1 Definition of Diagnostic Auxiliary Information

1.3.5에 기재된 내용과 같이, 진단 보조 정보는 진단 보조 장치를 통해 얻어진 진단 결과를 보조하기 위한 정보일 수 있다. 또한, 진단 보조 정보는 상기 진단 결과에 영향을 미친 요소들에 대한 정보일 수 있다. 또한, 진단 보조 정보는 상기 진단 결과와 연관된 요소들에 대한 정보일 수 있다. 일 예로, 진단 보조 정보는 이미지, 텍스트, 및 숫자 등으로 표현 또는 구성된 정보일 수 있고, 상기 정보들은 동시에 또는 별개로 제공될 수 있다. As described in 1.3.5, the diagnosis auxiliary information may be information to assist the diagnosis result obtained through the diagnosis auxiliary device. Also, the diagnosis auxiliary information may be information on factors affecting the diagnosis result. Also, the diagnosis auxiliary information may be information on elements related to the diagnosis result. For example, the diagnosis auxiliary information may be information expressed or composed of images, text, numbers, etc., and the information may be provided simultaneously or separately.

일 실시 예에 따르면, 진단 보조 정보는 진단 보조 장치를 통해 얻어진 진단 결과 및 진단 보조 이미지를 포함할 수 있다. 또한, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외의 다른 정보를 포함할 수 있고, 상기 다른 정보는 상기 진단 질병에 연관된 요소들이거나 영향을 미친 요소들일 수 있다. 일 예로, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외에, 입력 데이터의 대상체인 환자에 관한 성별, 나이, 흡연 여부, 혈압, 및 신체 정보 등을 포함할 수 있다. 또한, 상기 진단 보조 정보는 상기 진단 결과 및 상기 진단 보조 이미지 이외에, 이전에 수행되었던 진단 결과 및 진단 보조 이미지가 함께 제공될 수 있다. According to an embodiment, the auxiliary diagnosis information may include a diagnosis result obtained through the diagnosis auxiliary device and an auxiliary diagnosis image. In addition, the diagnosis auxiliary information may include other information other than the diagnosis result and the diagnosis auxiliary image, and the other information may be factors related to or influencing the diagnosis disease. For example, the diagnosis auxiliary information may include gender, age, smoking status, blood pressure, body information, etc. about a patient, which is an object of input data, in addition to the diagnosis result and the diagnosis auxiliary image. In addition, the diagnosis auxiliary information may be provided with a previously performed diagnosis result and a diagnosis auxiliary image in addition to the diagnosis result and the diagnosis auxiliary image.

2.2.2.5.2 진단 보조 정보의 출력2.2.2.5.2 Output of diagnostic auxiliary information

도 31 내지 도 37을 참조하면, 진단 보조 장치는 진단 보조 정보로서 출력된 진단 결과(S4030)와 함께 또는 별도로 출력된 CAM 이미지(S4050)가 출력 모듈(490)에 의해 출력(S4060)될 수 있다. 상기 CAM 이미지는 진단 모듈에서 수행된 진단 프로세스에 따라 진단 결과가 비정상인 경우에만 선택적으로 제공될 수 있다. 상기 CAM 이미지는 진단 모듈에서 수행된 진단 프로세스에 따라 진단 결과가 비정상인 경우에, 상기 진단 대상 데이터에 중첩되어 제공되거나 별도로 함께 제공될 수 있다. 또한, 진단 보조 정보의 출력은 1.3.5에 기재된 내용과 동일하거나 1.3.5에 기재된 내용을 포함할 수 있다. 또한, 1.5 사용자 인터페이스와 같이, 상기 진단 보조 정보는 사용자 인터페이스 상에 제공될 수 있다. 31 to 37 , the diagnosis auxiliary device may output the CAM image S4050 output together or separately with the diagnosis result S4030 output as the diagnosis auxiliary information by the output module 490 (S4060). . The CAM image may be selectively provided only when a diagnosis result is abnormal according to a diagnosis process performed in the diagnosis module. When a diagnosis result is abnormal according to a diagnosis process performed in the diagnosis module, the CAM image may be provided overlapping the diagnosis target data or may be provided separately. In addition, the output of the diagnostic auxiliary information may be the same as the contents described in 1.3.5 or include the contents described in 1.3.5. Also, as in the 1.5 user interface, the diagnostic assistance information may be provided on the user interface.

2.2.3 CAM 이미지의 정확도 향상 방법2.2.3 How to improve the accuracy of CAM images

2.2.3.1 배경 및 목적2.2.3.1 Background and purpose

전술하였듯이, CAM 이미지는 진단 질병에 대한 진단 결과를 기초로 제공될 수 있고, 이는 진단 결과와 함께 또는 별도로 제공될 수 있다. 일 실시 예에 따르면, 상기 진단 결과가 병변의 유무에 대해서 제공되는 경우, 상기 CAM 이미지는 진단 질병의 진행 정도를 추가적으로 고려함에 따라, CAM 이미지 제공 장치는 보다 정확성이 향상될 수 있다. 또한, 일 실시 예에 따르면, 상기 CAM 이미지는 노이즈 제거를 위한 별도의 처리가 추가적으로 수행되어, CAM 이미지 제공 장치는 보다 정확성이 향상될 수 있다. As described above, the CAM image may be provided based on a diagnosis result for a diagnostic disease, which may be provided together with or separately from the diagnosis result. According to an embodiment, when the diagnosis result is provided for the presence or absence of a lesion, the CAM image additionally considers the progress of a diagnosis disease, so that the accuracy of the CAM image providing apparatus may be further improved. In addition, according to an embodiment, a separate processing for noise removal is additionally performed on the CAM image, so that the CAM image providing apparatus can be more accurate.

2.2.3.2 Multi-binary system2.2.3.2 Multi-binary system

도 38은 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 CAM 이미지 제공 프로세스를 설명하기 위한 도면이다. 38 is a view for explaining a CAM image providing process according to a diagnosis process in consideration of the degree of progression of a diagnosis disease.

도 32를 참조하면, 상기 진단 프로세스는 진단 모듈(450)에 의해 수행될 수 있다. 또한, 도 38을 참조하면, 상기 진단 프로세스는 데이터 획득(S4011), 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025), 제1 진단 결과 출력 내지 제3 진단 결과 출력(S4031, S4033, S4035), 및 진단 보조 정보 출력(S4061)을 포함할 수 있다. 상기 진단 프로세스는 진단 질병에 대한 진행 정도에 따른 라벨링을 통해 상기 진단 보조 정보로서, 진단 질병에 대한 보유 여부 및 진행 정도에 관한 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 CAM 이미지 제공 프로세스에 이용될 수 있다. Referring to FIG. 32 , the diagnosis process may be performed by the diagnosis module 450 . Also, referring to FIG. 38 , the diagnosis process includes data acquisition (S4011), a learned first diagnostic auxiliary neural network model to a learned third diagnostic auxiliary neural network model (S4021, S4023, S4025), and outputting a first diagnosis result to a second 3 diagnostic result outputs ( S4031 , S4033 , and S4035 ) and diagnostic auxiliary information output ( S4061 ). The diagnosis process may output a diagnosis result regarding whether or not the diagnosis disease is possessed and the degree of progression as the diagnosis auxiliary information through labeling according to the degree of progression of the diagnosed disease. A diagnosis result obtained in the diagnosis process may be used in a CAM image providing process to be described later.

상기 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)은 질병의 진행 정도에 따라 라벨링을 할 수 있는 모델일 수 있다. 일 실시 예에 따르면, 상기 학습된 제1 진단 보조 신경망 모델(S4021)은 상기 진단 질병의 초기 단계에 해당되는지 여부를 분류하는 모델일 수 있고, 상기 학습된 제2 진단 보조 신경망 모델(S4023)은 상기 진단 질병의 중기 단계에 해당되는지 여부를 분류하는 모델일 수 있고, 상기 학습된 제3 진단 보조 신경망 모델(S4025)은 상기 진단 질병의 말기에 해당되는지 여부를 분류하는 모델일 수 있다. 일 예로, 동일한 입력 데이터를 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)에 각각 입력한 경우, 상기 학습된 제1 진단 보조 신경망 모델(S4021)에서는 진단 질병에 대한 정상으로 분류되되, 상기 학습된 제2 진단 보조 신경망 모델(S4023)에서는 비정상으로 분류되고, 상기 학습된 제3 진단 보조 신경망 모델(S4025)에서는 정상으로 분류되는 경우, 상기 진단 프로세스는 진단 질병의 중기에 해당되는 진단 결과가 제공될 수 있다. The learned first diagnostic auxiliary neural network model or the learned third diagnostic auxiliary neural network model S4021 , S4023 , and S4025 may be a model capable of labeling according to the degree of disease progression. According to an embodiment, the learned first diagnosis auxiliary neural network model S4021 may be a model for classifying whether or not it corresponds to the initial stage of the diagnosis disease, and the learned second diagnosis auxiliary neural network model S4023 is It may be a model for classifying whether or not it corresponds to the intermediate stage of the diagnosed disease, and the learned third diagnostic auxiliary neural network model S4025 may be a model for classifying whether or not it corresponds to the terminal stage of the diagnosed disease. As an example, when the same input data is input to the learned first diagnostic auxiliary neural network model to the learned third diagnostic auxiliary neural network model S4021, S4023, and S4025, respectively, in the learned first diagnostic auxiliary neural network model S4021 When a diagnosis is classified as normal for a disease, classified as abnormal in the learned second diagnosis auxiliary neural network model (S4023), and classified as normal in the learned third diagnosis auxiliary neural network model (S4025), the diagnosis process is Diagnosis results corresponding to the middle stage of a diagnostic disease may be provided.

상기 내용 이외의 진단 프로세스에 관한 내용은 1.3.4 진단 프로세스 및 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.The contents of the diagnosis process other than the above may be the same as those described in 1.3.4 diagnosis process and 2.2.2.3 diagnosis process. However, each process is not essential, and may be omitted or a separate process may be added according to a diagnosis target, a diagnosis disease, provided information, and the like.

이하에서는, 진단 질병의 진행 정도를 고려한 진단 프로세스에 따른 진단 결과에 따라 제공될 수 있는 CAM 이미지에 대해 구체적을 설명하고자 한다. Hereinafter, a CAM image that may be provided according to a diagnosis result according to a diagnosis process in consideration of the degree of progression of a diagnosis disease will be described in detail.

도 34를 참조하면, 상기 학습된 제1 진단 보조 신경망 모델 내지 학습된 제3 진단 보조 신경망 모델(S4021, S4023, S4025)에 의한 각각 마지막 피쳐맵(510)인 제1 정보 및 웨이트값(W2)인 제2 정보는 CAM 제공 프로세스에 제공될 수 있다. Referring to FIG. 34 , the first information and weight values W2, which are the last feature maps 510 by the learned first diagnostic auxiliary neural network model to the learned third diagnostic auxiliary neural network models S4021, S4023, and S4025, respectively. The second information may be provided to the CAM provision process.

일 실시 예에 따르면, 입력 데이터가 상기 학습된 제1 진단 보조 신경망 모델(S4021)에 의해 비정상으로 분류되되, 상기 학습된 제2 진단 보조 신경망 모델(S4023) 및 상기 학습된 제3 진단 보조 신경망 모델(S4025)에 의해 정상으로 분류되는 경우, 상기 학습된 제1 진단 보조 신경망 모델(S4021)에서 판단된 마지막 피쳐맵(510)은 상기 입력 데이터가 진단 질병의 초기 단계에 해당되는 비정상에 연관된 초기 단계 특징들이 존재할 수 있다. 상기 학습된 제2 진단 보조 신경망 모델(S4023) 및 상기 학습된 제3 진단 보조 신경망 모델(S4025)은 상기 입력 데이터가 진단 질병의 중기 및 말기 단계에 해당되지 않는 정상에 연관된 중기 및 말기 단계의 특징들이 각각 존재할 수 있다. 즉, 입력 데이터에 포함되는 특징들에 대해 초기, 중기, 및 말기 특징들을 함께 비교하되, 상기 CAM 제공 프로세스는 이를 고려하여 초기 단계를 의미하는 특징들에 대해서만 CAM 이미지가 제공될 수 있다. 다른 단계의 경우도 마찬가지일 수 있다.According to an embodiment, the input data is classified as abnormal by the learned first auxiliary diagnosis neural network model S4021, and the learned second diagnosis auxiliary neural network model S4023 and the learned third auxiliary diagnosis neural network model S4021 When classified as normal by (S4025), the last feature map 510 determined by the learned first diagnostic auxiliary neural network model (S4021) is an initial stage associated with an abnormality in which the input data corresponds to an initial stage of a diagnosis disease. Features may be present. The learned second diagnostic auxiliary neural network model (S4023) and the learned third diagnostic auxiliary neural network model (S4025) are characteristics of intermediate and terminal stages associated with normality in which the input data does not correspond to the intermediate and terminal stages of a diagnosis disease each may exist. That is, early, intermediate, and late features are compared together with respect to features included in the input data, and the CAM providing process may provide a CAM image only for features meaning an initial stage in consideration of this. The same may be true for other steps.

진단 질병을 진행 정도를 고려한 진단 보조 이미지는 비전문가의 CAM 이미지의 활용을 높일 수 있다. 또한, 진단 질병의 진행 정도를 고려한 CAM 이미지는 진단 질병의 유무 만을 판단한 진단 결과에 따른 CAM 이미지에 비해 정확도가 향상될 수 있다. Diagnosis auxiliary images considering the degree of disease progression can increase the use of CAM images by non-specialists. In addition, the CAM image in consideration of the progress of the diagnosed disease may have improved accuracy compared to the CAM image based on the diagnosis result in which only the presence or absence of the diagnosed disease is determined.

2.2.3.3 정규화 (Normalization)2.2.3.3 Normalization

일 실시 예에 따르면, 도 31 내지 도 37을 참고하면, CAM 이미지는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)을 고려하여 제공될 수 있다. 일 예로, 상기 CAM 이미지 제공 프로세스는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱을 기준으로 CAM 이미지가 제공될 수 있다. 이 때, 상기 CAM 이미지 제공 장치는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값과 최소값을 기준으로 정규화(normalization) 처리가 수행될 수 있다. 상기 정규화 처리는 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값을 1로, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최소값을 0을 기준으로 정규화가 수행될 수 있다. According to an embodiment, referring to FIGS. 31 to 37 , the CAM image may be provided in consideration of the feature value and the weight value W shown in the last feature map 510 . As an example, in the CAM image providing process, the CAM image may be provided based on the product of the feature value and the weight value W shown in the last feature map 510 . In this case, the CAM image providing apparatus may perform a normalization process based on the maximum and minimum values indicated in the product of the feature value and the weight value W indicated in the last feature map 510 . In the normalization process, the maximum value shown in the product of the feature value and the weight value (W) shown in the last feature map 510 is 1, and the maximum value shown in the product of the feature value and the weight value (W) shown in the last feature map 510 is Normalization may be performed based on the minimum value of 0.

일 실시 예에 따르면, 상기 정규화 처리에 있어서, 진단 질병의 진행 정도가 고려될 수 있다. 일 예로, 진단 질병의 말기 단계의 정상 또는 비정상을 분류하는 진단 프로세스인 경우, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값은 1로 정규화가 수행될 수 있다. 이와 달리, 진단 질병의 중기 단계의 정상 또는 비정상을 분류하는 진단 프로세스인 경우, 마지막 피쳐맵(510)에서 나타난 피쳐값과 웨이트값(W)의 곱에서 나타난 최대값은 1보다 작은 값으로 정규화가 수행될 수 있다. 또한, 진단 질병의 초기 단계에 관한 진단 프로세스는 중기 단계의 진단 프로세스의 상기 최대값에 비해 작은 값으로 정규화가 수행될 수 있다. According to an embodiment, in the normalization process, a degree of progression of a diagnostic disease may be considered. For example, in the case of a diagnostic process for classifying normal or abnormal in the terminal stage of a diagnostic disease, the maximum value shown in the product of the feature value and the weight value W shown in the last feature map 510 may be normalized to 1. have. On the other hand, in the case of a diagnostic process for classifying normal or abnormal in the intermediate stage of a diagnosis disease, the maximum value shown in the product of the feature value and the weight value W shown in the last feature map 510 is normalized to a value less than 1. can be performed. Also, the diagnostic process related to the initial stage of the diagnostic disease may be normalized to a value smaller than the maximum value of the diagnostic process in the intermediate stage.

진단 질병을 진행 정도를 고려한 진단 보조 이미지는 비전문가의 CAM 이미지의 활용을 높일 수 있다. 또한, 진단 질병의 진행 정도를 시각화함에 따라 비전문가는 상기 진단 질병에 대한 이해도를 높일 수 있다. Diagnosis auxiliary images considering the degree of disease progression can increase the use of CAM images by non-specialists. In addition, by visualizing the degree of progression of a diagnosed disease, a non-specialist may increase an understanding of the diagnosed disease.

2.2.3.4 디컨벌루션 레이어(Deconvolution layer)2.2.3.4 Deconvolution layer

디컨벌루션 레이어는 언풀링 레이어(unpooling layer)가 포함될 수 있다. 디컨벌루션 레이어는 피쳐맵에서 얻어진 패턴을 유지하면서 피쳐맵의 크기를 증가시켜서 입력 이미지 상에서 진단 질병에 관한 특징이 검출되는 영역을 보다 정확하게 나타낼 수 있다. 또한, 디컨벌루션 레이어는 이전 단계인 마지막 컨벌루션 레이어에 포함된 풀링 레이어와 상기 디컨벌루션 레이어에 포함된 언풀링 레이어가 함께 이용되어, CAM 이미지의 정확도가 보다 향상될 수 있다. The deconvolution layer may include an unpooling layer. The deconvolution layer may increase the size of the feature map while maintaining the pattern obtained from the feature map to more accurately represent a region in which a feature related to a diagnosis disease is detected on an input image. In addition, as the deconvolution layer, the pooling layer included in the last convolution layer, which is the previous step, and the unpooling layer included in the deconvolution layer are used together, so that the accuracy of the CAM image can be further improved.

일 실시 예에 따르면, 도 31 내지 도 38을 참조하면, 상기 진단 프로세스가 포함하는 학습된 진단 보조 신경망 모델은 디컨벌루션 레이어를 더 포함할 수 있다. 상기 디컨볼루션 레이어는 마지막 컨벌루션 레이어 다음에 배치될 수 있다. 마지막 컨벌루션 레이어의 복수의 피쳐맵(510)은 상기 디컨벌루션 레이어에 의해 컨벌루션 연산을 수행하되, 마지막 컨벌루션 레이어의 복수의 피쳐맵(510)의 패턴이 유지된 채 그 정확도가 보다 향상될 수 있다. According to an embodiment, referring to FIGS. 31 to 38 , the learned diagnosis auxiliary neural network model included in the diagnosis process may further include a deconvolution layer. The deconvolution layer may be disposed after the last convolution layer. The plurality of feature maps 510 of the last convolutional layer perform a convolution operation by the deconvolution layer, but the accuracy can be further improved while the patterns of the plurality of feature maps 510 of the last convolutional layer are maintained.

이를 통해 상기 진단 보조 장치 및/또는 시스템은 CAM 이미지 내 병변 부위의 특정에 대한 정확도 향상 가능할 수 있다. Through this, the diagnostic assistance device and/or system may improve the accuracy of specifying the lesion site in the CAM image.

2.3 진단 보조 이미지 제공 장치 및 시스템2.3 Diagnostic auxiliary image providing device and system

2.3.1 진단 보조 이미지2.3.1 Diagnostic auxiliary image

진단 보조 이미지는 안저 이미지를 통해 진단 가능한 질병의 진단을 보조하기에 적합한 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 얻어진 진단 결과를 보조하기에 적합한 이미지일 수 있다. 또한, 상기 진단 보조 이미지는 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 병변 영역이 강조되는 처리가 수행된 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 진단하는 진단 질병과 관련하여, 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 특이적 성질을 고려한 처리가 수행된 이미지일 수 있다. 또한, 진단 보조 이미지는 진단 프로세스에서 진단하는 진단 질병과 관련하여, 입력된 안저 이미지 및 CAM 이미지 중 적어도 어느 하나에 대해 상기 진단 질병의 특이적 성질에 기초하여 상기 진단 질병의 병변 영역이 강조되는 처리가 수행된 이미지일 수 있다. 또한, 1.5 사용자 인터페이스와 같이, 상기 진단 보조 이미지는 진단 보조 정보로써, 사용자 인터페이스 상에 상기 진단 결과와 함께 또는 별도로 제공될 수 있다.The diagnosis auxiliary image may be an image suitable for assisting in diagnosis of a disease diagnosable through the fundus image. Also, the diagnosis auxiliary image may be an image suitable for supporting a diagnosis result obtained in a diagnosis process. In addition, the diagnosis auxiliary image may be an image in which at least one of an input fundus image and a CAM image is subjected to a process in which the lesion region of the diagnosis disease is emphasized. In addition, the auxiliary diagnosis image may be an image in which at least one of an input fundus image and a CAM image is processed in consideration of a specific property of the diagnosis disease in relation to a diagnosis disease diagnosed in the diagnosis process. In addition, the diagnosis auxiliary image is a process in which a lesion region of a diagnosis disease is emphasized based on a specific property of the diagnosis disease with respect to at least one of an input fundus image and a CAM image with respect to a diagnosis disease diagnosed in the diagnosis process may be an image on which is performed. In addition, as in the 1.5 user interface, the diagnosis auxiliary image may be provided as diagnosis auxiliary information together with or separately from the diagnosis result on the user interface.

일 실시 예에 따르면, 진단 보조 이미지 제공 장치 및 시스템은 입력 데이터로 사용된 안저 이미지의 특성을 고려하여, 안저 이미지를 통해 진단 가능한 질병의 진단을 보조하기 위한 적합한 진단 보조 이미지가 제공될 수 있다. 상기 안저 이미지를 통해 진단 가능한 질병은 해당 질병에 따른 질병 특이적 성질을 가질 수 있다. 일 예로, 상기 질병 특이적 성질은 발병 위치, 발병 형태, 병변 모양, 병변 크기 등이 있을 수 있다. 일 실시 예에 따르면, 진단 보조 이미지 제공 장치 및 시스템은 진단 질병의 특이적 성질을 고려한 진단 보조 이미지가 제공될 수 있다. 또한, 진단 보조 이미지 제공 장치 및 시스템은 진단 질병의 발생 영역을 고려한 진단 보조 이미지가 제공될 수 있다. 일 예로, 진단 보조 이미지 제공 장치 및 시스템은 전술한 CAM 제공 프로세스에서 제공된 CAM 이미지에 대한 질병 특이적 성질을 고려한 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. According to an embodiment, the apparatus and system for providing an auxiliary diagnosis image may provide an auxiliary diagnosis image suitable for assisting in the diagnosis of a diagnosable disease through the fundus image in consideration of characteristics of the fundus image used as input data. A disease diagnosable through the fundus image may have disease-specific properties according to the disease. For example, the disease-specific property may include an onset location, an onset form, a lesion shape, and a lesion size. According to an embodiment, the apparatus and system for providing an auxiliary diagnosis image may provide a diagnosis auxiliary image in consideration of specific properties of a diagnosis disease. Also, the apparatus and system for providing an auxiliary diagnosis image may provide an auxiliary diagnosis image in consideration of a region of occurrence of a diagnosis disease. As an example, the apparatus and system for providing a diagnostic auxiliary image may provide a diagnostic auxiliary image on which lesion highlighting is performed in consideration of disease-specific properties of the CAM image provided in the above-described CAM provision process.

2.3.2 질병 특이적 성질2.3.2 Disease-specific properties

2.3.2.1 안저 이미지의 영역2.3.2.1 Area of fundus image

도 39는 일 실시 예의 다른 일 실시 예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다. 일 실시 예에 따르면, 안저 이미지는 안저 이미지에 포함된 해부학적 요소의 위치를 고려하여 결정된 복수의 영역을 포함할 수 있다.39 is a view for explaining division of a region of a fundus image according to another embodiment of the present invention. According to an embodiment, the fundus image may include a plurality of regions determined in consideration of positions of anatomical elements included in the fundus image.

도 39를 참조하면, 안저 이미지는 안저 영역(FA) 및 비안저 영역(NFA)을 포함할 수 있다. 상기 안저 영역(FA)은 황반부(MA), 시신경 유두부(ODA), 혈관부(BVA) 및 주변부(SA)를 포함할 수 있다. 안저 이미지는 안저 이미지로부터 검출된 황반 및/또는 시신경 유두의 위치에 기초하여 황반부, 시신경 유두부, 혈관부 및 주변부를 포함하도록 구분될 수 있다.Referring to FIG. 39 , the fundus image may include a fundus area FA and a non-fundus area NFA. The fundus area FA may include a macula MA, an optic nerve head ODA, a blood vessel BVA, and a peripheral area SA. The fundus image may be divided to include a macula, an optic nerve head, a blood vessel, and a periphery based on the location of the macula and/or the optic nerve head detected from the fundus image.

황반부(MA)는 안저 영역의 황반이 분포하는 영역을 포함하도록 결정될 수 있다. 시신경 유두부(ODA)는 안저 영역의 시신경 유두가 분포하는 영역을 포함하도록 결정될 수 있다. 혈관부(BVA)는 안저 영역의 혈관이 분포하는 영역을 포함하도록 결정될 수 있다. 주변부(SA)는 안저 영역으로부터 황반부(MA), 시신경 유두부(ODA), 및 혈관부(BVA)를 제외한 영역으로 결정될 수 있다.The macula MA may be determined to include a region in which the macula of the fundus region is distributed. The optic nerve head (ODA) may be determined to include a region in which the optic nerve head of the fundus region is distributed. The blood vessel part BVA may be determined to include a region in which blood vessels of the fundus region are distributed. The peripheral area SA may be determined as an area excluding the macular area MA, the optic nerve head (ODA), and the vascular area (BVA) from the fundus area.

황반부(MA), 시신경 유두부(ODA), 혈관부(BVA), 및 주변부(SA)의 경계는 황반, 시신경 유두, 혈관 등의 위치에 기초하여 결정될 수 있다. 황반부(MA)의 경계는 황반이 분포하는 영역을 둘러싸도록 결정될 수 있다. 시신경 유두부(ODA)의 경계는 시신경 유두가 분포하는 영역을 둘러싸도록 결정될 수 있다. 혈관부(BVA)의 경계는 혈관이 분포하는 영역을 둘러싸도록 결정될 수 있다. Boundaries of the macula MA, the optic nerve head (ODA), the blood vessel area BVA, and the peripheral area SA may be determined based on positions of the macula, the optic nerve head, blood vessels, and the like. The boundary of the macula MA may be determined to surround an area in which the macula is distributed. A boundary of the optic nerve head (ODA) may be determined to surround a region in which the optic nerve head is distributed. A boundary of the blood vessel portion BVA may be determined to surround a region in which blood vessels are distributed.

2.3.2.2 진단 질병 및 병변 영역2.3.2.2 Diagnosed disease and lesion areas

도 40은 일 실시 예에 따른 진단 보조 시스템에서 진단되는 복수의 질병이 발생된 안저 이미지를 나타내는 도면이다. 도 40의 (a)는 녹내장(glaucoma)이 발생된 안저 이미지이고, (b)는 망막병증(retina)가 발생된 안저 이미지이고, (c)는 백내장(cataract 또는 opacity)가 발생된 안저 이미지를 나타낸 것이다. 40 is a diagram illustrating a fundus image in which a plurality of diseases diagnosed by a diagnosis assistance system according to an exemplary embodiment. 40 (a) is a fundus image in which glaucoma has occurred, (b) is a fundus image in which retinopathy has occurred, and (c) is a fundus image in which cataract or opacity has occurred. it has been shown

도 39 및 도 40 (a)를 참조하면, 녹내장의 경우 시신경 유두부(ODA)를 중심으로 발병되는 것을 확인할 수 있다. 특히, 시신경 유두부(ODA)에 포함되어 있는 시신경 유두(OD, Optic Disk) 및 시신경 컵(OC, Optic Cup)에서, 녹내장은 시신경 유두 내에 시신경 컵이 차지하는 비율이 소정의 비율 이상인 경우를 의미할 수 있다. 따라서, 녹내장의 경우, 시신경 유두부(ODA)에 특이적으로 발병될 수 있고, 특히 시신경 유두(OD) 대비 시신경 컵(OC)의 비율이 중요한 판단 기준이 될 수 있다. 즉, 녹내장을 진단하는 진단 보조 시스템은 시신경 유두부(ODA)를 중심으로 하는 진단 보조 이미지가 제공될 수 있다. Referring to FIGS. 39 and 40 ( a ), it can be confirmed that glaucoma occurs centered on the optic nerve head (ODA). In particular, in the optic nerve head (OD, Optic Disk) and the optic nerve cup (OC, Optic Cup) included in the optic nerve head (ODA), glaucoma refers to a case in which the ratio of the optic nerve cup in the optic nerve head is greater than or equal to a predetermined ratio. can Accordingly, in the case of glaucoma, the optic nerve head (ODA) may be specifically affected, and in particular, the ratio of the optic nerve cup (OC) to the optic nerve head (OD) may be an important criterion for determining. That is, the diagnosis assistance system for diagnosing glaucoma may provide a diagnosis assistance image centered on the optic nerve head (ODA).

도 39 및 도 40 (b)를 참조하면, 망막병증(retina)의 경우는 상기 안저 영역(FA)에 산발적으로 발병되는 것을 확인할 수 있다. 이는, 특정 영역에서 발병된다고 보기는 어려우며, 상기 안저 영역(FA)을 전반적으로 고려해야 하는 것을 확인할 수 있다. 다만, 망막병증(retina)이 발병된 영역은 그 크기 및 위치 등이 무작위적인 점을 고려하여, 해당 영역을 강조하여 처리해야 할 필요성이 있을 수 있다. 즉, 망막병증을 진단하는 진단 보조 시스템은 안저 영역(FA)을 전반적으로 판단하는 진단 보조 이미지가 제공될 수 있다.Referring to FIGS. 39 and 40 (b), it can be seen that retinopathy (retina) is sporadically occurring in the fundus area (FA). It can be seen that it is difficult to see that the disease occurs in a specific area, and the fundus area FA should be considered as a whole. However, considering that the size and location of the retinopathy-infected area are random, it may be necessary to emphasize the area and process it. That is, the diagnosis assistance system for diagnosing retinopathy may provide a diagnosis assistance image for judging the fundus area FA as a whole.

도 39 및 도 40 (c)를 참조하면, 백내장(cataract 또는 opacity)의 경우 상기 안저 영역(FA)의 전반적인 영역에서 발병되는 것을 확인할 수 있다. 백내장의 경우 상기 안저 영역(FA) 상에 발생된 흐릿한 영역이 중요한 판단 기준이 될 수 있고, 다른 진단 질병에 비해 보다 명확하게 파악할 수 있다. 다만, 백내장이 발생된 안저 이미지의 경우는 상기 안저 영역(FA) 상에 흐릿한 영역이 존재하여, 다른 진단 질병을 판단하기에 용이하지 않을 수 있다. 따라서, 백내장이 발생된 안저 이미지에 있어서, 상기 안저 영역(FA) 상의 흐릿한 영역 내에 포함된 다른 진단 질병이 병변 영역을 강조하여 처리할 필요가 있을 수 있다. 즉, 백내장을 진단하는 진단 보조 시스템은 안저 영역(FA)에서 다른 질병이 발병된 영역이 강조하여 처리되는 진단 보조 이미지가 제공될 수 있다.Referring to FIGS. 39 and 40 (c) , it can be confirmed that cataract or opacity occurs in the entire area of the fundus area FA. In the case of a cataract, a blurred area generated on the fundus area FA may be an important criterion for determining, and may be more clearly identified compared to other diagnostic diseases. However, in the case of a fundus image in which a cataract has occurred, a blurred area exists on the fundus area FA, so it may not be easy to determine another diagnostic disease. Therefore, in the fundus image in which the cataract has occurred, other diagnostic diseases included in the blurred area on the fundus area FA may need to be processed by emphasizing the lesion area. That is, the diagnosis assistance system for diagnosing a cataract may provide a diagnosis assistance image in which an area in which another disease occurs in the fundus area FA is emphasized and processed.

상기 복수의 진단 질병에 대한 병변의 종류 및 병변 영역은 상술한 내용에 한정되지 않을 수 있다. 일 예로, 특정 영역에 병변 영역이 위치하는 질병의 경우 녹내장과 유사한 필요성을 가질 수 있고, 비특정 영역에 병변 영역이 위치하는 질병의 경우 망막병증과 유사한 필요성을 가질 수 있고, 안저 이미지가 흐릿한 경우 백내장과 유사한 필요성을 가질 수 있다. 이에 대해서는 각각의 필요성을 고려한 진단 보조 이미지가 제공될 수 있다. The type of lesion and the lesion area for the plurality of diagnostic diseases may not be limited to the above description. For example, a disease in which a lesion region is located in a specific region may have a need similar to glaucoma, and a disease in which a lesion region is located in a non-specific region may have a need similar to retinopathy, and when the fundus image is blurred It may have a need similar to that of a cataract. For this, a diagnosis auxiliary image in consideration of each need may be provided.

2.3.3 진단 보조 이미지 제공 프로세스2.3.3 Diagnostic auxiliary image provision process

도 41은 일 실시 예에 따른 진단 보조 정보 제공부(600)의 구성을 설명하기 위한 도면이다. 도 41을 참조하면, 진단 보조 정보 제공부(600)는 진단 요청 획득 모듈(610), 데이터 가공 모듈(630), 진단 모듈(650), CAM 제공 모듈(670), 병변 강조 모듈(680), 및 출력 모듈(690)을 포함할 수 있다. 41 is a diagram for explaining the configuration of the diagnostic auxiliary information providing unit 600 according to an exemplary embodiment. Referring to FIG. 41 , the diagnosis auxiliary information providing unit 600 includes a diagnosis request obtaining module 610 , a data processing module 630 , a diagnosis module 650 , a CAM providing module 670 , a lesion highlighting module 680 , and an output module 690 .

도 42는 일 실시 예에 따른 진단 장치에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다. 42 is a diagram for describing a diagnostic process and a diagnostic auxiliary image providing process performed by a diagnostic apparatus according to an exemplary embodiment.

각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 41 및 도 42에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. Each module may perform individual steps, such as a diagnostic auxiliary process and a diagnostic auxiliary image providing process, as described below. However, not all components and functions performed by the components described in FIGS. 41 and 42 are essential, and some components and functions may be added or omitted.

2.3.3.1 데이터 획득 및 가공 프로세스2.3.3.1 Data Acquisition and Processing Process

데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스, 및 2.2.2.2 데이터 획득 및 가공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.The data acquisition and processing process may be the same as described above in 1.3.2 Data Acquisition and Diagnosis Request, 1.3.3 Data Processing Process, and 2.2.2.2 Data Acquisition and Processing Process. However, each process is not essential, and may be omitted or a separate process may be added depending on a diagnosis target, a diagnosis disease, and the like.

2.3.3.2 진단 프로세스2.3.3.2 Diagnostic process

도 41 및 도 42를 참조하면, 상기 진단 프로세스는 진단 모듈(650)에 의해 수행될 수 있다. 상기 진단 프로세스는 데이터 획득(S6010), 학습된 진단 보조 신경망 모델(S6020), 및 진단 결과 출력(S6030)을 포함할 수 있다. 또한, 상기 진단 프로세스는 데이터 획득(S6010), 학습된 진단 보조 신경망 모델(S6020), 및 진단 결과 출력(S6030)을 통해 진단 보조 정보를 출력(S6060)할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 진단 보조 이미지 제공 프로세스에 이용될 수 있다. 41 and 42 , the diagnosis process may be performed by the diagnosis module 650 . The diagnosis process may include data acquisition ( S6010 ), a learned diagnosis auxiliary neural network model ( S6020 ), and outputting a diagnosis result ( S6030 ). In addition, the diagnosis process may output ( S6060 ) the diagnosis auxiliary information through data acquisition ( S6010 ), the learned diagnosis auxiliary neural network model ( S6020 ), and the output of the diagnosis result ( S6030 ). The diagnosis process may output a diagnosis result as the diagnosis auxiliary information. A diagnosis result obtained in the diagnosis process may be used in a diagnosis auxiliary image providing process to be described later.

진단 프로세스에 관한 내용은 1.3.4 진단 프로세스, 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다.The contents of the diagnosis process may be the same as those described above in 1.3.4 diagnosis process and 2.2.2.3 diagnosis process. However, each process is not essential, and may be omitted or a separate process may be added according to a diagnosis target, a diagnosis disease, provided information, and the like.

2.3.3.3 CAM 이미지 제공 프로세스2.3.3.3 CAM image presentation process

CAM 이미지 제공 프로세스에 관한 내용은 2.2.2.4 CAM 이미지 제공 프로세스에서 전술한 내용과 동일할 수 있다. 다만, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다. The contents of the CAM image providing process may be the same as those described above in 2.2.2.4 CAM image providing process. However, each process is not essential, and may be omitted or a separate process may be added depending on a diagnosis target, a diagnosis disease, and the like.

상기 CAM 이미지 제공 프로세스를 통해 제공된 CAM 이미지는 상기 출력 모듈(690)에 의해 진단 보조 정보 출력(S6060)을 거칠 수 있되, 상기 CAM 이미지는 상기 병변 강조 모듈(680)을 추가적으로 거쳐 진단 보조 이미지로 출력될 수 있다. 상기 병변 강조 모듈(680) 및 상기 진단 보조 이미지에 대해서는 후술될 진단 보조 이미지 제공 프로세스에서 구체적으로 설명하고자 한다. The CAM image provided through the CAM image providing process may undergo a diagnostic auxiliary information output (S6060) by the output module 690, and the CAM image is output as a diagnostic auxiliary image through the lesion highlighting module 680 additionally. can be The lesion highlighting module 680 and the diagnosis auxiliary image will be described in detail in a process for providing a diagnosis auxiliary image to be described later.

2.3.3.4 진단 보조 이미지 제공 프로세스2.3.3.4 Diagnostic Auxiliary Image Delivery Process

도 41을 참조하면, 상기 진단 보조 이미지 제공 프로세스는 병변 강조 모듈(680)에 의해 수행될 수 있다. 상기 병변 강조 모듈(680)은 입력된 진단 대상 데이터, 상기 진단 모듈(650)에서 얻어진 정보, 상기 CAM 제공 모듈(670)에서 얻어진 CAM 이미지 중 적어도 어느 하나를 기초로 진단 보조 이미지 제공 프로세스가 수행될 수 있다. 상기 병변 강조 모듈(680)은 입력된 진단 대상 데이터, 상기 진단 모듈(650)에서 얻어진 정보, 및 상기 CAM 제공 모듈(670)에서 얻어진 CAM 이미지를 기초로 진단 보조 이미지 제공 프로세스가 수행될 수 있다. Referring to FIG. 41 , the diagnostic auxiliary image providing process may be performed by the lesion highlighting module 680 . The lesion highlighting module 680 is configured to perform a diagnosis auxiliary image providing process based on at least one of the inputted diagnosis target data, the information obtained from the diagnosis module 650, and the CAM image obtained from the CAM providing module 670. can The lesion highlighting module 680 may perform a diagnosis auxiliary image providing process based on the inputted diagnosis target data, the information obtained by the diagnosis module 650 , and the CAM image obtained by the CAM providing module 670 .

도 42를 참조하면, 상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010), CAM 이미지 제공 모델(S6040), 병변 강조 모델(S6080), 및 진단 보조 이미지 출력(S6050)을 포함할 수 있다. Referring to FIG. 42 , the process of providing a diagnostic auxiliary image may include data acquisition ( S6010 ), a CAM image providing model ( S6040 ), a lesion highlighting model ( S6080 ), and outputting a diagnostic auxiliary image ( S6050 ).

상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010), CAM 이미지 제공 모델(S6040), 병변 강조 모델(S6080), 및 진단 보조 이미지 출력(S6050)을 통해 진단 보조 정보를 출력(S6060)할 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지 및 진단 보조 이미지 중 적어도 어느 하나가 출력될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 진단 보조 정보로서 CAM 이미지 및 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 데이터 획득(S6010)에서 획득된 데이터, 학습된 진단 보조 신경망 모델(S6020)에서 얻어진 결과, 및 CAM 이미지 제공 모델(S6040)에서 얻어진 CAM 이미지 중 적어도 어느 하나를 기초로 하여, 상기 진단 보조 정보로서 진단 보조 이미지가 출력될 수 있다. The diagnostic auxiliary image providing process may output diagnostic auxiliary information (S6060) through data acquisition (S6010), a CAM image providing model (S6040), a lesion highlighting model (S6080), and an auxiliary diagnostic image output (S6050). In the diagnosis auxiliary image providing process, at least one of a CAM image and a diagnosis auxiliary image may be output as the diagnosis auxiliary information. In the diagnosis auxiliary image providing process, a CAM image and a diagnosis auxiliary image may be output as the diagnosis auxiliary information. The diagnostic auxiliary image providing process is based on at least one of the data obtained in data acquisition (S6010), the result obtained in the learned diagnostic auxiliary neural network model (S6020), and the CAM image obtained in the CAM image providing model (S6040). , a diagnosis auxiliary image may be output as the diagnosis auxiliary information.

후술될 내용에서, 상기 진단 보조 이미지 제공 프로세스에 대해서 구체적으로 설명하고자 한다.In the following description, the process for providing the diagnostic auxiliary image will be described in detail.

2.3.3.4.1 병변 강조 모델2.3.3.4.1 Lesion Highlighting Model

도 39 내지 도 42를 참조하면, 일 실시 예에 따른 상기 진단 보조 이미지 제공 프로세스는 상기 진단 프로세스에서 진단한 결과를 고려하여 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 병변 강조 모델(S6080)을 통해 특정 진단 질병에 대해 학습된 진단 보조 신경망 모델(S6020)의 진단 결과, 해당 진단 질병의 질병 특이적 특성, 및 CAM 이미지 제공 모델(S6040)의 CAM 이미지 중 적어도 어느 하나를 고려하여 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 특정 질병에 대해 학습된 진단 보조 신경망 모델(S6020)에 대응되도록, 상기 특정 질병의 질병 특이적 특성을 고려한 병변 강조 모델(S6080)을 통해 상기 CAM 이미지 제공 모델(S6040)의 CAM 이미지에 대한 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. 39 to 42 , in the diagnosis auxiliary image providing process according to an exemplary embodiment, lesion emphasis may be performed on the CAM image in consideration of a diagnosis result in the diagnosis process. In addition, the diagnostic auxiliary image providing process includes the diagnosis result of the diagnostic auxiliary neural network model (S6020) learned for a specific diagnostic disease through the lesion highlighting model (S6080), the disease-specific characteristics of the corresponding diagnostic disease, and the CAM image providing model ( A diagnosis auxiliary image in which lesion enhancement is performed in consideration of at least one of the CAM images of S6040) may be provided. In addition, the diagnostic auxiliary image providing process corresponds to the diagnostic auxiliary neural network model (S6020) learned for a specific disease, through the lesion highlighting model (S6080) considering the disease-specific characteristics of the specific disease, the CAM image providing model ( A diagnosis auxiliary image in which lesion enhancement is performed on the CAM image of S6040) may be provided.

일 실시 예에 따르면, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값을 기준으로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서만 출력되는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서는 0값으로 변환시키는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값 이상의 픽셀에 대해서만 상기 획득된 데이터에 중첩시키는 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S6080)은 상기 CAM 이미지의 픽셀값을 기초로 소정의 임계값을 기준으로 경계선을 삽입하는 병변 강조가 수행될 수 있다. According to an embodiment, the lesion enhancement model S6080 may perform lesion enhancement on the CAM image based on pixel values of the CAM image. The lesion enhancement model S6080 may perform lesion enhancement on the CAM image based on a predetermined threshold based on pixel values of the CAM image. As an example, the lesion enhancement model S6080 may perform lesion enhancement that is output only to pixels greater than or equal to a predetermined threshold based on the pixel values of the CAM image. In addition, the lesion enhancement model S6080 may perform lesion enhancement by converting the pixel value of the CAM image to a value of 0 for pixels greater than or equal to a predetermined threshold value based on the pixel values of the CAM image. In addition, the lesion enhancement model S6080 may perform lesion enhancement by superimposing the acquired data on only pixels having a threshold value or higher based on the pixel values of the CAM image. For example, in the lesion enhancement model S6080, lesion enhancement by inserting a boundary line based on a predetermined threshold value based on the pixel value of the CAM image may be performed.

일 실시 예에 따르면, 상기 병변 강조 모델(S6080)은 진단 질병의 질병 특이적 성질에 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 일 예로, 상기 병변 강조 모델(S0680)은 상기 진단 질병의 병변 발생 위치를 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역을 상기 CAM 이미지에 중첩시키는 병변 강조가 수행될 수 있다. 또한, 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역의 경계선을 상기 CAM 이미지에 삽입하는 병변 강조가 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 질병의 병변 발생 위치와 대응되는 해부학적 영역의 경계선을 상기 CAM 이미지에 중첩되는 병변 강조가 수행될 수 있다. According to an embodiment, in the lesion highlighting model S6080, lesion emphasis may be performed on the CAM image based on a disease-specific property of a diagnosed disease. As an example, in the lesion highlighting model S0680, lesion emphasis may be performed on the CAM image based on the location of the lesion occurrence of the diagnostic disease. In the lesion highlighting model S6080, lesion emphasis may be performed on the CAM image based on an anatomical region corresponding to a lesion occurrence location of the diagnosis disease. In the lesion highlighting model S6080, lesion emphasis may be performed by superimposing an anatomical region corresponding to a lesion occurrence location of the diagnosis disease on the CAM image. In addition, in the lesion highlighting model ( S6080 ), lesion emphasis may be performed by inserting a boundary line of an anatomical region corresponding to a lesion occurrence location of the diagnosis disease into the CAM image. In the lesion highlighting model S6080, lesion highlighting may be performed in which a boundary line of an anatomical region corresponding to a lesion occurrence location of the diagnosis disease is superimposed on the CAM image.

도 39를 참조하면, 상기 해부학적 영역은 안저 영역(FA)에 포함되어 있는 영역 중 하나일 수 있다. 일 예로, 상기 해부학적 영역은 황반부(MA), 시신경 유두부(ODA), 혈관부(BVA) 및 주변부(SA) 중 적어도 어느 하나일 수 있다. 특히, 상기 해부학적 영역은 시신경 유두부(ODA), 혈관부(BVA), 또는 황반부(MA) 등 일 수 있다. Referring to FIG. 39 , the anatomical region may be one of the regions included in the fundus region FA. For example, the anatomical region may be at least one of the macula MA, the optic nerve head ODA, the vascular region BVA, and the peripheral region SA. In particular, the anatomical region may be an optic nerve head (ODA), a blood vessel (BVA), or a macula (MA).

상기 병변 강조 모델(S6080)의 병변 강조 수행 방법은 상술한 내용에 한정되지 아니하며, 상기 진단 보조 이미지를 출력시키기 위한 다양한 방법들이 수행될 수 있다. 상기 병변 강조 모델(S6080)은 상기 진단 프로세스의 진단 질병에 따른 병변 강조 방법들을 수행할 수 있고, 이에 대해서는 후술할 내용을 통해 구체적으로 설명하고자 한다. The lesion enhancement method of the lesion enhancement model S6080 is not limited to the above description, and various methods for outputting the diagnosis auxiliary image may be performed. The lesion highlighting model S6080 may perform lesion highlighting methods according to the diagnosis disease of the diagnosis process, which will be described in detail later.

2.3.3.4.2 특정 해부학적 영역에 발생되는 질병2.3.3.4.2 Diseases that occur in specific anatomical areas

일 실시 예에 따르면, 상기 진단 프로세스의 진단 질병이 특정 해부학적 영역에서 발생되는 질병 특이적 성질을 가지고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다. According to an embodiment, when the diagnosis disease of the diagnosis process has a disease-specific property occurring in a specific anatomical region, the diagnosis auxiliary image providing apparatus may provide a diagnosis auxiliary image in consideration of this.

일 예로, 일 실시 예에 따르면 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지 제공 장치는 시신경 유두부(ODA)에서 발생되는 질병 특이적 성질을 고려한 진단 보조 이미지가 제공될 수 있다. 후술될 상기 병변 강조 모델(S060)은 진단 질병이 녹내장인 경우를 예시로 설명될 것이나, 상기 진단 질병은 녹내장에 한정되지 아니하고, 특정 해부학적 영역에 발생되는 질병은 후술될 병변 강조 모델(S6080)과 동일하거나 유사한 방법으로 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. For example, according to an embodiment, when the diagnosis disease of the diagnosis process is glaucoma, the diagnosis auxiliary image providing apparatus may provide a diagnosis auxiliary image in consideration of disease-specific properties occurring in the optic nerve head (ODA). The lesion-emphasizing model (S060) to be described later will be described as an example when the diagnostic disease is glaucoma, but the diagnostic disease is not limited to glaucoma, and the disease occurring in a specific anatomical region is a lesion-emphasizing model (S6080) to be described later. A diagnostic auxiliary image in which lesion highlighting is performed in the same or similar manner as described above may be provided.

도 43 내지 도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이다. 도 43 내지 도 46을 참조하여, 상기 진단 프로세스의 진단 질병이 녹내장에 해당되는 경우 상기 CAM 이미지에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다. 43 to 46 are diagrams illustrating auxiliary diagnostic images when the diagnostic disease of the diagnostic process is glaucoma. 43 to 46 , when the diagnosis disease of the diagnosis process corresponds to glaucoma, the lesion emphasis performed on the CAM image will be described in detail.

도 43은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이며, 도 43 (a)는 녹내장에 해당되는 입력 데이터이고, 도 43 (b)는 (a)의 CAM 이미지이고, 도 43 (c)는 (b)가 병변 강조된 진단 보조 이미지이다. 일 실시 예에 따르면, 도 43을 참조하면 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행된 이미지일 수 있다. 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 임계값 이상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 간이하고 빠르게 수행될 수 있는 장점이 있다. 또한, 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 시신경 유두부(ODA)가 강조되어 처리될 수 있어, 사용자가 용이하게 녹내장 여부를 판단할 수 있다. Fig. 43 is a view showing a diagnosis auxiliary image when the diagnosis disease of the diagnosis process is glaucoma, Fig. 43 (a) is input data corresponding to glaucoma, Fig. 43 (b) is a CAM image of (a), Fig. 43 (c) is a diagnosis auxiliary image in which (b) is highlighted lesion. According to an embodiment, referring to FIG. 43 , the diagnosis auxiliary image may be an image in which lesion enhancement is performed on the CAM image based on pixel values of the CAM image. The diagnosis auxiliary image may be an image on which lesion enhancement is performed so that only pixels greater than or equal to a threshold value are output based on pixel values of the CAM image. The lesion highlighting based on the pixel value of the CAM image has the advantage that it can be performed simply and quickly. In addition, when the diagnosis disease of the diagnosis process is glaucoma, the lesion emphasis based on the pixel value of the CAM image can be processed by emphasizing the optic nerve head (ODA), so that the user can easily determine whether or not glaucoma is present. have.

도 44 및 도 45는 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 안저 영역(FA) 중 시신경 유두부(ODA)를 확대하여 나타낸 진단 보조 이미지를 나타내는 도면이다. 도 44는 상기 진단 프로세스의 진단 질병이 녹내장인 경우 정상에 해당되는 진단 보조 이미지를 나타내고, 도 45는 의심 또는 비정상에 해당되는 진단 보조 이미지를 나타낸 것이다. 도 44 (a) 및 도 45(a)는 입력 데이터이고, 도 44 (b) 및 도 45 (b)는 (a)의 CAM 이미지이고, 도 44 (c) 및 도 45 (c)는 (b)가 병변 강조된 진단 보조 이미지이다. 44 and 45 are diagrams illustrating an enlarged diagnosis auxiliary image of the optic nerve head (ODA) in the fundus area (FA) when the diagnostic disease of the diagnostic process is glaucoma. 44 shows a diagnosis auxiliary image corresponding to normal when the diagnosis disease of the diagnosis process is glaucoma, and FIG. 45 shows a diagnosis auxiliary image corresponding to suspicious or abnormality. 44 (a) and 45 (a) are input data, FIGS. 44 (b) and 45 (b) are CAM images of (a), and FIGS. 44 (c) and 45 (c) are (b) ) is the lesion-highlighted diagnostic auxiliary image.

도 44 및 도 45를 참조하면, 일 실시 예에 따르면 상기 진단 보조 이미지는 입력 데이터의 시신경 유두부(ODA)를 확대한 이미지에 대한 CAM 이미지가 병변 강조된 이미지이다. 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 녹내장의 발병 위치가 시신경 유두부(ODA)에 대응되는 점을 고려한 이미지일 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 상기 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)을 강조하여 나타낸 이미지일 수 있다. 일 예로, 상기 진단 보조 이미지는 상기 시신경 유두부(ODA)를 확대한 이미지에 대한 CAM 이미지의 픽셀값을 기초로 임계값이 상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상술한, 상기 진단 보조 이미지는 시신경 유두부를 확대한 이미지에 대한 CAM 이미지의 진단 보조 이미지로서, 사용자는 상기 진단 보조 이미지를 통해 시신경 유두(OD) 및 시신경 컵(OC)의 비율을 용이하게 판단할 수 있다. 44 and 45 , according to an exemplary embodiment, the diagnosis auxiliary image is an image in which the CAM image of the optic nerve head (ODA) of the input data is enlarged and the lesion is emphasized. When the diagnosis disease of the diagnosis process is glaucoma, the diagnosis auxiliary image may be an image in consideration of the fact that the onset location of the glaucoma corresponds to the optic nerve head (ODA). In addition, when the diagnosis disease of the diagnosis process is glaucoma, the diagnosis auxiliary image may be an image in which the optic disc OD and the optic disc OC located in the optic disc ODA are emphasized. For example, the diagnosis auxiliary image may be an image in which lesion enhancement is performed so that only pixels greater than or equal to a threshold are output based on pixel values of a CAM image with respect to the enlarged image of the optic nerve head (ODA). As described above, the auxiliary diagnosis image is a diagnosis auxiliary image of a CAM image with respect to an enlarged image of the optic nerve head, and the user can easily determine the ratio of the optic nerve head (OD) and the optic nerve cup (OC) through the diagnosis auxiliary image. can

도 46은 상기 진단 프로세스의 진단 질병이 녹내장인 경우의 진단 보조 이미지를 나타내는 도면이며, 도 46 (a)는 녹내장에 해당되는 입력 데이터이고, 도 46 (b)는 (a)의 CAM 이미지이고, 도 46 (c)는 (b)가 병변 강조된 진단 보조 이미지이다. 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 진단 보조 이미지는 시신경 유두부(ODA)를 강조하여 처리한 이미지일 수 있다. 상기 진단 보조 이미지는 CAM 이미지에서 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 처리된 이미지일 수 있다. 상기 진단 보조 이미지는 CAM 이미지에 대해 시신경 유두부(ODA)에 위치하는 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 중첩되는 이미지일 수 있다. 상기 시신경 유두(OD) 및 시신경 컵(OC)의 경계선은 입력 데이터로부터 출력될 수 있다. 상기 진단 보조 이미지는 상기 CAM 이미지에서 시신경 유두(OD) 및 시신경 컵(OC)의 경계선이 중첩되어, 사용자는 상기 진단 보조 이미지를 통해 녹내장을 용이하게 판단할 수 있다. 46 is a view showing a diagnosis auxiliary image when the diagnosis disease of the diagnosis process is glaucoma, FIG. 46 (a) is input data corresponding to glaucoma, FIG. 46 (b) is a CAM image of (a), 46 (c) is a diagnosis auxiliary image in which (b) is highlighted lesion. When the diagnosis disease of the diagnosis process is glaucoma, the diagnosis auxiliary image may be an image processed by emphasizing the optic nerve head (ODA). The diagnosis auxiliary image may be an image in which the boundary lines of the optic nerve head (OD) and the optic nerve cup (OC) located in the optic nerve head (ODA) are processed in the CAM image. The diagnosis auxiliary image may be an image in which the boundary lines of the optic nerve head (OD) and the optic nerve cup (OC) located in the optic nerve head (ODA) overlap with respect to the CAM image. A boundary line between the optic nerve head OD and the optic nerve cup OC may be output from input data. In the diagnosis auxiliary image, the boundary lines of the optic nerve head (OD) and the optic nerve cup (OC) overlap in the CAM image, so that the user can easily determine glaucoma through the diagnosis auxiliary image.

상기 진단 프로세스의 진단 질병이 녹내장인 경우, 상기 입력 데이터 또는 상기 CAM 이미지에 수행되는 병변 강조 방법은 상술한 내용에 한정되지 아니하며, 상기 녹내장의 질병 특이적 성질을 고려한 다양한 방법이 수행될 수 있다. When the diagnosis disease of the diagnosis process is glaucoma, the lesion highlighting method performed on the input data or the CAM image is not limited to the above description, and various methods may be performed in consideration of the disease-specific nature of the glaucoma.

상기 진단 보조 이미지는 상기 진단 프로세스의 진단 질병이 녹내장인 경우, 녹내장의 질병 특이적 성질을 고려한 병변 강조가 수행된 이미지일 수 있다. 상기 진단 보조 이미지는 상술한 병변 강조를 통해 시신경 유두부(ODA)가 강조되어 처리될 수 있어, 상기 진단 보조 이미지는 CAM 이미지에 비해 보다 용이하고 명확하게 녹내장의 진단을 보조할 수 있다. 또한, 시신경 유두부(ODA)는 상기 입력 데이터 중 일부 영역에 해당되어, 비전문가가 입력 데이터 또는 CAM 이미지만을 보고 녹내장을 진단하는 것은 다소 어려운 문제가 있다. 따라서, 상기 시신경 유두부(ODA)를 강조하는 병변 강조가 진행된 진단 보조 이미지는 비전문가가 상기 진단 보조 이미지를 통해 녹내장을 진단하는 것이 용이하도록 보조할 수 있다. When the diagnosis disease of the diagnosis process is glaucoma, the auxiliary diagnosis image may be an image on which lesion highlighting is performed in consideration of disease-specific properties of glaucoma. The auxiliary diagnosis image can be processed by emphasizing the optic nerve head (ODA) through the above-described lesion emphasis, so that the auxiliary diagnosis image can assist in diagnosing glaucoma more easily and clearly compared to the CAM image. In addition, since the optic nerve head (ODA) corresponds to some of the input data, it is somewhat difficult for a non-specialist to diagnose glaucoma by looking only at the input data or the CAM image. Accordingly, the diagnosis auxiliary image emphasizing the optic nerve head (ODA) in which the lesion is emphasized may assist a non-specialist in diagnosing glaucoma through the diagnosis auxiliary image.

2.3.3.4.3 비특이적 영역에서 발생되는 질병2.3.3.4.3 Diseases occurring in non-specific areas

일 실시 예에 따르면, 상기 진단 프로세스의 진단 질병이 안저 영역(FA)에서 비특이적 영역에 발생되는 질병 특이적 성질을 가지고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다. According to an embodiment, when the diagnosis disease of the diagnosis process has a disease-specific property that occurs in a non-specific region in the fundus region (FA), the diagnosis auxiliary image providing apparatus may provide a diagnosis auxiliary image in consideration of this. .

도 47 내지 도 50은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 진단 보조 이미지를 나타내는 도면이다. 도 47 내지 도 50을 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우에 해당되는 경우, 상기 CAM 이미지에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다. 47 to 50 are diagrams illustrating auxiliary diagnostic images when a diagnostic disease of the diagnostic process occurs in a non-specific region. With reference to FIGS. 47 to 50 , when the diagnostic disease of the diagnostic process occurs in a non-specific region, lesion highlighting in progress with respect to the CAM image will be described in detail.

도 47은 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우의 입력 데이터를 나타내는 도면이다. 47 is a diagram illustrating input data when a diagnostic disease of the diagnostic process occurs in a non-specific region.

도 47의 (a)를 참조하면, 안저 이미지에 기초하여 출혈(hemorrhage)이 진단될 수 있다. 일 예로, (a)에서 도시하는 바와 같이, 안저 영역 전체의 임의의 위치로부터 출혈(L1)이 검출될 수 있다.Referring to (a) of FIG. 47 , hemorrhage may be diagnosed based on the fundus image. As an example, as shown in (a), bleeding L1 may be detected from any location in the entire fundus region.

도 47의 (b)를 참조하면, 안저 이미지에 기초하여 드루젠(drusen)이 진단될 수 있다. 일 예로, (b)에서 도시하는 바와 같이, 안저 영역 전체의 임의의 위치로부터 드루젠(L2)이 발견될 수 있다. Referring to FIG. 47B , drusen may be diagnosed based on the fundus image. As an example, as shown in (b), the drusen L2 may be found from any position in the entire fundus region.

도 47의 (c)를 참조하면, 안저 이미지에 기초하여 황반 천공(Macular hole)이 진단될 수 있다. 일 예로, (c)에서 도시하는 바와 같이, 안저 이미지의 황반부로부터 황반 천공 소견(L3)이 발견될 수 있다. Referring to FIG. 47C , a macular hole may be diagnosed based on the fundus image. As an example, as shown in (c), macular perforation findings (L3) may be found from the macula of the fundus image.

도 47의 (d)를 참조하면, 안저 이미지로부터 황반 전막(Macular epiretinal membrane)이 진단될 수 있다. 일 예로, (d)에서 도시하는 바와 같이, 안저 이미지의 황반 근처에서 황반 전막 소견(L4)이 발견될 수 있다. 황반 전막 소견은 안저 이미지의 황반부로부터 발견될 수 있다. Referring to (d) of FIG. 47 , the macular epiretinal membrane may be diagnosed from the fundus image. As an example, as shown in (d), an anterior macular finding (L4) may be found near the macula of the fundus image. Anterior macular findings can be found from the macula of the fundus image.

도 47의 (e)를 참조하면, 안저 이미지부터 유수신경섬유(Myelinated nerve fiber) 증상이 진단될 수 있다. 일예로 도 (e)에서 도시하는 바와 같이, 안저 이미지의 임의의 영역으로부터 유수 신경 섬유(L5)의 소견이 발견될 수 있다. Referring to (e) of FIG. 47 , myelinated nerve fiber symptoms can be diagnosed from the fundus image. As an example, as shown in FIG. (e), findings of myelinated nerve fibers (L5) can be found from any region of the fundus image.

도 47을 참조하면, 상기 진단 프로세스의 진단 질병이 안저 영역(FA)에서 비특이적 영역에서 발생되는 경우, 질병 발생 영역에 대해 강조하는 진단 보조 이미지가 제공될 필요성이 있다. 또한, 황반부(MA)에 발생되는 질병의 경우 황반부(MA)의 영역이 비교적 넓고 경계가 모호한 점에 있어서, 상기 진단 보조 이미지는 비특이적 영역에서 발생되는 질병과 동일하거나 유사한 방법으로 병변 강조가 수행될 수 있다. Referring to FIG. 47 , when a diagnostic disease of the diagnostic process occurs in a non-specific region in the fundus region (FA), it is necessary to provide a diagnostic auxiliary image highlighting the disease occurrence region. In addition, in the case of a disease occurring in the macular region (MA), since the region of the macular region (MA) is relatively wide and the boundary is vague, the lesion highlighting is performed in the same or similar way as the disease occurring in the non-specific region. can

도 48은 도 47의 CAM 이미지를 나타내는 도면이다. 도 49 및 도 50은 도 48의 CAM 이미지에 병변 강조가 수행된 이미지를 나타내는 도면이다.48 is a diagram illustrating a CAM image of FIG. 47 . 49 and 50 are diagrams illustrating images in which lesion enhancement is performed on the CAM image of FIG. 48 .

일 실시 예에 따르면, 도 48 및 도 49를 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 상기 CAM 이미지에 대한 병변 강조가 수행된 이미지일 수 있다. 또한, 상기 진단 보조 이미지는 상기 CAM 이미지의 픽셀값을 기초로 임계값 이상의 픽셀에 대해서만 출력되도록 병변 강조가 수행된 이미지일 수 있다. 상기 CAM 이미지의 픽셀값을 기초로 하는 병변 강조는 간이하고 빠르게 수행될 수 있는 장점이 있다.According to an embodiment, with reference to FIGS. 48 and 49 , when the diagnosis disease of the diagnosis process occurs in a non-specific region, the diagnosis auxiliary image highlights the lesion on the CAM image based on the pixel value of the CAM image. may be an image on which is performed. Also, the diagnosis auxiliary image may be an image on which lesion enhancement is performed so that only pixels greater than or equal to a threshold value are output based on the pixel values of the CAM image. The lesion highlighting based on the pixel value of the CAM image has the advantage that it can be performed simply and quickly.

일 실시 예에 따르면, 도 48 및 도 50을 참조하여, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 상기 진단 보조 이미지는 상기 CAM 이미지에서 상기 질병의 발생 영역의 경계선을 삽입하는 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지는 상기 CAM 이미지에 대해 상기 질병의 발생 영역의 경계선을 중첩시키는 병변 강조가 수행될 수 있다. 상기 질병의 발생 영역의 경계선은 상기 CAM 이미지의 소정의 픽셀값 또는 입력 데이터로부터 출력될 수 있다. According to an embodiment, referring to FIGS. 48 and 50 , when a diagnostic disease of the diagnostic process occurs in a non-specific region, the diagnosis auxiliary image emphasizes a lesion that inserts a boundary line of the disease occurrence region in the CAM image can be performed. In addition, in the diagnosis auxiliary image, lesion emphasis may be performed on the CAM image to overlap the boundary line of the disease occurrence region. The boundary line of the disease occurrence region may be output from a predetermined pixel value of the CAM image or input data.

상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 비전문가는 입력 데이터에서 상기 진단 질병의 발생 영역을 파악하고 진단하는 것이 어려울 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 비특이적 영역에서 발생되는 경우, 비전문가는 CAM 이미지에서 상기 진단 질병의 발생 영역을 파악하고 진단하는 것이 어려울 수 있다. 따라서, 상기 진단 질병의 발생 영역을 강조하는 병변 강조가 수행된 진단 보조 이미지는 비전문가가 상기 진단 질병을 진단하는 것을 보조할 수 있다. When the diagnostic disease of the diagnostic process occurs in a non-specific region, it may be difficult for a non-specialist to identify and diagnose the occurrence region of the diagnostic disease from input data. In addition, when the diagnostic disease of the diagnostic process occurs in a non-specific region, it may be difficult for a non-specialist to identify and diagnose the occurrence region of the diagnostic disease in the CAM image. Accordingly, the diagnosis auxiliary image on which the lesion emphasis is performed emphasizing the occurrence region of the diagnosis disease may assist a non-specialist in diagnosing the diagnosis disease.

2.3.3.4.4 복수의 질병에 대한 진단 보조 이미지2.3.3.4.4 Diagnostic auxiliary image for multiple diseases

일 실시 예에 따르면, 상기 진단 프로세스의 입력 데이터가 복수의 질병을 보유하고 있는 경우, 상기 진단 보조 이미지 제공 장치는 이를 고려한 진단 보조 이미지가 제공될 수 있다. 일 예로, 상기 진단 프로세스의 입력 데이터가 복수의 질병을 보유하고 있는 경우, 상기 진단 보조 이미지 제공 장치는 각 질병의 발생 영역에 대한 진단 보조 이미지를 각각 제공될 수 있다. According to an embodiment, when the input data of the diagnosis process includes a plurality of diseases, the diagnosis auxiliary image providing apparatus may provide a diagnosis auxiliary image in consideration of the plurality of diseases. For example, when the input data of the diagnosis process includes a plurality of diseases, the apparatus for providing an auxiliary diagnosis image may provide each of the auxiliary diagnosis images for a region of occurrence of each disease.

일 예로, 일 실시 예에 따르면 상기 진단 프로세스의 진단 질병이 백내장인 경우, 상기 진단 보조 이미지 제공 장치는 별도의 처리 없이 입력 데이터를 출력 이미지로 제공될 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 백내장인 경우, 상기 진단 보조 이미지 제공 장치는 CAM 이미지 없이 입력 데이터에 대한 병변 강조가 수행된 이미지가 출력될 수 있다. 또한, 상기 진단 프로세스의 진단 질병이 백내장이 아닌 이외의 질병인 경우, 상기 진단 보조 이미지 제공 장치는 백내장을 보유한 입력 데이터에 대한 병변 강조가 수행된 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 백내장이 상기 안저 영역(FA) 상에 흐릿한 영역이 발생되는 질병 특이적 성질을 고려하여 처리된 진단 보조 이미지가 제공될 수 있다. For example, according to an embodiment, when the diagnosis disease of the diagnosis process is cataract, the apparatus for providing an auxiliary diagnosis image may provide input data as an output image without additional processing. Also, when the diagnosis disease of the diagnosis process is cataract, the diagnosis auxiliary image providing apparatus may output an image in which lesion emphasis is performed on input data without a CAM image. Also, when the diagnosis disease of the diagnosis process is a disease other than a cataract, the diagnosis auxiliary image providing apparatus may output an image in which lesion emphasis is performed on input data having a cataract. The apparatus for providing an auxiliary diagnosis image may provide a diagnosis auxiliary image processed in consideration of a disease-specific property in which a cataract is generated in a blurred area on the fundus area FA.

후술될 상기 병변 강조 모델(S060)은 입력 데이터가 백내장을 보유한 경우를 예시로 설명될 것이나, 상기 질병은 백내장에 한정되지 아니하고, 안저 영역(FA)의 적어도 일부를 가리는 영역을 발생시키는 질병들은 후술될 병변 강조 모델(S6080)과 동일하거나 유사한 방법으로 병변 강조가 수행된 진단 보조 이미지가 제공될 수 있다. The lesion highlighting model S060 to be described later will be described as an example when the input data has a cataract. A diagnosis auxiliary image in which lesion enhancement is performed in the same or similar method as the lesion enhancement model to be used ( S6080 ) may be provided.

도 51 및 도 52는 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우를 진단 보조 이미지를 나타내는 도면이다. 도 51 및 도 52를 참조하여, 상기 진단 프로세스의 입력 데이터가 백내장을 보유한 경우, 상기 입력 데이터에 대해 진행되는 병변 강조를 구체적으로 설명하고자 한다. 51 and 52 are diagrams illustrating auxiliary images for diagnosis when the input data of the diagnosis process has a cataract. With reference to FIGS. 51 and 52 , when the input data of the diagnosis process has a cataract, lesion highlighting performed with respect to the input data will be described in detail.

도 51 (a)는 백내장을 보유한 입력 데이터를 나타내고, 도 51 (b)는 (a)에서 혈관부(BVA)를 강조하여 나타낸 도면이다. 도 51 (a)를 참조하면, 백내장을 보유한 입력 데이터의 안저 영역(FA)은 백내장 발생 영역(L6)에 의해 일부 가려질 수 있어, 다른 진단 질병에 대한 판단이 용이하지 않을 수 있다. 도 51 (b)를 참조하면, 상기 진단 보조 이미지는 입력 데이터로부터 혈관부(BVA)를 분리시켜, 상기 백내장 발생 영역(L6) 상에 중첩되는 병변 강조가 수행된 이미지일 수 있다. 이를 통해, 진단 보조 이미지는 백내장 발생 영역(L6)에 의해 판단이 용이하지 않았던 혈관부(BVA)에 대한 정보를 제공함에 따라, 상기 혈관부(BVA)에 연관된 다른 진단 질병에 대해서도 진단을 보조할 수 있다. 또한, 비전문가는 백내장 발생 영역(L6)에 의해 다른 진단 질병에 대한 판단이 용이하지 않은 점을 고려할 때, 상기 혈관부(BVA)를 강조한 상기 진단 보조 이미지는 비전문가가 백내장 이외의 다른 진단 질병에 대해서도 용이하게 파악하여 진단할 수 있는 효과가 있을 수 있다. Fig. 51 (a) shows input data having a cataract, and Fig. 51 (b) is a view showing the vascular part (BVA) in (a) with emphasis. Referring to FIG. 51 ( a ) , the fundus area FA of the input data having a cataract may be partially covered by the cataract generation area L6 , so it may not be easy to determine other diagnostic diseases. Referring to FIG. 51 ( b ) , the diagnosis auxiliary image may be an image in which the vascular part BVA is separated from the input data and the lesion is emphasized on the cataract generation region L6 . Through this, the diagnosis auxiliary image provides information on the vascular part BVA, which was not easy to determine due to the cataract generation region L6, so that the diagnosis of other diagnostic diseases related to the vascular part BVA can be aided. can In addition, considering that it is not easy for a non-specialist to judge other diagnostic diseases due to the cataract generation region L6, the diagnostic auxiliary image emphasizing the vascular area (BVA) shows that the non-specialist can diagnose diseases other than cataract There may be an effect that can be easily identified and diagnosed.

도 52 (a)는 녹내장, 망막병증, 및 녹내장을 모두 보유한 입력 데이터를 나타내고, 도 52 (b)는 (a)에서 녹내장 발생 영역(L7)을 강조하여 나타낸 도면이고, 도 52 (c)는 (a)에서 망막 병증 발생 영역(L8)을 강조하여 나타낸 도면이다. Fig. 52 (a) shows input data having all of glaucoma, retinopathy, and glaucoma, Fig. 52 (b) is a view showing the glaucoma occurrence region (L7) in (a) with emphasis, and Fig. 52 (c) is In (a), the retinopathy occurrence region (L8) is emphasized.

도 52 (a)를 참조하면, 백내장을 보유한 입력 데이터의 안저 영역(FA)은 백내장 발생 영역(L6)에 의해 상기 녹내장 발생 영역(L7) 및 상기 망막 병증 발생 영역(L8) 중 적어도 어느 하나가 용이하게 파악되지 않을 수 있다. 따라서, 전문가 또는 비전문가는 상기 백내장 발생 영역(L6)에 의해 백내장에 대해서는 진단을 파악할 수 있으나, 녹내장 또는 망막병증에 대한 진단을 파악하기 어려울 수 있다. 또한, 전문가 또는 비전문가는 상기 백내장 발생 영역(L6)에 의해 백내장에 대한 진단 결과를 용이하게 파악할 수 있으나, 녹내장 또는 망막병증에 대한 진단 결과를 용이하게 파악하기 어려울 수 있다.Referring to FIG. 52 (a), the fundus area FA of the input data having a cataract is at least one of the glaucoma occurrence area L7 and the retinopathy occurrence area L8 by the cataract generation area L6. may not be easily understood. Accordingly, an expert or non-specialist can grasp the diagnosis of cataract by the cataract generation region L6, but it may be difficult to grasp the diagnosis of glaucoma or retinopathy. In addition, an expert or non-specialist can easily grasp the diagnosis result for cataract by the cataract generation region L6, but it may be difficult to easily grasp the diagnosis result for glaucoma or retinopathy.

도 52 (b)를 참조하면, 상기 진단 보조 이미지는 입력 데이터의 안저 영역(FA)의 백내장 발생 영역(L6) 상에 상기 녹내장 발생 영역(L7) 또는 시신경 유두부(ODA)의 경계선이 삽입 또는 중첩되는 병변 강조가 수행될 수 있다. 상기 경계선은 상기 입력 데이터로부터 분리 또는 도출될 수 있다. 상기 진단 보조 이미지는 상기 백내장 발생 영역(L6) 상에 상기 경계선을 통해 백내장뿐만 아니라 녹내장에 대한 진단도 보조할 수 있다. Referring to FIG. 52 ( b ) , in the diagnosis auxiliary image, the boundary line of the glaucoma occurrence region L7 or the optic nerve head ODA is inserted on the cataract occurrence region L6 of the fundus region FA of the input data or Overlapping lesion highlighting may be performed. The boundary line may be separated or derived from the input data. The diagnosis auxiliary image may assist in diagnosing not only cataract but also glaucoma through the boundary line on the cataract generation region L6.

도 52 (c)를 참조하면, 상기 진단 보조 이미지는 입력 데이터의 안저 영역(FA)의 망막 병증 발생 영역(L8) 상에 상기 망막 병증 발생 영역(L8)의 경계선이 삽입 또는 중첩되는 병변 강조가 수행될 수 있다. 상기 경계선은 상기 입력 데이터로부터 분리 또는 도출될 수 있다. 상기 진단 보조 이미지는 상기 백내장 발생 영역(L6) 상에 상기 경계선을 통해 백내장뿐만 아니라 망막 병증에 대한 진단도 보조할 수 있다. Referring to FIG. 52 ( c ), the diagnosis auxiliary image has a lesion emphasis in which the boundary line of the retinopathy occurrence region L8 is inserted or overlapped on the retinopathy occurrence region L8 of the fundus region FA of the input data. can be performed. The boundary line may be separated or derived from the input data. The diagnosis auxiliary image may assist in diagnosing not only a cataract but also retinopathy through the boundary line on the cataract generation region L6.

상기 진단 보조 이미지는 상술한 녹내장, 망막 병증 이외의 질병에 대해서도 해당 진단 질병에 따라 상기 백내장 발생 영역(L6) 상에 별도의 병변 강조를 통해 진단을 보조할 수 있다. 또한, 상기 진단 보조 이미지는 상기 백내장의 진행 정도에 따라 입력 데이터뿐만 아니라 CAM 이미지에 대한 병변 강조가 진행될 수도 있다. 또한, 상기 진단 보조 이미지는 상술한 녹내장, 망막 병증, 및 백내장에 제한되지 아니하며, 복수의 진단 질병을 보유한 입력 데이터에 대해서도 상술한 방법과 동일하거나 유사한 방법에 의한 병변 강조가 수행될 수 있다. 또한, 상기 진단 보조 이미지는 상술한 방법에 제한되지 아니하고, 상기 진단 질병의 질병 특이적 성질을 고려한 별도의 방법에 의한 병변 강조가 수행될 수 있다.The diagnosis auxiliary image may assist in diagnosis even for diseases other than the aforementioned glaucoma and retinopathy by highlighting a separate lesion on the cataract generation region L6 according to the corresponding diagnosis disease. In addition, in the diagnosis auxiliary image, lesion emphasis may be performed on the CAM image as well as the input data according to the degree of progression of the cataract. In addition, the diagnosis auxiliary image is not limited to the above-described glaucoma, retinopathy, and cataract, and lesion emphasis may be performed on input data having a plurality of diagnostic diseases by the same or similar method as the above-described method. In addition, the diagnosis auxiliary image is not limited to the above-described method, and lesion highlighting may be performed by a separate method in consideration of the disease-specific properties of the diagnosis disease.

2.3.3.5 진단 보조 이미지 출력 2.3.3.5 Diagnostic Auxiliary Image Output

상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 또는 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 및 진단 보조 이미지 중 적어도 어느 하나가 출력될 수 있다. 상기 진단 보조 이미지 제공 장치는 진단 보조 정보로써, CAM 이미지 및 진단 보조 이미지가 출력될 수 있다. 상기 CAM 이미지 및 상기 진단 보조 이미지는 동일한 입력 데이터에 대해서 상기 진단 프로세스의 진단 질병에 따라 적어도 일부의 영역이 상이할 수 있다. The diagnostic auxiliary image providing apparatus may output a CAM image or a diagnostic auxiliary image as diagnostic auxiliary information. The diagnosis auxiliary image providing apparatus may output at least one of a CAM image and a diagnosis auxiliary image as diagnosis auxiliary information. The diagnostic auxiliary image providing apparatus may output a CAM image and a diagnostic auxiliary image as diagnostic auxiliary information. For the same input data, the CAM image and the diagnosis auxiliary image may have different regions at least in part according to a diagnosis disease of the diagnosis process.

상기 CAM 이미지 및 상기 진단 보조 이미지는 상기 진단 프로세스의 진단 질병의 진단 결과를 파악하기 위한 진단 보조 정보로 출력될 수 있다. 상기 CAM 이미지 및 상기 진단 보조 이미지는 동일한 입력 데이터에 대해서 상기 진단 프로세스의 진단 질병의 질병 특이적 성질을 고려한 진단 보조 정보로 출력될 수 있다. 상기 진단 보조 이미지는 입력 데이터 또는 CAM 이미지에 대한 병변 강조를 통해 진단 질병을 보다 용이하게 파악할 수 있도록 보조할 수 있다. The CAM image and the diagnosis auxiliary image may be output as diagnosis auxiliary information for recognizing a diagnosis result of a diagnosis disease of the diagnosis process. The CAM image and the diagnosis auxiliary image may be output as diagnosis auxiliary information in consideration of a disease-specific property of a diagnosis disease of the diagnosis process with respect to the same input data. The diagnosis auxiliary image may assist in recognizing a diagnosis disease more easily by highlighting the lesion on the input data or the CAM image.

2.3.3.6 진단 보조 이미지 제공 방법2.3.3.6 How to provide diagnostic auxiliary images

이하에서는, 일 실시 예에 따른 진단 보조 이미지 제공 방법에 대해 설명하고자 한다. 도 53은 진단 보조 이미지 제공 방법을 나타내는 순서도이다. 도 53을 참조하면, 상기 진단 보조 이미지 제공 방법은 데이터 획득 단계(S610), 획득된 데이터의 진단 수행 단계(S620), 진단 결과 출력 단계(S630), CAM 이미지 생성 단계(S640), 진단 보조 이미지 생성 단계(S650), 및 진단 보조 이미지 출력 단계(S660)을 포함할 수 있다. 상기 진단 보조 이미지 제공 방법은 도 53에 나타난 순서에 제한되지 아니하고, 상기 단계들 이외의 단계들이 포함될 수 있다. Hereinafter, a method for providing a diagnostic auxiliary image according to an exemplary embodiment will be described. 53 is a flowchart illustrating a method of providing a diagnostic auxiliary image. Referring to FIG. 53 , the method for providing an auxiliary diagnosis image includes a data acquisition step (S610), a diagnosis execution step of the acquired data (S620), a diagnosis result output step (S630), a CAM image generation step (S640), and a diagnostic auxiliary image It may include a generating step S650 and a diagnostic auxiliary image outputting step S660 . The method for providing the diagnostic auxiliary image is not limited to the order shown in FIG. 53 , and steps other than the above steps may be included.

상기 데이터 획득 단계(S610)는 대상체의 안저 이미지가 입력됨에 따라 데이터가 획득될 수 있다. 또한, 상기 데이터 획득 단계(S610)는 진단을 수행되기 위해, 전처리가 수행된 안저 이미지가 입력됨에 따라 데이터가 획득될 수 있다. 또한, 상기 데이터 획득 단계(S610)는 대상체의 안저 이미지가 입력됨에 따라 데이터가 획득되고, 이에 따라 추가적인 전처리가 수행될 수 있다. In the data acquisition step ( S610 ), data may be acquired as the fundus image of the object is input. In addition, in the data acquisition step ( S610 ), data may be acquired as a pre-processed fundus image is input in order to perform a diagnosis. In addition, in the data acquisition step ( S610 ), data is acquired as the fundus image of the object is input, and additional pre-processing may be performed accordingly.

상기 획득된 데이터의 진단 수행 단계(S620)는 상기 데이터 획득 단계(S610)에서 획득된 데이터에 대한 진단이 수행될 수 있다. 상기 획득된 데이터의 진단 수행 단계(S620)는 학습된 신경망 모델을 포함할 수 있고, 상기 학습된 신경망 모델에 의해 상기 데이터 획득 단계(S610)에서 획득된 데이터에 대한 진단이 수행될 수 있다. 또한, 상기 학습된 신경망 모델은 상기 진단 보조 이미지 제공 방법의 진단 질병에 대한 학습이 수행된 신경망 모델일 수 있고, 상기 학습된 신경망 모델은 한 개 또는 복수 개일 수 있다. 상기 획득된 데이터의 진단 수행 단계(S620)는 상기 학습된 신경망 모델에 의한 진단 수행에 따른 진단 결과가 제공될 수 있고, 상기 진단 결과에 사용된 복수의 정보에 대해 서도 제공될 수 있다. In the step of performing the diagnosis of the acquired data ( S620 ), the diagnosis of the data acquired in the step of acquiring the data ( S610 ) may be performed. The diagnosis of the acquired data step ( S620 ) may include a learned neural network model, and the diagnosis of the data acquired in the data acquisition step ( S610 ) may be performed by the learned neural network model. In addition, the learned neural network model may be a neural network model in which learning for a diagnosis disease of the method for providing a diagnostic auxiliary image is performed, and the learned neural network model may be one or a plurality of trained neural network models. In the step of performing the diagnosis of the acquired data ( S620 ), a diagnosis result according to the diagnosis performed by the learned neural network model may be provided, and a plurality of pieces of information used in the diagnosis result may also be provided.

상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과가 출력될 수 있다. 상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과인 확률값을 통해 상기 진단 질병에 대한 정상 또는 비정상 여부가 출력될 수 있다. 또한, 상기 진단 결과 출력 단계(S630)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과인 확률값을 통해 상기 진단 질병의 진행 정도가 출력될 수 있다. In the step of outputting the diagnosis result ( S630 ), the diagnosis result provided in the step of performing the diagnosis of the acquired data ( S620 ) may be output. In the step of outputting the diagnosis result ( S630 ), whether the diagnosis disease is normal or abnormal may be output through the probability value that is the diagnosis result provided in the diagnosis execution step ( S620 ) of the acquired data. In addition, in the step of outputting the diagnosis result ( S630 ), the degree of progression of the diagnosis disease may be output through the probability value that is the diagnosis result provided in the step ( S620 ) of performing the diagnosis of the acquired data.

상기 CAM 이미지 생성 단계(S640)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과 및 상기 진단 결과에 사용된 복수의 정보 중 적어도 어느 하나에 기초하여 CAM 이미지가 생성될 수 있다. 상기 CAM 이미지 생성 단계(S640)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 얻어진 정보에 기초하여 상기 진단 수행과 연관된 정도에 따라 상이한 색으로 처리된 CAM이미지가 생성될 수 있다. In the generating the CAM image ( S640 ), a CAM image may be generated based on at least one of a diagnosis result provided in the diagnosis execution step ( S620 ) of the acquired data and a plurality of pieces of information used in the diagnosis result. In the CAM image generating step (S640), CAM images processed with different colors may be generated according to the degree of being associated with the diagnosis based on the information obtained in the diagnosis performing step (S620) of the acquired data.

상기 진단 보조 이미지 생성 단계(S650)는 상기 획득된 데이터의 진단 수행 단계(S620)에서 제공된 진단 결과, 상기 진단 결과에 사용된 복수의 정보, 및 상기 CAM 이미지 생성 단계에서 얻어진 CAM 이미지 중 적어도 어느 하나에 기초하여 진단 보조 이미지가 생성될 수 있다. 상기 진단 보조 이미지 생성 단계(S650)는 상기 CAM 이미지 또는 입력된 대상체의 안저 이미지에 대한 병변 강조 처리가 수행된 진단 보조 이미지가 생성될 수 있다. 상기 진단 보조 이미지 생성 단계(S650)는 상기 진단 질병의 특성에 기초하여, 상기 CAM 이미지 또는 입력된 대상체의 안저 이미지에 대해 질병 특이적으로 병변 강조 처리가 수행된 진단 보조 이미지가 생성될 수 있다. The generating of the auxiliary diagnosis image ( S650 ) may include at least one of a diagnosis result provided in the diagnosis performing step ( S620 ) of the acquired data, a plurality of pieces of information used in the diagnosis result, and a CAM image obtained in the CAM image generating step ( S620 ). A diagnosis auxiliary image may be generated based on the . In the generating of the auxiliary diagnosis image ( S650 ), the auxiliary diagnosis image in which lesion emphasis processing is performed on the CAM image or the input fundus image of the object may be generated. In the generating the diagnosis auxiliary image ( S650 ), a diagnosis auxiliary image in which a disease-specific lesion highlighting process is performed on the CAM image or an input fundus image of an object may be generated based on the characteristics of the diagnosis disease.

상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 상기 입력된 대상체의 안저 이미지와 대응되는 또는 동일한 크기로 처리되어 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지 이외에 상기 입력된 대상체의 안저 이미지 및 상기 CAM 이미지 중 적어도 어느 하나의 이미지가 함께 출력될 수 있다. 상기 진단 보조 이미지 출력 단계(S660)는 상기 진단 보조 이미지가 출력되되 상기 입력된 대상체의 안저 이미지에 중첩되어 제공될 수 있고, 출력된 상기 진단 보조 이미지는 상기 입력된 대상체의 안저 이미지에 대한 별도의 작업이 수행됨에 따라 제공될 수 있다. 일 예로, 출력된 상기 진단 보조 이미지는 사용자가 상기 입력된 대상체의 안저 이미지 상에 마우스 커서를 올리거나 클릭함에 따라 제공될 수 있다. In the step of outputting the auxiliary diagnosis image ( S660 ), the auxiliary diagnosis image may be output. In the step of outputting the auxiliary diagnosis image ( S660 ), the auxiliary diagnosis image may be processed and output in a size corresponding to or the same as the input fundus image of the object. In the step of outputting the auxiliary diagnosis image ( S660 ), in addition to the auxiliary diagnosis image, at least one of the inputted fundus image of the object and the CAM image may be output together. In the step of outputting the auxiliary diagnosis image ( S660 ), the auxiliary diagnosis image is output and provided to be superimposed on the inputted fundus image of the subject, and the outputted auxiliary diagnosis image is provided separately from the inputted fundus image of the subject. It can be provided as work is performed. For example, the outputted diagnosis auxiliary image may be provided as a user moves a mouse cursor over or clicks on the input fundus image of the object.

또한, 상기 진단 보조 이미지 제공 방법은, 상기 진단 결과 출력 단계(S630) 및 상기 진단 보조 이미지 출력 단계(S660)에서 얻어진 진단 보조 정보가 제공될 수 있다. 상기 진단 보조 정보는 상기 진단 결과 출력 단계(S630)에서 얻어진 진단 결과 및 상기 진단 보조 이미지 출력(S660)에서 얻어진 진단 보조 이미지가 포함될 수 있다. 상기 진단 보조 이미지 제공 방법은 상기 입력된 안저 이미지에 대한 진단 보조 이미지가 제공되되, 상기 진단 결과 출력 단계(S630)에서 얻어진 진단 결과가 함께 제공될 수 있다.Also, in the method for providing an auxiliary diagnosis image, the auxiliary diagnosis information obtained in the step of outputting the diagnosis result ( S630 ) and the step of outputting the auxiliary diagnosis image ( S660 ) may be provided. The auxiliary diagnosis information may include the diagnosis result obtained in the step of outputting the diagnosis result ( S630 ) and the auxiliary diagnosis image obtained at the output of the auxiliary diagnosis image ( S660 ). In the method for providing an auxiliary diagnosis image, a diagnosis auxiliary image for the input fundus image is provided, and the diagnosis result obtained in the step of outputting the diagnosis result ( S630 ) may be provided together.

상기 진단 보조 이미지 제공 방법에 대한 내용은 이에 제한되지 아니하며, 상기 진단 보조 이미지 제공 방법은 도 1 내지 도 53와 2.3.3. 진단 보조 이미지 제공 프로세스에 기재된 내용을 포함할 수 있다. The description of the method for providing the auxiliary diagnosis image is not limited thereto, and the method for providing the auxiliary diagnosis image is described in FIGS. 1 to 53 and 2.3.3. It may include the contents described in the process of providing a diagnostic auxiliary image.

2.4 복수의 질병에 대한 진단 보조 이미지 제공 시스템2.4 Diagnosis auxiliary image providing system for multiple diseases

복수의 질병에 대한 진단 보조 시스템은 상술한 안저 이미지를 이용한 진단 보조 이미지 제공 장치를 포함할 수 있다. 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 상술한 안저 이미지를 이용한 진단 보조 이미지 제공 장치를 포함할 수 있다. 안저 이미지를 이용한 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 진단 질병의 질병 특이적 특성을 고려한 진단 보조 이미지 제공 장치를 병렬적으로 포함할 수 있다. 동일한 안저 이미지에 대한 복수의 질병을 진단함에 있어서, 복수의 질병에 대한 진단 보조 이미지 제공 시스템은 진단 질병의 질병 특이적 특성을 고려한 진단 보조 이미지 제공 장치를 병렬적으로 포함할 수 있다.The diagnosis assistance system for a plurality of diseases may include an apparatus for providing an auxiliary diagnosis image using the above-described fundus image. The system for providing an auxiliary diagnosis image for a plurality of diseases may include an apparatus for providing an auxiliary diagnosis image using the above-described fundus image. A system for providing an auxiliary diagnosis image for a plurality of diseases using an fundus image may include a diagnosis auxiliary image providing apparatus in consideration of disease-specific characteristics of a diagnosis disease in parallel. In diagnosing a plurality of diseases with respect to the same fundus image, the diagnostic auxiliary image providing system for the plurality of diseases may include a diagnosis auxiliary image providing apparatus in consideration of disease-specific characteristics of the diagnostic diseases in parallel.

복수의 질병에 대한 병렬적 진단 보조 이미지 제공 시스템은 후술될 내용에 제한되지 아니하고, 상술한 1.4 복수 라벨에 대한 진단 보조 시스템에서 기재된 내용에서 병변 강조 모듈 및 병변 강조 프로세스가 추가되는 구성이 추가된 내용과 동일하거나 유사할 수 있다. 후술될 내용에서는, 복수의 질병에 대한 병렬적 진단 보조 이미지 제공 시스템에 대해서 병변 강조 모듈 및 병변 강조 프로세스를 중점적으로 설명하고자 한다.The system for providing a parallel diagnosis auxiliary image for multiple diseases is not limited to the contents to be described later, and a configuration in which a lesion highlighting module and a lesion highlighting process are added is added to the contents described in 1.4 A diagnosis assistance system for multiple labels described above may be the same as or similar to In the following description, the lesion highlighting module and the lesion highlighting process will be mainly described with respect to a system for providing a parallel diagnosis auxiliary image for a plurality of diseases.

2.4.1 실시 예 1 - 병렬적 진단 보조 이미지 제공 시스템2.4.1 Example 1 - Parallel diagnostic auxiliary image providing system

도 54은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부(700)의 구성을 나타내는 도면이다. 도 54을 참조하면, 진단 보조 정보 제공부(700)는 진단 획득 모듈(710), 데이터 가공 모듈(720), 제1 진단 모듈(730), 제2 진단 모듈(740), 제1 CAM 제공 모듈(750), 제2 CAM 제공 모듈(760), 제1 병변 강조 모듈(770), 제2 병변 강조 모듈(780), 및 출력 모듈(790)을 포함할 수 있다. 54 is a diagram illustrating a configuration of a parallel diagnosis auxiliary information providing unit 700 for a fundus image according to an exemplary embodiment. Referring to FIG. 54 , the diagnosis auxiliary information providing unit 700 includes a diagnosis acquisition module 710 , a data processing module 720 , a first diagnosis module 730 , a second diagnosis module 740 , and a first CAM providing module. 750 , a second CAM providing module 760 , a first lesion highlighting module 770 , a second lesion highlighting module 780 , and an output module 790 .

도 55는 도 54의 진단 보조 정보 제공부(700)에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다. 도 55를 참조하면, 상기 진단 프로세스 및 진단 보조 이미지 제공 프로세스는 데이터 획득(S7010), 학습된 제1 진단 보조 신경망 모델(S7020), 학습된 제2 진단 보조 신경망 모델(S7030), 제1 CAM 제공 모델(S7040), 제2 CAM 제공 모델(S7050), 제1 병변 강조 모델(S7060), 제2 병변 강조 모델(S7070), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다. FIG. 55 is a diagram for explaining a diagnosis process performed by the diagnosis auxiliary information providing unit 700 of FIG. 54 and a diagnosis auxiliary image providing process. Referring to FIG. 55 , the diagnostic process and the diagnostic auxiliary image providing process include data acquisition (S7010), a learned first diagnostic auxiliary neural network model (S7020), a learned second diagnostic auxiliary neural network model (S7030), and providing a first CAM It may include a model S7040, a second CAM providing model S7050, a first lesion emphasis model S7060, a second lesion emphasis model S7070, and an output of diagnostic auxiliary information (S7080).

각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 54 및 도 55에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. Each module may perform individual steps, such as a diagnostic auxiliary process and a diagnostic auxiliary image providing process, as described below. However, not all components and functions performed by the components described in FIGS. 54 and 55 are essential, and some components and functions may be added or omitted.

도 54, 도 55를 참조하면, 데이터 획득 및 가공 프로세스에 관한 내용은 1.3.2 데이터 획득 및 진단 요청, 1.3.3 데이터 가공 프로세스, 및 2.2.2.2 데이터 획득 및 가공 프로세스에서 전술한 내용과 동일할 수 있다. 또한, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다. 다만, 상기 가공 프로세스는 병렬적 진단 프로세스가 진단하는 각각의 질병의 질병 특이적 성질을 고려하여 동일한 입력 데이터에 대해 서로 상이한 가공이 적절히 수행될 수 있다. 일 예로, 병렬적 진단 프로세스 중 적어도 일부의 프로세스가 진단하는 질병이 안저 이미지의 혈관을 중심으로 진단하는 경우 상기 가공 프로세스는 입력된 데이터의 혈관이 강조되는 필터 또는 별도의 처리를 통한 가공이 수행될 수 있다. 54 and 55 , the data acquisition and processing process may be the same as described above in 1.3.2 Data Acquisition and Diagnosis Request, 1.3.3 Data Processing Process, and 2.2.2.2 Data Acquisition and Processing Process can In addition, each process is not essential, and may be omitted or a separate process may be added according to a diagnosis target, a diagnosis disease, and the like. However, in the processing process, different processing may be appropriately performed on the same input data in consideration of the disease-specific properties of each disease diagnosed by the parallel diagnosis process. For example, when a disease diagnosed by at least some of the parallel diagnosis processes is diagnosed based on a blood vessel in the fundus image, the processing process may be performed through a filter or a separate processing in which the blood vessel of the input data is emphasized. can

도 54, 도 55를 참조하면, 상기 진단 프로세스는 제1 진단 모듈(730) 및 제2 진단 모듈(740)에 의해 수행될 수 있다. 상기 진단 프로세스는 데이터 획득(S7010), 학습된 제1 진단 보조 신경망 모델(S7020), 학습된 제2 진단 보조 신경망 모델(S7030), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다. 상기 진단 프로세스는 상기 진단 보조 정보로서 진단 결과를 출력할 수 있다. 상기 진단 프로세스에서 얻어진 진단 결과는 후술될 진단 보조 이미지 제공 프로세스에 이용될 수 있다. 상기 진단 프로세스에 관한 내용은 1.3.4 진단 프로세스, 2.2.2.3 진단 프로세스에서 전술한 내용과 동일할 수 있다. 또한, 각 프로세스는 모두 필수적인 것은 아니며, 진단 대상, 진단 질병, 제공 정보 등에 따라 생략되거나 별도의 프로세스가 추가될 수 있다. 54 and 55 , the diagnosis process may be performed by a first diagnosis module 730 and a second diagnosis module 740 . The diagnosis process may include data acquisition ( S7010 ), a learned first diagnosis auxiliary neural network model ( S7020 ), a learned second diagnosis auxiliary neural network model ( S7030 ), and outputting diagnosis auxiliary information ( S7080 ). The diagnosis process may output a diagnosis result as the diagnosis auxiliary information. A diagnosis result obtained in the diagnosis process may be used in a diagnosis auxiliary image providing process to be described later. The contents regarding the diagnosis process may be the same as those described above in 1.3.4 diagnosis process and 2.2.2.3 diagnosis process. In addition, each process is not essential, and may be omitted or a separate process may be added according to a diagnosis target, a diagnosis disease, provided information, and the like.

도 54, 도 55를 참조하면, 상기 진단 보조 이미지 제공 프로세스는 제1 CAM 제공 모듈(750), 제2 CAM 제공 모듈(760), 제1 병변 강조 모듈(770), 및 제2 병변 강조 모듈(780)에 의해 수행될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단 보조 정보에 해당되는 각각의 진단 보조 이미지가 제공될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단 보조 정보에 해당되는 진단 결과와 함께 각각의 진단 보조 이미지가 제공될 수 있다.54 and 55 , the diagnostic auxiliary image providing process includes a first CAM providing module 750 , a second CAM providing module 760 , a first lesion highlighting module 770 , and a second lesion highlighting module ( 780) can be performed. In the diagnosis auxiliary image providing process, each diagnosis auxiliary image corresponding to diagnosis auxiliary information on a plurality of diseases may be provided. In the process of providing the auxiliary diagnosis image, each auxiliary diagnosis image may be provided together with the diagnosis result corresponding to the diagnosis auxiliary information for a plurality of diseases.

일 예로, 상기 진단 보조 이미지 제공 프로세스는 획득된 데이터(S7010)를 기초로 제1 진단 질병에 대해 학습된 제1 진단 보조 신경망 모델(S7020), 제1 CAM 제공 모델(S7040), 제1 병변 강조 모델(S7060), 및 진단 보조 정보 출력(S7080)을 포함할 수 있고, 획득된 데이터(S7010)를 기초로 제2 진단 질병에 대해 대해 학습된 제2 진단 보조 신경망 모델(S7030), 제2 CAM 제공 모델(S7050), 제2 병변 강조 모델(S7070), 및 진단 보조 정보 출력(S7080)을 포함할 수 있다. 따라서, 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단을 보조하는 병렬적 진단 프로세스에서 수행된 진단 결과를 기초로 형성된 CAM 이미지에 대해 각 진단 질병의 질병 특이적 성질을 고려한 병변 강조가 수행될 수 있다. For example, in the process of providing a diagnostic auxiliary image, a first diagnostic auxiliary neural network model (S7020), a first CAM provision model (S7040), and a first lesion emphasis are learned for a first diagnostic disease based on the acquired data (S7010) A second diagnostic auxiliary neural network model ( S7030 ), a second CAM, which may include a model ( S7060 ) and an output of diagnostic auxiliary information ( S7080 ), and learned for a second diagnostic disease based on the acquired data ( S7010 ) It may include a providing model ( S7050 ), a second lesion highlighting model ( S7070 ), and an output of auxiliary diagnosis information ( S7080 ). Accordingly, in the process of providing an auxiliary diagnosis image, lesion highlighting in consideration of the disease-specific properties of each diagnosis disease is performed on the CAM image formed based on the diagnosis result performed in the parallel diagnosis process supporting diagnosis of a plurality of diseases. can

일 예로, 상기 제1 진단 질병이 특정 해부학적 영역에서 발생되고, 상기 제2 진단 질병이 비특정 해부학적 영역에서 발생되는 경우, 상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 제공 모델(S7040)에서 제공된 CAM 이미지에 대해 상기 제1 병변 강조 모델(S7060)을 통해 특정 해부학적 영역과 연관된 병변 강조가 수행될 수 있다. 동시에 또는 순차적으로, 상기 진단 보조 이미지 제공 프로세스는 상기 제2 CAM 제공 모델(S7050)에서 제공된 CAM 이미지에 대해 상기 제2 병변 강조 모델(S7070)을 통해 비특정 해부학적 영역과 연관된 병변 강조가 수행될 수 있다.For example, when the first diagnostic disease occurs in a specific anatomical region and the second diagnostic disease occurs in a non-specific anatomical region, the diagnostic auxiliary image providing process is performed in the first CAM providing model S7040 Lesion enhancement associated with a specific anatomical region may be performed on the provided CAM image through the first lesion enhancement model S7060. Simultaneously or sequentially, the diagnostic auxiliary image providing process is performed on the CAM image provided by the second CAM providing model (S7050) through the second lesion highlighting model (S7070). can

상기 진단 보조 이미지 제공 프로세스가 진단 프로세스에 수행되는 각각의 진단 질병의 진단 결과를 보조하기 위한 진단 보조 이미지를 제공하되, 상기 진단 보조 이미지는 각각의 진단 질병의 질병 특이적 성질을 고려하여 병변 강조가 수행되어, 상기 진단 보조 이미지는 상기 입력 데이터와 상기 진단 결과를 용이하게 대응시킬 수 있는 효과가 있다. 또한, 상기 진단 보조 이미지 제공 프로세스는 제1 진단 질병에 대응되는 제1 병변 강조 모델 및 제2 진단 질병에 대응되는 제2 병변 강조 모델을 포함하여, 상기 제1 병변 강조 모델 및 상기 제2 병변 강조 모델은 질병 특이적으로 수행되어, 각각의 병변 강조 수행 시간이 절약될 수 있다. The diagnosis auxiliary image providing process provides a diagnosis auxiliary image to assist the diagnosis result of each diagnosis disease performed in the diagnosis process, wherein the diagnosis auxiliary image is capable of highlighting lesions in consideration of the disease-specific properties of each diagnosis disease. Thus, the diagnosis auxiliary image has an effect of easily matching the input data and the diagnosis result. In addition, the process of providing an auxiliary diagnosis image includes a first lesion emphasizing model corresponding to a first diagnosis disease and a second lesion emphasizing model corresponding to a second diagnosis disease, and thus emphasizing the first lesion emphasizing model and the second lesion emphasizing model The model can be performed disease-specific, saving time for performing each lesion highlighting.

2.4.2 실시 예 2 - 병렬적 진단 보조 이미지 제공 시스템 2.4.2 Example 2 - Parallel diagnostic auxiliary image providing system

도 56은 일 실시 예에 따른 안저 이미지에 대한 병렬적인 진단 보조 정보 제공부(800)의 구성을 나타내는 도면이다. 도 56를 참조하면, 진단 보조 정보 제공부(800)는 진단 획득 모듈(810), 데이터 가공 모듈(820), 제1 진단 모듈(830), 제2 진단 모듈(840), 제1 CAM 제공 모듈(850), 제2 CAM 제공 모듈(860), 병변 강조 모듈(870), 및 출력 모듈(890)을 포함할 수 있다. 56 is a diagram illustrating the configuration of a parallel diagnosis auxiliary information providing unit 800 for a fundus image according to an exemplary embodiment. Referring to FIG. 56 , the diagnosis auxiliary information providing unit 800 includes a diagnosis acquisition module 810 , a data processing module 820 , a first diagnosis module 830 , a second diagnosis module 840 , and a first CAM providing module. 850 , a second CAM providing module 860 , a lesion highlighting module 870 , and an output module 890 .

도 57은 도 56의 진단 보조 정보 제공부(800)에 의해 수행되는 진단 프로세스 및 진단 보조 이미지 제공 프로세스를 설명하기 위한 도면이다. 도 57을 참조하면, 상기 진단 프로세스 및 진단 보조 이미지 제공 프로세스는 데이터 획득(S8010), 학습된 제1 진단 보조 신경망 모델(S8030), 학습된 제2 진단 보조 신경망 모델(S8040), 제1 CAM 제공 모델(S8050), 제2 CAM 제공 모델(S8060), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있다. 57 is a diagram for explaining a diagnosis process and a diagnosis auxiliary image providing process performed by the diagnosis auxiliary information providing unit 800 of FIG. 56 . Referring to FIG. 57 , the diagnostic process and the diagnostic auxiliary image providing process include data acquisition (S8010), a learned first diagnostic auxiliary neural network model (S8030), a learned second diagnostic auxiliary neural network model (S8040), and providing a first CAM It may include a model (S8050), a second CAM provision model (S8060), a lesion highlighting model (S8070), and an output of diagnostic auxiliary information (S8090).

각각의 모듈은 후술하는 바와 같이 진단 보조 프로세스 및 진단 보조 이미지 제공 프로세스 등의 개별 단계들을 수행할 수 있다. 다만, 도 55 및 도 56에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 일부 구성 요소들 및 기능이 추가되거나 생략될 수 있다. Each module may perform individual steps, such as a diagnostic auxiliary process and a diagnostic auxiliary image providing process, as described below. However, not all components and functions performed by the components described in FIGS. 55 and 56 are essential, and some components and functions may be added or omitted.

일 실시 예에 따른 진단 보조 이미지 제공 시스템은 상술한 실시 예1 에서 기재한 내용과 동일하거나 유사할 수 있으며, 진단 보조 이미지 제공 프로세스에서 병변 강조 모델에 관한 내용에서 일부 차이가 있을 수 있어, 상기 병변 강조 모델에 대한 차이점에 대해서 중점적으로 설명하고자 한다. The system for providing a diagnosis auxiliary image according to an embodiment may be the same as or similar to the contents described in Embodiment 1 described above, and there may be some differences in the contents regarding the lesion highlighting model in the diagnosis auxiliary image providing process, so that the lesion I would like to focus on the differences between the emphasis models.

도 56 및 도 57을 참조하면, 상기 진단 보조 이미지 제공 프로세스는 제1 CAM 제공 모듈(850), 제2 CAM 제공 모듈(860), 및 병변 강조 모듈(870)에 의해 수행될 수 있다. 56 and 57 , the diagnostic auxiliary image providing process may be performed by the first CAM providing module 850 , the second CAM providing module 860 , and the lesion highlighting module 870 .

상기 진단 보조 이미지 제공 프로세스는 획득된 데이터(S8010)를 기초로 제1 진단 질병에 대해 학습된 제1 진단 보조 신경망 모델(S8030), 제1 CAM 제공 모델(S8050), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있고, 획득된 데이터(S8010)를 기초로 제2 진단 질병에 대해 학습된 제2 진단 보조 신경망 모델(S8040), 제2 CAM 제공 모델(S8060), 병변 강조 모델(S8070), 및 진단 보조 정보 출력(S8090)을 포함할 수 있다. 따라서, 상기 진단 보조 이미지 제공 프로세스는 복수의 질병에 대한 진단을 보조하는 병렬적 진단 프로세스에서 수행된 진단 결과를 기초로 형성된 각각의 CAM 이미지에 대한 병변 강조가 수행될 수 있다. The diagnostic auxiliary image providing process includes a first diagnostic auxiliary neural network model (S8030), a first CAM provision model (S8050), a lesion highlighting model (S8070), learned for a first diagnostic disease based on the acquired data (S8010); and a diagnostic auxiliary information output (S8090), a second diagnostic auxiliary neural network model (S8040), a second CAM providing model (S8060), learned for a second diagnostic disease based on the acquired data (S8010), It may include a lesion highlighting model (S8070) and an output of diagnostic auxiliary information (S8090). Accordingly, in the diagnosis auxiliary image providing process, lesion emphasis may be performed on each CAM image formed based on a diagnosis result performed in a parallel diagnosis process supporting diagnosis of a plurality of diseases.

상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지가 공통적인 상기 병변 강조 모델(S8070)에 의해 병변 강조가 수행되는바, 상기 병변 강조 모델(S8070)에 의한 수행 절차 및 수행 시간이 단축될 수 있다. 상기 진단 보조 이미지 제공 프로세스는 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 상기 병변 강조 모델(S8070)을 통해 동일한 병변 강조가 수행되거나, 진단 질병에 따른 질병 특이적 병변 강조가 각각 수행될 수 있다. In the diagnostic auxiliary image providing process, lesion enhancement is performed by the lesion enhancement model (S8070) in which the CAM image output from the first CAM image providing model and the CAM image output from the second CAM image providing model are common. , the procedure and execution time by the lesion highlighting model (S8070) can be shortened. In the diagnosis auxiliary image providing process, the same lesion emphasis is performed on the CAM image output from the first CAM image providing model and the CAM image output from the second CAM image providing model through the lesion enhancement model (S8070), or Disease-specific lesion highlighting according to the diagnosis disease may be performed, respectively.

일 예로, 상기 병변 강조 모델(S8070)은 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 각각 소정의 임계값을 가지는 픽셀에 대해서만 출력되는 병변 강조가 수행되거나, 각각 소정의 임계값을 가지는 픽셀을 기초로 경계선을 삽입하는 병변 강조가 수행되거나, 각각 특정 해부학적 영역의 경계선을 삽입하는 병변 강조가 수행될 수 있다. 이러한 경우, 상기 진단 보조 이미지 제공 프로세스는 상기 병변 강조 모델(S8070)에 의한 수행 절차 및 수행 시간이 단축될 수 있다. For example, the lesion enhancement model (S8070) is output only for pixels each having a predetermined threshold value with respect to the CAM image output from the first CAM image providing model and the CAM image output from the second CAM image providing model. Lesion enhancement may be performed, lesion enhancement may be performed to insert a boundary line based on pixels each having a predetermined threshold value, or lesion enhancement may be performed to insert a boundary line of a specific anatomical region, respectively. In this case, the procedure for providing the diagnosis auxiliary image and the execution time by the lesion highlighting model S8070 may be shortened.

일 예로, 상기 병변 강조 모델(S8070)은 복수의 방법에 의한 병변 강조가 수행될 수 있어, 상기 제1 CAM 이미지 제공 모델에서 출력된 CAM 이미지와 상기 제2 CAM 이미지 제공 모델에서 출력된 CAM 이미지에 대해 질병 특이적인 병변 강조가 수행될 수 있다. 이러한 경우, 상기 진단 보조 이미지 제공 프로세스는 전체 모델의 구성이 간소화되면서도 진단 질병에 적합한 진단 보조 이미지가 제공될 수 있다. As an example, the lesion enhancement model (S8070) may perform lesion enhancement by a plurality of methods, so that the CAM image output from the first CAM image providing model and the CAM image output from the second CAM image providing model are applied. Disease-specific lesion highlighting can be performed for In this case, the auxiliary diagnosis image providing process may provide a diagnosis auxiliary image suitable for a diagnosis disease while simplifying the overall model configuration.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (22)

안구 이미지에 기초하여 대상 질병과 관련된 진단 보조 이미지를 제공하는 진단 보조 이미지 제공 장치에 있어서,
상기 안구 이미지에 기초하여 상기 대상 질병과 관련된 진단 보조 정보를 획득하는 신경망 모델부 - 상기 신경망 모델부는 복수의 안구 이미지에 기초하여 학습된 신경망 모델을 포함하고, 상기 대상 질병이 제1 질병을 포함하는 경우 상기 제1 질병과 관련된 제1 진단 보조 정보를 획득하고, 상기 대상 질병이 제2 질병을 포함하는 경우 상기 제2 질병과 관련된 제2 진단 보조 정보를 획득함-;
상기 신경망 모델부로부터, 상기 진단 보조 정보와 관련된 특성맵을 획득하는 특성맵 획득부;
상기 특성맵에 기초하여 병변과 관련된 영역의 시각적 강조를 수행하여 병변 강조 이미지를 획득하는 병변 강조부; 및
상기 안구 이미지, 상기 특성맵 및 상기 병변 강조 이미지 중 적어도 하나에 기초하여 진단 보조 이미지를 제공하는 진단 보조 이미지 제공부;를 포함하되,
상기 신경망 모델부는, 상기 제1 진단 보조 정보를 획득하는 제1 신경망 모델 또는 상기 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 포함하고,
상기 특성맵 획득부는, 상기 대상 질병이 제1 질병을 포함하는 경우 상기 제1 질병과 관련된 제1 특성맵을 획득하고, 상기 대상 질병이 제2 질병을 포함하는 경우 상기 제2 질병과 관련된 제2 특성맵을 획득하고,
상기 병변 강조부는, 상기 대상 질병이 상기 제1 질병을 포함하는 경우, 상기 제1 특성맵에 대하여 제1 병변 강조를 수행하여 제1 병변 강조 이미지를 획득하고, 상기 대상 질병이 상기 제2 질병을 포함하는 경우, 상기 제2 특성맵에 대하여 제2 병변 강조를 수행하여 제2 병변 강조 이미지를 획득하되,
상기 제1 병변 강조는 상기 제1 질병과 관련된 제1 해부학적 영역에 기초하여 상기 제1 특성맵을 변형하는 것을 포함하고,
상기 제2 병변 강조는 상기 제2 특성맵으로부터 픽셀 값이 기준 값 이상인 픽셀을 추출하는 것을 포함하는,
진단 보조 이미지 제공 장치.
A diagnostic auxiliary image providing apparatus for providing a diagnostic auxiliary image related to a target disease based on an eyeball image, the apparatus comprising:
A neural network model unit for obtaining diagnostic assistance information related to the target disease based on the eye image - The neural network model unit includes a neural network model learned based on a plurality of eye images, wherein the target disease includes a first disease obtaining first auxiliary diagnosis information related to the first disease, and obtaining second diagnosis auxiliary information related to the second disease when the target disease includes a second disease;
a characteristic map acquisition unit configured to acquire a characteristic map related to the diagnosis auxiliary information from the neural network model unit;
a lesion highlighting unit configured to visually emphasize a lesion-related region based on the characteristic map to obtain a lesion-emphasized image; and
A diagnosis auxiliary image providing unit for providing a diagnosis auxiliary image based on at least one of the eyeball image, the characteristic map, and the lesion emphasis image;
The neural network model unit includes a first neural network model for obtaining the first diagnostic auxiliary information or a second neural network model for obtaining the second diagnostic auxiliary information,
The characteristic map acquisition unit is configured to acquire a first characteristic map related to the first disease when the target disease includes a first disease, and a second characteristic map related to the second disease when the target disease includes a second disease Acquire a characteristic map,
The lesion highlighting unit may be configured to, when the target disease includes the first disease, perform a first lesion highlighting on the first characteristic map to obtain a first lesion highlighting image, and if the target disease includes the second disease If included, performing a second lesion enhancement on the second characteristic map to obtain a second lesion highlighting image,
wherein the first lesion highlighting comprises modifying the first characteristic map based on a first anatomical region associated with the first disease;
The second lesion highlighting includes extracting pixels having a pixel value equal to or greater than a reference value from the second characteristic map,
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 제1 질병은 특정 해부학적 영역에서 발생되는 병리적 성질을 가지는 질병이고,
상기 제2 질병은 비특정 영역에서 발생되는 병리적 성질을 가지는 질병인,
진단 보조 이미지 제공 장치.
According to claim 1,
The first disease is a disease having a pathological property occurring in a specific anatomical region,
The second disease is a disease having pathological properties occurring in a non-specific area,
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 제1 질병은 녹내장이고, 상기 제2 질병은 출혈, 드루젠, 황반 천공, 황반 전막, 수정체 혼탁, 당뇨 망막증 및 유수신경섬유증 중 어느 하나인,
진단 보조 이미지 제공 장치.
According to claim 1,
The first disease is glaucoma, and the second disease is any one of hemorrhage, drusen, macular perforation, anterior macular membrane, lens opacity, diabetic retinopathy, and myelinated neurofibrosis,
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 신경망 모델부는, 상기 안구 이미지의 안구 영역을 하나 이상의 해부학적 영역- 상기 하나 이상의 해부학적 영역은 상기 제1 해부학적 영역을 포함함 -으로 분할하는 분할 신경망 모델을 더 포함하고,
상기 제1 병변 강조는, 상기 제1 특성맵에 포함된 픽셀들 중 상기 제1 질병과 관련된 제1 해부학적 영역에 포함되는 하나 이상의 픽셀에 대하여 강조하는 것을 포함하는,
진단 보조 이미지 제공 장치.
According to claim 1,
The neural network model unit further comprises a segmented neural network model that divides the eyeball region of the eyeball image into one or more anatomical regions, wherein the one or more anatomical regions include the first anatomical region;
The emphasizing the first lesion includes emphasizing one or more pixels included in a first anatomical region related to the first disease among pixels included in the first characteristic map.
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 제2 병변 강조는, 상기 제2 특성맵에 포함된 픽셀들 중 상기 기준값 이상의 픽셀에 대하여 강조하는 것을 포함하는,
진단 보조 이미지 제공 장치.
According to claim 1,
The second lesion emphasizing includes emphasizing a pixel greater than or equal to the reference value among pixels included in the second characteristic map.
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 신경망 모델부는, 상기 안구 이미지의 안구 영역을 하나 이상의 해부학적 영역- 상기 하나 이상의 해부학적 영역은 상기 제1 해부학적 영역을 포함함 -으로 분할하는 분할 신경망 모델을 더 포함하고,
상기 제1 병변 강조는, 상기 안구 이미지에 상기 제1 해부학적 영역의 바운더리 및 상기 제1 특성맵에 포함되고 상기 제1 진단 보조 정보와 관련된 히트맵을 중첩하는 것을 포함하는,안구
진단 보조 이미지 제공 장치.
According to claim 1,
The neural network model unit further comprises a segmented neural network model that divides the eyeball region of the eyeball image into one or more anatomical regions, wherein the one or more anatomical regions include the first anatomical region;
The first lesion highlighting includes superimposing a boundary of the first anatomical region on the eye image and a heat map included in the first characteristic map and related to the first diagnostic auxiliary information.
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 제2 병변 강조는, 상기 특성맵의 픽셀 값 중 상기 기준 값을 가지는 픽셀들로 이루어진 바운더리를 상기 안구 이미지 상에 중첩하는 것을 포함하는,
진단 보조 이미지 제공 장치.
According to claim 1,
The second lesion emphasis includes superimposing a boundary composed of pixels having the reference value among the pixel values of the characteristic map on the eye image.
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 신경망 모델부는, 상기 안구 이미지의 안구 영역을 하나 이상의 해부학적 영역- 상기 하나 이상의 해부학적 영역은 상기 제1 해부학적 영역을 포함함 -으로 분할하는 분할 신경망 모델을 더 포함하고,
상기 제2 병변 강조 이미지를 획득하는 것은, 상기 픽셀 값이 상기 기준 값 이상인 병변 픽셀을 추출하고, 상기 병변 픽셀이 위치하는 상기 해부학적 영역의 바운더리가 표시되고 상기 병변 픽셀이 강조된 안구 이미지를 획득하는 것을 포함하는,
진단 보조 이미지 제공 장치.
According to claim 1,
The neural network model unit further comprises a segmented neural network model that divides the eyeball region of the eyeball image into one or more anatomical regions, wherein the one or more anatomical regions include the first anatomical region;
Acquiring the second lesion-emphasized image includes extracting a lesion pixel whose pixel value is equal to or greater than the reference value, and obtaining an eye image in which a boundary of the anatomical region in which the lesion pixel is located is displayed and the lesion pixel is emphasized including that,
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 신경망 모델부에 의해 획득되는 상기 진단 보조 정보는 피검체가 상기 대상 질병에 대하여 정상임을 나타내는 정상 정보 또는 상기 피검체가 상기 대상 질병에 대하여 비정상임을 나타내는 비정상 정보를 포함하되,
상기 특성맵 획득부는 상기 안구 이미지의 상기 비정상 정보와 관련된 영역을 나타내는 상기 특성맵을 획득하고,
상기 병변 강조부는 상기 비정상 정보와 관련된 영역을 나타내는 상기 특성맵에 기초하여 상기 병변 강조 이미지를 획득하는,
진단 보조 이미지 제공 장치.
According to claim 1,
The diagnosis auxiliary information obtained by the neural network model unit includes normal information indicating that the subject is normal for the target disease or abnormal information indicating that the subject is abnormal with respect to the target disease,
The characteristic map acquisition unit acquires the characteristic map indicating a region related to the abnormal information of the eyeball image,
wherein the lesion highlighting unit acquires the lesion highlighting image based on the characteristic map indicating a region related to the abnormality information;
Diagnostic auxiliary image providing device.
제1 항에 있어서,
상기 대상 질병이 상기 제1 질병 및 상기 제2 질병을 포함하는 경우, 상기 특성맵 획득부는 상기 제1 특성맵 및 상기 제2 특성맵을 획득하고, 상기 병변 강조부는 상기 제1 병변 강조 및 상기 제2 병변 강조에 기초하여, 상기 제1 질병 및 상기 제2 질병 관련 특성이 표시된 제3 병변 강조 이미지를 획득하는,
진단 보조 이미지 제공 장치.
According to claim 1,
When the target disease includes the first disease and the second disease, the characteristic map acquiring unit acquires the first characteristic map and the second characteristic map, and the lesion highlighting unit emphasizes the first lesion and the second characteristic map. 2 acquiring a third lesion highlighting image in which the first disease and the second disease-related characteristic are displayed based on the lesion emphasis;
Diagnostic auxiliary image providing device.
안구 이미지에 기초하여 대상 질병과 관련된 진단 보조 이미지를 제공하는 진단 보조 이미지 제공 장치에 있어서,
안구 이미지를 획득하는 데이터 획득부;
상기 안구 이미지에 기초하여 상기 대상 질병과 관련된 진단 보조 정보를 획득하는 신경망 모델부 - 상기 신경망 모델부는 복수의 안구 이미지에 기초하여 학습된 신경망 모델을 포함하고, 상기 대상 질병이 제1 질병을 포함하는 경우 상기 제1 질병과 관련된 제1 진단 보조 정보를 획득하고, 상기 대상 질병이 제2 질병을 포함하는 경우 상기 제2 질병과 관련된 제2 진단 보조 정보를 획득함-;
상기 진단 보조 정보와 관련된 특성맵을 획득하는 특성맵 획득부;
상기 특성맵에 기초하여 병변과 관련된 영역의 시각적 강조를 수행하여 병변 강조 이미지를 획득하는 병변 강조부; 및
상기 안구 이미지, 상기 특성맵 및 상기 병변 강조 이미지 중 적어도 하나에 기초하여 진단 보조 이미지를 제공하는 진단 보조 이미지 제공부;를 포함하되,
상기 신경망 모델부는, 상기 안구 이미지의 안구 영역을 하나 이상의 해부학적 영역- 상기 하나 이상의 해부학적 영역은 제1 해부학적 영역 및 제2 해부학적 영역을 포함함 -으로 분할하는 분할 신경망 모델을 더 포함하고,
상기 특성맵 획득부는, 상기 대상 질병이 상기 제1 질병을 포함하는 경우 경우 상기 제1 질병과 관련된 제1 특성맵을 획득하고, 상기 대상 질병이 상기 제2 질병을 포함하는 경우 상기 제2 질병과 관련된 제2 특성맵을 획득하고,
상기 병변 강조부는, 상기 대상 질병이 상기 제1 질병을 포함하는 경우, 상기 제1 진단 보조 정보와 관련된 제1 특성맵에 대하여 제1 병변 강조를 수행하여 제1 병변 강조 이미지를 획득하고, 상기 대상 질병이 상기 제2 질병인 경우, 상기 제2 진단 보조 정보와 관련된 제1 특성맵에 대하여 제2 병변 강조를 수행하여 제2 병변 강조 이미지를 획득하되,
상기 제2 질병은 상기 제1 질병과 발병 영역의 적어도 일부가 상이하고,
상기 제1 병변 강조는 상기 제1 특성맵으로부터 상기 제1 해부학적 영역에 대응되는 영역에 대하여 강조하는 것을 포함하고, 상기 제2 병변 강조는 상기 제2 특성맵으로부터 상기 제2 해부학적 영역에 대응되는 영역에 대하여 강조하는 것을 포함하는,
진단 보조 이미지 제공 장치.
A diagnostic auxiliary image providing apparatus for providing a diagnostic auxiliary image related to a target disease based on an eyeball image, the apparatus comprising:
a data acquisition unit for acquiring an eye image;
A neural network model unit for obtaining diagnostic assistance information related to the target disease based on the eye image - The neural network model unit includes a neural network model learned based on a plurality of eye images, wherein the target disease includes a first disease obtaining first auxiliary diagnosis information related to the first disease, and obtaining second diagnosis auxiliary information related to the second disease when the target disease includes a second disease;
a characteristic map acquisition unit configured to acquire a characteristic map related to the diagnosis auxiliary information;
a lesion highlighting unit configured to visually emphasize a lesion-related region based on the characteristic map to obtain a lesion-emphasized image; and
A diagnosis auxiliary image providing unit for providing a diagnosis auxiliary image based on at least one of the eyeball image, the characteristic map, and the lesion emphasis image;
The neural network model unit further includes a segmented neural network model that divides the eyeball region of the eyeball image into one or more anatomical regions, wherein the one or more anatomical regions include a first anatomical region and a second anatomical region, and ,
The characteristic map acquisition unit acquires a first characteristic map related to the first disease when the target disease includes the first disease, and obtains a first characteristic map associated with the target disease when the target disease includes the second disease. acquiring a related second characteristic map,
The lesion highlighting unit may be configured to, when the target disease includes the first disease, perform a first lesion highlighting on a first characteristic map related to the first diagnosis auxiliary information to obtain a first lesion highlighting image, When the disease is the second disease, a second lesion highlighting image is obtained by performing a second lesion emphasis on the first characteristic map related to the second diagnosis auxiliary information,
The second disease is different from the first disease in at least a part of an onset region,
The first lesion emphasizing includes emphasizing a region corresponding to the first anatomical region from the first characteristic map, and the second lesion emphasizing corresponds to the second anatomical region from the second characteristic map. including emphasizing the area to be
Diagnostic auxiliary image providing device.
제11 항에 있어서,
상기 제1 병변 강조는 상기 제1 특성맵의 상기 제1 해부학적 영역에 대응되는 영역에 포함되는 픽셀들 중 제1 기준 값 이상의 픽셀 값을 가지는 픽셀들에 대하여 강조하는 것을 포함하고,
상기 제2 병변 강조는 상기 제2 특성맵의 상기 제2 해부학적 영역에 대응되는 영역에 포함되는 픽셀들 중 제2 기준 값 이상의 픽셀 값을 가지는 픽셀들에 대하여 강조하는 것을 포함하는,
진단 보조 이미지 제공 장치.
12. The method of claim 11,
The first lesion emphasizing includes emphasizing pixels having a pixel value greater than or equal to a first reference value among pixels included in a region corresponding to the first anatomical region of the first characteristic map,
The second lesion emphasizing includes emphasizing pixels having a pixel value greater than or equal to a second reference value among pixels included in a region corresponding to the second anatomical region of the second characteristic map.
Diagnostic auxiliary image providing device.
제11 항에 있어서,
상기 제1 병변 강조 이미지는 상기 제1 특성맵으로부터 획득된 상기 제1 질병과 관련된 픽셀 값 및 상기 제1 해부학적 영역의 바운더리를 포함하고,
상기 제2 병변 강조 이미지는 상기 제2 특성맵으로부터 획득된 상기 제2 질병과 관련된 픽셀 값 및 상기 제2 해부학적 영역의 바운더리를 포함하는,
진단 보조 이미지 제공 장치.
12. The method of claim 11,
the first lesion highlighting image includes a pixel value related to the first disease obtained from the first characteristic map and a boundary of the first anatomical region;
wherein the second lesion highlighting image includes a pixel value related to the second disease obtained from the second characteristic map and a boundary of the second anatomical region;
Diagnostic auxiliary image providing device.
제11 항에 있어서,
상기 제2 해부학적 영역은 상기 제1 해부학적 영역을 포함하고,
상기 제1 병변 강조 이미지는 상기 제1 특성맵으로부터 획득되고 상기 제1 해부학적 영역에 대응되고 픽셀 값이 제1 기준 값 이상인 픽셀들의 집합 및 상기 제1 해부학적 영역의 바운더리를 포함하고,
상기 제2 병변 강조 이미지는 상기 제2 특성맵으로부터 획득되고 상기 제2 질병과 관련된 픽셀 값이 제2 기준 값인 픽셀들의 집합으로 구성되는 바운더리를 포함하는,
진단 보조 이미지 제공 장치.
12. The method of claim 11,
wherein the second anatomical region comprises the first anatomical region;
the first lesion highlighting image includes a set of pixels obtained from the first characteristic map and corresponding to the first anatomical region and having a pixel value equal to or greater than a first reference value and a boundary of the first anatomical region;
wherein the second lesion highlighting image includes a boundary comprising a set of pixels obtained from the second characteristic map and having a pixel value associated with the second disease as a second reference value;
Diagnostic auxiliary image providing device.
제11 항에 있어서,
상기 제1 병변 강조 이미지는 상기 제1 특성맵으로부터 획득되고 상기 제1 질병과 관련된 픽셀 값이 제1 기준 값인 픽셀들의 집합으로 구성되는 바운더리를 포함하고,
상기 제2 병변 강조 이미지는 상기 제2 특성맵으로부터 획득되고 상기 제2 질병과 관련된 픽셀 값이 제2 기준 값인 픽셀들의 집합으로 구성되는 바운더리를 포함하는,
진단 보조 이미지 제공 장치.
12. The method of claim 11,
The first lesion-emphasized image includes a boundary comprising a set of pixels obtained from the first characteristic map and having a pixel value associated with the first disease as a first reference value;
wherein the second lesion highlighting image includes a boundary comprising a set of pixels obtained from the second characteristic map and having a pixel value associated with the second disease as a second reference value;
Diagnostic auxiliary image providing device.
제11 항에 있어서,
상기 제1 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증 중 어느 하나이고,
상기 제2 질병은 녹내장, 망막 출혈, 망막 삼출물 발생, 수정체 혼탁, 및 당뇨 망막증에서 상기 제1 질병을 제외한 나머지 중 어느 하나인,
진단 보조 이미지 제공 장치.
12. The method of claim 11,
The first disease is any one of glaucoma, retinal hemorrhage, retinal exudate, lens opacity, and diabetic retinopathy,
The second disease is any one of glaucoma, retinal hemorrhage, retinal exudate occurrence, lens opacity, and diabetic retinopathy except for the first disease,
Diagnostic auxiliary image providing device.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190086604A 2018-12-06 2019-07-17 Diagnostic auxiliary image providing device based on eye image KR102333670B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210165633A KR20210149003A (en) 2018-12-06 2021-11-26 Diagnostic auxiliary image providing device based on eye image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862776345P 2018-12-06 2018-12-06
US62/776,345 2018-12-06
KR1020180157562 2018-12-07
KR1020180157562A KR20200005407A (en) 2018-07-06 2018-12-07 Diagnostic auxiliary image providing device based on eye image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165633A Division KR20210149003A (en) 2018-12-06 2021-11-26 Diagnostic auxiliary image providing device based on eye image

Publications (2)

Publication Number Publication Date
KR20200069209A KR20200069209A (en) 2020-06-16
KR102333670B1 true KR102333670B1 (en) 2021-12-02

Family

ID=71141840

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020190086604A KR102333670B1 (en) 2018-12-06 2019-07-17 Diagnostic auxiliary image providing device based on eye image
KR1020210165633A KR20210149003A (en) 2018-12-06 2021-11-26 Diagnostic auxiliary image providing device based on eye image
KR1020230080054A KR20230104083A (en) 2018-12-06 2023-06-22 Diagnostic auxiliary image providing device based on eye image

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020210165633A KR20210149003A (en) 2018-12-06 2021-11-26 Diagnostic auxiliary image providing device based on eye image
KR1020230080054A KR20230104083A (en) 2018-12-06 2023-06-22 Diagnostic auxiliary image providing device based on eye image

Country Status (1)

Country Link
KR (3) KR102333670B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102406538B1 (en) * 2020-08-13 2022-06-08 순천향대학교 산학협력단 Deep Neural Networks(DNN) based eye diseases diagnosis apparatus using fundus images and method thereof
KR102490967B1 (en) * 2020-09-25 2023-01-26 서울대학교병원 Diagnostic aids method and device for cardioembolic stroke using chest radiographs
KR102545714B1 (en) * 2020-10-07 2023-06-21 주식회사 오큐라이트 Apparatus and method of predicting visualization parameter of medical image based on artificial neural network
KR102464422B1 (en) * 2020-10-08 2022-11-07 가톨릭대학교 산학협력단 Apparatus, method for providing information needed, and recording medium for diagnosing lung damage
JP2022126373A (en) * 2021-02-18 2022-08-30 ソニーグループ株式会社 Information processing device, information processing method, computer program, and medical diagnostic system
CN113378794A (en) * 2021-07-09 2021-09-10 博奥生物集团有限公司 Information correlation method for elephant and symptom information
CN113689954A (en) * 2021-08-24 2021-11-23 平安科技(深圳)有限公司 Hypertension risk prediction method, device, equipment and medium
KR20230099468A (en) 2021-12-27 2023-07-04 경북대학교 산학협력단 Artificial intelligence neural network learning method for age-related macular degeneration identification and type classification, deep learning based age-related macular degeneration identification and type classification method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
KR101839789B1 (en) 2017-08-01 2018-03-19 주식회사 뷰노 System for generating interpretation data of dental image
KR101889725B1 (en) * 2018-07-04 2018-08-20 주식회사 루닛 Method and Apparatus for Diagnosing Malignant Tumor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6594033B2 (en) * 2015-05-14 2019-10-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
KR101856867B1 (en) * 2016-10-26 2018-05-10 고려대학교 산학협력단 System and system for diagnosis of oral lesion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160292856A1 (en) 2015-04-06 2016-10-06 IDx, LLC Systems and methods for feature detection in retinal images
KR101839789B1 (en) 2017-08-01 2018-03-19 주식회사 뷰노 System for generating interpretation data of dental image
KR101889725B1 (en) * 2018-07-04 2018-08-20 주식회사 루닛 Method and Apparatus for Diagnosing Malignant Tumor

Also Published As

Publication number Publication date
KR20210149003A (en) 2021-12-08
KR20200069209A (en) 2020-06-16
KR20230104083A (en) 2023-07-07

Similar Documents

Publication Publication Date Title
KR102345026B1 (en) Cloud server and diagnostic assistant systems based on cloud server
US11790645B2 (en) Diagnosis assistance system and control method thereof
KR102333670B1 (en) Diagnostic auxiliary image providing device based on eye image
KR102301058B1 (en) Diagnosis assistance system and control method thereof
US11869184B2 (en) Method and device for assisting heart disease diagnosis
KR102596534B1 (en) Diagnosis assistance method and apparatus
KR102316557B1 (en) Cervical cancer diagnosis system
Sharma et al. Harnessing the Strength of ResNet50 to Improve the Ocular Disease Recognition
JP2022535431A (en) Automatic diagnosis system for cervical cancer
WO2019171398A1 (en) A fundus image analysis system
US20240020830A1 (en) System and methods of predicting parkinson's disease based on retinal images using machine learning
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
Biswas Evaluation of Deep Learning Models for the Detection of Diabetic Retinopathy with Retinal Fundus Images and Development of a Prescreening Tool
Thakoor Robust, Interpretable, and Portable Deep Learning Systems for Detection of Ophthalmic Diseases
KR20230102951A (en) Dementia prediction screening system and method using fundus image learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right