KR102220573B1 - Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence - Google Patents

Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence Download PDF

Info

Publication number
KR102220573B1
KR102220573B1 KR1020200041672A KR20200041672A KR102220573B1 KR 102220573 B1 KR102220573 B1 KR 102220573B1 KR 1020200041672 A KR1020200041672 A KR 1020200041672A KR 20200041672 A KR20200041672 A KR 20200041672A KR 102220573 B1 KR102220573 B1 KR 102220573B1
Authority
KR
South Korea
Prior art keywords
image data
fundus image
calculating
grade
quality score
Prior art date
Application number
KR1020200041672A
Other languages
Korean (ko)
Inventor
최용준
도신호
임다운
이현규
Original Assignee
두에이아이(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 두에이아이(주) filed Critical 두에이아이(주)
Priority to KR1020200041672A priority Critical patent/KR102220573B1/en
Priority to KR1020210022888A priority patent/KR20210124024A/en
Application granted granted Critical
Publication of KR102220573B1 publication Critical patent/KR102220573B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Provided are a method, a device and a computer program for calculating a quality score of fundus oculi image data using artificial intelligence. According to various embodiments of the present invention, the method for calculating quality score of fundus oculi image data, which is performed by a computing device, includes the steps of: collecting fundus oculi image data; extracting one or more feature values from the fundus oculi image data; calculating a probability that the fundus oculi image data belongs to each of a plurality of preset quality grades by using the extracted one or more feature values; and calculating a quality score for the fundus oculi image data by using the probability of belonging to each of the plurality of quality grades calculated.

Description

인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR CALCULATING QUALITY SCORE OF FUNDUS IMAGE DATA USING ARTIFICIAL INTELLIGENCE}Method for calculating the quality score of fundus image data using artificial intelligence, device and computer program {METHOD, APPARATUS AND COMPUTER PROGRAM FOR CALCULATING QUALITY SCORE OF FUNDUS IMAGE DATA USING ARTIFICIAL INTELLIGENCE}

본 발명의 다양한 실시예는 인공지능을 이용한 안저(fundus) 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터 프로그램에 관한 것이다. Various embodiments of the present invention relate to a method, apparatus, and computer program for calculating a quality score of fundus image data using artificial intelligence.

주요 안과 질환들의 발병 연령이 조금씩 빨라지고 있는 데다 고혈압, 당뇨병과 같은 만성질환으로 눈 건강에 적신호가 켜진 사람들이 증가하고 있다. 그러나, 국가검진을 포함한 주요 내시경검사와 달리 안과에서는 어떤 검사를 받아야 눈 건강을 지킬 수 있는지 모르는 경우가 많다.The age of onset of major eye diseases is gradually increasing, and the number of people with red signals on eye health due to chronic diseases such as high blood pressure and diabetes is increasing. However, unlike major endoscopy, including national examinations, ophthalmologists often do not know which tests to take to protect eye health.

실제로 전국 25세 이상 성인 남녀 1000명을 대상으로 한 눈 건강 인식조사에 따르면 대상자의 76.5%는 눈 건강에 관심이 있고 63.5%가 정기검진이 필요하다는 것을 알고 있었지만 정작 안과 정기검진을 받는 사람은 11.3%에 그쳤다.In fact, according to an eye health awareness survey of 1,000 men and women aged 25 years and over nationwide, 76.5% of the subjects were interested in eye health, and 63.5% knew that regular checkups were needed, but 11.3 %.

대한안과학회에 따르면 눈 건강을 지키는 첫걸음은 ‘안저검사’다. 이는 3대 실명원인질환으로 꼽히는 황반변성, 당뇨망막병증, 녹내장을 조기발견할 수 있는 길이기 때문이다. 이에 대한안과학회는 10월 10일을 눈의 날로 정하고 ‘안저검사, 눈 건강의 시작입니다’를 주제로 안저검사도 국가검진에 포함시키려는 노력을 지속하고 있다.According to the Korean Academy of Ophthalmology, the first step to maintaining eye health is a “fungus examination”. This is because it is the way to detect macular degeneration, diabetic retinopathy, and glaucoma, which are one of the three major causes of blindness. In this regard, the Korean Ophthalmological Association has set October 10 as the day of the eye and is continuing efforts to include a fundus examination as part of the national examination under the theme of'fundament examination, the beginning of eye health.'

안저검사(또는 안저촬영검사)란 안저 카메라로 동공을 통해 망막 중심부(예: 안구 속의 뒷부분과 눈바닥 부위)를 촬영하여 망막혈관이나 시신경의 색깔, 두께 등을 확인함으로써 안저 관련 질환 진단 및 조기 발견을 위해 수행되는 검사이다.Fundus examination (or fundus imaging examination) is a fundus camera to diagnose and early detect fundus-related diseases by photographing the center of the retina (e.g., the back of the eye and the bottom of the eye) through the pupil and checking the color and thickness of the retinal vessels or optic nerve It is a test performed for.

일반적으로, 안저 검사에서 획득되는 안저 영상 데이터는 촬영 카메라의 종류와 촬영 환경에 따라 품질의 편차가 크다. 특히, 스마트폰 기반 포터블 장비의 영상에서는 품질이 낮은 영상 데이터가 획득되기 쉽다.In general, the quality of the fundus image data acquired in the fundus examination varies greatly depending on the type of the photographing camera and the photographing environment. In particular, it is easy to acquire image data of low quality from images of smart phone-based portable devices.

한편, 품질이 낮은 영상 데이터는 의사나 CAD(Computer-Aided Diagnosis) 시스템 및 인공지능에 의한 분석 판독 시 부정적인 영향을 줄 수 있기 때문에 판독이 어려운 영상 데이터를 선정(예: 안저 영상 데이터를 스코어링(scoring)하여 품질이 낮은 안저 영상 데이터를 선정)하고, 선정된 안저 영상 데이터를 사전에 스크리닝(screening)하는 과정이 필요하다.On the other hand, image data that is difficult to read is selected (e.g., scoring fundus image data) because image data of low quality can have a negative effect on analysis and reading by doctors or computer-aided diagnosis (CAD) systems and artificial intelligence. ) To select the fundus image data of low quality), and screening the selected fundus image data in advance is required.

한국공개특허 제10-2019-0087272호(2019.07.24)Korean Patent Publication No. 10-2019-0087272 (2019.07.24)

본 발명이 해결하고자 하는 과제는 품질이 낮은 안저 영상 데이터를 선정하고, 선정된 안저 영상 데이터를 사전에 스크리닝하기 위하여 안저 영상 데이터의 품질 점수를 산출하는 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터 프로그램을 제공하는 것이다.The problem to be solved by the present invention is a method of calculating the quality score of fundus image data using artificial intelligence that selects fundus image data of low quality and calculates the quality score of fundus image data in order to screen the selected fundus image data in advance , To provide devices and computer programs.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 안저 영상 데이터의 품질 점수 산출 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 안저 영상 데이터를 수집하는 단계, 상기 안저 영상 데이터로부터 하나 이상의 특징값을 추출하는 단계, 상기 추출된 하나 이상의 특징값을 이용하여 상기 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출하는 단계 및 상기 산출된 복수의 품질 등급 각각에 속할 확률을 이용하여 상기 안저 영상 데이터에 대한 품질 점수를 산출하는 단계를 포함할 수 있다.A method for calculating a quality score of fundus image data according to an embodiment of the present invention for solving the above-described problem, in a method performed by a computing device, comprises: collecting fundus image data, at least one from the fundus image data Extracting a feature value, calculating a probability that the fundus image data belongs to each of a plurality of preset quality classes using the extracted one or more feature values, and using the calculated probability of belonging to each of the plurality of quality classes Thus, it may include calculating a quality score for the fundus image data.

다양한 실시예에서, 상기 복수의 품질 등급은, 제1 등급, 상기 제1 등급보다 낮은 제2 등급 및 상기 제2 등급보다 낮은 제3 등급을 포함하며, 상기 품질 점수를 산출하는 단계는, 하기의 수학식 1을 이용하여 상기 안저 영상 데이터에 대한 품질 점수를 산출하는 단계를 포함할 수 있다.In various embodiments, the plurality of quality grades include a first grade, a second grade lower than the first grade, and a third grade lower than the second grade, and calculating the quality score includes the following It may include calculating a quality score for the fundus image data using Equation 1.

[수학식 1][Equation 1]

Figure 112020035648079-pat00001
Figure 112020035648079-pat00001

여기서, prob(G1)은 상기 안저 영상 데이터가 상기 제1 등급에 속할 확률, prob(G2)는 상기 안저 영상 데이터가 상기 제2 등급에 속할 확률, prob(G3)는 상기 안저 영상 데이터가 상기 제3 등급에 속할 확률, C1, C2 및 C3는 기 설정된 상수값일 수 있다.Here, prob(G 1 ) is the probability that the fundus image data belongs to the first grade, prob(G 2 ) is the probability that the fundus image data belongs to the second grade, and prob(G 3 ) is the fundus image data Probabilities of falling into the third grade, C 1 , C 2, and C 3 may be preset constant values.

다양한 실시예에서, 상기 하나 이상의 특징값은, 상기 안저 영상 데이터가 비정상 등급에 속할 확률, 상기 안저 영상 데이터의 품질 맵(Quality Map), 선명도(Brightness), 초점값(Focus), 조도 히스토그램(Illumination histogram) 및 원마도(Roundness) 중 적어도 하나를 포함하며, 상기 복수의 품질 등급 각각에 속할 확률을 산출하는 단계는, 복수의 안저 영상 데이터를 학습 데이터로써 기 학습한 인공지능 모델을 이용하여 상기 하나 이상의 특징값으로부터 상기 안저 영상 데이터가 상기 복수의 품질 등급 각각에 속할 확률을 산출하는 단계를 포함할 수 있다.In various embodiments, the one or more feature values include a probability that the fundus image data belongs to an abnormal grade, a quality map of the fundus image data, a brightness, a focus value, and an illumination histogram. histogram) and roundness, and calculating the probability of belonging to each of the plurality of quality grades includes the one of the plurality of fundus image data using an artificial intelligence model that has previously been learned as training data. It may include calculating a probability that the fundus image data belongs to each of the plurality of quality classes from the above feature values.

다양한 실시예에서, 상기 하나 이상의 특징값을 추출하는 단계는, 상기 제1 등급 및 상기 제2 등급을 정상 등급으로 분류하고 상기 제3 등급을 비정상 등급으로 분류하는 제1 이진 분류 모델을 이용하여 상기 안저 영상 데이터가 상기 비정상 등급에 속할 확률인 제1 비정상 등급 확률을 산출하고, 상기 안저 영상 데이터 내에서 비정상으로 판단된 영역을 시각화한 제1 품질 맵을 추출하는 단계 및 상기 제1 등급을 정상 등급으로 분류하고 상기 제2 등급 및 상기 제3 등급을 비정상 등급으로 분류하는 제2 이진 분류 모델을 이용하여 상기 안저 영상 데이터가 상기 비정상 등급에 속할 확률인 제2 비정상 등급 확률을 산출하고, 상기 안저 영상 데이터 내에서 비정상으로 판단된 영역을 시각화한 제2 품질 맵을 추출하는 단계를 포함할 수 있다.In various embodiments, the extracting of the one or more feature values may include using a first binary classification model that classifies the first class and the second class as a normal class, and classifies the third class as an abnormal class. Calculating a first abnormal grade probability that is a probability that the fundus image data belongs to the abnormal grade, extracting a first quality map visualizing an area determined to be abnormal in the fundus image data, and determining the first grade as a normal grade And calculating a second abnormal grade probability, which is a probability that the fundus image data belongs to the abnormal grade, using a second binary classification model that classifies the second grade and the third grade as abnormal grade, and the fundus image It may include the step of extracting a second quality map visualizing the area determined to be abnormal in the data.

다양한 실시예에서, 상기 하나 이상의 특징값을 추출하는 단계는, 상기 안저 영상 데이터로부터 안저의 유두(Disc)에 대응되는 영역을 검출하고, 상기 검출된 안저의 유두에 대응되는 영역의 장축 길이 및 단축 길이를 추출하며, 상기 추출된 장축의 길이와 상기 추출된 단축의 길이의 비율을 이용하여 상기 안저의 원마도를 산출하는 단계를 포함할 수 있다.In various embodiments, the extracting of the one or more feature values includes detecting an area corresponding to a disc of the fundus from the fundus image data, and the length and shortening of the major axis of the area corresponding to the detected nipple of the fundus. Extracting a length, and calculating a roundness of the fundus using a ratio of the extracted length of the major axis and the length of the extracted minor axis.

다양한 실시예에서, 상기 선명도는 제1 선명도 및 제2 선명도를 포함하며, 상기 하나 이상의 특징값을 추출하는 단계는, 하기의 수학식 2를 이용하여 상기 안저 영상 데이터에 대한 상기 제1 선명도를 산출하고, 하기의 수학식 3을 이용하여 상기 안저 영상 데이터에 대한 상기 제2 선명도를 산출하는 단계를 포함할 수 있다.In various embodiments, the sharpness includes a first sharpness and a second sharpness, and the extracting of the one or more feature values may include calculating the first sharpness for the fundus image data using Equation 2 below. And calculating the second sharpness of the fundus image data using Equation 3 below.

[수학식 2][Equation 2]

Figure 112020035648079-pat00002
Figure 112020035648079-pat00002

여기서, X는 상기 안저 영상 데이터 값, std(X)는

Figure 112020035648079-pat00003
, grayscale(X)는
Figure 112020035648079-pat00004
으로 상기 안저 영상 데이터의 그레이 스케일 값, XR는 상기 안저 영상 데이터의 R채널 값, XG는 상기 안저 영상 데이터의 G채널 값, XB는 상기 안저 영상 데이터의 B채널 값 및 mean(X)는
Figure 112020035648079-pat00005
일 수 있다.Here, X is the fundus image data value, std(X) is
Figure 112020035648079-pat00003
, grayscale(X) is
Figure 112020035648079-pat00004
As a gray scale value of the fundus image data , X R is an R channel value of the fundus image data , X G is a G channel value of the fundus image data, X B is a B channel value and mean(X) of the fundus image data. Is
Figure 112020035648079-pat00005
Can be

[수학식 3][Equation 3]

Figure 112020035648079-pat00006
Figure 112020035648079-pat00006

다양한 실시예에서, 상기 하나 이상의 특징값을 추출하는 단계는, 하기의 수학식 4를 이용하여 상기 안저 영상 데이터에 대한 초점값을 산출하는 단계를 포함할 수 있다.In various embodiments, the extracting the one or more feature values may include calculating a focus value for the fundus image data using Equation 4 below.

[수학식 4][Equation 4]

Figure 112020035648079-pat00007
Figure 112020035648079-pat00007

여기서, X는 상기 안저 영상 데이터 값, std(X)는

Figure 112020035648079-pat00008
, grayscale(X)는
Figure 112020035648079-pat00009
으로 상기 안저 영상 데이터의 그레이 스케일 값, XR는 상기 안저 영상 데이터의 R채널 값, XG는 상기 안저 영상 데이터의 G채널 값, XB는 상기 안저 영상 데이터의 B채널 값, kernelx
Figure 112020035648079-pat00010
으로 x방향의 3x3 커널, kernely
Figure 112020035648079-pat00011
으로 y방향의 3x3 커널일 수 있다.Here, X is the fundus image data value, std(X) is
Figure 112020035648079-pat00008
, grayscale(X) is
Figure 112020035648079-pat00009
As a gray scale value of the fundus image data , X R is an R channel value of the fundus image data , X G is a G channel value of the fundus image data, X B is a B channel value of the fundus image data, and kernel x is
Figure 112020035648079-pat00010
As a 3x3 kernel in the x direction, kernel y is
Figure 112020035648079-pat00011
It may be a 3x3 kernel in the y direction.

다양한 실시예에서, 상기 하나 이상의 특징값을 추출하는 단계는, 상기 안저 영상 데이터를 전처리 하는 단계, 상기 전처리된 안저 영상 데이터로부터 기 설정된 크기를 가지는 하나 이상의 패치(Patch)를 추출하는 단계, 하기의 수학식 5를 이용하여 상기 하나 이상의 패치 각각에 대한 대표값을 산출하는 단계, 상기 산출된 대표값을 이용하여 조도 맵을 생성하는 단계 및 상기 조도 맵을 이용하여 상기 조도 히스토그램을 생성하는 단계를 포함할 수 있다.In various embodiments, the extracting of the one or more feature values includes pre-processing the fundus image data, extracting one or more patches having a preset size from the pre-processed fundus image data, the following Computing a representative value for each of the one or more patches using Equation 5, generating an illuminance map using the calculated representative value, and generating the illuminance histogram using the illuminance map can do.

[수학식 5] [Equation 5]

Figure 112020035648079-pat00012
Figure 112020035648079-pat00012

여기서, P는 상기 하나 이상의 패치 값, PR은 상기 하나 이상의 패치의 R채널 값, P-G는 상기 하나 이상의 패치의 G채널 값, PB는 상기 하나 이상의 채널의 B채널 값 및 mean(x)는

Figure 112020035648079-pat00013
일 수 있다.Here, P is the one or more patch values, P R is the R channel value of the one or more patches, P- G is the G channel value of the one or more patches, P B is the B channel value and mean(x ) Is
Figure 112020035648079-pat00013
Can be

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 본 발명의 일 실시예에 따른 안저 영상 데이터의 품질 점수 산출 방법을 수행할 수 있다.An apparatus for calculating a quality score of fundus image data according to another embodiment of the present invention for solving the above-described problem includes a memory storing one or more instructions, and a processor executing the one or more instructions stored in the memory, the The processor may perform the method of calculating a quality score of fundus image data according to an embodiment of the present invention by executing the one or more instructions.

상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터프로그램은, 하드웨어인 컴퓨터와 결합되어, 본 발명의 일 실시예에 따른 안저 영상 데이터의 품질 점수 산출 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.A computer program according to another embodiment of the present invention for solving the above-described problem is combined with a computer that is hardware, so that the computer can perform the method of calculating the quality score of the fundus image data according to an embodiment of the present invention. It can be stored on a readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

본 발명의 다양한 실시예에 따르면, 안저 영상 데이터로부터 하나 이상의 특징값을 추출하고, 추출한 하나 이상의 특징값을 이용하여 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출하며, 산출된 확률에 기초하여 안저 영상 데이터에 대한 품질 점수를 산출함으로써, 안저 영상 데이터를 품질을 보다 정확하게 판단할 수 있다는 이점이 있다.According to various embodiments of the present invention, one or more feature values are extracted from fundus image data, and a probability that the fundus image data belongs to each of a plurality of preset quality classes is calculated using the extracted one or more feature values, and the calculated probability There is an advantage in that the quality of the fundus image data can be more accurately determined by calculating a quality score for the fundus image data based on.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 시스템을 도시한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(100)를 도시한 도면이다.
도 3은 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 방법의 순서도이다.
도 4는 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 생성한 품질 맵을 예시적으로 도시한 도면이다.
도 5는 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 안저 영상 데이터로부터 안저의 유두(Disc)를 검출한 결과를 예시적으로 도시한 도면이다.
도 6은 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 수행하는 조도 히스토그램 생성 방법의 순서도이다.
도 7 및 8은 다양한 실시예에서, 제1 이진 분류 모델 및 제2 이진 분류 모델의 학습 데이터로써 이용되는 안저 영상 데이터 셋을 예시적으로 도시한 표이다.
도 9는 다양한 실시예에서, 시맨틱 분할 모델의 학습 데이터 샘플을 예시적으로 도시한 도면이다.
도 10은 다양한 실시예에서, 특징별 정상 및 비정상 데이터 샘플을 예시적으로 도시한 도면이다.
도 11은 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 생성한 조도 맵을 예시적으로 도시한 도면이다.
도 12는 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 생성한 조도 히스토그램을 예시적으로 도시한 도면이다.
도 13은 다양한 실시예에서, 품질 점수에 따른 안저 영상 데이터를 예시적으로 도시한 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 영상 데이터 필터링을 위한 품질 점수 임계값 산출 방법의 순서도이다.
도 15는 다양한 실시예에서, Q분위에 따른 연결요소 레이블링 결과의 예시를 도시한 도면이다.
도 16은 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치의 하드웨어 구성도이다.
1 is a diagram illustrating a system for calculating a quality score of fundus image data using artificial intelligence according to an embodiment of the present invention.
2 is a diagram illustrating an apparatus 100 for calculating a quality score of fundus image data according to another embodiment of the present invention.
3 is a flowchart of a method of calculating a quality score of fundus image data according to another embodiment of the present invention.
4 is a diagram illustrating a quality map generated by an apparatus for calculating a quality score of fundus image data in various embodiments.
5 is a diagram illustrating a result of detecting a disc of a fundus from fundus image data by an apparatus for calculating a quality score of fundus image data, according to various embodiments.
6 is a flowchart of a method of generating an illuminance histogram performed by an apparatus for calculating a quality score of fundus image data in various embodiments.
7 and 8 are tables exemplarily illustrating fundus image data sets used as training data of a first binary classification model and a second binary classification model in various embodiments.
9 is a diagram illustrating a sample of training data of a semantic partitioning model in various embodiments.
10 is a diagram exemplarily illustrating normal and abnormal data samples for each feature in various embodiments.
11 is a diagram illustrating an illuminance map generated by an apparatus for calculating a quality score of fundus image data according to various embodiments.
12 is a diagram illustrating an illuminance histogram generated by an apparatus for calculating a quality score of fundus image data according to various embodiments.
13 is a diagram illustrating fundus image data according to a quality score in various embodiments.
14 is a flowchart of a method of calculating a quality score threshold for filtering image data according to another embodiment of the present invention.
15 is a diagram illustrating an example of a connection element labeling result according to a Q quartile, in various embodiments.
16 is a hardware configuration diagram of an apparatus for calculating a quality score of fundus image data according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

또한, 본 명세서에서는 사용자의 안저를 촬영함으로써 생성되는 안저 영상 데이터를 분석하여 안저 영상 데이터에 대한 품질 점수를 산출하는 것을 기준으로 설명하고 있으나, 이에 한정되지 않고, 다양한 대상을 촬영함으로써 생성되는 영상 데이터를 분석하여 영상 데이터에 대한 품질 점수를 산출하는 어떠한 분야든지 적용이 가능하다. In addition, in the present specification, the description is based on calculating the quality score for the fundus image data by analyzing the fundus image data generated by photographing the user's fundus, but is not limited thereto, and image data generated by photographing various objects It can be applied to any field that analyzes and calculates a quality score for image data.

도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 시스템을 도시한 도면이다.1 is a diagram illustrating a system for calculating a quality score of fundus image data using artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 시스템은 안저 영상 데이터의 품질 점수 산출 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1, a system for calculating a quality score of fundus image data using artificial intelligence according to an embodiment of the present invention includes an apparatus 100 for calculating a quality score of fundus image data, a user terminal 200 and an external server 300. It may include.

여기서, 도 1에 도시된 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 시스템은 일 실시예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the system for calculating the quality score of the fundus image data using artificial intelligence shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. 1, and are added or changed as necessary. Or it can be deleted.

일 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치(100)(이하, "컴퓨팅 장치(100)")는 외부(예: 안저 카메라 모듈, 사용자 단말(200) 및 외부 서버(300))로부터 안저 영상 데이터를 수집할 수 있고, 수집한 안저 영상 데이터를 분석하여 안저 영상 데이터에 대한 품질 점수를 산출할 수 있다.In one embodiment, the apparatus 100 for calculating the quality score of the fundus image data (hereinafter, "computing device 100") is provided with a fundus from the outside (eg, a fundus camera module, a user terminal 200 and an external server 300). Image data may be collected, and a quality score for fundus image data may be calculated by analyzing the collected fundus image data.

다양한 실시예에서, 컴퓨팅 장치(100)는 인공지능 모델을 이용하여 안저 영상 데이터로부터 하나 이상의 특징값을 추출할 수 있고, 추출한 하나 이상의 특징값을 이용하여 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출할 수 있으며, 산출된 복수의 품질 등급 각각에 속할 확률을 이용하여 안저 영상 데이터에 대한 품질 점수를 산출할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may extract one or more feature values from the fundus image data using an artificial intelligence model, and each of a plurality of preset quality levels for the fundus image data using the extracted one or more feature values. It is possible to calculate the probability of belonging to, and by using the probability of belonging to each of the plurality of quality classes calculated, a quality score for the fundus image data may be calculated. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 영상 데이터를 분석하여 영상 데이터를 필터링 하기 위한 품질 점수 임계값을 결정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 영상 데이터 각각에 대한 품질 점수를 이용하여 복수의 영상 데이터를 복수의 품질 등급으로 분류하고, 각 등급에 포함된 영상 데이터에 대한 질병 분류 성능을 판단하여 복수의 품질 등급을 2개의 그룹으로 클러스터링할 수 있으며, 클러스터링 된 2개의 그룹 간의 품질 점수 경계값을 이용하여 영상 데이터의 품질 점수 임계값을 산출할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may analyze the image data and determine a quality score threshold for filtering the image data. For example, the computing device 100 classifies a plurality of image data into a plurality of quality classes using quality scores for each of the plurality of image data, and determines disease classification performance for image data included in each class. A plurality of quality grades may be clustered into two groups, and a quality score threshold value of image data may be calculated using a quality score boundary value between the clustered two groups. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 안저 영상 데이터의 품질 점수에 기초하여 안저 영상 데이터를 필터링할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 안저 영상 데이터의 품질 점수가 기 설정된 기준 점수(예: 품질 점수 임계값) 미만인 경우, 해당 안저 영상 데이터를 필터링하여 진단 판독 대상에서 제외시킬 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may filter the fundus image data based on the quality score of the fundus image data. For example, when the quality score of the fundus image data is less than a preset reference score (eg, a quality score threshold), the computing device 100 may filter the fundus image data and exclude it from the subject of diagnosis reading. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 안저 영상 데이터의 품질 점수에 기초하여 안저 영상 데이터를 재촬영할 것을 안내할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 안저 영상 데이터의 품질 점수가 기 설정된 기준 점수(예: 품질 점수 임계값) 미만인 경우, 안저 영상 데이터를 업로드한 사용자의 사용자 단말(200)로 안저 영상을 재촬영하여 업로드할 것을 안내하는 안내 메시지를 출력할 수 있다. 그러나, 이에 한정되지 않는다. 여기서, 컴퓨팅 장치(100)는 사용자 단말(200)로부터 기 설정된 시간 내에 안저 영상 데이터가 재업로드되지 않거나 재업로드가 불가능함을 알리는 사용자 입력을 얻는 경우, 해당 안저 영상 데이터를 필터링하여 진단 판독 대상에서 제외시킬 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may guide the re-taking of the fundus image data based on the quality score of the fundus image data. For example, when the quality score of the fundus image data is less than a preset reference score (eg, a quality score threshold), the computing device 100 reproduces the fundus image to the user terminal 200 of the user who uploaded the fundus image data. A guide message instructing you to shoot and upload can be output. However, it is not limited thereto. Here, when the computing device 100 obtains a user input from the user terminal 200 indicating that the fundus image data is not re-uploaded or re-upload is impossible within a preset time, the fundus image data is filtered and Can be excluded. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 안저 영상 데이터의 품질 점수가 기 설정된 기준 점수(예: 품질 점수 임계값) 이상인 경우, 해당 안저 영상 데이터를 분석하여 안저 관련 질환을 진단 및 예측하는 진단 판독을 수행할 수 있고, 진단 판독의 수행 결과를 사용자 단말(200)로 제공할 수 있다. 예를 들어, 컴퓨팅 장치(100)은 기 학습된 인공지능 모델을 이용하여 안저 영상 데이터를 분석함으로써, 안저 관련 질환이 있는지 여부를 진단하고, 진단 결과를 진단 결과 보고서 형태로 작성하여 사용자 단말(200)로 제공할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the quality score of the fundus image data is equal to or higher than a preset reference score (eg, a quality score threshold), the computing device 100 analyzes the fundus image data to diagnose and predict a fundus-related disease. May be performed, and a result of performing diagnostic reading may be provided to the user terminal 200. For example, the computing device 100 diagnoses whether there is a fundus-related disease by analyzing fundus image data using a previously learned artificial intelligence model, and writes the diagnosis result in the form of a diagnosis result report to the user terminal 200 ) Can be provided. However, it is not limited thereto.

일 실시예에서, 사용자 단말(200)은 네트워크(400)를 통해 컴퓨팅 장치(100)와 연결될 수 있으며, 컴퓨팅 장치(100)로 안저 영상 데이터를 제공하거나, 컴퓨팅 장치(100)로부터 각종 데이터(예: 안저 영상 데이터의 분석을 통한 진단 결과 보고서 등)을 제공받을 수 있다.In one embodiment, the user terminal 200 may be connected to the computing device 100 through the network 400, provide fundus image data to the computing device 100, or provide various data from the computing device 100 (e.g. : You can receive a diagnosis result report through analysis of fundus image data).

다양한 실시예에서, 사용자 단말(200)은 사용자 단말(200)의 적어도 일부분에 디스플레이를 구비하는 스마트폰, 태블릿 PC, 노트북 및 데스크탑을 포함할 수 있으며, 디스플레이를 통해 컴퓨팅 장치(100)로부터 제공되는 사용자 인터페이스(User interface, UI)(예: 안저 영상 데이터 업로드 UI, 진단 결과 보고서 제공 UI 등)를 출력할 수 있다.In various embodiments, the user terminal 200 may include a smartphone, a tablet PC, a notebook, and a desktop having a display on at least a portion of the user terminal 200, and provided from the computing device 100 through the display. A user interface (UI) (eg, a fundus image data upload UI, a diagnostic result report UI, etc.) can be output.

다양한 실시예에서, 사용자 단말(200)은 내부에 별도에 영상 데이터를 생성하는 카메라 모듈을 별도로 구비하거나, 외부의 카메라 장치와 연결되어 외부의 카메라 장치로부터 생성되는 영상 데이터를 제공받을 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the user terminal 200 may separately include a camera module for generating image data therein, or may be connected to an external camera device to receive image data generated from an external camera device. However, it is not limited thereto.

일 실시예에서, 외부 서버(300)는 네트워크(400)를 통해 컴퓨팅 장치(100)와 연결될 수 있으며, 컴퓨팅 장치(100)가 안저 영상 데이터의 품질 점수를 산출하는 과정을 수행하기 위해 필요한 각종 데이터(예: 안저 영상 데이터 등)를 제공하거나 컴퓨팅 장치(100)로부터 생성된 각종 데이터(예: 안저 영상 데이터의 품질 점수 산출 결과 등)를 제공받아 저장할 수 있다. 예를 들어, 외부 서버(300)는 복수의 환자 각각에 대한 안저 영상 데이터를 저장하는 병원 서버일 수 있다. 그러나, 이에 한정되지 않는다. 이하, 도 2 및 3을 참조하며, 컴퓨팅 장치(100)가 수행하는 안저 영상 데이터의 품질 점수 산출 방법을 설명하도록 한다.In one embodiment, the external server 300 may be connected to the computing device 100 through the network 400, and various data necessary for the computing device 100 to perform a process of calculating the quality score of the fundus image data (Eg, fundus image data) may be provided, or various data generated from the computing device 100 (eg, a result of calculating a quality score of fundus image data) may be provided and stored. For example, the external server 300 may be a hospital server that stores fundus image data for each of a plurality of patients. However, it is not limited thereto. Hereinafter, with reference to FIGS. 2 and 3, a method of calculating a quality score of fundus image data performed by the computing device 100 will be described.

도 2는 본 발명의 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(100)를 도시한 도면이며, 도 3은 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 방법의 순서도이다.2 is a diagram showing an apparatus 100 for calculating a quality score of fundus image data according to another embodiment of the present invention, and FIG. 3 is a flowchart of a method of calculating a quality score of fundus image data according to another embodiment of the present invention to be.

도 2 및 3을 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 외부로부터 안저 영상 데이터를 수집할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 안저 카메라 모듈(미도시)로부터 사용자의 안저를 촬영함으로써 생성된 안저 영상 데이터(예: 이미지 데이터 및 동영상 데이터)를 실시간으로 제공받을 수 있다.2 and 3, in step S110, the computing device 100 may collect fundus image data from the outside. For example, the computing device 100 may receive fundus image data (eg, image data and video data) generated by photographing a user's fundus from a fundus camera module (not shown) in real time.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자 단말(200) 또는 외부 서버(300)와 연결되어 사용자 단말(200) 또는 외부 서버(300)에 기 저장된 복수의 안저 영상 데이터 중 적어도 하나의 안저 영상 데이터를 제공받을 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 is connected to the user terminal 200 or the external server 300, and at least one fundus image from among a plurality of fundus image data previously stored in the user terminal 200 or the external server 300 Data can be provided. However, it is not limited thereto.

S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 안저 영상 데이터를 분석하여 안저 영상 데이터로부터 하나 이상의 특징값을 추출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 특징 추출 모듈(110)을 이용하여 S110 단계에서 수집한 안저 영상 데이터를 분석함으로써, 하나 이상의 특징값을 추출할 수 있다.In step S120, the computing device 100 may extract one or more feature values from the fundus image data by analyzing the fundus image data collected in step S110. For example, the computing device 100 may extract one or more feature values by analyzing the fundus image data collected in step S110 using the feature extraction module 110.

여기서, 특징 추출 모듈(110)은 복수의 안저 영상 데이터를 학습 데이터로써 기 학습한 인공지능 모델을 이용하여 안저 영상 데이터가 비정상 등급에 속할 확률, 안저 영상 데이터의 품질 맵(Quality Map), 선명도(Brightness), 초점값(Focus), 조도 히스토그램(Illumination histogram) 및 원마도(Roundness) 중 적어도 하나를 포함하는 특징값을 추출하는 모듈일 수 있다. 그러나, 이에 한정되지 않고, 안저 영상 데이터에 대한 품질 점수를 산출하기 위해 필요한 어떠한 특징값이든 적용이 가능하다.Here, the feature extraction module 110 uses an artificial intelligence model that has previously learned a plurality of fundus image data as training data, the probability that the fundus image data belongs to the abnormal grade, the quality map of the fundus image data, and the sharpness ( Brightness), a focus value (Focus), an illumination histogram (Illumination histogram), and a roundness (Roundness) may be a module for extracting a feature value including at least one of. However, the present invention is not limited thereto, and any feature value required to calculate a quality score for fundus image data may be applied.

다양한 실시예에서, 컴퓨팅 장치(100)는 특징 추출 모듈(110)에 의해 동작되며, 서로 다른 기준에 따라 안저 영상 데이터를 이진 분류(예: 정상 등급 및 비정상 등급)하는 2개의 이진 분류 모델(예: 제1 이진 분류 모델(111) 및 제2 이진 분류 모델(112))을 이용하여 안저 영상 데이터에 대한 비정상 등급 확률을 산출할 수 있다. In various embodiments, the computing device 100 is operated by the feature extraction module 110, and two binary classification models (e.g., normal and abnormal) classify fundus image data according to different criteria. : An abnormal grade probability for fundus image data may be calculated using the first binary classification model 111 and the second binary classification model 112).

또한, 컴퓨팅 장치(100)는 2개의 이진 분류 모델을 이용하여 안저 영상 데이터의 비정상 영역을 시각화한 품질 맵을 생성할 수 있다.Also, the computing device 100 may generate a quality map visualizing an abnormal area of fundus image data using two binary classification models.

여기서, 이진 분류 모델은 기 설정된 복수의 품질 등급(예: 제1 등급(예: good 등급), 제1 등급보다 낮은 제2 등급(예: usable 등급) 및 제2 등급보다 낮은 제3 등급(예: reject 등급))에 따라 분류된 복수의 안저 영상 데이터(예: 도 7 및 8)를 학습 데이터로써 기 학습한 인공지능 모델일 수 있다. 예를 들어, 이진 분류 모델은 안저 영상 데이터 셋(예: 도 7)을 이용할 수 있으며, 안저 영상 데이터 셋에 포함된 복수의 안저 영상 데이터 중 학습 데이터 셋을 나눠 90%(11288개)를 학습 데이터로써 이용하고, 나머지 10%(1255개)를 이진 분류 모델을 검증하기 위한 검증 데이터로써 이용할 수 있다. 또한, 이진 분류 모델의 타입(제1 이진 분류 모델(111)과 제2 이진 분류 모델(112))에 따라 데이터 구성이 다른 점을 고려하여 각 이진 라벨별 데이터 수가 동일하도록 샘플링(예: 도 8)할 수 있다. 그러나, 이에 한정되지 않는다.Here, the binary classification model includes a plurality of preset quality grades (e.g., a first grade (e.g. good grade), a second grade lower than the first grade (e.g., usable grade)), and a third grade lower than the second grade (e.g. : Reject grade)), a plurality of fundus image data (eg, Figs. 7 and 8) classified according to the training data may be pre-trained artificial intelligence models. For example, the binary classification model may use a fundus image data set (for example, FIG. 7), and 90% (11288 pieces) is obtained by dividing the training data set among a plurality of fundus image data included in the fundus image data set. And the remaining 10% (1255) can be used as verification data for verifying the binary classification model. In addition, taking into account that the data structure is different according to the type of the binary classification model (the first binary classification model 111 and the second binary classification model 112), sampling so that the number of data for each binary label is the same (for example, FIG. 8 )can do. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 제1 등급 및 제2 등급을 정상 등급으로 분류하고 제3 등급을 비정상 등급으로 분류하는 제1 이진 분류 모델(111)을 이용하여 안저 영상 데이터가 비정상 등급(예: 제3 등급)에 속할 확률인 제1 비정상 등급 확률을 산출할 수 있다.In various embodiments, the computing device 100 uses the first binary classification model 111 to classify the first class and the second class as a normal class and classify the third class as an abnormal class, so that the fundus image data is an abnormal class. (Example: The probability of belonging to the third grade), which is the probability of a first abnormal grade, can be calculated.

또한, 컴퓨팅 장치(100)는 제1 이진 분류 모델(111)을 이용하여 안저 영상 데이터 내에 포함된 비정상 패치(Patch)를 시각화한 제1 품질 맵(예: 도 4)을 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 안저 영상 데이터 내에 포함된 비정상 패치를 적색으로 시각화하고 정상 패치를 청색으로 시각화하는 제1 품질 맵을 생성할 수 있다. 그러나, 이에 한정되지 않는다.In addition, the computing device 100 may generate a first quality map (eg, FIG. 4) visualizing an abnormal patch included in the fundus image data using the first binary classification model 111. For example, the computing device 100 may generate a first quality map for visualizing an abnormal patch included in the fundus image data in red and visualizing a normal patch in blue. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 제1 등급을 정상 등급으로 분류하고 제2 등급 및 제3 등급을 비정상 등급으로 분류하는 제2 이진 분류 모델(112)을 이용하여 안저 영상 데이터가 비정상 등급(예: 제2 등급 또는 제3 등급)에 속할 확률인 제2 비정상 등급 확률을 산출할 수 있다.In various embodiments, the computing device 100 uses the second binary classification model 112 that classifies the first class as a normal class and classifies the second and third classes as an abnormal class, so that the fundus image data is an abnormal class. The second abnormal grade probability, which is the probability of belonging to the second grade or the third grade, can be calculated.

또한, 컴퓨팅 장치(100)는 제2 이진 분류 모델(112)을 이용하여 안저 영상 데이터 내에 포함된 비정상 패치를 시각화한 제2 품질 맵(예: 도 4)을 생성할 수 있다. 그러나, 이에 한정되지 않는다.In addition, the computing device 100 may generate a second quality map (eg, FIG. 4) visualizing an abnormal patch included in the fundus image data using the second binary classification model 112. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 시맨틱 분할 모델(113)을 이용하여 안저 영상 데이터 내에 포함된 안저의 유두(Disc)(예: 안저의 바깥 테두리 부분)에 대한 원마도를 산출할 수 있다.In various embodiments, the computing device 100 may calculate a roundness for a fundus disc (eg, an outer rim of the fundus) included in the fundus image data using the semantic segmentation model 113. .

여기서, 시맨틱 분할 모델(113)은 안저와 관련된 다양한 오픈 데이터(예: 도 9)를 학습 데이터로써 기 학습한 인공지능 모델일 수 있다. 예를 들어, 시맨틱 분할 모델(113)은 iChallenge-AMD 데이터 400개, PALM Challenge 데이터 187개 및 REFUGE Challenge 데이터 800개를 학습 데이터로써 이용할 수 있으며, 800개의 REFUGE Challenge 데이터 중 일부(약 80개)를 시맨틱 분할 모델(113)을 검증하기 위한 검증 데이터로써 이용할 수 있다. 그러나, 이에 한정되지 않는다.Here, the semantic segmentation model 113 may be an artificial intelligence model in which various open data related to the fundus (eg, FIG. 9) are previously learned as training data. For example, the semantic partitioning model 113 can use 400 iChallenge-AMD data, 187 PALM Challenge data, and 800 REFUGE Challenge data as training data, and some (about 80) of 800 REFUGE Challenge data. It can be used as verification data for verifying the semantic segmentation model 113. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 시맨틱 분할 모델(113)을 이용하여 안저 영상 데이터 내에 포함된 안저의 유두에 대응되는 영역(예: 도 5)을 검출할 수 있고, 타원 정합법(ellipse fitting)을 이용하여 검출된 안저의 유두에 대응되는 영역의 장축 길이(Minor_axis(Disc))와 단축 길이(Major_axis(Disc))를 추출할 수 있으며, 추출된 장축 길이와 단축 길이의 비율(예: Minor_axis(Disc)/Major_axis(Disc))을 이용하여 안저의 원마도를 산출할 수 있다.In various embodiments, the computing device 100 may detect a region (eg, FIG. 5) corresponding to the nipple of the fundus included in the fundus image data using the semantic segmentation model 113, and the ellipse matching method (ellipse fitting) can be used to extract the major axis length (Minor_axis(Disc)) and minor axis length (Major_axis(Disc)) of the region corresponding to the detected fundus nipple, and the ratio of the extracted major axis length and minor axis length (e.g.: The roundness of the fundus can be calculated using Minor_axis(Disc)/Major_axis(Disc)).

이때, 컴퓨팅 장치(100)는 안저의 유두에 대한 장축 길이가 0인 경우, 원마도를 0으로 산출할 수 있다. 그러나, 이에 한정되지 않는다.In this case, when the length of the major axis of the nipple of the fundus is 0, the computing device 100 may calculate the roundness as 0. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 특징 추출 모델(114)를 이용하여 안저 영상 데이터의 선명도를 산출할 수 있다.In various embodiments, the computing device 100 may calculate the sharpness of the fundus image data using the feature extraction model 114.

여기서, 특징 추출 모델(114)은 기 설정된 복수의 품질 등급에 따라 분류된 복수의 안저 영상 데이터(예: 도 7)로부터 각각의 특징(예: 선명도, 초점값 및 조도 히스토그램 등)별 샘플을 추출하고, 추출된 샘플을 피쳐 엔지니어링(Feature Engineering)한 데이터(예: 도 10)를 학습 데이터로써 기 학습한 인공지능 모델일 수 있다. 그러나, 이에 한정되지 않는다.Here, the feature extraction model 114 extracts samples for each feature (eg, sharpness, focus value, and illuminance histogram) from a plurality of fundus image data (eg, FIG. 7) classified according to a plurality of preset quality classes. And, it may be an artificial intelligence model that has previously learned data (eg, FIG. 10) obtained by feature engineering the extracted sample as training data. However, it is not limited thereto.

다양한 실시예에서, 특징 추출 모델(114)은 본 발명의 다양한 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치를 이용하여 안저 영상 데이터에 대한 품질 점수를 산출하는 관리자에 의해 직접 작성된(hand crafted) 모델일 수 있다. 예를 들어, 특징 추출 모델(114)은 실험을 통해 도출된 결과에 따라 설정된 모델일 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the feature extraction model 114 is hand crafted by an administrator who calculates the quality score for the fundus image data using the device for calculating the quality score of the fundus image data according to various embodiments of the present invention. It can be a model. For example, the feature extraction model 114 may be a model set according to a result derived through an experiment. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 전체적으로 너무 밝거나 너무 어두워서 안저의 정확한 식별이 어려운 안저 영상 데이터를 검출하기 위하여 특징 추출 모델(114)을 이용함으로써, 안저 영상 데이터의 선명도(예: 제1 선명도 및 제2 선명도)를 산출할 수 있다. In various embodiments, the computing device 100 uses the feature extraction model 114 to detect fundus image data that is difficult to accurately identify the fundus because it is too bright or too dark as a whole, so that the sharpness of the fundus image data (for example, the first Sharpness and second sharpness) can be calculated.

다양한 실시예에서, 컴퓨팅 장치(100)는 하기의 수학식 2을 이용하여 제1 선명도를 산출할 수 있고, 수학식 3을 이용하여 제2 선명도를 산출할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may calculate the first sharpness by using Equation 2 below, and may calculate the second sharpness by using Equation 3 below. However, it is not limited thereto.

Figure 112020035648079-pat00014
Figure 112020035648079-pat00014

Figure 112020035648079-pat00015
Figure 112020035648079-pat00015

여기서, X는 안저 영상 데이터 값, std(X)는

Figure 112020035648079-pat00016
, grayscale(X)는
Figure 112020035648079-pat00017
으로 안저 영상 데이터의 그레이 스케일 값, XR는 안저 영상 데이터의 R채널 값, XG는 안저 영상 데이터의 G채널 값, XB는 안저 영상 데이터의 B채널 값 및 mean(X)는
Figure 112020035648079-pat00018
일 수 있다.Where X is the fundus image data value, and std(X) is
Figure 112020035648079-pat00016
, grayscale(X) is
Figure 112020035648079-pat00017
As the gray scale value of the fundus image data, X R is the R channel value of the fundus image data , X G is the G channel value of the fundus image data, X B is the B channel value and mean(X) of the fundus image data.
Figure 112020035648079-pat00018
Can be

다양한 실시예에서, 컴퓨팅 장치(100)는 특징 추출 모델(114)를 이용하여 안저 영상 데이터의 초점값을 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 초점이 흐려져 작은 출혈을 식별하기 어려운 안저 영상 데이터를 검출하기 위하여 특징 추출 모델(114)을 이용함으로써, 안저 영상 데이터의 초점값을 산출할 수 있다.In various embodiments, the computing device 100 may calculate the focus value of the fundus image data using the feature extraction model 114. For example, the computing device 100 may calculate the focal value of the fundus image data by using the feature extraction model 114 to detect fundus image data that is difficult to identify small bleeding due to the blurred focus.

다양한 실시예에서, 컴퓨팅 장치(100)는 하기의 수학식 4를 이용하여 안저 영상 데이터에 대한 초점값을 산출할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may calculate a focus value for fundus image data using Equation 4 below. However, it is not limited thereto.

Figure 112020035648079-pat00019
Figure 112020035648079-pat00019

여기서, X는 안저 영상 데이터 값, std(X)는

Figure 112020035648079-pat00020
, grayscale(X)는
Figure 112020035648079-pat00021
으로 안저 영상 데이터의 그레이 스케일 값, XR는 안저 영상 데이터의 R채널 값, XG는 안저 영상 데이터의 G채널 값, XB는 안저 영상 데이터의 B채널 값, , kernelx
Figure 112020035648079-pat00022
으로 x방향의 3x3 커널(예: kernelx=
Figure 112020035648079-pat00023
), kernely
Figure 112020035648079-pat00024
으로 y방향의 3x3 커널(예: kernely=
Figure 112020035648079-pat00025
)일 수 있다.Where X is the fundus image data value, and std(X) is
Figure 112020035648079-pat00020
, grayscale(X) is
Figure 112020035648079-pat00021
As the gray scale value of the fundus image data, X R is the R channel value of the fundus image data , X G is the G channel value of the fundus image data, X B is the B channel value of the fundus image data, and kernel x is
Figure 112020035648079-pat00022
3x3 kernel in the x direction (e.g. kernel x =
Figure 112020035648079-pat00023
), kernel y is
Figure 112020035648079-pat00024
3x3 kernel in y direction (e.g. kernel y =
Figure 112020035648079-pat00025
) Can be.

다양한 실시예에서, 컴퓨팅 장치(100)는 특징 추출 모델(114)을 이용하여 안저 영상 데이터의 조도 히스토그램을 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 밝기가 고르지 않은 안저 영상 데이터를 검출하기 위하여 특징 추출 모델(114)을 이용함으로써, 안저 영상 데이터의 조도 히스토그램을 생성할 수 있다. 이하, 도 6을 참조하여 설명하도록 한다.In various embodiments, the computing device 100 may generate an illuminance histogram of fundus image data using the feature extraction model 114. For example, the computing device 100 may generate an illuminance histogram of fundus image data by using the feature extraction model 114 to detect fundus image data having uneven brightness. Hereinafter, it will be described with reference to FIG. 6.

도 6은 다양한 실시예에서, 안저 영상 데이터의 품질 점수 산출 장치가 수행하는 조도 히스토그램 생성 방법의 순서도이다.6 is a flowchart of a method of generating an illuminance histogram performed by an apparatus for calculating a quality score of fundus image data in various embodiments.

도 6을 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 안저 영상 데이터를 전처리할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 안저 영상 데이터를 기 설정된 크기(예: 256 x 256)로 크기를 변환(Resize)할 수 있다. 그러나, 이에 한정되지 않는다.Referring to FIG. 6, in step S210, the computing device 100 may pre-process the fundus image data. For example, the computing device 100 may resize the fundus image data to a preset size (eg, 256 x 256). However, it is not limited thereto.

S220 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 기 설정된 크기로 크기가 변환된 안저 영상 데이터로부터 하나 이상의 패치를 추출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 기 설정된 조건(예: 윈도우 사이즈(Window size) 32, 스트라이드(Stride) 16)에 따라 전처리된 안저 영상 데이터를 이동하면서 하나 이상의 패치를 추출할 수 있다. 그러나, 이에 한정되지 않는다.In step S220, the computing device 100 may extract one or more patches from fundus image data whose size has been converted to a preset size through step S210. For example, the computing device 100 may extract one or more patches while moving the pre-processed fundus image data according to a preset condition (eg, window size 32, stride 16). However, it is not limited thereto.

S230 단계에서, 컴퓨팅 장치(100)는 S220 단계를 거쳐 추출된 하나 이상의 패치 각각에 대하여 대표값을 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 하기의 수학식 5를 이용하여 하나 이상의 패치 각각에 대한 대표값을 산출할 수 있다. 그러나, 이에 한정되지 않는다.In step S230, the computing device 100 may calculate a representative value for each of the one or more patches extracted through the step S220. For example, the computing device 100 may calculate a representative value for each of one or more patches using Equation 5 below. However, it is not limited thereto.

Figure 112020035648079-pat00026
Figure 112020035648079-pat00026

여기서, P는 하나 이상의 패치 값, PR은 하나 이상의 패치의 R채널 값, P-G는 하나 이상의 패치의 G채널 값, PB는 하나 이상의 채널의 B채널 값 및 mean(x)는

Figure 112020035648079-pat00027
일 수 있다.Here, P is one or more patch values, P R is the R channel value of one or more patches, P- G is the G channel value of one or more patches, P B is the B channel value of one or more channels, and mean(x) is
Figure 112020035648079-pat00027
Can be

S240 단계에서, 컴퓨팅 장치(100)는 S230 단계를 거쳐 산출된 하나 이상의 패치 각각의 대표값을 이용하여 조도 맵(예: 도 11)을 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 하나 이상의 패치 각각의 대표값을 이용하여 기 설정된 크기(예: 15x15)의 행렬 형태의 조도 맵을 생성할 수 있다. 그러나, 이에 한정되지 않는다.In step S240, the computing device 100 may generate an illuminance map (eg, FIG. 11) using representative values of each of one or more patches calculated through step S230. For example, the computing device 100 may generate an illuminance map in the form of a matrix having a preset size (eg, 15x15) using representative values of each of one or more patches. However, it is not limited thereto.

S250 단계에서, 컴퓨팅 장치(100)는 S240 단계에서 생성한 조도 맵을 이용하여 조도 히스토그램을 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 총 18개의 저장소(bin) 중 17개의 저장소(예: 1 내지 17번 저장소)에는 0 내지 80 범위의 픽셀값에 대하여 계산하고, 마지막 저장소(예: 18번 저장소)에는 80 내지 255 범위의 픽셀값을 계산함으로써 조도 히스토그램(예: 도 12)을 생성할 수 있다. 그러나, 이에 한정되지 않는다.In step S250, the computing device 100 may generate an illuminance histogram using the illuminance map generated in step S240. For example, the computing device 100 calculates pixel values in the range of 0 to 80 in 17 of the total 18 bins (eg, storage 1 to 17), and calculates the pixel value in the range of 0 to 80, and In the storage), an illuminance histogram (eg, FIG. 12) may be generated by calculating pixel values in the range of 80 to 255. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 S250 단계에서 생성한 조도 히스토그램을 이용하여 조도 특징값을 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 정상 영역의 조도 히스토그램(예: 도 12(A))과 비정상 영역의 조도 히스토그램(예: 도 12(B)) 간의 차이를 이용하여 조도 특징값을 산출할 수 있다. 그러나, 이에 한정되지 않는다. In various embodiments, the computing device 100 may calculate an illuminance feature value using the illuminance histogram generated in step S250. For example, the computing device 100 may calculate the illuminance feature value by using the difference between the illuminance histogram of the normal region (e.g., Fig. 12(A)) and the illuminance histogram of the abnormal region (e.g. Fig. 12(B)). I can. However, it is not limited thereto.

다시 도 2 및 3을 참조하면, S130 단계에서, 컴퓨팅 장치(100)는 S120 단계에서 추출한 하나 이상의 특징값을 이용하여 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 품질 분류 모듈(120)을 이용하여 S120 단계에서 추출한 하나 이상의 특징값(예: 제1 비정상 등급 확률, 제1 품질 맵, 제2 비정상 등급 확률, 제2 품질 맵, 원마도, 제1 선명도, 제2 선명도, 초점값, 조도 히스토그램 및 조도 특징값)을 분석함으로써, 안저 영상 데이터가 제1 등급에 속할 확률(prob(G1)), 안저 영상 데이터가 제2 등급에 속할 확률(prob(G2)) 및 안저 영상 데이터가 제3 등급에 속할 확률(prob(G3))을 산출할 수 있다. Referring back to FIGS. 2 and 3, in step S130, the computing device 100 may calculate a probability that the fundus image data belongs to each of a plurality of preset quality classes by using one or more feature values extracted in step S120. For example, the computing device 100 uses the quality classification module 120 to determine one or more feature values (eg, a first abnormal grade probability, a first quality map, a second abnormal grade probability, a second quality) extracted in step S120. By analyzing map, roundness, first sharpness, second sharpness, focus value, illuminance histogram and illuminance feature value), the probability that fundus image data belongs to the first class (prob(G 1 )) and fundus image data are determined. The probability of belonging to the second grade (prob(G 2 )) and the probability that the fundus image data belong to the third grade (prob(G 3 )) can be calculated.

다양한 실시예에서, 컴퓨팅 장치(100)는 품질 분류 모듈(120)에 의해 동작되는 분류 모델(예: Classification model)을 이용하여 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출할 수 있다.In various embodiments, the computing device 100 may calculate a probability that the fundus image data belongs to each of a plurality of preset quality classes using a classification model (eg, a classification model) operated by the quality classification module 120. have.

여기서, 분류 모델은 특징 추출 모듈(110)로부터 추출된 하나 이상의 특징값을 학습 데이터로 사용하여 기 학습된 인공지능 모델일 수 있다. 예를 들어, 분류 모델은 안저 영상 데이터 셋(예: 도 7)의 학습 데이터 셋과 검증 데이터 셋으로부터 하나 이상의 특징값을 추출하고, 추출된 하나 이상의 특징값을 학습 데이터로 이용할 수 있다. 이때, 학습 데이터 셋으로부터 추출된 하나 이상의 특징값 중 90%를 학습에 이용하고 나머지 10%를 분류 모델의 검증에 이용할 수 있다. 그러나, 이에 한정되지 않는다.Here, the classification model may be an artificial intelligence model previously learned by using one or more feature values extracted from the feature extraction module 110 as training data. For example, the classification model may extract one or more feature values from a training data set and a verification data set of a fundus image data set (eg, FIG. 7 ), and use the extracted one or more feature values as training data. At this time, 90% of one or more feature values extracted from the training data set may be used for training and the remaining 10% may be used for verification of the classification model. However, it is not limited thereto.

이후, 컴퓨팅 장치(100)는 새로운 안저 영상 데이터가 획득되는 경우, 해당 안저 영상 데이터에 대한 품질을 평가하기 위해 해당 안저 영상 데이터로부터 상술한 하나 이상의 특징값을 추출하고, 이를 기 학습된 인공지능 모델에 입력함으로써 해당 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출할 수 있다.Thereafter, when new fundus image data is acquired, the computing device 100 extracts one or more of the above-described feature values from the fundus image data in order to evaluate the quality of the fundus image data, and this is a pre-learned artificial intelligence model. By inputting to, the probability that the fundus image data belongs to each of a plurality of preset quality classes may be calculated.

S140 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 산출된 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 이용하여 안저 영상 데이터에 대한 품질 점수를 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 품질 점수 산출 모듈(130)을 이용하여 안저 영상 데이터에 대한 품질 점수를 산출할 수 있다(예: 도 13).In step S140, the computing device 100 may calculate a quality score for the fundus image data using a probability that the fundus image data calculated in step S130 belongs to each of a plurality of preset quality classes. For example, the computing device 100 may calculate a quality score for fundus image data using the quality score calculation module 130 (eg, FIG. 13 ).

다양한 실시예에서, 컴퓨팅 장치(100)는 하기의 수학식 1을 이용하여 안저 영상 데이터에 대한 품질 점수를 산출할 수 있다.In various embodiments, the computing device 100 may calculate a quality score for the fundus image data using Equation 1 below.

Figure 112020035648079-pat00028
Figure 112020035648079-pat00028

여기서, prob(G1)은 안저 영상 데이터가 제1 등급에 속할 확률, prob(G2)는 안저 영상 데이터가 제2 등급에 속할 확률, prob(G3)는 안저 영상 데이터가 제3 등급에 속할 확률, C1, C2 및 C3는 기 설정된 상수값(예: C1은 2, C2는 1 및 C3는 0)일 수 있다.Here, prob(G 1 ) is the probability that the fundus image data belongs to the first grade, prob(G 2 ) is the probability that the fundus image data belongs to the second grade, and prob(G 3 ) is the fundus image data belongs to the third grade. The probability of belonging, C 1 , C 2, and C 3 may be preset constant values (eg, 2 for C 1 , 1 for C 2 , and 0 for C 3 ).

본 발명의 다양한 실시예에 따르면, 상기의 안저 영상 데이터의 품질 점수 산출 방법에 따라 산출된 품질 점수를 이용하여 안저 영상 데이터를 분류함으로써, 종래의 안저 영상 데이터의 품질 분류 모델 대비 높은 분류 성능을 가진다는 이점이 있다.According to various embodiments of the present disclosure, by classifying fundus image data using a quality score calculated according to the method for calculating the quality score of the fundus image data, it has higher classification performance than a conventional fundus image data quality classification model. Has an advantage.

보다 구체적으로, 안저 영상 데이터 셋(예: 도 7)의 검증용 데이터 셋을 토대로 안저 영상 데이터를 분류하여 본 발명의 일 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(100)의 분류 성능을 측정한 결과 아래의 표 1에서와 같이 종래의 안저 영상 데이터 품질 분류 모델 대비 2.31% 높은 분류 성능을 보였다.More specifically, the classification performance of the apparatus 100 for calculating the quality score of the fundus image data according to an embodiment of the present invention by classifying the fundus image data based on the verification data set of the fundus image data set (eg, FIG. 7 ). As a result of the measurement, as shown in Table 1 below, the classification performance was 2.31% higher than that of the conventional fundus image data quality classification model.

이를 토대로, 본 발명의 일 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(100)가 산출한 안저 영상 데이터의 품질 점수가 타당함을 입증할 수 있다.Based on this, it can be verified that the quality score of the fundus image data calculated by the apparatus 100 for calculating the quality score of the fundus image data according to an embodiment of the present invention is valid.

Figure 112020035648079-pat00029
Figure 112020035648079-pat00029

다양한 실시예에서, 컴퓨팅 장치(100)는 영상 데이터를 분석하여 영상 데이터를 필터링 하기 위한 품질 점수 임계값을 결정할 수 있다. 이하, 도 14를 참조하여 설명하도록 한다.In various embodiments, the computing device 100 may analyze the image data and determine a quality score threshold for filtering the image data. Hereinafter, it will be described with reference to FIG. 14.

도 14는 본 발명의 또 다른 실시예에 따른 영상 데이터 필터링을 위한 품질 점수 임계값 산출 방법의 순서도이다.14 is a flowchart of a method of calculating a quality score threshold for filtering image data according to another embodiment of the present invention.

도 14를 참조하면, S301 단계에서, 컴퓨팅 장치(100)는 외부로부터 영상 데이터를 수집할 수 있고, S302 단계에서 수집한 영상 데이터를 분석하여 영상 데이터에 대한 품질 점수를 산출할 수 있다(예: 도 3의 S110 단계 내지 S140 단계).Referring to FIG. 14, in step S301, the computing device 100 may collect image data from the outside, and may calculate a quality score for the image data by analyzing the image data collected in step S302 (eg: Steps S110 to S140 of Figure 3).

S304 단계에서, 컴퓨팅 장치(100)는 S302 단계에서 산출된 복수의 영상 데이터 각각의 품질 점수에 기초하여 복수의 영상 데이터를 Q분위로 영상 데이터를 그룹핑할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 품질 점수에 기초하여 복수의 영상 데이터를 정렬(예: 오름차순으로 정렬)하고, 정렬된 복수의 영상 데이터를 동일한 규모(예: 동일한 개수의 영상 데이터를 가지도록)를 가지는 Q개의 그룹으로 그룹화할 수 있다. 그러나, 이에 한정되지 않는다. In step S304, the computing device 100 may group the image data into the Q quintile based on the quality score of each of the plurality of image data calculated in step S302. For example, the computing device 100 sorts a plurality of image data based on the quality score (eg, sorts in ascending order), and arranges the sorted plurality of image data to have the same scale (eg, the same number of image data). ) Can be grouped into Q groups. However, it is not limited thereto.

S305 단계에서, 컴퓨팅 장치(100)는 S303 단계에서 추출한 질병 분류 결과를 이용하여 S304 단계를 거쳐 그룹화된 Q개의 그룹 각각에 대한 질병 분류 성능을 평가할 수 있다.In step S305, the computing device 100 may evaluate the disease classification performance for each of the Q groups grouped through the step S304 using the disease classification result extracted in step S303.

예를 들어, 컴퓨팅 장치(100)는 복수의 품질 등급 각각에 포함된 하나 이상의 영상 데이터를 분석하여 복수의 품질 등급 각각의 정밀도(Precision)(예: 질병이 있는 것으로 판단된 영상 데이터 중 실제 질병이 있는 환자에 대응되는 영상 데이터의 비율) 및 재현율(Recall)(예: 실제 질병이 있는 환자에 대응되는 영상 데이터 중 진단 모델을 통해 질병이 있는 것으로 판단된 영상 데이터의 비율)을 산출할 수 있다.For example, the computing device 100 analyzes one or more image data included in each of a plurality of quality classes, and determines the precision of each of the plurality of quality classes (for example, the actual disease is determined as having a disease). A ratio of image data corresponding to a patient with a disease) and a recall (eg, a ratio of image data that is determined to have a disease through a diagnosis model among image data corresponding to a patient with an actual disease) may be calculated.

이후, 컴퓨팅 장치(100)는 정밀도와 재현율을 이용하여 하나 이상의 영상 데이터에 대한 질병 분류 성능을 가리키는 F1 점수(f1 score)를 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 정밀도와 재현율의 조화평균(예: 2*(정밀도*재현율)/(정밀도+재현율))을 산출함으로써, f1 점수를 산출할 수 있다. 그러나, 이에 한정되지 않고, FPR(False Positive Rate)(예: 실제 질병이 없는 환자에 대응되는 영상 데이터 중 진단 모듈을 통해 질병이 있는 것으로 판단된 영상 데이터의 비율), ROC(Receiver Operating Characteristic) curve(예: FPR과 재현율 간의 변화를 나타내는 그래프) 및 AUC(Area Under Curve)(예: ROC curve의 면적값) 등 다양한 지표를 이용하여 질병 분류 성능을 판단할 수 있다.Thereafter, the computing device 100 may calculate an F1 score indicating disease classification performance for one or more image data using precision and recall. For example, the computing device 100 may calculate an f1 score by calculating a harmonic average of precision and recall (eg, 2*(precision*reproducibility)/(precision+reproducibility)). However, the present invention is not limited thereto, and FPR (False Positive Rate) (e.g., the ratio of the image data determined to have a disease through the diagnosis module among image data corresponding to a patient without actual disease), and a Receiver Operating Characteristic (ROC) curve Disease classification performance can be judged using various indicators such as (e.g., a graph showing the change between FPR and recall) and AUC (Area Under Curve) (e.g., the area value of the ROC curve).

S306 단계에서, 컴퓨팅 장치(100)는 S305 단계에서 산출된 Q개의 그룹별 질병 분류 성능 평가 결과에 기초하여 Q개의 그룹을 2개의 그룹으로 클러스터링할 수 있다.In step S306, the computing device 100 may cluster the Q groups into two groups based on the disease classification performance evaluation result for each Q group calculated in step S305.

예를 들어, 컴퓨팅 장치(100)는 F1 점수와 기준 F1 점수를 비교하여 질병 분류 성능이 좋은 하나 이상의 품질 등급을 포함하는 제1 그룹(예: F1 점수가 기준 F1 점수 이상인 그룹, 제1 등급 및 제2 등급)과 질병 분류 성능이 나쁜 하나 이상의 품질 등급을 포함하는 제2 그룹(예: F1 점수가 기준 F1 점수 미만인 그룹, 제3 등급)으로 클러스터링할 수 있다.For example, the computing device 100 compares the F1 score with the reference F1 score, and includes a first group including one or more quality grades having good disease classification performance (eg, a group having an F1 score equal to or greater than the reference F1 score, a first class, and Second grade) and a second group including one or more quality grades with poor disease classification performance (eg, a group having an F1 score less than the reference F1 score, a third grade).

다양한 실시예에서, 컴퓨팅 장치(100)는 K-평균 클러스터링이나 가우시안 혼합모델(Gaussian Mixture Model, GMM)과 같은 머신러닝 알고리즘을 이용하여 별도의 기준 F1 점수를 설정하지 않고 Q개의 그룹을 2개의 그룹으로 클러스터링할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 uses a machine learning algorithm such as K-means clustering or Gaussian Mixture Model (GMM), without setting a separate reference F1 score, and forming Q groups into two groups. Can be clustered with However, it is not limited thereto.

S307 단계에서, 컴퓨팅 장치(100)는 클러스터링된 2개의 그룹(예: 제1 그룹 및 제2 그룹)에 포함된 하나 이상의 영상 데이터에 대하여 연결요소 레이블링(Connected Component Labeling, CCL)을 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 품질 등급을 2개의 그룹으로 클러스터링된 결과를 입력값으로 하여 연결요소 레이블링을 수행할 수 있다.In step S307, the computing device 100 may perform Connected Component Labeling (CCL) on one or more image data included in two clustered groups (eg, a first group and a second group). . For example, the computing device 100 may perform connection element labeling using a result of clustering a plurality of quality classes into two groups as an input value.

S308 단계에서, 컴퓨팅 장치(100)는 클러스터링된 2개의 그룹(예: 제1 그룹 및 제2 그룹)에 대한 연결요소 레이블링 결과로 생성된 연결요소 레이블의 개수를 판단할 수 있다.In operation S308, the computing device 100 may determine the number of connection element labels generated as a result of labeling connection elements for two clustered groups (eg, a first group and a second group).

S309 단계에서, 컴퓨팅 장치(100)는 S307 단계를 통해 수행한 연결요소 레이블링의 결과로 생성된 연결요소 레이블의 개수가 2개가 아닌 것으로 판단되는 경우(예: 도 15의 (b)), 연결요소 레이블의 개수가 2개가 아닌 연결요소 레이블링 결과를 품질 점수 임계값 추출 대상에서 제외시킬 수 있다.In step S309, when it is determined that the number of connection element labels generated as a result of the connection element labeling performed in step S307 is not two (for example, FIG. 15(b)), the connection element The labeling result of the connection element in which the number of labels is not two can be excluded from the quality score threshold extraction target.

S310 단계에서, 컴퓨팅 장치(100)는 S307 단계를 통해 수행한 연결요소 레이블링의 결과로 생성된 연결요소 레이블의 개수가 2개인 것으로 판단되는 경우(예: 도 15의 (a)), 연결요소 레이블의 개수가 2개인 연결요소 레이블링 결과를 품질 점수 임계값 추출 대상으로 설정할 수 있다.In step S310, when the computing device 100 determines that the number of connection element labels generated as a result of the connection element labeling performed in step S307 is two (for example, FIG. 15(a)), the connection element label A connection element labeling result having two numbers of can be set as a quality score threshold extraction target.

S311 단계에서, 컴퓨팅 장치(100)는 Q분위가 기 설정된 분위 최대값(QMAX) 미만인지 여부를 판단할 수 있다. 이때, 컴퓨팅 장치(100)는 Q분위가 기 설정된 분위 최대값(QMAX) 미만인 것으로 판단되는 경우, S304 단계 내지 S310 단계를 순차적으로 재수행할 수 있다. 이때, 컴퓨팅 장치(100)는 Q 분위를 변화시키며 S304 단계 내지 S310 단계를 반복적으로 재수행할 수 있다(예: 도 15). In step S311, the computing device 100 may determine whether the Q quartile is less than a preset quartile maximum value Q MAX. In this case, when it is determined that the Q quartile is less than the preset quartile maximum value Q MAX , the computing device 100 may sequentially perform steps S304 to S310 again. At this time, the computing device 100 may change the Q quartile and repeatedly perform steps S304 to S310 again (eg, FIG. 15 ).

S312 단계에서, 컴퓨팅 장치(100)는 S311 단계를 통해 Q분위가 기 설정된 분위 최대값(QMAX) 이상인 것으로 판단되는 경우, S309 단계에서 품질 점수 임계값 추출 대상으로 설정된 연결요소 레이블링 결과(예: 복수의 연결요소 레이블링 결과 중 2개의 연결요소 레이블이 추출된 연결요소 레이블링 결과)를 이용하여 품질 점수 임계값을 산출할 수 있다.In step S312, when the computing device 100 determines that the Q quintile is equal to or greater than the preset quartile maximum value (Q MAX ) through step S311, the result of labeling the connection element set as a target for extracting the quality score threshold in step S309. The quality score threshold value may be calculated using the connection element labeling result from which two connection element labels are extracted among the connection element labeling results of.

다양한 실시예에서, 컴퓨팅 장치(100)는 2개의 연결요소 레이블이 추출된 경우에서의 클러스터링된 2개의 그룹 간(예: 제1 그룹 및 제2 그룹)의 품질 점수 경계값을 추출하고, 추출한 품질 점수 경계값의 평균을 산출하며, 산출된 품질 점수 경계값의 평균을 영상 데이터의 품질 점수 임계값으로 결정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 연결요소 레이블의 개수가 2개인 것으로 판단된 회차(예: 연결요소 레이블링을 반복 수행한 회차)가 12, 16, 18, 19, 22, 24, 30 및 36회차인 경우, 12, 16, 18, 19, 22, 24, 30 및 36회차에서의 제1 그룹 및 제2 그룹 간의 품질 점수 경계값들의 평균을 산출하고, 산출된 12, 16, 18, 19, 22, 24, 30 및 36회차에서의 품질 점수 경계값의 평균을 영상 데이터의 품질 점수 임계값으로 결정할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 extracts a quality score boundary value between two clustered groups (eg, a first group and a second group) when two connection element labels are extracted, and the extracted quality The average of the score boundary values is calculated, and the average of the calculated quality score boundary values may be determined as a quality score threshold value of the image data. For example, the computing device 100 has 12, 16, 18, 19, 22, 24, 30, and 36 times determined that the number of connection element labels is 2 (for example, the times in which the connection element labeling is repeatedly performed). In the case of the round, the average of the quality score boundary values between the first group and the second group in the 12, 16, 18, 19, 22, 24, 30, and 36 rounds is calculated, and the calculated 12, 16, 18, 19, The average of the quality score boundary values at times 22, 24, 30, and 36 may be determined as the quality score threshold value of the image data. However, it is not limited thereto.

전술한 안저 영상 데이터의 품질 점수 산출 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 안저 영상 데이터의 품질 점수 산출 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다. 이하, 도 16을 참조하여, 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.The above-described method for calculating the quality score of fundus image data has been described with reference to the flowchart shown in the drawings. For the sake of simplicity, the method of calculating the quality score of the fundus image data has been described by showing a series of blocks, but the present invention is not limited to the order of the blocks, and some blocks are performed in a different order from those shown and described herein. Or can be performed simultaneously. In addition, a new block not described in the specification and drawings may be added, or some blocks may be deleted or changed. Hereinafter, a hardware configuration of the apparatus 100 for calculating a quality score of fundus image data according to another embodiment of the present invention will be described with reference to FIG. 16.

도 16은 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치의 하드웨어 구성도이다.16 is a hardware configuration diagram of an apparatus for calculating a quality score of fundus image data according to another embodiment of the present invention.

도 16을 참조하면, 본 발명의 또 다른 실시예에 따른 안저 영상 데이터의 품질 점수 산출 장치(500)(이하, "컴퓨팅 장치(500)")는 프로세서(510) 및 메모리(520)를 포함할 수 있다. 다양한 실시예에서, 컴퓨팅 장치(500)는 네트워크 인터페이스(또는 통신 인터페이스)(미도시), 스토리지(미도시), 버스(bus)(미도시)를 더 포함할 수 있다.Referring to FIG. 16, an apparatus 500 for calculating a quality score of fundus image data (hereinafter, “computing apparatus 500”) according to another embodiment of the present invention includes a processor 510 and a memory 520. I can. In various embodiments, the computing device 500 may further include a network interface (or communication interface) (not shown), a storage (not shown), and a bus (not shown).

일 실시예에서, 프로세서(510)는 컴퓨팅 장치(500)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.In one embodiment, the processor 510 may control the overall operation of each component of the computing device 500. The processor 510 may be configured to include a CPU (Central Processing Unit), MPU (Micro Processor Unit), MCU (Micro Controller Unit), or any type of processor well known in the art.

다양한 실시예에서, 프로세서(510)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 다양한 실시예에서, 프로세서(510)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예: 버스(bus) 등)를 포함할 수 있다.In various embodiments, the processor 510 may perform an operation on at least one application or program for executing the method according to the embodiments of the present invention. In various embodiments, the processor 510 includes one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. can do.

다양한 실시예에서, 프로세서(510)는 프로세서(510) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(510)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the processor 510 temporarily and/or permanently stores a signal (or data) processed inside the processor 510, and a RAM (Random Access Memory, not shown) and a ROM (ROM). -Only Memory, not shown) may further be included. In addition, the processor 510 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

일 실시예에서, 프로세서(510)는 메모리(520)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써, 도 2 내지 13과 관련하여 설명된 방법(예: 안저 영상 데이터의 품질 점수 산출 방법)을 수행할 수 있다.In one embodiment, the processor 510 executes one or more instructions stored in the memory 520 to perform the method described with respect to FIGS. 2 to 13 (eg, a method of calculating a quality score of fundus image data). can do.

예를 들어, 프로세서(510)는 메모리(520)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 안저 영상 데이터를 수집하는 단계, 안저 영상 데이터로부터 하나 이상의 특징값을 추출하는 단계, 추출된 하나 이상의 특징값을 이용하여 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출하는 단계 및 산출된 복수의 품질 등급 각각에 속할 확률을 이용하여 안저 영상 데이터에 대한 품질 점수를 산출하는 단계를 포함하는 안저 영상 데이터의 품질 점수 산출 방법을 수행할 수 있다. 그러나, 이에 한정되지 않는다.For example, the processor 510 executes one or more instructions stored in the memory 520 to collect fundus image data, extract one or more feature values from the fundus image data, and extract one or more feature values. A fundus image comprising calculating a probability that the fundus image data belongs to each of a plurality of preset quality grades by using and calculating a quality score for the fundus image data using the probability of belonging to each of the plurality of quality grades. A method of calculating the quality score of the data can be performed. However, it is not limited thereto.

또한, 프로세서(510)는 메모리(520)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 복수의 영상 데이터 각각에 대한 품질 점수를 산출하는 단계, 산출된 품질 점수에 기초하여 복수의 영상 데이터를 복수의 품질 등급으로 분류하는 단계, 복수의 품질 등급 각각에 포함된 하나 이상의 영상 데이터에 대한 질병 분류 성능을 판단하고, 판단된 질병 분류 성능에 따라 복수의 품질 등급을 2개의 그룹으로 클러스터링 하는 단계 및 클러스터링된 2개의 그룹 간의 품질 점수 경계값을 이용하여 영상 데이터의 품질 점수 임계값을 산출하는 단계를 포함하는 영상 데이터 필터링을 위한 품질 점수 임계값 산출 방법을 수행할 수 있다.In addition, the processor 510 calculates a quality score for each of a plurality of image data by executing one or more instructions stored in the memory 520, and ranks the plurality of image data based on the calculated quality score. Classifying as, determining disease classification performance for one or more image data included in each of the plurality of quality grades, clustering the plurality of quality grades into two groups according to the determined disease classification performance, and clustering the two A method of calculating a quality score threshold value for filtering image data, including calculating a quality score threshold value of the image data by using the quality score boundary value between groups, may be performed.

일 실시예에서, 메모리(520)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(520)에는 프로세서(510)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(520)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.In one embodiment, the memory 520 may store various types of data, commands, and/or information. The memory 520 may store programs (one or more instructions) for processing and controlling the processor 510. Programs stored in the memory 520 may be divided into a plurality of modules according to functions.

다양한 실시예에서, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수 있다. In various embodiments, steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be combined with a computer as hardware to be executed. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 안저 영상 데이터의 품질 점수 산출 장치
110 : 특징 추출 모듈
120 : 품질 분류 모듈
130 : 품질 점수 산출 모듈
200 : 사용자 단말
300 : 외부 서버
400 : 네트워크
100: device for calculating the quality score of fundus image data
110: feature extraction module
120: quality classification module
130: quality score calculation module
200: user terminal
300: external server
400: network

Claims (10)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
안저 영상 데이터를 수집하는 단계;
상기 안저 영상 데이터로부터 하나 이상의 특징값을 추출하는 단계;
상기 추출된 하나 이상의 특징값을 이용하여 상기 안저 영상 데이터가 기 설정된 복수의 품질 등급 각각에 속할 확률을 산출하는 단계; 및
상기 산출된 복수의 품질 등급 각각에 속할 확률을 이용하여 상기 안저 영상 데이터에 대한 품질 점수를 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
In the method performed by the computing device,
Collecting fundus image data;
Extracting one or more feature values from the fundus image data;
Calculating a probability that the fundus image data belongs to each of a plurality of preset quality classes using the extracted one or more feature values; And
Comprising the step of calculating a quality score for the fundus image data by using the calculated probability of belonging to each of the plurality of quality classes,
Method for calculating the quality score of fundus image data.
제1항에 있어서,
상기 복수의 품질 등급은,
제1 등급, 상기 제1 등급보다 낮은 제2 등급 및 상기 제2 등급보다 낮은 제3 등급을 포함하며,
상기 품질 점수를 산출하는 단계는,
하기의 수학식 1을 이용하여 상기 안저 영상 데이터에 대한 품질 점수를 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
[수학식 1]
Figure 112020035648079-pat00030

여기서, prob(G1)은 상기 안저 영상 데이터가 상기 제1 등급에 속할 확률, prob(G2)는 상기 안저 영상 데이터가 상기 제2 등급에 속할 확률, prob(G3)는 상기 안저 영상 데이터가 상기 제3 등급에 속할 확률, C1, C2 및 C3는 기 설정된 상수값
The method of claim 1,
The plurality of quality grades,
A first grade, a second grade lower than the first grade, and a third grade lower than the second grade,
The step of calculating the quality score,
Comprising the step of calculating a quality score for the fundus image data using Equation 1 below,
Method for calculating the quality score of fundus image data.
[Equation 1]
Figure 112020035648079-pat00030

Here, prob(G 1 ) is the probability that the fundus image data belongs to the first grade, prob(G 2 ) is the probability that the fundus image data belongs to the second grade, and prob(G 3 ) is the fundus image data The probability of falling into the third class, C 1 , C 2 and C 3 are preset constant values
제2항에 있어서,
상기 하나 이상의 특징값은,
상기 안저 영상 데이터가 비정상 등급에 속할 확률, 상기 안저 영상 데이터의 품질 맵(Quality Map), 선명도(Brightness), 초점값(Focus), 조도 히스토그램(Illumination histogram) 및 원마도(Roundness) 중 적어도 하나를 포함하며,
상기 복수의 품질 등급 각각에 속할 확률을 산출하는 단계는,
복수의 안저 영상 데이터를 학습 데이터로써 기 학습한 인공지능 모델을 이용하여 상기 하나 이상의 특징값으로부터 상기 안저 영상 데이터가 상기 복수의 품질 등급 각각에 속할 확률을 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
The method of claim 2,
The one or more feature values,
At least one of a probability that the fundus image data belongs to an abnormal grade, a quality map, brightness, a focus value, an illumination histogram, and a roundness of the fundus image data Includes,
The step of calculating the probability of belonging to each of the plurality of quality classes,
Comprising the step of calculating a probability that the fundus image data belongs to each of the plurality of quality classes from the one or more feature values using an artificial intelligence model that has previously learned a plurality of fundus image data as training data,
Method for calculating the quality score of fundus image data.
제3항에 있어서,
상기 하나 이상의 특징값을 추출하는 단계는,
상기 제1 등급 및 상기 제2 등급을 정상 등급으로 분류하고 상기 제3 등급을 비정상 등급으로 분류하는 제1 이진 분류 모델을 이용하여 상기 안저 영상 데이터가 상기 비정상 등급에 속할 확률인 제1 비정상 등급 확률을 산출하고, 상기 안저 영상 데이터 내에서 비정상으로 판단된 영역을 시각화한 제1 품질 맵을 추출하는 단계; 및
상기 제1 등급을 정상 등급으로 분류하고 상기 제2 등급 및 상기 제3 등급을 비정상 등급으로 분류하는 제2 이진 분류 모델을 이용하여 상기 안저 영상 데이터가 상기 비정상 등급에 속할 확률인 제2 비정상 등급 확률을 산출하고, 상기 안저 영상 데이터 내에서 비정상으로 판단된 영역을 시각화한 제2 품질 맵을 추출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
The method of claim 3,
Extracting the one or more feature values,
A first abnormal grade probability that is a probability that the fundus image data belongs to the abnormal grade using a first binary classification model that classifies the first grade and the second grade as a normal grade and classifies the third grade as an abnormal grade And extracting a first quality map visualizing a region determined to be abnormal in the fundus image data; And
A second abnormal grade probability that is a probability that the fundus image data belongs to the abnormal grade using a second binary classification model that classifies the first grade as a normal grade and classifies the second grade and the third grade as abnormal grades And extracting a second quality map visualizing a region determined to be abnormal in the fundus image data,
Method for calculating the quality score of fundus image data.
제3항에 있어서,
상기 하나 이상의 특징값을 추출하는 단계는,
상기 안저 영상 데이터로부터 안저의 유두(Disc)에 대응되는 영역을 검출하고, 상기 검출된 안저의 유두에 대응되는 영역의 장축 길이 및 단축 길이를 추출하며, 상기 추출된 장축의 길이와 상기 추출된 단축의 길이의 비율을 이용하여 상기 안저의 원마도를 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
The method of claim 3,
Extracting the one or more feature values,
Detects an area corresponding to the disc from the fundus image data, extracts the long axis length and the short axis length of the area corresponding to the detected fundus nipple, and extracts the length of the extracted major axis and the extracted short axis Comprising the step of calculating the roundness of the fundus using the ratio of the length of,
Method for calculating the quality score of fundus image data.
제3항에 있어서,
상기 선명도는 제1 선명도 및 제2 선명도를 포함하며,
상기 하나 이상의 특징값을 추출하는 단계는,
하기의 수학식 2를 이용하여 상기 안저 영상 데이터에 대한 상기 제1 선명도를 산출하고, 하기의 수학식 3을 이용하여 상기 안저 영상 데이터에 대한 상기 제2 선명도를 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
[수학식 2]
Figure 112020035648079-pat00031

여기서, X는 상기 안저 영상 데이터 값, std(X)는
Figure 112020035648079-pat00032
, grayscale(X)는
Figure 112020035648079-pat00033
으로 상기 안저 영상 데이터의 그레이 스케일 값, XR는 상기 안저 영상 데이터의 R채널 값, XG는 상기 안저 영상 데이터의 G채널 값, XB는 상기 안저 영상 데이터의 B채널 값 및 mean(X)는
Figure 112020035648079-pat00034

[수학식 3]
Figure 112020035648079-pat00035
The method of claim 3,
The sharpness includes a first sharpness and a second sharpness,
Extracting the one or more feature values,
Comprising the step of calculating the first sharpness for the fundus image data using Equation 2 below, and calculating the second sharpness for the fundus image data using Equation 3 below,
Method for calculating the quality score of fundus image data.
[Equation 2]
Figure 112020035648079-pat00031

Here, X is the fundus image data value, std(X) is
Figure 112020035648079-pat00032
, grayscale(X) is
Figure 112020035648079-pat00033
As a gray scale value of the fundus image data , X R is an R channel value of the fundus image data , X G is a G channel value of the fundus image data, X B is a B channel value and mean(X) of the fundus image data. Is
Figure 112020035648079-pat00034

[Equation 3]
Figure 112020035648079-pat00035
제3항에 있어서,
상기 하나 이상의 특징값을 추출하는 단계는,
하기의 수학식 4를 이용하여 상기 안저 영상 데이터에 대한 초점값을 산출하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
[수학식 4]
Figure 112020035648079-pat00036

여기서, X는 상기 안저 영상 데이터 값, std(X)는
Figure 112020035648079-pat00037
, grayscale(X)는
Figure 112020035648079-pat00038
으로 상기 안저 영상 데이터의 그레이 스케일 값, XR는 상기 안저 영상 데이터의 R채널 값, XG는 상기 안저 영상 데이터의 G채널 값, XB는 상기 안저 영상 데이터의 B채널 값, kernelx
Figure 112020035648079-pat00039
으로 x방향의 3x3 커널, kernely
Figure 112020035648079-pat00040
으로 y방향의 3x3 커널
The method of claim 3,
Extracting the one or more feature values,
Comprising the step of calculating a focus value for the fundus image data using Equation 4 below,
Method for calculating the quality score of fundus image data.
[Equation 4]
Figure 112020035648079-pat00036

Here, X is the fundus image data value, std(X) is
Figure 112020035648079-pat00037
, grayscale(X) is
Figure 112020035648079-pat00038
As a gray scale value of the fundus image data , X R is an R channel value of the fundus image data , X G is a G channel value of the fundus image data, X B is a B channel value of the fundus image data, and kernel x is
Figure 112020035648079-pat00039
As a 3x3 kernel in the x direction, kernel y is
Figure 112020035648079-pat00040
3x3 kernel in y direction
제3항에 있어서,
상기 하나 이상의 특징값을 추출하는 단계는,
상기 안저 영상 데이터를 전처리 하는 단계;
상기 전처리된 안저 영상 데이터로부터 기 설정된 크기를 가지는 하나 이상의 패치(Patch)를 추출하는 단계;
하기의 수학식 5를 이용하여 상기 하나 이상의 패치 각각에 대한 대표값을 산출하는 단계;
상기 산출된 대표값을 이용하여 조도 맵을 생성하는 단계; 및
상기 조도 맵을 이용하여 상기 조도 히스토그램을 생성하는 단계를 포함하는,
안저 영상 데이터의 품질 점수 산출 방법.
[수학식 5]
Figure 112020035648079-pat00041

여기서, P는 상기 하나 이상의 패치 값, PR은 상기 하나 이상의 패치의 R채널 값, P-G는 상기 하나 이상의 패치의 G채널 값, PB는 상기 하나 이상의 채널의 B채널 값 및 mean(x)는
Figure 112020035648079-pat00042
The method of claim 3,
The step of extracting the one or more feature values,
Preprocessing the fundus image data;
Extracting one or more patches having a preset size from the preprocessed fundus image data;
Calculating a representative value for each of the one or more patches using Equation 5 below;
Generating an illuminance map using the calculated representative value; And
Including the step of generating the illuminance histogram using the illuminance map,
Method of calculating the quality score of fundus image data.
[Equation 5]
Figure 112020035648079-pat00041

Here, P is the one or more patch values, P R is the R channel value of the one or more patches, P- G is the G channel value of the one or more patches, P B is the B channel value and mean(x ) Is
Figure 112020035648079-pat00042
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
A memory for storing one or more instructions; And
And a processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program combined with a computer as hardware and stored in a recording medium readable by a computer to perform the method of claim 1.
KR1020200041672A 2020-04-06 2020-04-06 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence KR102220573B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200041672A KR102220573B1 (en) 2020-04-06 2020-04-06 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence
KR1020210022888A KR20210124024A (en) 2020-04-06 2021-02-19 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200041672A KR102220573B1 (en) 2020-04-06 2020-04-06 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210022888A Division KR20210124024A (en) 2020-04-06 2021-02-19 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102220573B1 true KR102220573B1 (en) 2021-02-25

Family

ID=74731257

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200041672A KR102220573B1 (en) 2020-04-06 2020-04-06 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence
KR1020210022888A KR20210124024A (en) 2020-04-06 2021-02-19 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210022888A KR20210124024A (en) 2020-04-06 2021-02-19 Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence

Country Status (1)

Country Link
KR (2) KR102220573B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449091B1 (en) 2022-01-17 2022-10-14 부산대학교 산학협력단 Glaucoma Analysis System and Method using Circular Analysis and FCM Analysis
KR102606790B1 (en) * 2023-03-07 2023-11-29 주식회사 바스젠바이오 Image data quality screening system and method therefor
KR102651589B1 (en) * 2023-07-20 2024-03-27 주식회사 크레스콤 Disease prognosis integrated prediction method, device and computer program Using mage and non-image data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150104087A1 (en) * 2013-10-10 2015-04-16 University Of Rochester Automated Fundus Image Field Detection and Quality Assessment
KR101998401B1 (en) * 2018-04-18 2019-07-09 네오컨버전스 주식회사 Method and apparatus of determing video quality class
KR20190087272A (en) 2018-01-16 2019-07-24 한국전자통신연구원 Method for diagnosing glaucoma using fundus image and apparatus therefor
KR20200005408A (en) * 2018-07-06 2020-01-15 주식회사 메디웨일 Fundus image management device and method for determining quality of fundus image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150104087A1 (en) * 2013-10-10 2015-04-16 University Of Rochester Automated Fundus Image Field Detection and Quality Assessment
KR20190087272A (en) 2018-01-16 2019-07-24 한국전자통신연구원 Method for diagnosing glaucoma using fundus image and apparatus therefor
KR101998401B1 (en) * 2018-04-18 2019-07-09 네오컨버전스 주식회사 Method and apparatus of determing video quality class
KR20200005408A (en) * 2018-07-06 2020-01-15 주식회사 메디웨일 Fundus image management device and method for determining quality of fundus image

Also Published As

Publication number Publication date
KR20210124024A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US11213197B2 (en) Artificial neural network and system for identifying lesion in retinal fundus image
CN111481166B (en) Automatic identification system based on eye ground screening
Medeiros et al. From machine to machine: an OCT-trained deep learning algorithm for objective quantification of glaucomatous damage in fundus photographs
Bilal et al. Diabetic retinopathy detection and classification using mixed models for a disease grading database
KR102220573B1 (en) Method, apparatus and computer program for calculating quality score of fundus image data using artificial intelligence
CN110327013B (en) Fundus image detection method, device and equipment and storage medium
Adal et al. An automated system for the detection and classification of retinal changes due to red lesions in longitudinal fundus images
KR20200005409A (en) Fundus image management device and method for determining suitability of fundus image
Prasad et al. Multiple eye disease detection using Deep Neural Network
KR102313143B1 (en) Diabetic retinopathy detection and severity classification apparatus Based on Deep Learning and method thereof
CN113768460B (en) Fundus image analysis system, fundus image analysis method and electronic equipment
Dimauro et al. Anaemia detection based on sclera and blood vessel colour estimation
Li et al. Vessel recognition of retinal fundus images based on fully convolutional network
CN111461218A (en) Sample data labeling system for fundus image of diabetes mellitus
Bali et al. Analysis of deep learning techniques for prediction of eye diseases: A systematic review
Naramala et al. Enhancing diabetic retinopathy detection through machine learning with restricted boltzmann machines
Mankar et al. Automatic detection of diabetic retinopathy using morphological operation and machine learning
KR102220574B1 (en) Method, apparatus and computer program for calculating quality score threshold for filtering image data
Balakrishnan et al. A hybrid PSO-DEFS based feature selection for the identification of diabetic retinopathy
Biswas et al. Estimating risk levels and epidemiology of diabetic retinopathy using transfer learning
CN112132782B (en) Method and terminal for processing DME (DME) typing based on deep neural network
Samah et al. Classification of pathological signs for diabetic retinopathy diagnosis using image enhancement technique and convolution neural network
EP4115385A1 (en) A system and method for classifying images of retina of eyes of subjects
CN111640498A (en) Information processing method and device based on eye image data
Pathan et al. Automated detection of pathological and non-pathological myopia using retinal features and dynamic ensemble of classifiers

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant