KR20230123080A - Self supervised learning based apparatus and method for retinal image quality assessment - Google Patents

Self supervised learning based apparatus and method for retinal image quality assessment Download PDF

Info

Publication number
KR20230123080A
KR20230123080A KR1020220019506A KR20220019506A KR20230123080A KR 20230123080 A KR20230123080 A KR 20230123080A KR 1020220019506 A KR1020220019506 A KR 1020220019506A KR 20220019506 A KR20220019506 A KR 20220019506A KR 20230123080 A KR20230123080 A KR 20230123080A
Authority
KR
South Korea
Prior art keywords
quality information
image quality
blood vessel
eyeball
learning
Prior art date
Application number
KR1020220019506A
Other languages
Korean (ko)
Inventor
장세인
리야드 카말 알하킴 제이납
Original Assignee
주식회사 에이아이포이에시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이아이포이에시스 filed Critical 주식회사 에이아이포이에시스
Priority to KR1020220019506A priority Critical patent/KR20230123080A/en
Publication of KR20230123080A publication Critical patent/KR20230123080A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

인공지능 기반의 안구 영상 품질 정보 관리 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 안구 영상의 품질 정보를 결정하는 방법은 복수의 안구 영상으로부터 혈관 영역을 분할하는 단계, 상기 혈관 영역에 대응하는 선의 개수를 계산하는 단계, 상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 단계, 상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 단계 및 상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 결정하는 단계를 포함할 수 있다.Disclosed is an artificial intelligence-based eyeball image quality information management apparatus and method, and a method for determining quality information of an eyeball image according to an embodiment of the present invention includes dividing a blood vessel region from a plurality of eyeball images, corresponding to the blood vessel region Calculating the number of lines to generate, generating a plurality of artificial intelligence learning labels based on the number of lines and the additional information of each of the plurality of eyeball images, generating an eyeball image quality information model based on the artificial intelligence learning labels and determining quality information corresponding to the input of the subject's eyeball image based on the eyeball image quality information model.

Description

자기지도학습 기반의 안구 영상 품질 정보 관리 장치 및 방법{SELF SUPERVISED LEARNING BASED APPARATUS AND METHOD FOR RETINAL IMAGE QUALITY ASSESSMENT}Apparatus and method for managing eye image quality information based on self-supervised learning {SELF SUPERVISED LEARNING BASED APPARATUS AND METHOD FOR RETINAL IMAGE QUALITY ASSESSMENT}

본원은 자기지도학습 기반의 안구 영상 품질 정보 관리 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for managing eye image quality information based on self-supervised learning.

현재는 눈 건강을 진단하기 위해 안구 카메라로 망막의 중심부를 촬영하여야 한다. 안구 카메라는 실제로 내부 눈을 검사하기 위해 디지털 카메라에 연결된 현미경으로, 퇴행성 안과 질환 또는 외상의 모니터링 및 진단을 위해 고해상도의 사진을 촬영한다. 상술한 통상의 안구 카메라는, 각막을 관찰하는 경우와 망막을 관찰하는 경우에 각각 다른 배율과 화각을 가진 광학계를 사용한다. 예를 들면, 각막 관찰 광학계로는, 공막, 홍채, 각막을 모두 보면서 사용 거리과 중심을 정렬하여야 하므로, 저배율의 광학계가 사용되는 반면, 망막 관찰 광학계로는 망막을 확대 관찰하기 위하여 고배율의 광학계가 사용된다. 이와 같은 안구 카메라에 있어서, 망막 관찰 광학계를 사용하여 망막 초점을 조절하는 경우에는, 각막과의 거리 조정 또는 중심 정렬을 수행하거나 재조정할 수 없다. 따라서, 안구 카메라와 피검안 사이의 거리 또는 피검안의 정렬 상태가 달라지면, 올바른 안구 사진을 얻을 수 없다.Currently, in order to diagnose eye health, the center of the retina must be photographed with an eye camera. An eye camera is actually a microscope connected to a digital camera to examine the inside of the eye, taking high-resolution pictures for monitoring and diagnosis of degenerative eye disease or trauma. The conventional eye camera described above uses optical systems having different magnifications and angles of view when observing the cornea and when observing the retina. For example, as a corneal observation optical system, a low-magnification optical system is used because the distance and center must be aligned while viewing all of the sclera, iris, and cornea, while a high-magnification optical system is used to magnify and observe the retina. do. In such an eye camera, when the retinal focus is adjusted using the retina observation optical system, it is impossible to perform or readjust the distance or center alignment with the cornea. Therefore, if the distance between the eye camera and the eye to be examined or the alignment state of the eye to be examined is different, a correct eye picture cannot be obtained.

또한, 인공지능을 이용한 자동 검진에서 품질이 좋지 않은 안구 영상을 사용하면 잘못된 결과가 도출되어 오진할 확률도 높아지는 문제점이 있다.In addition, there is a problem in that when an eyeball image of poor quality is used in an automatic examination using artificial intelligence, an erroneous result is derived and the probability of misdiagnosis increases.

또한, 기존의 안구 영상은 선명도, 초점값, 평균, 대표값 등의 특징을 직접 디자인하여 추출함으로써 품질을 관리하는 불편함이 있다.In addition, existing eyeball images have inconvenience in managing quality by directly designing and extracting features such as sharpness, focus value, average value, and representative value.

또한, 영상 품질 관리 시스템을 구축하기위하여 전문가가 직접 품질을 검수하여 데이터베이스를 구축해야하고, 이러한 작업은 시간과 인력, 비용 측면에서 비효율적이다.In addition, in order to build a video quality management system, an expert must directly inspect the quality and build a database, and this work is inefficient in terms of time, manpower, and cost.

본원의 배경이 되는 기술은 한국등록특허공보 제10-2250694호에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Registration No. 10-2250694.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 대상자의 안구 부위를 촬영한 안구 영상 데이터를 수신하여 안구 영상 데이터에서 혈관 영역을 분할하고, 혈관 영역에 대응하는 선을 계산하고, 선을 기초하여 가상의 레이블을 생성하고, 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통한 모델 생성 및 안구 영상 데이터를 생성된 모델에 입력하여 대상자의 안구 영상의 품질 정보를 결정하는 장치를 제공하는 것을 목적으로 한다.The present invention is to solve the above-mentioned problems of the prior art, and receives eye image data obtained by photographing a subject's eye area, divides a blood vessel region in the eye image data, calculates a line corresponding to the blood vessel region, and calculates a line based on the line. Provides a device that generates a virtual label, uses the generated virtual label as an input, creates a model through artificial intelligence-based learning, and inputs eye image data into the generated model to determine the quality information of the subject's eye image aims to do

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiments of the present application is not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 수단으로서, 본원의 일 실시예에 따른 안구 영상 품질 관리 장치는 복수의 안구 영상으로부터 혈관 영역을 분할하는 분할부, 상기 혈관 영역에 대응하는 선의 개수를 계산하는 계산부, 상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 레이블 생성부, 상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 모델 생성부, 상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 상기 대상자의 안구 영상의 품질 정보를 결정하는 품질 결정부를 포함할 수 있다.As a means for achieving the above technical problem, an eyeball image quality management apparatus according to an embodiment of the present application includes a division unit dividing a blood vessel region from a plurality of eyeball images and a calculation unit calculating the number of lines corresponding to the blood vessel region. a label generator for generating a plurality of artificial intelligence learning labels based on the number of lines and the additional information of each of the plurality of eyeball images; a model generator for generating an eyeball image quality information model based on the artificial intelligence learning labels; and a quality determining unit configured to determine quality information of an eyeball image of the subject corresponding to an input of the subject's eyeball image based on the eyeball image quality information model.

또한, 상기 분할부는, 상기 혈관 영역을 식별하도록 인공지능 기반 학습을 통해 미리 구축되는 혈관 영역 분할 모델에 기초하여 상기 안구 영상 데이터에서 상기 혈관 영역을 분할할 수 있다.Also, the segmentation unit may segment the blood vessel region from the eyeball image data based on a blood vessel region segmentation model pre-constructed through artificial intelligence-based learning to identify the blood vessel region.

또한, 상기 레이블 생성부는 상기 선의 개수 및 경계선 값을 이용하여 가상의 레이블을 생성할 수 있다.Also, the label generating unit may generate a virtual label using the number of lines and the value of the boundary line.

또한, 상기 가상의 레이블은, 아래 [식1]에 기초하여 생성되는 것이고, In addition, the virtual label is generated based on the following [Equation 1],

Pi는 상기 가상의 레이블이고, hi 는 상기 선의 개수, Tau+, Tau-는 경계선 값인 것일 수 있다. Pi may be the virtual label, h i may be the number of lines, and Tau + and Tau - may be boundary line values.

또한, 상기 모델 생성부는 상기 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 모델을 생성할 수 있다.In addition, the model generation unit may generate a model through artificial intelligence-based learning using the generated virtual label as an input.

한편, 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 방법은 복수의 안구 영상으로부터 혈관 영역을 분할하는 단계, 상기 혈관 영역에 대응하는 선을 계산하는 단계, 상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 단계, 상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 단계 및 상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 결정하는 단계를 포함할 수 있다.Meanwhile, a method for managing eye image quality information according to an embodiment of the present disclosure includes dividing blood vessel regions from a plurality of eye image images, calculating lines corresponding to the blood vessel regions, the number of lines, and each of the plurality of eye image images. Generating a plurality of artificial intelligence learning labels based on additional information of, generating an eyeball image quality information model based on the artificial intelligence learning labels, and inputting an eyeball image of a subject based on the eyeball image quality information model It may include determining quality information corresponding to .

또한, 상기 분할하는 단계는, 상기 혈관 영역을 식별하도록 인공지능 기반 학습을 통해 미리 구축되는 혈관 영역 분할 모델에 기초하여 상기 안구 영상 데이터에서 상기 혈관 영역을 분할할 수 있다.In the dividing, the blood vessel region may be segmented from the eyeball image data based on a blood vessel region segmentation model pre-constructed through artificial intelligence-based learning to identify the blood vessel region.

또한, 상기 학습레이블을 생성하는 단계는 상기 선의 개수 및 경계선 값을 이용하여 가상의 레이블을 생성할 수 있다.Also, in the generating of the learning label, a virtual label may be generated using the number of lines and the value of the boundary line.

또한, 상기 가상의 레이블은, 아래 [식1]에 기초하여 생성되는 것이고,In addition, the virtual label is generated based on the following [Equation 1],

Pi는 상기 가상의 레이블이고, hi 는 상기 선의 개수, Tau+, Tau-는 경계선 값인 것일 수 있다. Pi may be the virtual label, h i may be the number of lines, and Tau + and Tau - may be boundary line values.

또한, 상기 안구 영상 품질 정보 모델을 생성하는 단계는 상기 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 모델을 생성할 수 있다.In addition, the generating of the eyeball image quality information model may generate the model through artificial intelligence-based learning using the generated virtual label as an input.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as intended to limit the present disclosure. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 자기지도학습 기반의 안구 영상 품질 정보 관리 장치 및 방법을 제공할 수 있다.According to the above-mentioned problem solving means of the present application, it is possible to provide a self-supervised learning-based eyeball image quality information management device and method.

전술한 본원의 과제 해결 수단에 의하면, 안구 영상 의료 전문가 없이도 고품질의 레이블을 획득할 수 있다.According to the above-mentioned problem solving means of the present application, it is possible to obtain a high-quality label without an ophthalmic imaging specialist.

전술한 본원의 과제 해결 수단에 의하면, 안구 영상에 품질 레이블이 없더라도 가상의 품질 레이블을 획득하여 빅데이터가 필요한 딥러닝 방법론에도 적용할 수 있다.According to the above-described problem solving means of the present application, even if there is no quality label in the eyeball image, a virtual quality label can be obtained and applied to a deep learning methodology that requires big data.

전술한 본원의 과제 해결 수단에 의하면, 저품질로 인한 인공지능 시스템의 성능 저하와 오류를 피할 수 있다.According to the above-described problem solving means of the present application, it is possible to avoid performance degradation and errors of the artificial intelligence system due to low quality.

전술한 본원의 과제 해결 수단에 의하면, 안구 영상 품질 정보 결정을 통해 환자의 영상을 등록하는 과정에서 좋은 품질의 영상을 등록할 수 있다.According to the above-described problem solving means of the present application, an image of good quality may be registered in a process of registering an image of a patient through determination of eye image quality information.

도 1은 본원의 일 실시예에 따른 가공 장치를 포함하는 안구 영상 품질 정보 관리 시스템의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 장치의 개략적인 구성도이다.
도 3은 본원의 일 실시예에 따른 안구 영상 데이터에서 혈관 영역을 분할한 결과를 예시적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 안구 영상 품질 정보 모델에 안구 영상을 입력하여 품질 정보를 결정한 결과를 예시적으로 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of an eyeball image quality information management system including a processing device according to an embodiment of the present invention.
2 is a schematic configuration diagram of an apparatus for managing eyeball image quality information according to an embodiment of the present disclosure.
3 is a diagram illustratively illustrating results of segmenting a blood vessel region from eye image data according to an exemplary embodiment of the present disclosure.
4 is a diagram illustratively illustrating a result of determining quality information by inputting an eyeball image to an eyeball image quality information model according to an embodiment of the present disclosure.
5 is an operational flowchart of a method for managing eyeball image quality information according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail so that those skilled in the art can easily practice with reference to the accompanying drawings. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly describe the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Throughout this specification, when a part is said to be "connected" to another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element in between. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the present specification, when a member is referred to as being “on,” “above,” “on top of,” “below,” “below,” or “below” another member, this means that a member is located in relation to another member. This includes not only the case of contact but also the case of another member between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the present specification, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본원은 자기지도학습 기반의 안구 영상 품질 정보 관리 장치(40) 및 방법에 관한 것이다.The present application relates to an apparatus 40 and method for managing eye image quality information based on self-supervised learning.

도 1은 본원의 일 실시예에 따른 가공 장치를 포함하는 안구 영상 품질 정보 관리 시스템(10)의 개략적인 구성도이다.1 is a schematic configuration diagram of an eyeball image quality information management system 10 including a processing device according to an embodiment of the present invention.

도 1을 참조하면, 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 시스템(10)은 본원의 일 실시예에 따른 안구 영상 촬영 기기(30) 및 안구 영상 품질 정보 관리 장치(40)를 포함할 수 있다. 예시적으로, 안구 영상 촬영 기기(30)는 안구 영상 품질 정보 관리 장치(40)로 전송할 수 있는 단말로서 구체적인 종류는 제한되지 않는다. 예를 들어, 안구 영상 촬영 기기(30)는 병원에 설치된 데스크톱 컴퓨터, 노트북 컴퓨터, 병원정보시스템 서버 중에서 적어도 하나일 수도 있고, 의사나 간호사가 사용하는 스마트폰, 테블릿(tablet), 핸드헬드(handheld) PC, PDA, PMP 등의 휴대용 컴퓨팅 장치일 수도 있다. 또한 안구 영상 촬영 기기(30)는 환자 또는 제3자가 사용하는 컴퓨팅 장치 일 수도 있다. 또한 안구 영상 촬영 기기(30)는 안과에서 일반적으로 이용되는 무산동 안구 카메라 등을 이용하여 안구 영상을 획득할 수 있다. Referring to FIG. 1 , an eyeball image quality information management system 10 according to an embodiment of the present invention may include an eyeball imaging device 30 and an eyeball image quality information management device 40 according to an embodiment of the present invention. can Exemplarily, the eyeball imaging device 30 is a terminal capable of transmitting to the eyeball image quality information management device 40, and the specific type is not limited. For example, the eyeball imaging device 30 may be at least one of a desktop computer, a laptop computer, and a hospital information system server installed in a hospital, and may be a smartphone, tablet, or handheld used by a doctor or nurse ( handheld) may be a portable computing device such as a PC, PDA, or PMP. Also, the eyeball imaging device 30 may be a computing device used by a patient or a third party. In addition, the eyeball imaging device 30 may obtain an eyeball image using a Musandong eyeball camera commonly used in ophthalmology.

안구 영상 촬영 기기(30), 안구 영상 품질 정보 관리 장치(40) 및 사용자 단말(미도시) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The eyeball imaging device 30 , the eyeball image quality information management device 40 , and a user terminal (not shown) may communicate with each other through the network 20 . The network 20 refers to a connection structure capable of exchanging information between nodes such as terminals and servers, and examples of such a network 20 include a 3rd Generation Partnership Project (3GPP) network and a Long LTE (LTE) network. Term Evolution (Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network) Network), wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. are included, but are not limited thereto.

사용자 단말(미도시)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.User terminals (not shown) include, for example, a smart phone, a smart pad, a tablet PC, and the like and PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may be any kind of wireless communication device such as a terminal.

본원의 일 실시예에 따르면, 안구 영상 품질 정보 관리 장치(40)는 대상자의 안구 부위를 촬영한 안구 영상을 수신할 수 있다. 예를 들면, 대상자의 안구 부위는 망막, 시신경 유두, 황반, 유리체, 맥락막 중 어느 한 부위 일 수 있으나, 이에 한정되지는 않으며, 대상자의 질환, 증상 등을 고려하여 대상자의 안구를 이루는 다양한 부위로 결정될 수 있음은 물론이다.According to an embodiment of the present application, the eyeball image quality information management apparatus 40 may receive an eyeball image obtained by capturing an eyeball region of a subject. For example, the subject's ocular region may be any one of the retina, optic disc, macula, vitreous body, and choroid, but is not limited thereto, and various parts constituting the subject's eyeball in consideration of the subject's disease, symptoms, etc. Of course, it can be determined.

도 2는 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 장치의 개략적인 구성도이다.2 is a schematic configuration diagram of an apparatus for managing eyeball image quality information according to an embodiment of the present disclosure.

본원의 일 실시예에 따른 안구 영상 품질 정보 관리 장치(40)는 복수의 안구 영상으로부터 혈관 영역을 분할하는 분할부(110), 상기 혈관 영역에 대응하는 선의 개수를 계산하는 계산부(120), 상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 레이블 생성부(130), 상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 모델 생성부(140) 및 상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 상기 대상자의 안구 영상의 품질 정보를 결정하는 품질 결정부(150)를 포함할 수 있다.An eyeball image quality information management apparatus 40 according to an embodiment of the present application includes a division unit 110 for dividing a blood vessel region from a plurality of eyeball images, a calculation unit 120 for calculating the number of lines corresponding to the blood vessel region, A label generation unit 130 generating a plurality of artificial intelligence learning labels based on the number of lines and the additional information of each of the plurality of eyeball images, and a model generating an eyeball image quality information model based on the artificial intelligence learning labels It may include a unit 140 and a quality determination unit 150 that determines quality information of the subject's eyeball image corresponding to the input of the subject's eyeball image based on the eyeball image quality information model.

본원의 일 실시예에 따르면, 분할부(110)는 복수의 안구 영상으로부터 혈관 영역을 분할할 수 있다.According to an embodiment of the present application, the segmentation unit 110 may segment a blood vessel region from a plurality of eyeball images.

구체적으로, 분할부(110)는 딥러닝 기반의 알고리즘 모델을 통해 픽셀로 구성된 안구 영상을 분할하여 유사한 속성을 가진 픽셀을 그룹화하고 레이블을 지정하여 안구 영상에서 혈관 주변 영역과 혈관 영역을 구분하여 분할할 수 있다.Specifically, the segmentation unit 110 divides an eye image composed of pixels through a deep learning-based algorithm model, groups pixels having similar properties, and assigns a label to distinguish and divide regions around blood vessels and blood vessel regions in the eye image. can do.

이와 관련하여, 도 3은 본원의 일 실시예에 따른 안구 영상 데이터에서 혈관 영역을 분할한 결과를 예시적으로 나타낸 도면이다.In this regard, FIG. 3 is a diagram exemplarily illustrating a result of segmenting a blood vessel region from eye image data according to an exemplary embodiment of the present disclosure.

예를 들어, 분할부(110)는 안구 영상 데이터가 들어오면 딥러닝 기반의 알고리즘 모델인 LeNet, AlexNet, GoogleNet, VGGNet, ResNet Unet을 구축하여 혈관 세그멘테이션(blood vessel segmentation)을 수행할 수 있으나, 이에 한정되지 않으며, 혈관 세그멘테이션을 위해 필요한 어떠한 방법론이 적용될 수 있다. 예시적으로, 본원에서 개시하는 학습 모델의 유형은 Unet일 수 있다.For example, the segmentation unit 110 may perform blood vessel segmentation by constructing LeNet, AlexNet, GoogleNet, VGGNet, and ResNet Unet, which are algorithm models based on deep learning, when eye image data is received. It is not limited, and any methodology required for blood vessel segmentation may be applied. Illustratively, the type of learning model disclosed herein may be Unet.

혈관 세그멘테이션은 전체 안구 영상 데이터를 처리하는 것이 아니라 안구 영상 데이터를 처리하기 위해 중요한 부분을 활용하기 위해 안구 영상 데이터를 여러 부분으로 분할하는 것으로, 안구 영상 데이터는 픽셀로 구성되며 분할을 사용하여 유사한 속성을 가진 픽셀이 함께 그룹화되어 안구 영상 데이터에 대해 더 세분화된 정보를 얻을 수 있다. Blood vessel segmentation does not process the entire eye image data, but divides the eye image data into several parts to utilize important parts for processing the eye image data. The eye image data is composed of pixels and has similar properties using segmentation. Pixels with n are grouped together to obtain more granular information about the eye image data.

또한, 그룹화된 각 부분에는 레이블이 지정되고 이 레이블을 사용하여 혈관 영역을 안구 영상 데이터의 나머지 부분과 구분하는 경계를 지정할 수 있다.In addition, each grouped portion is assigned a label, and the label can be used to designate a boundary separating the vessel region from the rest of the eye image data.

또한, 분할부(110)는 혈관 영역을 식별하도록 인공지능 기반 학습을 통해 미리 구축되는 혈관 영역 분할 모델에 기초하여 대상자의 안구 영상에서 혈관 영역을 분할할 수 있다.In addition, the segmentation unit 110 may segment a blood vessel region from the subject's eye image based on a blood vessel region segmentation model pre-constructed through artificial intelligence-based learning to identify the blood vessel region.

여기서, 인공지능 기반의 학습을 통해 구축되는 혈관 영역 분할 모델은 예를 들어 Unet과 같이 이미지 분할에 적합한 딥러닝 모델로 구현될 수 있다. Unet은 바이오메디컬 분야에서 이미지 분할(Image segmentation)을 위한 Convolutional Network로 End-to-End 구조로 속도가 빠른 장점이 있다.Here, the vascular region segmentation model built through artificial intelligence-based learning may be implemented as a deep learning model suitable for image segmentation, such as Unet. Unet is a convolutional network for image segmentation in the biomedical field and has the advantage of high speed with an end-to-end structure.

또한, Unet 알고리즘은 Convolution-Batch Normalization-ReLU 레이어 블록을 사용하여 심층 컨볼루션 신경망을 생성할 수 있다. U-Net모델 아키텍처는 이미지를 입력으로 가져오고 이미지의 레이어가 샘플링될 때까지 레이어에 대해 다운샘플링하는 기존 인코더-디코더 모델보다 세분화하여 이미지를 출력할 수 있다. 즉, Unet은 다운샘플링과 업샘플링 사이에 크기가 동일한 층끼리 연결된 스킵 연결을 통해 이미지가 입력에서부터 출력까지 층을 차례대로 거쳐 네트워크를 통과하고 업샘플링의 각 층에서 다운샘플링되는 동안 잃었던 공간 정보를 되돌림으로써 고수준의 추상 정보를 전달할 수 있다.In addition, the Unet algorithm can generate a deep convolutional neural network using the Convolution-Batch Normalization-ReLU layer block. The U-Net model architecture can output images with more granularity than traditional encoder-decoder models that take an image as input and downsample for the layers until the layers in the image are sampled. In other words, Unet passes through the network through skip connections between layers of the same size between downsampling and upsampling. By returning, you can convey high-level abstract information.

여기서, 인공지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신러닝(기계 학습, Machine Learning)은 인공지능분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.Here, artificial intelligence refers to the field of researching artificial intelligence or methodology to create it, and machine learning (Machine Learning) is the field of defining various problems dealt with in the field of artificial intelligence and studying methodologies to solve them. means Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.

다른 예로, 인공지능 기반의 학습을 통해 구축되는 혈관 분할 모델은 미리 정의된 클래스(객체 유형)로 입력된 이미지(의료 영상 데이터)의 각 픽셀에 대한 분류 범주를 결정하도록 학습되는 의미론적 영역 분할(Semantic Segmentation) 기반의 모델일 수 있다. 이와 관련하여, 본원의 일 실시예에 따른 의미론적 영역 분할 기반의 분할 모델은 영역 분할을 위한 클래스로서 전술한 각각의 조직 유형을 고려하는 모델일 수 있다.As another example, the vascular segmentation model built through artificial intelligence-based learning is semantic region segmentation that is learned to determine the classification category for each pixel of an input image (medical image data) in a predefined class (object type) ( Semantic Segmentation) based model. In this regard, a segmentation model based on semantic region segmentation according to an embodiment of the present disclosure may be a model that considers each tissue type described above as a class for region segmentation.

한편, 인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크(20)를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경 망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.On the other hand, an Artificial Neural Network (ANN) is a model used in machine learning, and is composed of artificial neurons (nodes) that form a network 20 by synaptic coupling. It means an overall model with problem solving ability can do. An artificial neural network may be defined by a connection pattern between neurons in different layers, a learning process for updating model parameters, and an activation function for generating output values.

인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함수값을 출력할 수 있다.An artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer may include one or more neurons, and the artificial neural network may include neurons and synapses connecting the neurons. In an artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through a synapse.

이 때, 입력층에서의 노드의 수는 입력되는 안구 영상의 차원이고, 출력층에서의 노드의 수는 안구 영상 품질 정보의 벡터 차원일 수 있다. 즉, 본원에서 개시하는 안구 영상 품질 정보 관리 장치(40)가 구축하는 학습 모델에 대한 입력 노드의 수는 안구 영상의 픽셀 수에 해당하고, 출력 노드의 수는 품질의 좋음과 나쁨 등의 스칼라 값이므로 한 개일 수 있다.In this case, the number of nodes in the input layer may be a dimension of an input eyeball image, and the number of nodes in an output layer may be a vector dimension of eyeball image quality information. That is, the number of input nodes for the learning model constructed by the apparatus 40 for managing eye image quality information disclosed herein corresponds to the number of pixels of an eye image, and the number of output nodes is a scalar value such as good or bad quality. so it can be one.

모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.Model parameters refer to parameters determined through learning, and include weights of synaptic connections and biases of neurons. In addition, hyperparameters mean parameters that must be set before learning in a machine learning algorithm, and include a learning rate, number of iterations, mini-batch size, initialization function, and the like.

또한, 인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.In addition, the purpose of learning an artificial neural network can be seen as determining model parameters that minimize a loss function. The loss function may be used as an index for determining optimal model parameters in the learning process of an artificial neural network.

머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to learning methods.

지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화 하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.Supervised learning refers to a method of training an artificial neural network given a label for training data, and a label is the correct answer (or result value) that the artificial neural network must infer when learning data is input to the artificial neural network. can mean Unsupervised learning may refer to a method of training an artificial neural network in a state in which a label for training data is not given. Reinforcement learning may refer to a learning method in which an agent defined in an environment learns to select an action or action sequence that maximizes a cumulative reward in each state.

본원의 일 실시예에 따르면, 계산부(120)는 혈관 영역에 대응하는 선의 개수를 계산할 수 있다. According to an embodiment of the present application, the calculation unit 120 may calculate the number of lines corresponding to the blood vessel area.

구체적으로, 계산부는(120) 안구 영상 데이터에서 혈관 영역 분할 모델을 통해 구분된 혈관 영역에 대응하는 선을 검출하여 선의 개수를 카운팅 할 수 있다.Specifically, the calculation unit 120 may detect lines corresponding to blood vessel regions classified through a blood vessel region segmentation model in the eyeball image data and count the number of lines.

여기서, 선은 영상에서 곡선의 형태로 나타나는 좌표공간의 픽셀들과 좌표공간에서 같은 직선상에 존재하는 픽셀들의 경우 매개변수 공간에서 교점을 가지는 특징을 이용하여 영상의 특징 픽셀들을 좌표공간에서 매개변수 공간으로 사상(mapping)시킨 후, 보팅 과정을 통해 교점을 찾아 직선 성분을 추출하여 나타낸 선을 의미한다.Here, the line is a parameter in the coordinate space of the feature pixels of the image by using the feature of having an intersection in the parameter space in the case of pixels in the coordinate space appearing in the form of a curve in the image and pixels existing on the same straight line in the coordinate space. After mapping into space, it means a line expressed by finding an intersection through a voting process and extracting a straight line component.

본원의 일 실시예에 따르면, 레이블 생성부(130)는 선의 개수 및 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성할 수 있다.According to an embodiment of the present application, the label generator 130 may generate a plurality of artificial intelligence learning labels based on the number of lines and additional information of each of a plurality of eyeball images.

여기서, 추가 정보는 안축장 길이 및 안구 나이, 맥락막 혈관, 시신경 유두의 형상, 혈관의 상태, 황반변성, 당뇨성 망막증, 녹내장 등을 포함할 수 있으나 이에 한정되지는 않는다.Here, the additional information may include, but is not limited to, axial length and ocular age, choroidal blood vessels, optic nerve head shape, blood vessel conditions, macular degeneration, diabetic retinopathy, glaucoma, and the like.

구체적으로, 레이블 생성부(130)는 혈관 영역에 대응하는 선의 개수와 안축장 길이 및 안구 나이, 맥락막 혈관, 시신경 유두의 형상, 혈관의 상태, 황반변성, 당뇨성 망막증, 녹내장 등 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성함으로써 혈관 영역과 안구 영상의 추가 정보를 연계하여 다양한 안구 질환과 관련된 인공지능 학습레이블을 생성할 수 있다.Specifically, the label generation unit 130 adds the number of lines corresponding to the blood vessel area, the axial length, the eye age, the choroidal blood vessel, the shape of the optic disc, the state of the blood vessel, macular degeneration, diabetic retinopathy, glaucoma, and the like. By generating a plurality of artificial intelligence learning labels based on the information, it is possible to create artificial intelligence learning labels related to various eye diseases by linking the blood vessel area and additional information of the eye image.

본원의 일 실시예에 따르면, 레이블 생성부(130)는 선의 개수 및 경계선 값을 이용하여 가상의 레이블을 생성할 수 있다. According to an embodiment of the present application, the label generator 130 may generate a virtual label using the number of lines and the boundary value.

구체적으로, 선을 카운팅한 값 hi 를 경계선 값을 이용하여 가상의 레이블 pi를 생성할 수 있다. 경계선 값에 따른 가상의 레이블은 하기 [식1]에 의해 계산될 수 있다.Specifically, a virtual label pi may be generated by using a value h i obtained by counting lines as a boundary line value. A virtual label according to the boundary value can be calculated by [Equation 1] below.

[식 1][Equation 1]

이와 관련하여, 상기 [식 1]의 변수 hi 는 선의 개수를 계산한 값을 입력하고, Tau+, Tau-는 경계선 값으로 계산 결과와 두개의 경계선 값을 이용하여 가상의 레이블pi를 생성할 수 있다.In this regard, the variable h i in [Equation 1] is a value obtained by calculating the number of lines, and Tau + and Tau - are boundary values, and a virtual label p i is generated using the calculation result and the two boundary values. can do.

또한, 선을 계산한 값이 두 경계선 값 사이에 있는 hi 정보는 생성된 가상의 레이블의 모호성을 제거하기 위해 사용되지 않을 수 있다.In addition, h i information in which a value obtained by calculating a line is between two boundary line values may not be used to remove ambiguity of the generated virtual label.

본원의 일 실시예에 따르면, 모델 생성부(140)는 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성할 수 있다.According to an embodiment of the present application, the model generation unit 140 may generate an eyeball image quality information model based on the artificial intelligence learning label.

구체적으로, 모델 생성부(140)는 학습레이블을 기초하여 안구 영상의 품질을 구분하는 안구 영상 품질 정보 모델을 생성할 수 있다. 이를 위해, 모델 생성부(140)는 학습레이블로부터 품질을 구분하는데 연관성이 있는 요소를 특징으로 설정하여 특징 벡터를 생성하고, 목적 변수에 특정 클래스를 지칭하는 레이블을 매핑하여, 특징 벡터와 목적 변수와의 상관 관계가 학습된 안구 영상 품질 정보 모델을 생성할 수 있다.Specifically, the model generation unit 140 may generate an eyeball image quality information model for classifying the quality of an eyeball image based on the learning label. To this end, the model generation unit 140 creates a feature vector by setting elements related to classifying quality from learning labels as characteristics, maps a label indicating a specific class to an object variable, and maps the feature vector and the object variable to an object variable. It is possible to create an eye image quality information model in which the correlation with is learned.

또한, 모델 생성부(140)는 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 안구 영상 품질 정보 모델을 생성할 수 있다.In addition, the model generation unit 140 may generate an eye image quality information model through artificial intelligence-based learning using the generated virtual label as an input.

구체적으로, 모델 생성부(140)는 레이블이 없는 안구 영상에서 혈관 영역의 선의 개수를 기초하여 레이블 할 안구 영상을 구분하고, 가상의 레이블을 학습하여 안구 영상 품질 정보 모델을 생성함으로써 레이블이 없는 안구 영상에 대하여 품질 정보를 결정할 수 있다.Specifically, the model generating unit 140 classifies eye images to be labeled based on the number of lines of blood vessel regions in the unlabeled eye image, learns virtual labels, and generates an eye image quality information model, thereby generating an eye image without a label. Quality information may be determined for an image.

예를 들어, 경계선 값이 10이고, 카운팅한 선의 개수가 15인 안구 영상에 대하여 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 안구 영상의 품질 정보를 결정하는 안구 영상 품질 정보 모델을 생성하여 안구 영상의 품질 정보를 결정할 수 있다.For example, an eye image quality information model that determines the quality information of an eye image through artificial intelligence-based learning using a virtual label generated for an eye image having a boundary value of 10 and counting lines of 15 as an input. It is possible to determine the quality information of the eye image by generating.

또한, 레이블이 없는 안구 영상을 안구 영상 품질 정보 모델에 입력하여 특정 등급 이하의 안구 영상이 출력되면 다시 안구 영상 품질 정보 모델에 입력하는 과정을 특정 등급을 만족할 때까지 반복하여 학습함으로써 안구 영상 품질 정보 모델을 생성할 수 있다.In addition, the process of inputting an eye image without a label to the eye image quality information model and inputting the eye image to the eye image quality information model again when an eye image of a certain grade or less is output until a certain grade is satisfied is learned, thereby providing eye image quality information. model can be created.

한편 레이블된 데이터는 안구 영상 품질 정보 모델로 피드백되어, 학습함으로써 기계학습의 정확도를 계속 유지할 수 있다.On the other hand, the labeled data is fed back to the eye image quality information model, and by learning, the accuracy of machine learning can be maintained continuously.

또한, 전술한 인공지능 기반의 학습은 레이블링되지 않은 데이터 셋을 이용하여 비지도 형태로 학습될 수도 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다.In addition, the aforementioned artificial intelligence-based learning may be learned in an unsupervised form using an unlabeled data set. Unsupervised learning may refer to a method of training an artificial neural network in a state in which a label for training data is not given.

비지도 학습은 데이터의 숨겨진(Hidden) 특징(Feature)이나 구조를 발견하는 방식에 사용된다. 예시적으로, 비지도 학습은 군집(Clustering)으로 구분되는 K-평균(K-Means), 계층 군집 분석(HCA, Hierarchical ClusterAnalysis), 기댓값 최대화(Expectation Maximization)를 포함할 수 있다. 또한, 시각화(Visualization)와 차원 축소(Dimensionality Reduction)로 구분되는, 주성분 분석(PCA, Principal Component Analysis), 커널PCA(Kernel PCA), 지역적 선형 임베딩(LLE, Locally-Linear Embedding), t-SNE(t-distributed StochasticNeighbor Embedding)을 포함할 수 있다. 또한, 연관 규칙 학습(Association Rule Learning)으로 구분되는 어프라이어리(Apriori), 이클렛(Eclat)을 포함할 수 있다. 계층 군집 알고리즘을 사용하면 각 그룹을 더 작은 그룹으로 세분화할 수 있다. 시각화 알고리즘은 레이블이 없는 대규모의 고차원 데이터를 넣으면 도식화가 가능한 2D나 3D 표현을 만들어 준다. 차원 축소는 너무 많은 정보를 잃지 않으면서 데이터를 간소화하는데 사용된다. 예를 들어 차의 주행거리는 연식과 매우 연관되어 있으므로 차원 축소 알고리즘으로 두 특성을 차의 마모 정도를 나타내는 하나의 특성으로 합칠 수 있다. Unsupervised learning is used to discover hidden features or structures of data. Illustratively, unsupervised learning may include K-Means divided into clustering, Hierarchical Cluster Analysis (HCA), and Expectation Maximization. In addition, Principal Component Analysis (PCA), Kernel PCA, Locally-Linear Embedding (LLE, Locally-Linear Embedding), t-SNE ( t-distributed StochasticNeighbor Embedding). In addition, Apriori and Eclat, which are classified as association rule learning, may be included. Hierarchical clustering algorithms allow each group to be subdivided into smaller groups. Visualization algorithms take large, unlabeled, high-dimensional data and create a 2D or 3D representation that can be plotted. Dimensionality reduction is used to simplify data without losing too much information. For example, since a car's mileage is highly correlated with its age, a dimensionality reduction algorithm could combine the two features into a single feature representing the wear and tear of the car.

또한, K-means 클러스터링 알고리즘은 전통적인 분류기법으로 대상집단을 거리의 평균값(유사도)을 기준으로 K 개의 군집으로 반복 세분화하는 기법을 의미한다.In addition, the K-means clustering algorithm is a traditional classification technique that repeatedly subdivides a target group into K clusters based on the average value of distance (similarity).

본원의 일 실시예에 따르면, 품질 결정부(150)는 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 결정할 수 있다.According to an embodiment of the present application, the quality determination unit 150 may determine quality information corresponding to the input of the subject's eyeball image based on the eyeball image quality information model.

구체적으로, 품질 결정부(150)는 가상의 레이블을 통해 학습된 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 미리 설정된 등급에 따라 구분하여 결정할 수 있다.Specifically, the quality determination unit 150 may classify and determine quality information corresponding to an eyeball image input of a subject according to a preset grade based on an eyeball image quality information model learned through a virtual label.

이와 관련하여, 도 4는 본원의 일 실시예에 따른 안구 영상 품질 정보 모델에 안구 영상을 입력하여 품질 정보를 결정한 결과를 예시적으로 나타낸 도면이다.In this regard, FIG. 4 is a diagram illustratively illustrating a result of determining quality information by inputting an eyeball image to an eyeball image quality information model according to an embodiment of the present disclosure.

도 4을 참조하면, 품질 결정부(150)는 생성된 가상의 레이블로 학습된 안구 영상 품질 정보 모델을 통해 안구 영상의 품질을 분류할 수 있다.Referring to FIG. 4 , the quality determination unit 150 may classify the quality of an eyeball image through an eyeball image quality information model learned with a generated virtual label.

도 4의 (a)는 좋음 등급의 영상으로 분류한 결과이고, 도 4의 (b)는 나쁨 등급의 영상으로 분류한 결과이다. 가상의 레이블이 생성된 좋은 품질의 영상을 기반한 학습을 통해 모델을 생성하고, 입력한 안구 영상 데이터의 계산한 선의 개수가 경계선 값 미만이더라도 생성된 안구 영상 품질 정보 모델을 통해 안구 영상의 품질 정보를 결정할 수 있다.Figure 4(a) is the result of classifying the image as a good level, and Figure 4(b) shows the result of classifying the image as a bad level. A model is created through learning based on high-quality images in which virtual labels are generated, and even if the number of lines calculated for the input eye image data is less than the boundary value, the quality information of the eye image is obtained through the generated eye image quality information model. can decide

예를 들어, 안구 영상의 품질을 좋음, 좋지 않음으로 등급을 나누어 평가할 수 있지만, 두 가지의 분류 방법으로 한정하지 않는다.For example, the quality of the eyeball image may be evaluated by dividing the quality into good and bad grades, but it is not limited to the two classification methods.

본원의 일 실시예에 따르면, 출력부(미도시)는 안구 영상 데이터를 생성된 모델에 입력한 영상을 출력할 수 있다.According to an embodiment of the present application, an output unit (not shown) may output an image obtained by inputting eyeball image data to a generated model.

구체적으로, 출력부(미도시)는 대상자의 안구 영상을 혈관 영역 분할 모델 입력에 입력하여 분할된 혈관 영역의 이미지를 외부 장치로 전송하여 출력할 수 있다.Specifically, the output unit (not shown) may input an eyeball image of the subject to the blood vessel region segmentation model input, transmit the image of the divided blood vessel region to an external device, and output the divided image.

또한, 출력부(미도시)는 혈관 영역을 화면에 디스플레이하고 명암, 밝기 등 사용자의 선호도에 따라 출력 영상 데이터를 갱신 할 수 있다.Also, the output unit (not shown) may display the blood vessel area on the screen and update the output image data according to the user's preference such as contrast and brightness.

상기와 같은 구성에 의하여, 사용자가 선호하는 영상의 출력을 사용자가 임의대로 설정할 수 있을 뿐 아니라, 화면에 디스플레이된 혈관 영역을 기준으로 참고하여 보다 정확히 사용자의 선호에 맞는 영상의 출력을 선택하고 설정할 수 있다.With the configuration as described above, not only can the user arbitrarily set the output of the image preferred by the user, but also select and set the output of the image more accurately suited to the user's preference by referring to the blood vessel area displayed on the screen as a criterion. can

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly reviewed.

도 5는 본원의 일 실시예에 따른 안구 영상 품질 정보 관리 방법에 대한 동작 흐름도이다.5 is an operational flowchart of a method for managing eyeball image quality information according to an embodiment of the present invention.

도 5에 도시된 안구 영상 품질 정보 관리 방법은 앞서 설명된 안구 영상 품질 정보 관리 장치에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 안구 영상 품질 정보 관리 장치에 대하여 설명된 내용은 안구 영상 품질 정보 관리 방법에 대한 설명에도 동일하게 적용될 수 있다.The eyeball image quality information management method shown in FIG. 5 may be performed by the previously described eyeball image quality information management apparatus. Therefore, even if omitted below, the description of the apparatus for managing eye image quality information can be equally applied to the description of the method for managing eye image quality information.

도 5를 참조하면, 단계 S501에서 분할부(110)는 복수의 안구 영상으로부터 혈관 영역을 분할할 수 있다.Referring to FIG. 5 , in step S501, the segmentation unit 110 may segment a blood vessel region from a plurality of eyeball images.

다음으로, 단계 S502에서 계산부(120) 혈관 영역에 대응하는 선의 개수를 계산할 수 있다.Next, in step S502, the calculation unit 120 may calculate the number of lines corresponding to the blood vessel area.

다음으로, 단계S503에서 레이블 생성부(130) 선의 개수 및 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성할 수 있다.Next, in step S503, the label generation unit 130 may generate a plurality of artificial intelligence learning labels based on the number of lines and the additional information of each of the plurality of eyeball images.

다음으로, 단계S504에서 모델 생성부(140) 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성할 수 있다.Next, in step S504, the model generation unit 140 may generate an eyeball image quality information model based on the artificial intelligence learning label.

다음으로, 단계S505에서 품질 결정부(150)는 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 결정할 수 있다.Next, in step S505, the quality determination unit 150 may determine quality information corresponding to the input of the subject's eyeball image based on the eyeball image quality information model.

상술한 설명에서, 단계 S501 내지 S505은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the foregoing description, steps S501 to S505 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present application. Also, some steps may be omitted if necessary, and the order of steps may be changed.

본원의 일 실시 예에 따른 안구 영상 품질 정보 관리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The eyeball image quality information management method according to an embodiment of the present application may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 안구 영상 품질 관리 제어 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.In addition, the above-described eyeball image quality management and control method may be implemented in the form of a computer program or application stored in a recording medium and executed by a computer. Those skilled in the art will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.

10: 안구 영상 품질 정보 관리 시스템
20: 네트워크
30: 안구 영상 촬영 기기
40: 안구 영상 품질 정보 관리 장치
110: 분할부
120: 계산부
130: 레이블 생성부
140: 모델 생성부
150: 품질 결정부
10: eye image quality information management system
20: Network
30: eye imaging device
40: ocular image quality information management device
110: division part
120: calculation unit
130: label generation unit
140: model generating unit
150: quality determining unit

Claims (11)

대상자의 안구 영상의 품질 정보를 결정하는 장치에 있어서,
복수의 안구 영상으로부터 혈관 영역을 분할하는 분할부;
상기 혈관 영역에 대응하는 선의 개수를 계산하는 계산부;
상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 레이블 생성부;
상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 모델 생성부; 및
상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 상기 대상자의 안구 영상의 품질 정보를 결정하는 품질 결정부;
를 포함하는 것인, 안구 영상 품질 정보 관리 장치.
An apparatus for determining quality information of an eye image of a subject,
a division unit dividing a blood vessel region from a plurality of eye images;
a calculator configured to calculate the number of lines corresponding to the blood vessel area;
a label generation unit generating a plurality of artificial intelligence learning labels based on the number of lines and the additional information of each of the plurality of eyeball images;
a model generating unit generating an eyeball image quality information model based on the artificial intelligence learning label; and
a quality determining unit determining quality information of the eyeball image of the subject corresponding to an input of the subject's eyeball image based on the eyeball image quality information model;
To include, the ocular image quality information management device.
제1항에 있어서,
상기 분할부는,
상기 혈관 영역을 식별하도록 인공지능 기반 학습을 통해 미리 구축되는 혈관 영역 분할 모델에 기초하여 상기 대상자의 안구 영상에서 상기 혈관 영역을 분할하는 것인, 안구 영상 품질 정보 관리 장치.
According to claim 1,
The division part,
and dividing the blood vessel region in the subject's eye image based on a blood vessel region segmentation model pre-constructed through artificial intelligence-based learning to identify the blood vessel region.
제1항에 있어서,
상기 레이블 생성부는,
상기 선의 개수 및 경계선 값을 이용하여 가상의 레이블을 생성하는 것인, 안구 영상 품질 정보 관리 장치.
According to claim 1,
The label generator,
An apparatus for managing eye image quality information, wherein a virtual label is generated using the number of lines and the value of the boundary line.
제3항에 있어서,
상기 가상의 레이블은,
아래 [식1]에 기초하여 생성되는 것이고,

Pi는 상기 가상의 레이블이고, hi 는 상기 선의 개수, Tau+, Tau-는 경계선 값인 것인, 안구 영상 품질 정보 관리 장치.
According to claim 3,
The virtual label,
It is generated based on [Equation 1] below,

P i is the virtual label, h i is the number of lines, and Tau + and Tau - are boundary line values.
제4항에 있어서,
상기 모델 생성부는,
상기 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 상기 안구 영상 품질 정보 모델을 생성하는 것인, 안구 영상 품질 정보 관리 장치.
According to claim 4,
The model generator,
and generating the eye image quality information model through artificial intelligence-based learning using the generated virtual label as an input.
대상자의 안구 영상의 품질 정보를 결정하는 방법에 있어서,
복수의 안구 영상으로부터 혈관 영역을 분할하는 단계;
상기 혈관 영역에 대응하는 선의 개수를 계산하는 단계;
상기 선의 개수 및 상기 복수의 안구 영상 각각의 추가 정보에 기초하여 복수의 인공지능 학습레이블을 생성하는 단계;
상기 인공지능 학습레이블에 기초하여 안구 영상 품질 정보 모델을 생성하는 단계; 및
상기 안구 영상 품질 정보 모델에 기초하여 대상자의 안구 영상의 입력에 대응하는 품질 정보를 결정하는 단계;
를 포함하는 것인, 안구 영상 품질 정보 관리 방법.
A method for determining quality information of an eye image of a subject,
segmenting blood vessel regions from the plurality of eye images;
calculating the number of lines corresponding to the blood vessel area;
generating a plurality of artificial intelligence learning labels based on the number of lines and additional information of each of the plurality of eyeball images;
generating an eye image quality information model based on the artificial intelligence learning label; and
determining quality information corresponding to an input of an eyeball image of a subject based on the eyeball image quality information model;
A method for managing eye image quality information, comprising:
제1항에 있어서,
상기 분할하는 단계는,
상기 혈관 영역을 식별하도록 인공지능 기반 학습을 통해 미리 구축되는 혈관 영역 분할 모델에 기초하여 상기 대상자의 안구 영상에서 상기 혈관 영역을 분할하는 것인, 안구 영상 품질 정보 관리 방법.
According to claim 1,
The dividing step is
and dividing the blood vessel region in the subject's eye image based on a blood vessel region segmentation model pre-constructed through artificial intelligence-based learning to identify the blood vessel region.
제1항에 있어서,
상기 학습레이블을 생성하는 단계는,
상기 선의 개수 및 경계선 값을 이용하여 가상의 레이블을 생성하는 것인, 안구 영상 품질 정보 관리 방법.
According to claim 1,
The step of generating the learning label,
The method of managing eye image quality information, wherein a virtual label is generated using the number of lines and the boundary line value.
제3항에 있어서,
상기 가상의 레이블은,
아래 [식1]에 기초하여 생성되는 것이고,

Pi는 상기 가상의 레이블이고, hi 는 상기 선의 개수, Tau+, Tau-는 경계선 값인 것인, 안구 영상 품질 정보 관리 방법.
According to claim 3,
The virtual label,
It is generated based on [Equation 1] below,

P i is the virtual label, h i is the number of lines, and Tau + and Tau - are boundary line values.
제4항에 있어서,
상기 안구 영상 품질 정보 모델을 생성하는 단계는,
상기 생성된 가상의 레이블을 입력으로하여 인공지능 기반의 학습을 통해 상기 안구 영상 품질 정보 모델을 생성하는 것인, 안구 영상 품질 정보 관리 방법.
According to claim 4,
The step of generating the eyeball image quality information model,
and generating the eye image quality information model through artificial intelligence-based learning using the generated virtual label as an input.
제 1 항 내지 제 5항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 5 in a computer.
KR1020220019506A 2022-02-15 2022-02-15 Self supervised learning based apparatus and method for retinal image quality assessment KR20230123080A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220019506A KR20230123080A (en) 2022-02-15 2022-02-15 Self supervised learning based apparatus and method for retinal image quality assessment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220019506A KR20230123080A (en) 2022-02-15 2022-02-15 Self supervised learning based apparatus and method for retinal image quality assessment

Publications (1)

Publication Number Publication Date
KR20230123080A true KR20230123080A (en) 2023-08-23

Family

ID=87849114

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220019506A KR20230123080A (en) 2022-02-15 2022-02-15 Self supervised learning based apparatus and method for retinal image quality assessment

Country Status (1)

Country Link
KR (1) KR20230123080A (en)

Similar Documents

Publication Publication Date Title
US11954902B2 (en) Generalizable medical image analysis using segmentation and classification neural networks
Das et al. A critical review on diagnosis of diabetic retinopathy using machine learning and deep learning
KR20230110233A (en) Cloud server and diagnostic assistant systems based on cloud server
JP2021531098A (en) Systems and methods for determining eye condition using AI
Benet et al. Artificial intelligence: the unstoppable revolution in ophthalmology
Biswas et al. Dilated deep neural network for segmentation of retinal blood vessels in fundus images
Hervella et al. End-to-end multi-task learning for simultaneous optic disc and cup segmentation and glaucoma classification in eye fundus images
CN111667490B (en) Fundus picture cup optic disc segmentation method
Sharafeldeen et al. Precise higher-order reflectivity and morphology models for early diagnosis of diabetic retinopathy using OCT images
Singh et al. A novel hybrid robust architecture for automatic screening of glaucoma using fundus photos, built on feature selection and machine learning‐nature driven computing
Lakshmi et al. Exploration of AI-powered DenseNet121 for effective diabetic retinopathy detection
Bhambra et al. Deep learning for ultra-widefield imaging: A scoping review
Gojić et al. Deep learning methods for retinal blood vessel segmentation: evaluation on images with retinopathy of prematurity
KR20230123080A (en) Self supervised learning based apparatus and method for retinal image quality assessment
KR20220109535A (en) Method and apparatus for examinating fundus
Shetty et al. Current state of artificial intelligence applications in ophthalmology and their potential to influence clinical practice
Sheikh Diabetic Reinopathy Classification Using Deep Learning
Abeyrathna et al. Directed fine tuning using feature clustering for instance segmentation of toxoplasmosis fundus images
Zengin et al. Low-Resolution Retinal Image Vessel Segmentation
Liu et al. OCTA retinal vessel segmentation based on vessel thickness inconsistency loss
Sharma et al. Better feature extraction using multi-encoder convolutional neural networks for optic cup segmentation from digital fundus images
AlSaad et al. A deep learning based automatic severity detector for diabetic retinopathy
Abbood et al. Automatic classification of diabetic retinopathy through segmentation using cnn
Berk et al. Learning from few examples: Classifying sex from retinal images via deep learning
Norouzifard Computer Vision and Machine Learning for Glaucoma Detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal