KR101848322B1 - Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same - Google Patents

Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same Download PDF

Info

Publication number
KR101848322B1
KR101848322B1 KR1020170141130A KR20170141130A KR101848322B1 KR 101848322 B1 KR101848322 B1 KR 101848322B1 KR 1020170141130 A KR1020170141130 A KR 1020170141130A KR 20170141130 A KR20170141130 A KR 20170141130A KR 101848322 B1 KR101848322 B1 KR 101848322B1
Authority
KR
South Korea
Prior art keywords
information
image
fundus image
funduscopic
fundus
Prior art date
Application number
KR1020170141130A
Other languages
Korean (ko)
Inventor
손재민
박상준
김상근
정규환
김현준
Original Assignee
주식회사 뷰노
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노, 서울대학교병원 filed Critical 주식회사 뷰노
Priority to KR1020170141130A priority Critical patent/KR101848322B1/en
Application granted granted Critical
Publication of KR101848322B1 publication Critical patent/KR101848322B1/en
Priority to JP2020523359A priority patent/JP7178672B6/en
Priority to PCT/KR2018/008099 priority patent/WO2019083129A1/en
Priority to US16/759,594 priority patent/US11771318B2/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • G06N99/005
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

The present invention relates to a method for supporting reading of a fundus image of a subject and a computing apparatus using the same. More specifically, the computing apparatus acquires a fundus image of a subject, generates or receives information on whether the fundus image is normal, generates segment information which indicates an individual segment of the fundus image, generates or receives finding information corresponding to the individual segment, generates or receives diagnostic information on the fundus image based on the finding information, and stores the finding and diagnostic information on the fundus image or provides the finding and diagnostic information on the fundus image to an external entity. Therefore, the method provides convenience of reading the fundus image.

Description

피검체에 대한 안저 영상의 소견 및 진단 정보의 생성을 위하여 판독을 지원하는 방법 및 이를 이용한 장치{METHOD FOR FACILITATING GENERATION OF FINDING AND DIGNOSIS DATA OF SUBJECT BASED ON FOVEA IMAGE THEREOF AND APPARATUS USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for reading an image of a fundus of a subject,

본 발명은 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 컴퓨팅 장치에 관한 것이다. 구체적으로, 본 발명에 따른 컴퓨팅 장치는, 상기 피검체의 안저 영상을 획득하고, 상기 안저 영상의 정상 여부 정보를 생성하거나 입력받으며, 상기 안저 영상의 개별 구획을 나타내는 구획 구분 정보를 생성하고, 상기 개별 구획에 대응되는 소견 정보를 생성하거나 입력받으며, 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 입력받고, 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에 제공한다.The present invention relates to a method of supporting funduscopic image reading on a subject and a computing device using the same. Specifically, the computing apparatus according to the present invention may further include: an acquisition unit configured to acquire a fundus image of the subject, generate or input normal information on the fundus image, generate segmentation information indicating an individual segment of the fundus image, And generating or inputting diagnostic information corresponding to the funduscopic image based on the finding information, storing the diagnostic information and diagnostic information on the funduscopic image or storing the diagnostic information corresponding to an external entity entity.

안저 영상은 망막, 시신경, 황반부의 이상을 관찰할 수 있어 안과에서 판독용으로 빈번히 활용된다. 그런데, 안저 영상의 판독을 위하여 제공되던 종래의 레이블링(labeling) 시스템은 다음 몇 가지 측면에서 효율적 혹은 효과적이지 않았다.Fundus images are frequently used in ophthalmology because they can detect abnormalities of the retina, optic nerve, and macula. However, the conventional labeling system provided for reading the fundus image was not effective or effective in several aspects.

우선, 종래의 레이블링 시스템은 선택 문항 간의 논리적 관계를 고려하지 않아 불필요하거나 비합리적인 레이블링을 하는 경우가 있었다. 구체적으로, 질병 간의 배타적인 관계가 고려되지 않아 병리학적으로 불가능한 레이블링을 허용하는 경우가 있었다.First, the conventional labeling system does not take into account the logical relationship between the selection items, and therefore, unnecessary or unreasonable labeling is sometimes performed. Specifically, there was a case where an exclusive relationship between diseases was not taken into consideration, allowing pathologically impossible labeling.

또한, 종래의 레이블링 시스템은 소견(finding)과 진단(diagnosis)을 혼용하여 효율적인 데이터 관리가 어려웠고, 소견에 대응되는 위치를 표시하기 위한 구획 설정이 안구의 구조적 특성을 반영하지 않은 단점이 있었다.In addition, the conventional labeling system has a disadvantage in that efficient data management is difficult due to the combination of finding and diagnosis, and the compartment setting for displaying the position corresponding to the findings does not reflect the structural characteristics of the eye.

따라서 본 발명에서는 이러한 문제점들을 해결하고 의료진으로 하여금 보다 효율적이고 정확하게 안저 영상에 대한 레이블링이 가능하도록 지원하는 안저 영상의 판독 지원 방법 및 이를 이용한 장치를 제안하고자 한다.Therefore, in the present invention, a funduscopic image reading support method and a device using the funduscopic image reading apparatus which solve such problems and provide medical staff with more efficient and accurate labeling of the fundus image are proposed.

비특허문헌 1: Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"Non-Patent Document 1: Goodfellow, Ian J .; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks" 비특허문헌 2: Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. Lecture Notes in Computer Science, vol 9351. Springer, ChamNon-Patent Document 2: Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. Lecture Notes in Computer Science, vol 9351. Springer, Cham

본 발명은 인공지능을 이용하여 해부학적 특성을 반영하여 구획되는 영역들을 제공함으로써 안저 영상 판독의 편의를 제공하는 것을 목적으로 한다.An object of the present invention is to provide convenience of funduscopic image reading by providing regions to be divided by reflecting anatomical characteristics using artificial intelligence.

또한, 본 발명은 논리적으로 적절한 문항들만을 선별하여 레이블링 시스템에 포함시킴으로써 질병의 배타적 관계를 레이블링 문항에 반영할 뿐만 아니라, 소견과 진단을 서로 구분하여 효율적으로 데이터가 정리될 수 있게 하는 것을 목적으로 한다.In addition, the present invention includes not only the logically relevant items but also the inclusion of the logically appropriate items in the labeling system, thereby reflecting the exclusive relationship of the disease to the labeling item, and also allowing the data to be sorted efficiently by distinguishing between the findings and diagnosis do.

그리고 본 발명은 주요 소견들의 위치적 특성과 안구의 구조적 특성을 고려한 구획 설정, 특히 황반과 시신경 유두의 위치를 자동으로 탐지하여 구획 분할을 용이하게 하는 것을 목적으로 한다.The present invention is intended to facilitate segmentation by automatically detecting the position of the macula and the optic nerve head in consideration of the positional characteristics of the main findings and the structural characteristics of the eye.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.

본 발명의 일 태양에 따르면, 피검체에 대한 안저 영상의 판독을 지원하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, (i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계; (c) 상기 컴퓨팅 장치가, 상기 안저 영상의 개별 구획을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고, (i) 상기 개별 구획에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계; (d) 상기 컴퓨팅 장치가, (i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계; 및 (e) 상기 컴퓨팅 장치가, 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of supporting reading of funduscopic images of a subject, the method comprising: (a) the computing device acquiring fundus images of the subject or interfacing To obtain another device to be acquired; (b) a process in which the computing device generates (i) generates information on whether or not the fundus image is normal or generates the other device, and (ii) receives the normal information from at least one user, Performing at least one of the following processes: (c) the computing device generates partition information indicating an individual partition of the funduscopic image or supports the other device to generate the information; (i) generating the finding information corresponding to the individual partition or (Ii) performing the at least one of receiving the finding information from the at least one user or supporting the other device to receive input; (d) the computing device is configured to: (i) generate diagnostic information for the fundus image or generate the other device based on the finding information; and (ii) And a process of receiving input of the diagnostic information corresponding to the finding information or supporting the other device to receive input; And (e) supporting the computing device to store or provide the diagnostic information and the diagnostic information on the fundus image to an external entity or to store or provide the external device.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program stored in a machine readable non-transitory medium, comprising instructions embodied to perform the method according to the invention.

본 발명의 또 다른 태양에 따르면, 피검체에 대한 안저 영상의 판독을 지원하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 상기 피검체의 안저 영상을 획득하는 입력 모듈을 구현하는 통신부; 및 (1-i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (1-ii) 상기 통신부를 통하여 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 판별 모듈을 구현하는 프로세서를 포함하되, 상기 판별 모듈은, 상기 안저 영상의 개별 구획을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고, 상기 프로세서는, (2-i) 상기 개별 구획에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (2-ii) 상기 통신부를 통하여 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 소견 입력 모듈; (3-i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (3-ii) 상기 통신부를 통하여 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 진단 결과 입력 모듈; 및 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 통신부를 통하여 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 저장 및 전송 모듈을 더 구현한다.According to still another aspect of the present invention, there is provided a computing device that supports reading funduscopic images of a subject, the computing device including: a communication unit for implementing an input module for acquiring fundus images of the subject; And (1-i) generating normal information on the funduscopic image or generating other apparatuses to be interlocked through the communication unit, and (1-ii) transmitting, via at least one user, And a process of supporting at least one of the processes of receiving input from the other device or receiving input from the other device, wherein the discrimination module generates segmentation information indicating an individual segment of the funduscopic image, (2-i) a process of generating or generating (2-ii) finding information corresponding to the individual section or creating the other device; and (2-ii) Receiving the finding information from one user or receiving the other information from the other device A feature input module for performing at least one of the processes for supporting the process; (3-i) a process of generating diagnosis information for the funduscopic image or generating the diagnostic information for the other device based on the finding information; and (3-ii) a process of generating diagnostic information for the funduscopic image from the at least one user And a process of inputting the diagnosis information corresponding to the finding information or supporting the other device to receive input, And a storage and transmission module for storing the diagnostic information and diagnostic information on the funduscopic image or providing the stored or transmitted information to an external entity or storing or providing the other device through the communication unit.

본 발명에 의하면, 종래의 안저 영상 레이블링 방식에서와 같은 논리적, 병리학적으로 불필요하거나 비합리적인 판독을 방지할 수 있고, 안구의 구조적 특성을 고려한 구획 설정으로 인하여 소견에 대응되는 위치를 효과적으로 표시할 수 있는 효과가 있다.According to the present invention, unnecessary or unreasonable reading can be prevented logically and pathologically as in the conventional fundus image labeling method, and the position corresponding to the finding can be effectively displayed due to the partition setting considering the structural characteristics of the eyeball It is effective.

또한, 본 발명에 의하면, 효율적인 데이터의 정리가 가능하여 인공지능 학습 모델을 위한 데이터 취득에 용이하며, 사전에 학습된 정보를 통하여 판독에 용이하게 이용될 수 있는 초기의 속성 정보, 예컨대, 양안 구분 정보, 황반 및 시신경 유두의 위치 정보, 혈관 정보, C/D 비(cup-to-disk ratio)의 정보 등이 제공될 수 있는 효과가 있다.Further, according to the present invention, it is possible to organize data efficiently, to easily acquire data for an artificial intelligence learning model, to acquire initial attribution information that can be easily used for reading through previously learned information, Information on the position of the macula and the optic nerve head, information on the blood vessel, information on the cup-to-disk ratio, etc. can be provided.

이에 따라, 본 발명에는 논리적, 병리학적으로 불가능한 판독을 시스템에서 걸러내도록 하여, 의료진이 실수할 수 있는 여지를 제거하는 효과가 있으며, 사용자의 사용 경험이 축적될수록 학습 모델이 지속적으로 갱신됨으로써 정확도가 높여질 수 있는 장점이 있다.Accordingly, the present invention has the effect of eliminating logical and pathologically impossible readings from the system, thereby eliminating the room for the medical staff to make a mistake, and as the user's experience is accumulated, the learning model is continuously updated, There is an advantage that it can be raised.

요컨대, 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.In short, by enabling efficient and accurate reading, it is possible to save the time of the medical staff, improve the quality of the medical care, and innovate the workflow in the medical field.

그리고 본 발명에 의하면, 종래에 병원에서 이용하고 있는 안저 촬영 영상, 예컨대 안저 촬영 기기 및 의료영상저장전송시스템(PACS)에서 획득된 영상을 그대로 활용할 수 있는바, 본 발명의 방법은 컴퓨터 운영체제에 종속되지 않는다.According to the present invention, it is possible to utilize funduscopy images conventionally used in hospitals, such as fundus photographing devices and images acquired from a medical image storage transmission system (PACS), as the method of the present invention is applicable to computer operating systems It does not.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 “통상의 기술자”라 함)에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 이용될 수 있는 기계 학습 모델의 일 예시로서 CNN(convolutional neural network; 합성 신경망)의 주요 개념을 도시한 도면이다.
도 2는 본 발명에 따라 피검체에 대한 안저 영상의 판독을 지원하는 방법(이하 "안저 영상 판독 지원 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 3은 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 4는 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 혈관의 영상만을 분리하여 나타낸 혈관 정보를 예시적으로 나타낸 도면이다.
도 5는 시신경 유두 및 황반 중심의 위치를 검출하는 종래의 방식을 설명하기 위하여 나타낸 도면이다.
도 6은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 시신경 유두 및 황반 중심의 위치를 검출하기 위한 기계 학습 모델을 예시하는 도면이다.
도 7은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 추출되는 안저 영상의 구획을 나타내는 구획 구분 정보를 예시적으로 나타낸 도면이다.
도 8은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예를 예시적으로 나타낸 흐름도이다.
도 9는 본 발명에 따른 안저 영상 판독 지원 방법의 다른 실시예를 예시적으로 나타낸 흐름도이다.
도 10a 내지 10e는 도 9에 예시된 실시예의 각 단계에서 제공되는 사용자 인터페이스(UI; user interface)를 예시적으로 나타낸 도면들이다.
도 11은 도 9에 예시된 실시예에서 소견 정보로부터 진단 정보를 생성하는 방식의 하나로서 베이지안 네트워크를 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention to those skilled in the art Other drawings can be obtained based on these figures without an inventive task being performed.
1 is a diagram showing a main concept of a CNN (convolutional neural network) as an example of a machine learning model that can be used in the present invention.
2 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device that performs a method of supporting reading of funduscopic images of a subject according to the present invention (hereinafter referred to as " funduscopic image reading support method ").
3 is a conceptual diagram illustrating a hardware and software architecture of a computing device that performs a funduscopic image reading support method according to the present invention.
4 is a diagram illustrating blood vessel information obtained by separating only blood vessel images in an embodiment of the funduscopic image reading support method according to the present invention.
5 is a diagram illustrating a conventional method for detecting the position of the optic disc and macula center.
FIG. 6 is a diagram illustrating a machine learning model for detecting the position of the optic disc center and the macula center in an embodiment of the funduscopic image read support method according to the present invention.
FIG. 7 is a diagram illustrating an example of segmentation information indicating a segment of an eye fundus image extracted in an embodiment of the funduscopic image reading support method according to the present invention.
FIG. 8 is a flowchart exemplarily showing an embodiment of a funduscopic image reading support method according to the present invention.
9 is a flowchart exemplarily showing another embodiment of a funduscopic image reading support method according to the present invention.
FIGS. 10A through 10E are exemplary views illustrating a user interface (UI) provided at each step of the embodiment illustrated in FIG.
FIG. 11 is a diagram showing a Bayesian network as one of methods for generating diagnostic information from feature information in the embodiment illustrated in FIG.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of example, specific embodiments in which the invention may be practiced in order to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.Throughout the detailed description and claims of the present invention, 'learning' or 'learning' refers to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that the present invention is not intended to be so-called.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.And throughout the description and claims of this invention, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, elements or steps. Other objects, advantages and features of the present invention will become apparent to those skilled in the art from this description, and in part from the practice of the invention. The following examples and figures are provided by way of illustration and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of embodiments shown herein. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. It should also be understood that the position or arrangement of individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the present invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated herein or clearly contradicted by context, items referred to in the singular are intended to encompass a plurality unless otherwise specified in the context. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명에 이용되는 기계 학습 모델의 일 예시로서 CNN의 주요 개념을 도시한 도면이다.1 is a diagram showing a main concept of CNN as an example of a machine learning model used in the present invention.

도 1을 참조하면 본 발명에서 이용되는 기계 학습(machine learning) 모델 중 깊은 신경망 모델은 인공 신경망을 다층으로 쌓은 형태로 간략하게 설명할 수 있다. 즉, 깊은 구조의 네트워크라는 의미로 깊은 신경망 혹은 딥 신경망(deep neural network)이라고 표현하며, 도 1에 도시된 바와 같이, 다층의 네트워크로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 생체 신호의 특징, 생체 신호 간의 관계를 자동으로 학습하고, 이를 통해 목적 함수, 즉 치명적 증상의 예측 정확도의 에러(error)를 최소화시키는 방법으로 네트워크를 학습시켜 나아가는 형태이다. 이는, 일견 인간 두뇌의 신경세포 간의 연결로도 표현이 되는바, 이와 같은 깊은 신경망은 인공지능의 차세대 모델로 자리잡아 가고 있다.Referring to FIG. 1, among the machine learning models used in the present invention, a deep neural network model can be briefly described as a form in which artificial neural networks are stacked in multiple layers. That is, it is expressed as a deep neural network or a deep neural network in the sense of a network of deep structure. As shown in FIG. 1, by learning a large amount of data in a structure of a multi-layer network, , And automatically learns the relationship between the biological signals and thereby learns the network by a method that minimizes the error of the objective function, that is, the prediction accuracy of the fatal symptom. This is also expressed as a connection between neurons in the human brain, and such a deep neural network is becoming a next generation model of artificial intelligence.

다음으로, 도 2는 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.Next, FIG. 2 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a funduscopic image reading support method according to the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 컴퓨팅 장치(200)는, 통신부(210) 및 프로세서(220)를 포함하며, 상기 통신부(210)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.2, a computing device 200 according to an embodiment of the present invention includes a communication unit 210 and a processor 220. The communication unit 210 communicates with an external computing device (not shown) Communication is possible.

구체적으로, 상기 컴퓨팅 장치(200)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.In particular, the computing device 200 may be a computing device, such as a computer, a processor, a memory, a storage, an input and output device, or any other device capable of including components of a conventional computing device; Electronic communication devices, electronic information storage systems such as Network Attached Storage (NAS) and Storage Area Networks (SAN)) and computer software (i. E., Instructions that cause a computing device to function in a particular manner) System performance.

이와 같은 컴퓨팅 장치의 통신부(210)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP 세션에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP 데이터그램으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(210)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The communication unit 210 of such a computing device can send and receive requests and responses to and from other interworking computing devices. As an example, such requests and responses can be made by the same TCP session, For example, as a UDP datagram. In addition, in a broad sense, the communication unit 210 may include a keyboard, a mouse, and other external input devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(220)는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐시 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.The processor 220 of the computing device may include a hardware configuration such as a micro processing unit (MPU) or a central processing unit (CPU), a cache memory, and a data bus. It may further include a software configuration of an operating system and an application that performs a specific purpose.

도 3은 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.3 is a conceptual diagram illustrating a hardware and software architecture of a computing device that performs a funduscopic image reading support method according to the present invention.

도 3을 참조하여 본 발명에 따른 방법 및 장치의 구성을 개관하면, 컴퓨팅 장치(200)는 그 일 구성요소로서 영상 획득 모듈(310)을 포함할 수 있다. 이와 같은 영상 획득 모듈(310)은 상기 컴퓨팅 장치(200)에 포함된 통신부(210), 또는 상기 통신부(210) 및 프로세서(220)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.3, the computing device 200 may include an image acquisition module 310 as a component of the method and apparatus according to the present invention. It is to be understood that the image acquisition module 310 may be implemented by the communication unit 210 included in the computing device 200 or by the interlocking of the communication unit 210 and the processor 220, will be.

영상 획득 모듈(310)은, 피검체의 안저 영상을 획득할 수 있다. 예를 들어, 이는 상기 피검체의 안저 영상 촬영 기기 또는 의료영상저장전송시스템(PACS)로부터 획득되는 것일 수 있으나, 이에 한정되지는 않는다. 대부분의 안저 영상이 중간 영상이기 때문에 당뇨병 환자의 7-segment montage에도 대응 가능할 수 있다.The image acquisition module 310 can acquire fundus images of the subject. For example, it may be obtained from a funduscopic imaging device or a medical image storage transmission system (PACS) of the subject, but is not limited thereto. Since most fundus images are intermediate images, 7-segment montage of diabetic patients may be possible.

다음으로, 그 획득된 안저 영상은 판별 모듈(320)에 전달될 수 있는데, 판별 모듈(320)에서는 기계 학습 모델에 기초하여 안저 영상의 속성 정보를 추출한다.Next, the obtained fundus image can be transmitted to the determination module 320, and the determination module 320 extracts the fundus image attribute information based on the machine learning model.

예컨대, 안저 영상의 속성 정보는, (i) 상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, (ii) 상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보, (iii) 상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보, (iv) 상기 안저 영상의 구획을 나타내는 구획 구분 정보, (v) 상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보 등을 포함할 수 있다.For example, the attribute information of the funduscopic image includes (i) blood vessel information showing only the image of the optic nerve blood vessel included in the fundus image, (ii) binocular discrimination information indicating whether the funduscopic image is the left eye image or the right eye image (iv) position information indicating the position of at least one of the macula and the optic nerve head contained in the fundus image, (iv) segment information indicating a segment of the fundus image, (v) C / D ratio (cup-to-disk ratio) information, and the like.

첫째, 상기 혈관 정보의 경우에, 판별 모듈의 기계 학습 모델은 합성 신경망 및 GAN(generative adversarial networks)을 포함할 수 있다. First, in the case of the blood vessel information, the machine learning model of the discrimination module may include a synthetic neural network and generic adversarial networks (GAN).

GAN에 관한 논문인 비특허문헌 1: [Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"]에 따르면, GAN의 생성기는 실제와 유사한 데이터를 생성함으로써 판별기를 속여 그 유사한 데이터를 실제 데이터로 판별하게 하는 것을 목표로 가지며, 판별기는 실제 데이터와 생성된 유사 데이터를 구분해내는 것을 목표로 가진다. 이 GAN에 의한 학습이 진행되는 과정에서 생성기와 판별기는 각각의 목표를 달성하기 위하여 네트워크 가중치를 갱신하는바, 충분한 학습 후에는 생성기가 실제와 유사한 데이터를 생성해내고, 판별기에 의한 판별률이 이론적으로 0.5에 수렴되는 것이 밝혀져 있다. 결과적으로, GAN에 의하여 충분히 학습된 생성기는 실제 데이터와 가까운 데이터를 생성하게 되므로, 기계 학습에 있어서의 데이터 불균형 문제가 해결될 수 있다.Non-patent document 1: [Goodfellow, Ian J .; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). According to "Generative Adversarial Networks", the GAN generator is aimed at tricking the discriminator into generating realistic data to identify the similar data as actual data, and the discriminator separates the actual data from the generated similar data I have a goal to put out. In the process of learning by this GAN, the generator and the discriminator update the network weights to achieve the respective goals. After sufficient learning, the generator generates data similar to the actual data, and the discrimination rate by the discriminator is theoretical And converges to 0.5 at. As a result, the generator fully learned by the GAN generates data close to the actual data, so that the data unbalance problem in machine learning can be solved.

이와 같은 합성 신경망(CNN)과 GAN을 함께 이용하는 방식으로 충분한 반복(iteration)을 거쳐 학습을 진행하면, 이 기계 학습 모델에 기초하여 상기 시신경 혈관의 영상이 추출될 수 있는바, 도 4는 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 혈관의 영상만을 분리하여 나타낸 혈관 정보를 예시적으로 나타낸 도면이다.FIG. 4 is a block diagram showing the structure of the present invention. FIG. 4 is a block diagram showing the structure of the present invention. In FIG. 4, FIG. 2 is a view illustrating an example of blood vessel information obtained by separating only an image of a blood vessel according to an embodiment of the funduscopic image reading support method according to the present invention.

둘째, 상기 양안 구분 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며, 상기 기계 학습 모델에 기초하여 상기 안저 영상의 시신경 유두(optic disk)의 형상 및 상기 시신경 유두로부터 나오는 혈과의 주행 중 적어도 하나를 판별함으로써, 상기 시신경 유두의 형상 및 상기 혈관의 주행에 따라 상기 안저 영상의 양안 구분 정보가 추출될 수 있다.Second, in the case of the binocular discrimination information, the machine learning model includes segmentation networks, and based on the machine learning model, the shape of the optic disk of the fundus image and the shape of the optic disc By discriminating at least one of running with blood, binocular discrimination information of the funduscopic image can be extracted according to the shape of the optic nerve head and the running of the blood vessel.

구체적으로, 이 양안 구분 정보의 추출에 있어서, 시신경 유두의 위치만을 가지고는 해당 안저 영상이 좌안의 영상인지 우안의 영상인지 판단이 불가능한 경우가 있을 수 있는바, 이에 대한 판별 정확도를 높이기 위하여 시신경 유두의 위치만을 가지고 판단이 불가능한 경우의 안저 영상을 학습 데이터로 이용하여 상기 기계 학습 모델의 학습을 진행하였다. 오른쪽 눈의 경우에는 안과에서 통상적으로 촬영하는 영상은 그 중앙에 초점이 맞춰지므로 시신경 유두가 오른쪽에 있으나, 학습 데이터에는 오른쪽 눈임에도 불구하고 시신경 유두가 왼쪽 또는 아래쪽에 위치하는 이미지를 포함시킴으로써 양안 구분의 정확도를 높일 수 있다.Specifically, in the extraction of the binocular discrimination information, it may be impossible to determine whether the fundus image is the left eye image or the right eye image only by the position of the optic nerve head. In order to improve the accuracy of discrimination, The learning of the machine learning model is carried out using the funduscopic image in the case where judgment is impossible using only the position of the camera. In the case of the right eye, the optic nipple is on the right side because the image normally taken in the ophthalmology is focused on the center, but the learning data includes the image in which the optic nipple is located on the left or lower side, Can be increased.

안저 영상의 개별 채널(channel)의 z-score(표준화 점수)를 구하여 합성 신경망의 입력으로 이용하는바, z-score는 다음 수학식 1과 같다.The z-score (standardization score) of an individual channel of the fundus image is obtained and used as an input of the synthesis neural network. The z-score is expressed by the following Equation 1.

Figure 112017106537576-pat00001
Figure 112017106537576-pat00001

이 z-score를 이용함으로써 안저 영상의 밝기(intensity)나 명암(contrast)에 영향을 받지 않고, 온전히 영상에 나타난 형태 정보를 이용하여 양안을 구분하는 것이 가능하다. 여기에 이용될 수 있는 예시적인 분획 네트워크의 형태는 다음과 같다.By using this z-score, it is possible to distinguish the binocular using the type information shown in the image without being influenced by the intensity or contrast of the funduscopic image. An exemplary form of fraction network that can be used here is as follows.

conv(2)-conv-maxpool(2)-conv(2)-conv-conv-maxpool(2)-conv-conv-conv-maxpool(22)-conv-conv-conv-maxpool(2)-conv-conv-dense(256)-dense(1)conv-conv-maxpool (2) -conv-conv-maxpool (2) -conv-conv-maxpool (2) conv-dense (256) -dense (1)

여기에서 입력 데이터는 512x512의 z-score로 변환된 RGB 영상이며, conv와 maxpool의 stride는 (x)로 표현되었다. 또한, 여기에서 활성화(activation) 함수는 selu가, 마지막 dense layer에는 sigmoid가 이용되었으며, 손실(loss) 함수로는 binary cross entropy가 이용되었다.Here, the input data is an RGB image converted to a z-score of 512x512, and the stride of conv and maxpool is represented by (x). Here, the activation function is selu, the last dense layer is sigmoid, and the loss function is binary cross entropy.

다음으로, 셋째, 상기 위치 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크를 포함하며, 이에 기초하여 상기 황반 및 상기 시신경 유두 중 적어도 하나의 위치가 추출될 수 있다.Thirdly, in the case of the position information, the machine learning model includes a fraction network, and based on this, the position of at least one of the macula and the optic nerve head can be extracted.

도 5는 시신경 유두 및 황반 중심의 위치를 검출하는 종래의 방식을 설명하기 위하여 나타낸 도면인데, 시신경 유두 및 황반은 안저 영상 판독시 기준점의 역할을 하는데, 종래에는 황반의 위치를 OCT(optical coherence tomography) 촬영을 통하여 검출하였으며, 시신경 유두는 안저 영상에서 밝고 선명하게 나오는 부분이라 그 위치의 판정이 비교적 용이하므로, 시신경 유두는 안저 영상으로부터 검출하였다. 이와 같은 종래의 기법과 달리 본 발명에서는 OCT 촬영 영상을 이용하지 않고도 황반과 시신경 유두의 위치 모두 안저 영상으로부터 검출할 수 있다.FIG. 5 is a view for explaining a conventional method for detecting the position of the optic disc and macula center. The optic disc and the macula function as a reference point in reading the fundus image. Conventionally, the position of the macula is measured by optical coherence tomography ). The optic nerve head was detected from the fundus image because the optic nerve head was bright and clear in the fundus image and its position was relatively easy to determine. Unlike the conventional technique, the present invention can detect both the position of the macula and the optic nerve head from the fundus image without using the OCT image.

도 6은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 시신경 유두 및 황반 중심의 위치를 검출하기 위한 기계 학습 모델을 예시하는 도면이다.FIG. 6 is a diagram illustrating a machine learning model for detecting the position of the optic disc center and the macula center in an embodiment of the funduscopic image read support method according to the present invention.

구체적으로, 이 시신경 유두 및 황반 중심 위치의 검출에 있어서, 정상 안저 영상뿐만 아니라 병변이 있는 안저 영상에 대해서도 의료 전문가가 레이블링(구체적으로는, 위치 좌표를 찍음)한 데이터를 학습 데이터로 이용하여 상기 기계 학습 모델의 학습을 진행하였는바, 기계 학습 모델의 일 예시로서, 비특허문헌 2: [Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. Lecture Notes in Computer Science, vol 9351. Springer, Cham]에 개시된 것과 같이 패딩(padding)의 형태, 층(layer)의 개수, 개별 층의 깊이(depth)를 파라미터로 하는 U-Net에서 이용된 depth concatenation 기법이 활용될 수 있다. 그 구체적인 네트워크의 형태는 도 6에 예시된 바와 같다.Specifically, in the detection of the optic nerve head and macular center position, not only a normal fundus image but also an eye fundus image having a lesion is labeled by a medical professional (more specifically, the position coordinate is captured) As an example of a machine learning model, learning of a machine learning model has been progressed. [Non-Patent Document 2] [Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. Padding < / RTI > as disclosed in Springer, Cham, in < RTI ID = 0.0 > the depth concatenation technique used in U-Net may be utilized as parameters of the type of padding, the number of layers, and the depth of individual layers. The concrete network configuration is as illustrated in Fig.

도 6에 예시된 이 네트워크에서는 640x640의 RGB 영상에 대하여 개별 채널마다 z-score를 구하고 분획(segment)된 혈관(vessel)을 입력으로 이용하였으며, batch-normalization이 이용되었으며, 손실 함수로는 binary cross entropy가 이용되었다. 도 6에서 operations는 개별 block의 연산(operation)을 나타내며, skip-connected는 U-Net에 있어서 depth concat layer를 나타내고, upsample은 bilinear interpolation으로 길이와 너비를 각기 2배로 늘린 것을 의미한다.In this network illustrated in FIG. 6, a z-score is obtained for each channel of 640x640 RGB image, and a segmented vessel is used as an input. Batch-normalization is used, and a loss function is binary cross entropy was used. In FIG. 6, operations represent operations of individual blocks, skip-connected represents a depth concat layer in U-Net, and upsample means bilinear interpolation to increase the length and width twice in each case.

넷째로, 상기 구획 구분 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크를 포함하며, 이에 기초하여 상기 황반 및 상기 시신경 유두의 위치가 추출됨으로써, 상기 황반의 중심 위치 및 상기 시신경 유두의 중심 위치에 기초하여 상기 안저 영상을 개별 구획들로 구분하는 정보인 상기 구획 구분 정보가 추출될 수 있다. 바람직하게는, 상기 개별 구획들은 3개 이상으로 구성되는바, 의료진의 필요에 따라 다양하게 구성될 수 있을 것이다.Fourthly, in the case of the segment classification information, the machine learning model includes a fraction network, and based on this, the position of the macula and the optic nerve head are extracted based on which the center position of the macula and the center position of the optic nerve head The segmentation information that is information for dividing the funduscopic image into individual segments can be extracted based on the segmentation information. Preferably, the individual compartments are comprised of three or more, and may be configured in various ways according to the needs of the medical staff.

개별 구획들을 구분하는 일 실시예로서, 상기 개별 구획들은, 황반(macula) 영역, 시신경 유두 상측(superior disk) 영역, 시신경 유두 하측(inferior disk) 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역를 포함할 수 있다.In one embodiment for distinguishing individual compartments, the individual compartments may include a macula region, a superior disc region, an inferior disc region, a temporal region, a superotemporal region, Region, an inferotemporal region, a superonasal region, and an inferonasal region.

도 7은 이 실시예에서 추출되는 안저 영상의 구획을 나타내는 구획 구분 정보를 예시적으로 나타낸 도면이다.Fig. 7 is a diagram exemplifying the segmentation information indicating the segment of the fundus image extracted in this embodiment.

도 7을 참조하면, 상기 황반 영역은, 상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치 간의 거리가 d일 때 0<k1≤1를 만족하는 소정의 k1에 대하여 k1*d를 반지름으로 하고 상기 황반의 중심 위치를 중심점으로 하는 황반 중심원의 내부 영역일 수 있다.7, when the distance between the central position of the macula and the center position of the optic nerve head is d, k1 * d is a radius of a predetermined k1 satisfying 0 < k1 &lt; = 1, And may be the inner region of the macular center circle centered at the central position of the macula.

또한, 상기 시신경 유두 상측 영역은, 상기 거리 d 및 0<k2≤1를 만족하는 소정의 k2에 대하여 k2*d를 반지름으로 하고 상기 시신경 유두의 중심 위치를 중심점으로 하는 시신경 유두 중심원의 내부 영역인 시신경 유두 영역이 상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치를 통과하는 직선 l1에 의하여 분할되는 영역들 중 상측의 영역일 수 있다.In addition, the above-mentioned optic papilloterminal region may have a radius k2 * d for a predetermined k2 satisfying the distance d and 0 < k2 &lt; = 1 and an inner region of the optic nerve head center circle having the center position of the optic nerve head as a center The optic disc region may be the upper one of the regions divided by the straight line l1 passing through the central position of the macula and the center position of the optic disc.

그리고 상기 시신경 유두 하측 영역은, 상기 시신경 유두 영역이 상기 직선 l1에 의하여 분할되는 영역들 중 하측의 영역일 수 있다.And the lower optic disc region may be a lower region of the optic disc region divided by the straight line l1.

또한, 상기 상비측 영역은, 상기 직선 l1에 수직으로 상기 시신경 유두의 중심 위치를 통과하는 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 상측의 영역에서 상기 시신경 유두 상측 영역을 제외한 영역일 수 있다.In addition, the above-mentioned upper-side region is defined by a straight line l2 passing through the center position of the optic nerve head perpendicular to the above-mentioned straight line l1, and an area above the optic papillary region in a region farther from the macula among the regions divided by the straight line l1 May be excluded.

다음으로, 상기 하비측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 하측의 영역에서 상기 시신경 유두 하측 영역을 제외한 영역일 수 있다.Next, the rabbit-side region may be a region excluding the lower region of the optic disc in the region far from the macula among the regions divided by the straight line l2 and the straight line l1.

또한, 상기 외측 영역은, 상기 직선 l1에 평행하며 상기 황반 중심원에 접하되 상기 시신경 유두로부터 멀어지는 방향으로 연장되는 2개의 반직선 l3 및 l4과 상기 황반 중심원에 의하여 분할되는 영역들 중 상기 직선 l1을 포함하는 영역에서 상기 황반 영역을 제외한 영역일 수 있다.In addition, the outer region may be divided into two rectilinear l3 and l4 parallel to the straight line l1 and extending in a direction away from the optic nerve head, contacting the center of the macular center, and the straight line l1 The region excluding the macular region may be the region including the macular region.

상기 상외측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 상측의 영역에서 상기 시신경 유두 상측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역일 수 있다.The upper-side region may be a region excluding the upper side of the optic disc region, the macula region, and the outer region in an upper-side region of the macular region, which is divided by the straight line l2 and the straight line l1.

그리고 상기 하외측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 하측의 영역에서 상기 시신경 유두 하측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역일 수 있다.In addition, the lower outer region may be a region excluding the lower optic disc region, the macular region, and the outer region in the lower region near the macula among the regions divided by the straight line l2 and the straight line l1.

바람직하게는, k1=2/3, k2=2/5일 수 있는바, 그 결과는 도 7에 예시적으로 도시된 바와 같다.Preferably, k1 = 2/3, k2 = 2/5, and the result is as exemplarily shown in Fig.

다섯째로, 상기 C/D 비(cup-to-disk ratio) 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며, 이에 기초하여 시신경 유두(optic disk) 및 안배(optic cup)를 식별함으로써 상기 C/D 비가 추출될 수 있다. Fifth, in the case of the above-mentioned cup-to-disk ratio information, the machine learning model includes segmentation networks, and based on the optic disk and optic cup The C / D ratio can be extracted.

안저 판독의 임상에 있어서, 안배(optic cup)는 시신경 유두(optic disk) 안쪽에 혈관이 뇌 쪽으로 연결된 부분을 의미하고, 시신경 다발이 안배와 시신경 유두 사이로 들어가기 때문에, C/D 비가 높으면 시신경 손상을 시사하는바, 이는 녹내장을 의심할 수 있는 하나의 근거가 될 수 있다.In the clinical examination of the fundus, the optic cup refers to the part of the optic disc where the blood vessels are connected to the brain, and because the optic bundle enters the optic disc between the optic disc and the optic disc, This suggests that glaucoma can be a source of suspicion.

여기에서 이용된 분획 네트워크 모델은, 예를 들어, VGG(Visual Geometry Group) 네트워크 형태의 합성 블록(convolution block)을 적층하고, 그 합성 블록에 완전 연결층(fully-connected layer)을 연결한 모델일 수 있는바, 이를 통하여 녹내장이 높은 정확도로 자동으로 판독할 수 있다(ROC_AUC 0.8617 이상).The fraction network model used here is a model network in which a convolution block in the form of a VGG (Visual Geometry Group) network is stacked and a fully-connected layer is connected to the synthesis block. As a result, glaucoma can be automatically read with high accuracy (ROC_AUC 0.8617 or higher).

전술한 바와 같이 판별 모듈(320)에서 이용되는 기계 학습 모델의 학습은 판별 모듈(320)에서 이루어질 수도 있으며, 별도의 학습 모듈(330)에 의하여 학습될 수도 있다.As described above, learning of the machine learning model used in the determination module 320 may be performed by the determination module 320 or may be learned by a separate learning module 330. [

기계 학습 모델에 기초하여 개별 안저 영상에 관하여 속성 정보가 추출되면, 그 속성 정보는 저장 및 전송 모듈(340)을 통하여 저장되거나 외부 엔티티(entity)에 제공되거나 컴퓨팅 장치(200)에 연동되는 타 장치(미도시)에 제공될 수 있다.Once attribute information has been extracted for an individual fundus image based on the machine learning model, the attribute information may be stored in the storage and transmission module 340 or provided to an external entity or to other devices associated with the computing device 200 (Not shown).

계속해서 도 3을 참조하면, 상기 추출된 속성 정보에 관하여 평가한 평가 정보 및 추출된 속성 정보를 임의로 수정한 수정 정보를 획득할 수 있는 결과 입력 모듈(350), 및 상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신할 수 있는 갱신 모듈(360)이 컴퓨팅 장치(200)의 구성요소로서 더 제공될 수 있는바, 이와 같은 모듈들(310 내지 360)은 통신부(210) 및 프로세서(220)에 의하여 구현될 수 있다.3, there are shown a result input module 350 that can obtain evaluation information evaluated with respect to the extracted attribute information and modified information obtained by arbitrarily modifying the extracted attribute information, An update module 360 that can update the machine learning model based on the communication module 210 and the processor 210 may be further provided as a component of the computing device 200, (Not shown).

더 구체적으로, 상기 결과 입력 모듈(350)은, 하기에서 설명하는 안저 영상 판독 지원 방법의 제2 실시예에서 소견 입력 모듈(352; 미도시) 및 진단 결과 입력 모듈(354; 미도시)을 더 포함할 수도 있다.More specifically, the result input module 350 may further include a feature input module 352 (not shown) and a diagnostic result input module 354 (not shown) in the second embodiment of the funduscopic image read support method described below .

이제 본 발명에 따른 안저 영상 판독 지원 방법의 제1 실시예를 도 8을 참조하여 구체적으로 설명하기로 한다. 도 8은 본 발명의 제1 실시예에 따른 안저 영상 판독 지원 방법을 예시적으로 나타낸 흐름도이다.A first embodiment of a funduscopic image reading support method according to the present invention will now be described in detail with reference to FIG. FIG. 8 is a flowchart illustrating an exemplary method for supporting funduscopic image reading according to the first embodiment of the present invention.

도 8을 참조하면, 이 실시예에 따른 안저 영상 판독 지원 방법은, 앞서 도 3에 관하여 설명한 바와 같이, 우선, 컴퓨팅 장치(200)의 통신부(210)에 의하여 구현되는 영상 획득 모듈(310)이, 상기 피검체의 안저 영상을 획득하거나 컴퓨팅 장치(200)에 연동되는 타 장치(미도시)로 하여금 획득하도록 지원하는 단계(S810)를 포함한다.Referring to FIG. 8, an image capturing module 310 implemented by the communication unit 210 of the computing device 200, as described above with reference to FIG. 3, (Step S810) to acquire a fundus image of the subject or to acquire another device (not shown) interlocked with the computing device 200 (S810).

다음으로, 본 발명의 일 실시예에 따른 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)에 의하여 구현되는 판별 모듈(320)이, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 타 장치로 하여금 추출하도록 지원하는 단계(S820)와, 상기 컴퓨팅 장치(200)의 통신부(210) 및 프로세서(220)에 의하여 구현되는 저장 및 전송 모듈(340)이 추출된 상기 속성 정보를 외부 엔티티(entity)에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S830)를 더 포함한다.The method for supporting the funduscopic image reading according to an embodiment of the present invention is characterized in that the discrimination module 320 implemented by the processor 220 of the computing device 200 includes a function for extracting attribute information of the funduscopic image (S820) of extracting the attribute information from the fundus image or extracting the attribute information from the fundus image based on a machine learning model (S820); a communication unit (210) of the computing device (200) 220 further includes a step S830 of providing the extracted attribute information to an external entity or providing the other device with the attribute information extracted by the storage and transmission module 340 implemented in step S830.

여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치의 사용자, 관리자, 상기 피검체를 담당하는 담당 의료 전문가 등을 포함하나, 이 이외에도 상기 안저 영상을 판독할 수 있는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. Here, the external entity includes a user, an administrator of the above-described computing apparatus, a medical professional in charge of the subject, and the like, but it should be understood that any subject can read the funduscopic image something to do.

한편, 이 실시예에 따른 안저 영상 판독 지원 방법의 수행에 앞서, 상기 기계 학습 모델이 미리 학습되는 단계(미도시)를 거쳐야 할 필요가 있는바, 이를 위한 학습 모듈(330)이 상기 프로세서(220)에 의하여 실행될 수 있다.Meanwhile, in order to perform the fundus camera image reading support method according to this embodiment, the learning module 330 for performing the machine learning model needs to be pre-learned (not shown) ).

예컨대, 상기 학습 모듈(330)은 다수의 기존 피검체에 대한 개별 안저 영상 및 이를 레이블링한 데이터를 학습 데이터로서 이용하여 상기 기계 학습 모델을 학습할 수 있다.For example, the learning module 330 may learn the machine learning model using individual fundus images of a plurality of existing subjects and data labeled with them as learning data.

이 실시예에서는, 미리 학습된 기계 학습 모델에 기초하여 안저 영상의 판독을 지원할 수 있는바, 추출된 속성 정보를 평가하거나 수정한 정보를 다시 상기 기계 학습 모델에 대한 재학습의 자료로 활용한다면, 상기 기계 학습 모델이 더 정확해질 수 있는 장점이 있으므로, 이러한 장점을 취하기 위하여, 본 발명의 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 프로세서(220)가, 상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보를 결과 입력 모듈(350)을 통하여 획득하고, 상기 평가 정보 또는 상기 수정 정보에 기초하여 갱신 모듈(360)을 통하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S840)를 더 포함할 수 있다. 이때, 이전의 학습 때에는 고려되지 않았던 안저 영상 및 레이블링 데이터가 추가로 고려되고, 이전의 학습 때에 있었던 오류를 바로 잡을 수 있기 때문에 상기 기계 학습 모델의 정확도가 향상되는바, 데이터가 쌓일수록 상기 기계 학습의 성능이 지속적으로 향상되는 장점이 있다.In this embodiment, it is possible to support the reading of the fundus image based on the previously learned machine learning model. If information obtained by evaluating or modifying the extracted attribute information is used again as the data of re-learning for the machine learning model, In order to take advantage of this advantage, the method of supporting fundus camera image reading according to this embodiment of the present invention is characterized in that the processor 220 performs the evaluation of the extracted attribute information Acquires modification information obtained by arbitrarily modifying one evaluation information or the extracted attribute information through the result input module 350 and updates the machine learning model through the update module 360 based on the evaluation information or the modification information Or supporting the other device to update (S840). At this time, the fundus image and the labeling data, which were not taken into consideration in the previous learning, are further considered, and the error in the previous learning can be corrected, so that the accuracy of the machine learning model is improved. As the data accumulates, The performance of the system is continuously improved.

여기에서 상기 평가 정보, 상기 수정 정보는 상기 의료 전문가 등의 외부 엔티티로부터 제공될 수 있다.Here, the evaluation information and the modification information may be provided from an external entity such as the medical professional.

다음으로 도 9 및 도 10a 내지 10e를 참조하여 본 발명에 따른 안저 영상 판독 지원 방법의 제2 실시예를 설명하기로 한다.Next, a second embodiment of a funduscopic image reading support method according to the present invention will be described with reference to FIG. 9 and FIGS. 10A to 10E.

도 9는 본 발명에 따른 안저 영상 판독 지원 방법의 제2 실시예를 예시적으로 나타낸 흐름도이며, 도 10a 내지 10e는 도 9에 예시된 실시예의 각 단계에서 제공되는 사용자 인터페이스(UI; user interface)를 예시적으로 나타낸 도면들이다.FIG. 9 is a flow chart illustrating a second embodiment of a funduscopic image reading support method according to the present invention. FIGS. 10A to 10E illustrate a user interface (UI) provided at each step of the embodiment illustrated in FIG. As shown in FIG.

도 9를 참조하면, 이 제2 실시예에 따른 안저 영상 판독 지원 방법은, 우선, 컴퓨팅 장치(200)의 통신부(210)에 의하여 구현되는 영상 획득 모듈(310)이, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치(200)에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계(S910)를 포함한다.Referring to FIG. 9, in the fundus camera image reading support method according to the second embodiment, an image acquisition module 310 implemented by the communication unit 210 of the computing device 200 receives an eye fundus image (S910) to acquire or acquire another device associated with the computing device (200).

도 10a에 예시적으로 도시된 바와 같이, 이 단계(S910)에서, 사용자, 즉, 판독자의 편의를 위하여 상기 피검체의 식별 번호, 나이, 성별 및 상기 안저 영상의 양안 구분 정보 중 적어도 하나가 사용자에게 제공될 수 있다. 또한, 판독은 다수의 사용자에 의하여 이루어질 수도 있는바, 이 실시예의 방법에 따라 안저 영상의 판독을 지원하는 적어도 하나의 사용자는, 전체 M개의 사용자 그룹 중 제n 사용자 그룹에 포함된 Kn인의 사용자들 중에서 선택됨으로써, 하나의 상기 안저 영상에 대하여 다수의 판독이 시행될 수 있으며, 이를 통하여 판독 결과로서의 레이블링 데이터에 대한 교차 검증이 이루어질 수 있다.As shown in FIG. 10A, at step S910, at least one of the identification number, age, gender, and binocular discrimination information of the funduscopic image for the convenience of the user, that is, the reader, Lt; / RTI &gt; Also, since the reading may be performed by a plurality of users, at least one user supporting the reading of the funduscopic image according to the method of this embodiment is a user who is Kn in the nth user group among the total M user groups , A plurality of readings can be performed on one fundus image, thereby enabling cross-validation of the labeling data as the readout result.

계속해서 도 9를 참조하면, 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)에 의하여 구현되는 판별 모듈(320)이, (i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S920)를 더 포함한다. Referring to FIG. 9, the fundus camera image reading support method according to this embodiment includes a discrimination module 320 implemented by the processor 220 of the computing device 200, (i) (Ii) performing at least one of inputting or outputting the normal information from at least one user or supporting the input of the other device (S920 ).

도 10b에 예시적으로 도시된 바와 같이, 여기에서 상기 정상 여부 정보는, 비정상 안저(abnormal fundus) 및 정상 안저(normal fundus) 중 하나일 수 있다. 예를 들어, 이 중에서 정상 안저가 선택되는 경우에는, 해당 안저 영상에 대한 이 실시예의 방법이 완료되고 다음 안저 영상이 로딩(loading)될 수 있다.As illustrated in FIG. 10B, the normalization information may be one of an abnormal fundus and a normal fundus. For example, if a normal fundus is selected from among these, the method of this embodiment for the fundus image can be completed and the next fundus image can be loaded.

그런데, 단계(S920)에 앞서, 안저 영상의 품질이 먼저 평가되어야 하는 하는 경우에, 상기 안저 영상 판독 지원 방법은, 상기 판별 모듈(320)이, (i) 상기 안저 영상의 품질을 평가하는 영상 품질 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스, 및 (ii) 상기 적어도 하나의 사용자로부터 상기 영상 품질 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S915; 미도시)를 더 포함할 수 있다. In the case where the quality of the funduscopic image is to be evaluated before the step S920, the funduscopic image reading support method may include the steps of (i) (Ii) a process of receiving input of the image quality information from the at least one user or supporting the input of the other device by the other device, (S915; not shown).

도 10a에 예시적으로 도시된 바와 같이, 여기에서 상기 영상 품질 정보는, 양호, 매체 혼탁(media opacity), 작은 동공/초점 흐림(small pupil/defocusing) 및 판정 불가(ungradable) 중 적어도 하나를 포함할 수 있다. 예를 들어, 이 중에서 판정 불가가 선택되는 경우에는, 해당 안저 영상에 대한 이 실시예의 방법이 완료되고 다음 안저 영상이 로딩(loading)될 수 있다.10A, wherein the image quality information includes at least one of: good, media opacity, small pupil / defocusing, and ungradable. can do. For example, if it is determined that the determination is impossible, the method of this embodiment for the funduscopic image can be completed and the next fundus image can be loaded.

단계(S920)의 수행 후에, 이 실시예에 따른 상기 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)가, 상기 판별 모듈(320)을 통하여, 상기 안저 영상의 개별 구획을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고, 상기 소견 입력 모듈(352)을 통하여 (i) 상기 개별 구획에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 통신부(210)를 통하여 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S930)를 더 포함한다.After the execution of step S920, the fundus image read support method according to this embodiment is a method in which the processor 220 of the computing device 200 reads the individual compartments of the funduscopic image through the determination module 320 (I) generating the feature information corresponding to the individual compartment or supporting the other device to generate the feature information corresponding to the individual compartment, And (ii) a process of receiving the identification information from the at least one user via the communication unit 210 or supporting the other device to receive the input via the communication unit 210 (S930).

도 10c에 예시적으로 도시된 바와 같이, 여기에서 안저 영상의 개별 구획에 대응되는 소견 정보는, 출혈, 경성 삼출물, 면화반, 드루젠 및 드루제노이드 침착물(drusen & drusenoid deposits), 망막색소변화(retinal pigmentary change)를 포함할 수 있으나, 이에 한정되지 않으며, macular hole, vascular abnormality, membrane, fluid accumulation, chroioretinal atrophy/scar, choroidal lesion, myelinated nerve fiber, RNFL defect, galucomatous disc change, non-glaucomatous disc change, other findings or artifact 등을 포함할 수 있다.As shown diagrammatically in FIG. 10C, the finding information corresponding to the individual compartments of the fundus image herein is indicative of bleeding, hard exudates, cotton swabs, drusen and drusenoid deposits (drusen & drusenoid deposits) But not limited to, macular hole, vascular abnormality, membrane, fluid accumulation, chorioretinal atrophy / scar, choroidal lesion, myelinated nerve fiber, RNFL defect, galucomatous disc change, non-glaucomatous disc changes, other findings or artifacts.

다음으로, 이 실시예에 따른 상기 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)가, 상기 진단 결과 입력 모듈(354)을 통하여 (i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S940)를 더 포함한다.The method for supporting fundus camera image reading according to this embodiment is characterized in that the processor 220 of the computing device 200 transmits the diagnosis result input module 354 through the diagnosis result input module 354 to (i) (Ii) a process of generating diagnostic information for the image or generating the other device; and (ii) receiving the diagnostic image information corresponding to the fundus image and the feature information from the at least one user, (S940) a process of supporting at least one of the processes for supporting the reception of the message.

도 10d에 예시적으로 도시된 바와 같이, 여기에서 진단 정보는, Dry AMD, Wet AMD, Early DR, Advanced DR, CRVO, BRVO/Hemi-CRVO, Epiretinal membrane, Macular Hole, Other Retinal/Choroidal Diseases/Findings, Glaucoma Suspect, Other Disc Diseases/Findings, Floaters/Artifacts Suspect를 포함할 수 있다.Diagnostic information may include, but is not limited to, dry AMD, Wet AMD, Early DR, Advanced DR, CRVO, BRVO / Hemi-CRVO, Epiretinal membrane, Macular Hole, Other Retinal / Choroidal Diseases / Findings , Glaucoma Suspect, Other Disc Diseases / Findings, Floaters / Artifacts Suspect.

이와 같은 진단 정보는 하나뿐만 아니라 여러 개가 선택될 수 있다. 다만, 이 진단 정보 간에는 배타적 관계가 있는바, Dry AMD와 Wet AMD의 선택은 서로 배타적이며, Early DR과 Advanced DR의 선택도 서로 배타적이며, CRVO와 BRVO/Hemi-CRVO의 선택도 서로 배타적이다. 이는 논리적, 병리학적으로 불필요하거나 비합리적인 판독을 방지하기 위한 것이다.One such diagnostic information may be selected as well as one. However, there is an exclusive relationship between these diagnostic information, the choices of Dry AMD and Wet AMD are mutually exclusive, the choice of Early DR and Advanced DR is mutually exclusive, and the choice of CRVO and BRVO / Hemi-CRVO is mutually exclusive. This is to prevent logical or pathologically unnecessary or unreasonable readings.

앞서 설명한 바와 같이 소견 정보에 기초하여 진단 정보를 생성하는 기계 학습 모델에 CNN 등 딥 러닝 기법이 이용될 수도 있으나, 베이지안 네트워크와 같이 종래에 잘 알려져 있는 기타 통계 방법이 활용될 수도 있을 것이다. As described above, a deep learning method such as CNN may be used as a machine learning model for generating diagnostic information based on the finding information, but other statistical methods well known in the art such as a Bayesian network may be utilized.

도 11은 도 9에 예시된 실시예에서 소견 정보로부터 진단 정보를 생성하는 방식의 하나로서 베이지안 네트워크를 나타낸 도면이다.FIG. 11 is a diagram showing a Bayesian network as one of methods for generating diagnostic information from feature information in the embodiment illustrated in FIG.

베이지안 네트워크는 입력값인 소견 정보로부터 최종적인 진단 정보를 확률적으로 추론하는 데 이용될 수 있는바, 도 11에 예시적으로 도시된 각 노드 간의 연결은 그 확률값에 대응된다.The Bayesian network can be used to probabilistically deduce the final diagnostic information from the input information, that is, the connection between each node illustrated in FIG. 11 corresponds to the probability value.

다음으로, 본 발명의 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 프로세서(220)가, 저장 및 전송 모듈(340)을 통하여 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 단계(S950)를 더 포함한다.In the method of supporting funduscopic image reading according to this embodiment of the present invention, the processor 220 may store the diagnostic information and the diagnostic information on the fundus image through the storage and transmission module 340, (S950) to provide an entity with or store or provide the other device.

도 10e에 예시적으로 도시된 사용자 인터페이스와 같이, 단계(S950)에서, 상기 적어도 하나의 사용자의 선택에 따라 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 안과 의사에게 제공함으로써 상기 안과 의사로 하여금 상기 소견 정보 및 상기 진단 정보를 수정하도록 지원할 수도 있다.In step S950, as in the user interface illustrated in FIG. 10E, the ophthalmologist may provide the ophthalmologist with the finding information and the diagnosis information on the fundus image according to the selection of the at least one user. Thereby helping to modify the diagnostic information and the diagnostic information.

제1 실시예에서와 마찬가지로 제2 실시예에 따른 안저 영상 판독 지원 방법도, 소견 정보 및 진단 정보에 관하여 평가 정보 또는 기계 학습 모델에 의하여 판정된 소견 정보 및 진단 정보를 임의로 수정한 수정 정보를 소견 입력 모듈(352) 또는 진단 결과 입력 모듈(354)을 통하여 획득하고, 상기 평가 정보 또는 상기 수정 정보에 기초하여 갱신 모듈(360)을 통하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S960; 미도시)를 더 포함할 수 있다. 이때, 이전의 학습 때에 있었던 오류를 바로 잡을 수 있기 때문에 상기 기계 학습 모델의 정확도가 향상되는바, 데이터가 쌓일수록 상기 기계 학습의 성능이 지속적으로 향상되는 장점이 있다.As in the first embodiment, the fundus image read support method according to the second embodiment is also characterized in that correction information obtained by arbitrarily modifying diagnostic information or diagnostic information determined by the machine learning model and diagnostic information with regard to the diagnostic information and diagnostic information Through the input module 352 or the diagnostic result input module 354 and updates the machine learning model through the update module 360 based on the evaluation information or the modification information or supports the other device to update the machine learning model (S960) (not shown). At this time, since the error in the previous learning can be corrected, the accuracy of the machine learning model is improved, and the performance of the machine learning is continuously improved as the data accumulates.

이와 같이 본 발명은 전술한 모든 실시예들에 걸쳐, 종래의 의료 전문가들이 그 경험이나 지식에 의존하여 일일이 안저 영상을 판독하는 것에 비하여 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, it is possible to efficiently and accurately read the fundus images compared to conventional medical professionals depending on their experience or knowledge, thereby saving time for the medical staff, It has the effect of increasing the quality and innovating the workflow in the medical field.

위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명이 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. Based on the description of the above embodiments, one of ordinary skill in the art can clearly understand that the present invention can be achieved through a combination of software and hardware, or can be accomplished by hardware alone. Objects of the technical solution of the present invention or portions contributing to the prior art can be recorded in a machine-readable recording medium implemented in the form of program instructions that can be executed through various computer components. The machine-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be those specially designed and constructed for the present invention or may be those known to those of ordinary skill in the computer software arts. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa. The hardware device may include a processor, such as a CPU or a GPU, coupled to a memory, such as ROM / RAM, for storing program instructions, and configured to execute instructions stored in the memory, And a communication unit. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands generated by the developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것이다.Equally or equivalently modified such methods will include logically equivalent methods which can yield, for example, the same results as those of the method according to the invention.

Claims (7)

피검체에 대한 안저 영상의 판독을 지원하는 방법에 있어서,
(a) 컴퓨팅 장치가, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계;
(b) 상기 컴퓨팅 장치가, (i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계;
(c) 상기 컴퓨팅 장치가, 상기 안저 영상의 개별 구획들을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고, (i) 상기 개별 구획들에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계;
(d) 상기 컴퓨팅 장치가, (i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계; 및
(e) 상기 컴퓨팅 장치가, 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 단계
를 포함하되,
상기 (a) 단계는,
(i) 상기 피검체의 식별 번호, 나이 및 성별 중 적어도 하나; 및 (ii) 상기 안저 영상의 속성 정보가 상기 적어도 하나의 사용자에게 제공되고,
상기 안저 영상의 속성 정보는,
상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보,
상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보,
상기 안저 영상의 구획을 나타내는 구획 구분 정보,
상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, 및
상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보
중 적어도 하나를 포함하는 것을 특징으로 하는, 안저 영상 판독 지원 방법.
A method of supporting funduscopic imaging of a subject,
(a) supporting a computing device to acquire a fundus image of the subject or acquire another device associated with the computing device;
(b) a process in which the computing device generates (i) generates information on whether or not the fundus image is normal or generates the other device, and (ii) receives the normal information from at least one user, Performing at least one of the following processes:
(c) supporting the computing device to generate or generate compartment discrimination information indicative of individual compartments of the funduscopic image; and (i) generate discovery information corresponding to the individual compartments, (Ii) a process of receiving input of the finding information from the at least one user or supporting the input of the other device by the at least one user;
(d) the computing device is configured to: (i) generate diagnostic information for the fundus image or generate the other device based on the finding information; and (ii) And a process of receiving input of the diagnostic information corresponding to the finding information or supporting the other device to receive input; And
(e) storing the diagnostic information and the diagnostic information on the fundus image, or providing an external entity, or allowing the other device to store or provide
, &Lt; / RTI &
The step (a)
(i) at least one of the identification number, age and sex of the subject; And (ii) attribute information of the fundus image is provided to the at least one user,
The attribute information of the funduscopic image is,
Binocular discrimination information indicating whether the funduscopic image is a left eye image or a right eye image,
Position information indicating the position of at least one of the macula and the optic nerve head included in the fundus image,
Division division information indicating a division of the fundus image,
Blood vessel information showing only the image of the optic nerve blood vessel included in the fundus image, and
The information of the C / D ratio (cup-to-disk ratio) according to the fundus image
Wherein the at least one fundus image comprises at least one of the following:
제1항에 있어서,
상기 (b) 단계 전에,
(b0) 상기 컴퓨팅 장치가, (i) 상기 안저 영상의 품질을 평가하는 영상 품질 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스, 및 (ii) 상기 적어도 하나의 사용자로부터 상기 영상 품질 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계
를 더 포함하는 것을 특징으로 하는 안저 영상 판독 지원 방법.
The method according to claim 1,
Before the step (b)
(b0) a process for the computing device to generate (i) image quality information for evaluating the quality of the funduscopic image or to assist the other device to generate; and (ii) Or a process of supporting the other device to receive an input
Further comprising the steps of:
삭제delete 제1항에 있어서,
상기 적어도 하나의 사용자는 전체 M개의 사용자 그룹 중 제n 사용자 그룹에 포함된 Kn인의 사용자들 중에서 선택됨으로써, 하나의 상기 안저 영상에 대하여 다수의 판독이 시행되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
The method according to claim 1,
Wherein the at least one user is selected from Kn users included in the n-th user group among all M user groups, whereby a plurality of readings are performed for one fundus image.
제1항에 있어서,
상기 (c) 단계는,
생성된 상기 구획 구분 정보가 상기 적어도 하나의 사용자에게 제공됨으로써, 상기 구획 구분 정보의 상기 적어도 하나의 사용자에 의한 수정을 가능하게 하는 것을 특징으로 하는 안저 영상 판독 지원 방법.
The method according to claim 1,
The step (c)
Wherein the generated partition identification information is provided to the at least one user so that modification by the at least one user of the partition identification information is enabled.
컴퓨팅 장치로 하여금, 제1항, 제2항, 제4항 및 제5항 중 어느 한 항의 방법을 수행하도록 구현된 인스트럭션들(instructions)을 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.A computer-readable medium having stored thereon instructions for implementing a method of any one of claims 1, 2, 4, and 5, program. 피검체에 대한 안저 영상의 판독을 지원하는 컴퓨팅 장치에 있어서,
상기 피검체의 안저 영상을 획득하는 입력 모듈을 구현하는 통신부; 및
(1-i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (1-ii) 상기 통신부를 통하여 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 판별 모듈을 구현하는 프로세서
를 포함하되,
상기 판별 모듈은,
상기 안저 영상의 개별 구획들을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고,
상기 프로세서는,
(2-i) 상기 개별 구획들에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (2-ii) 상기 통신부를 통하여 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 소견 입력 모듈;
(3-i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (3-ii) 상기 통신부를 통하여 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 진단 결과 입력 모듈; 및
상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 통신부를 통하여 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 저장 및 전송 모듈을 더 구현하되,
(i) 상기 피검체의 식별 번호, 나이 및 성별 중 적어도 하나; 및 (ii) 상기 안저 영상의 속성 정보가 상기 적어도 하나의 사용자에게 제공되고,
상기 안저 영상의 속성 정보는,
상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보,
상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보,
상기 안저 영상의 구획을 나타내는 구획 구분 정보,
상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, 및
상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보
중 적어도 하나를 포함하는 것을 특징으로 하는 안저 영상 판독 지원 장치.
A computing device that supports reading funduscopic images of a subject, comprising:
A communication unit for implementing an input module for acquiring a fundus image of the subject; And
(1-i) generating normal information on the funduscopic image or generating other apparatuses to be interlocked through the communication unit, and (1-ii) transmitting the normal information from at least one user through the communication unit And a process of receiving input or supporting the other device to receive input,
, &Lt; / RTI &
The discrimination module comprises:
Generates partition information indicating individual sections of the funduscopic image or supports the other apparatus to generate,
The processor comprising:
(2-i) a process of generating or generating the finding information corresponding to the individual segments, and (2-ii) receiving the finding information from the at least one user through the communication unit, A process for supporting at least one of the processes of receiving input from other devices;
(3-i) a process of generating diagnosis information for the funduscopic image or generating the diagnostic information for the other device based on the finding information, and (3-ii) a process of generating diagnostic information for the fundus image from the at least one user And a process of inputting the diagnosis information corresponding to the finding information or supporting the other device to receive input, And
Further comprising a storage and transmission module for storing the finding information and the diagnosis information on the funduscopic image or for providing or storing the diagnostic information to an external entity or storing or providing the other device through the communication unit,
(i) at least one of the identification number, age and sex of the subject; And (ii) attribute information of the fundus image is provided to the at least one user,
The attribute information of the funduscopic image is,
Binocular discrimination information indicating whether the funduscopic image is a left eye image or a right eye image,
Position information indicating the position of at least one of the macula and the optic nerve head included in the fundus image,
Division division information indicating a division of the fundus image,
Blood vessel information showing only the image of the optic nerve blood vessel included in the fundus image, and
The information of the C / D ratio (cup-to-disk ratio) according to the fundus image
Wherein the at least one of the first and second fundus images includes at least one of the first and second fundus images.
KR1020170141130A 2017-10-27 2017-10-27 Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same KR101848322B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170141130A KR101848322B1 (en) 2017-10-27 2017-10-27 Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same
JP2020523359A JP7178672B6 (en) 2017-10-27 2018-07-18 METHOD AND APPARATUS USING THE SAME TO SUPPORT READING OF FUNDUS IMAGE OF SUBJECT
PCT/KR2018/008099 WO2019083129A1 (en) 2017-10-27 2018-07-18 Method for supporting reading of fundus image of subject, and device using same
US16/759,594 US11771318B2 (en) 2017-10-27 2018-07-18 Method for supporting reading of fundus image of subject, and device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170141130A KR101848322B1 (en) 2017-10-27 2017-10-27 Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same

Publications (1)

Publication Number Publication Date
KR101848322B1 true KR101848322B1 (en) 2018-04-20

Family

ID=62088287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170141130A KR101848322B1 (en) 2017-10-27 2017-10-27 Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same

Country Status (1)

Country Link
KR (1) KR101848322B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344808A (en) * 2018-07-24 2019-02-15 中山大学中山眼科中心 A kind of eyes image processing system based on deep learning
WO2019231102A1 (en) * 2018-05-31 2019-12-05 주식회사 뷰노 Method for classifying fundus image of subject and device using same
KR20190140301A (en) * 2018-06-11 2019-12-19 사회복지법인 삼성생명공익재단 The system for diagnosis of anterior eye diseases and method for diagnosis by the system
KR20200069547A (en) 2018-12-07 2020-06-17 서울대학교병원 Apparatus for taking fundas image, apparatus for taking fundas image and diagnosing therfrom, and system for taking fundas image and diagnosing therfrom
KR20200129440A (en) 2019-05-08 2020-11-18 서울대학교산학협력단 Device for predicting optic neuropathy and method for providing prediction result to optic neuropathy using fundus image
KR20210114771A (en) 2020-03-11 2021-09-24 주식회사 인포랩 System for supporting creation of dental radiographic reading

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019231102A1 (en) * 2018-05-31 2019-12-05 주식회사 뷰노 Method for classifying fundus image of subject and device using same
KR20190140301A (en) * 2018-06-11 2019-12-19 사회복지법인 삼성생명공익재단 The system for diagnosis of anterior eye diseases and method for diagnosis by the system
WO2019240567A1 (en) * 2018-06-11 2019-12-19 사회복지법인 삼성생명공익재단 Anterior eye disease diagnostic system and diagnostic method using same
KR102354980B1 (en) * 2018-06-11 2022-01-24 사회복지법인 삼성생명공익재단 The system for diagnosis of anterior eye diseases and method for diagnosis by the system
CN109344808A (en) * 2018-07-24 2019-02-15 中山大学中山眼科中心 A kind of eyes image processing system based on deep learning
KR20200069547A (en) 2018-12-07 2020-06-17 서울대학교병원 Apparatus for taking fundas image, apparatus for taking fundas image and diagnosing therfrom, and system for taking fundas image and diagnosing therfrom
KR20200129440A (en) 2019-05-08 2020-11-18 서울대학교산학협력단 Device for predicting optic neuropathy and method for providing prediction result to optic neuropathy using fundus image
KR102318194B1 (en) * 2019-05-08 2021-10-28 서울대학교산학협력단 Device for predicting optic neuropathy and method for providing prediction result to optic neuropathy using fundus image
KR20210114771A (en) 2020-03-11 2021-09-24 주식회사 인포랩 System for supporting creation of dental radiographic reading

Similar Documents

Publication Publication Date Title
KR101848321B1 (en) Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same
KR101848322B1 (en) Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same
JP7178672B6 (en) METHOD AND APPARATUS USING THE SAME TO SUPPORT READING OF FUNDUS IMAGE OF SUBJECT
KR101977645B1 (en) Eye image analysis method
US11164313B2 (en) Method and device for assisting heart disease diagnosis
JP6867117B2 (en) Medical image processing method and medical image processing device
EP4023143A1 (en) Information processing device, information processing method, information processing system, and program
CN113646805A (en) Image-based detection of ophthalmic and systemic diseases
JP7413147B2 (en) Image processing device, image processing method, and program
US20220005584A1 (en) Information processing apparatus, information processing method, and storage medium
KR102071774B1 (en) Method for predicting cardio-cerebrovascular disease using eye image
KR102596534B1 (en) Diagnosis assistance method and apparatus
US20220151483A1 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and computer-readable medium
JP2022155690A (en) Image processing device, image processing method, and program
Arefin et al. Non-transfer deep learning of optical coherence tomography for post-hoc explanation of macular disease classification
KR102343796B1 (en) Method for predicting cardiovascular disease using eye image
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
US20220301709A1 (en) Diagnosis assistance method and cardiovascular disease diagnosis assistance method
US20210106239A1 (en) Noninvasive assessment of microvascular dysfunction
Young et al. Automated Detection of Vascular Leakage in Fluorescein Angiography–A Proof of Concept
Preity et al. Automated computationally intelligent methods for ocular vessel segmentation and disease detection: a review
de Moura et al. Fully automated identification and clinical classification of macular edema using optical coherence tomography images
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
KR102426065B1 (en) Method for predicting cardiovascular disease using eye image
Sadda et al. 7 Advanced Imaging Technologies

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant