WO2020117021A1 - Self fundus image capture device, self fundus image capture and interpretation device, and self fundus image capture and interpretation system - Google Patents

Self fundus image capture device, self fundus image capture and interpretation device, and self fundus image capture and interpretation system Download PDF

Info

Publication number
WO2020117021A1
WO2020117021A1 PCT/KR2019/017258 KR2019017258W WO2020117021A1 WO 2020117021 A1 WO2020117021 A1 WO 2020117021A1 KR 2019017258 W KR2019017258 W KR 2019017258W WO 2020117021 A1 WO2020117021 A1 WO 2020117021A1
Authority
WO
WIPO (PCT)
Prior art keywords
fundus image
image
fundus
examinee
pupil
Prior art date
Application number
PCT/KR2019/017258
Other languages
French (fr)
Korean (ko)
Inventor
강욱
신일형
박상민
박기호
오백록
장주영
Original Assignee
인더스마트 주식회사
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인더스마트 주식회사, 서울대학교병원 filed Critical 인더스마트 주식회사
Publication of WO2020117021A1 publication Critical patent/WO2020117021A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Disclosed is a self fundus image capturing device comprising: a display unit on which an image for a focal point is displayed; a first sensor unit which specifies the state of the pupils of an examinee; a second sensor unit which measures the blinking of the eyes the examinee; a camera which captures at least one among an image of the pupils of the examinee and an image of the fundi of the examinee; and a control unit which, if, on the basis of the measurement value of the first sensor unit, the measurement value of the second sensor unit, and the pupil image of the examinee, the fundus image of the examinee is within a preset fundus image information range, determines the captured fundus image of the examinee to be a fundus image for interpretation of a lesion.

Description

자가 안저 영상 촬영 장치, 자가 안저 영상 촬영 및 판독 장치 및 자가 안저 영상 촬영 및 판독 시스템Self fundus imaging device, self fundus imaging and reading device and self fundus imaging and reading system
본 발명은 자가 안저 영상 촬영 장치, 자가 안저 영상 촬영 및 판독장치, 및 자가 안저 영상 촬영 및 판독 시스템으로, 보다 상세하게는, 의료진의 도움 없이도 피검사자 스스로 안저 영상을 촬영할 수 있을 뿐만 아니라, 촬영된 안저영상으로부터 병변 판독이 가능하여 의료진의 진단을 지원할 수 있는 자가 안저 영상 촬영 장치, 자가 안저 영상 촬영 및 판독 장치, 및 자가 안저 영상 촬영 및 판독 시스템에 관한 것이다.The present invention is a self fundus image taking device, a self funding image taking and reading device, and a self funding image taking and reading system, more specifically, the subject can take a fundus image by himself or herself without the help of a medical staff, as well as a captured fundus The present invention relates to a self fundus imaging device, a self fundus imaging and reading device, and a self fundus imaging and reading system capable of reading a lesion from an image and supporting medical diagnosis.
안저 영상은 안과에서 진단 또는 기록의 목적으로 가장 많이 사용되는 안과 영상 중 하나로서, 안과 질환 검사에 주로 사용되고 있다. Fundus imaging is one of the most used ophthalmic imaging for the purpose of diagnosis or recording in ophthalmology, and is mainly used for ophthalmic disease examination.
그런데, 이러한 안저 영상은 안저 영상을 촬영하는 의료진의 숙련도에 따라 그 선명도 등의 차이가 크게 발생하고, 숙련도가 낮은 의료진이 촬영한 낮은 퀄러티의 안저 영상에 대하여 안과 질환 검사를 수행하는 경우 오진 발생의 확율이 높아지는 문제가 있다.However, such a fundus image has a large difference in sharpness depending on the proficiency of the medical staff who shoots the fundus image. There is a problem of increasing probability.
한편, 최근 인공지능 학습모델이 발달함에 따라 의료 영상을 판독함에 있어서 다양한 인공지능 학습모델이 이용되고 있다. Meanwhile, with the recent development of AI learning models, various AI learning models have been used in reading medical images.
예를 들면, 기계학습 모델, 보다 상세하게는, 합성곱 신경망(Convolutional Neural Networks), 순환 신경망(Recurrent Neural Network, RNN)등을 포함하는 딥러닝 모델이 의료영상 이미지를 검출하고, 분류하고, 특징을 학습하는 데 이용되고 있다.For example, deep learning models, including machine learning models, and more specifically, Convolutional Neural Networks, Recurrent Neural Networks (RNNs), detect, classify, and characterize medical imaging images. It is being used to learn.
특히, 영상 판독이 중요한 안저 분야 역시 이와 같은 학습모델을 이용하여 피검사자의 안저 영상의 판독(finding/diagnosis)을 지원하고 있다.In particular, the fundus field in which image reading is important also supports reading/diagnosis of the fundus image of an examinee using the learning model.
그러나, 의료진에 의한 안저 영상 판독은 물론 이러한 학습모델을 이용한 안저 영상 판독의 경우, 안저 영상 판독의 정확성을 제고하기 위해서는 우선 안저 영상 자체에 노이즈가 없는 고 퀄러티의 선명한 안저 영상을 획득하는 것이 중요하다.However, in order to improve the accuracy of the fundus image reading in the case of fundus image reading using this learning model as well as the fundus image reading by a medical staff, it is important to first obtain a high quality clear fundus image without noise in the fundus image itself. .
이를 위해 의료진들은 안저 영상 촬영시 많은 시간과 노력을 들이고 있다.To this end, medical staff is taking a lot of time and effort to take fundus images.
그러나, 앞서 설명한 바와 같이 안저 영상을 촬영하는 의료진의 숙련도에 따라 안저 영상의 선명도 등의 차이가 발생하므로, 의료진에 의한 판독에서든 학습모델에 의한 판독에서든 오진 발생의 문제점은 여전히 존재한다.However, as described above, differences in clarity, etc. of the fundus image occur according to the proficiency of the medical staff who shoots the fundus image, so there is still a problem of misdiagnosis, whether by a medical staff or by a learning model.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 피검사자의 동공의 크기가 확대되었을 때 안저 영상의 촬영이 이루어질 수 있도록 구성되어 있으므로, 피검사자는 의료진의 도움 없이 스스로 선명한 안저 영상을 촬영할 수 있는 자가 안저 영상 촬영 장치를 제공하는 것이다.The present invention has been devised to solve the above problems, and the object of the present invention is that the subject's pupil is enlarged so that the fundus image can be taken when the pupil is enlarged. It is to provide a fundus image taking device that can take a fundus image.
본 발명의 다른 목적은, 촬영된 안저 영상이 병변 판독대상 안저 영상으로 부적합할 경우 안저 영상의 재촬영이 이루어질 수 있도록 구성되어 있어서 병변 판독대상 안저 영상으로써 적합한 선명한 안저 영상을 얻을 수 있는 자가 안저 영상 촬영 장치를 제공하는 것이다.Another object of the present invention is a self fundus image capable of obtaining a clear fundus image suitable as a fundus image to be read as the fundus image to be reconstituted so that when the photographed fundus image is unsuitable as a fundus image to be read as a lesion, It is to provide a photographing device.
본 발명의 또 다른 목적은, 안저 영상 촬영시 좌안과 우안을 동시에 촬영할 수 있도록 구성되어 있어서 양안의 안저 영상 모두 균등한 선명도 등을 얻을 수 있는 자가 안저 영상 촬영 장치를 제공하는 것이다.Another object of the present invention is to provide a self fundus image photographing apparatus that is configured to simultaneously photograph the left eye and the right eye when taking a fundus image, thereby obtaining equal clarity of both fundus images.
본 발명의 또 다른 목적은, 병변 판독대상 안저 영상에 대하여 인공지능 알고리즘을 적용하여 병변을 판독함으로써, 의료진의 병변 진단을 지원하는 자가 안저 영상 촬영 및 판독 장치, 및 자가 안저 영상 촬영 및 판독 시스템을 제공하는 것이다.Another object of the present invention is to read the lesion by applying an artificial intelligence algorithm to the fundus image to be read by the lesion, a self fundus imaging and reading device supporting a diagnosis of a lesion of a medical staff, and a self fundus imaging and reading system Is to provide.
상기 목적을 달성하기 위한 본 발명에 따른 자가 안저 영상 촬영 장치는, 초점용 영상이 표시되는 디스플레이부, 피검사자의 동공 상태를 측정하는 제1 센서부, 상기 피검사자의 눈꺼풀의 깜빡임을 측정하는 제2 센서부, 상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부, 및 상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하는 제어부를 포함할 수 있다.In order to achieve the above object, the apparatus for photographing a fundus image according to the present invention includes: a display unit displaying a focus image, a first sensor unit measuring a pupil state of a test subject, and a second sensor measuring a blink of the eyelid of the test subject. The camera unit photographs at least one of the pupil image of the examinee and the fundus image of the examinee, and the measured value of the first sensor portion, the measured value of the second sensor portion, and the pupil image of the examinee based on the pupil image of the examinee It may include a control unit for controlling the camera unit to shoot the fundus image, and if the photographed fundus image of the subject is within a preset range of the fundus image, the determined fundus image of the subject is determined as a fundus image to be read.
상기 피검사자의 동공 상태는 상기 피검사자의 맥박으로 측정될 수 있다.The pupil state of the subject may be measured by the pulse of the subject.
상기 제1 센서부는 ECG(Electro-CardioGram) 센서 또는 PPG(Pulse-PlethysmoGram) 센서를 포함하는 것이 바람직하다.Preferably, the first sensor unit includes an ECG (Electro-CardioGram) sensor or a PPG (Pulse-PlethysmoGram) sensor.
상기 제1 센서부는 인 것이 바람직하다.It is preferable that the first sensor unit is.
상기 제2 센서부는, 적어도 하나의 좌안용 센서 및 우안용 센서를 포함할 수 있다.The second sensor unit may include at least one left eye sensor and a right eye sensor.
상기 제2 센서부는 EOG(Electro OculoGram) 센서를 포함할 수 있다.The second sensor unit may include an Electro OculoGram (EOG) sensor.
상기 초점용 영상은 좌안용 초점용 영상 및 우안용 초점용 영상을 포함할 수 있다.The focusing image may include a focusing image for the left eye and a focusing image for the right eye.
상기 제어부는 피검사자의 좌안의 안저 영상과 우안의 안저 영상 중 일 안저 영상을 먼저 촬영하고, 이후 나머지 안저 영상을 촬영하도록 상기 카메라부를 제어할 수 있다.The controller may control the camera unit to first capture one fundus image among the fundus image of the left eye and the fundus image of the right eye, and then photograph the remaining fundus image.
상기 제어부는 상기 디스플레이부에 표시되는 상기 좌안용 초점용 영상과 상기 우안용 초점용 영상이 서로 멀어지도록 상기 좌안용 초점용 영상과 상기 우안용 초점용 영상을 제어할 수 있다.The control unit may control the focus image for the left eye and the focus image for the right eye so that the focus image for the left eye and the focus image for the right eye displayed on the display unit are separated from each other.
상기 제어부는 피검사자의 좌안의 안저 영상과 우안의 안저 영상을 동시에 촬영하도록 상기 카메라부를 제어할 수 있다.The controller may control the camera unit to simultaneously photograph the fundus image of the left eye and the fundus image of the right eye of the examinee.
상기 제어부는 상기 카메라부에 의해 촬영된 상기 피검사자의 동공영상에서의 동공 크기가 미리 설정된 동공 영상의 동공 크기 이상이고, 상기 제2센서부의 측정에 의해 상기 피검사자의 눈깜빡임이 없을 경우, 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어할 수 있다.When the pupil size in the pupil image of the subject photographed by the camera unit is greater than or equal to a pupil size of a preset pupil image, and there is no blink of the subject by measurement of the second sensor unit, the subject The camera unit may be controlled to photograph the fundus image.
상기 제어부는 기계학습 알고리즘 또는 DSP 알고리즘에 기초하여, 상기 카메라부에 의해 촬영된 상기 피검사자의 동공 영상에서의 동공 크기가 미리 설정된 동공 영상의 동공 크기 이상인지 여부를 판단할 수 있다.The controller may determine whether the pupil size in the pupil image of the subject photographed by the camera unit is equal to or greater than a pupil size of a preset pupil image based on a machine learning algorithm or a DSP algorithm.
상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단할 수 있다.The controller may determine whether the photographed fundus image of the examinee is within a preset information range of the fundus image based on the machine learning algorithm.
상기 제어부는 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 밖인 경우, 상기 피검사자의 안저 영상을 재촬영하도록 카메라부를 제어할 수 있다.The controller may control the camera unit to re-photograph the fundus image of the examinee when the photographed fundus image of the examinee is outside the preset range of the fundus image.
상기 제어부는 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우, 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정할 수 있다.When the photographed fundus image of the examinee is within a preset range of the fundus image, the controller may determine the photographed fundus image of the examinee as a lesion reading target fundus image.
상기 다른 목적을 달성하기 위한 본 발명에 따른 자가 안저 영상 촬영 및 판독 장치는, 초점용 영상이 표시되는 제1 디스플레이부, 피검사자의 동공상태를 측정하는 제1 센서부, 상기 피검사자의 눈꺼풀의 깜빡임을 측정하는 제2 센서부, 상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부, 및 상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하고, 상기 병변 판독대상 안저 영상으로부터 병변을 판독하는 제어부를 포함할 수 있다.The self fundus image photographing and reading device according to the present invention for achieving the other object includes a first display unit displaying a focus image, a first sensor unit measuring a pupil's pupil state, and blinking of the subject's eyelid A second sensor unit to measure, a camera unit that captures at least one of the pupil image of the subject and the fundus image of the subject, and the measured value of the first sensor unit, the measured value of the second sensor unit, and the pupil image of the subject On the basis of this, the camera unit is controlled to photograph the fundus image of the testee, and when the fundus image of the testee is within a preset range of the fundus image, the fundus image of the testee is determined as a fundus image to be read by the lesion, and the It may include a control unit for reading the lesion from the fundus image to be read.
상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단할 수 있다.The controller may determine whether the photographed fundus image of the examinee is within a preset information range of the fundus image based on the machine learning algorithm.
상기 제어부는 기계학습 알고리즘에 기초하여, 상기 병변 판독대상 안저 영상으로부터 병변을 판독할 수 있다.The control unit may read the lesion from the fundus image to be read, based on the machine learning algorithm.
상기 피검사자의 병변 판독대상 안저 영상으로부터의 병변 판독 결과를 표시하는 제2 디스플레이부를 더 포함할 수 있다.The test subject may further include a second display unit displaying the result of reading the lesion from the fundus image to be read.
상기 또 다른 목적을 달성하기 위한 본 발명에 따른 자가 안저 영상 촬영 및 판독 시스템은, 자가 안저 영상 촬영 장치, 및 상기 자가 안저 영상 촬영 장치로부터 수신된 병변 판독대상 안저 영상으로부터 병변을 판독하는 병변 판독 장치를 포함하고, 상기 자가 안저 영상 촬영 장치는, 초점용 영상이 표시되는 디스플레이부, 피검사자의 동공 상태를 측정하는 제1 센서부, 상기 피검사자의 눈꺼풀의 깜빡임을 측정하는 제2 센서부, 상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부, 및 상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하는 제어부를 포함할 수 있다.An auto fundus image photographing and reading system according to the present invention for achieving the above another object, an auto fundus image photographing apparatus, and a lesion reading apparatus for reading a lesion from a fundus image to be read from a lesion received from the auto fundus image photographing apparatus Including, the self fundus image taking device, the display unit for displaying the focus image, the first sensor unit for measuring the pupil state of the subject, the second sensor unit for measuring the blink of the eyelid of the subject, the subject The camera unit photographing at least one of the pupil image and the fundus image of the examinee, and the measured value of the first sensor portion, the measured value of the second sensor portion, and the pupil image of the examinee based on the pupil image of the examinee It may include a control unit for controlling the camera unit, and if the photographed fundus image of the subject is within a preset range of the fundus image, the determined fundus image of the subject is determined as a fundus image to be read.
상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단할 수 있다.The controller may determine whether the photographed fundus image of the examinee is within a preset information range of the fundus image based on the machine learning algorithm.
상기 병변 판독 장치는 기계학습 알고리즘에 기초하여, 상기 병변판독대상 안저 영상으로부터 병변을 판독할 수 있다.The lesion reading apparatus may read a lesion from the fundus image to be read based on the machine learning algorithm.
본 발명에 따르면, 피검사자의 동공의 크기가 확대되었을 때 안저영상의 촬영이 이루어질 수 있도록 구성되어 있으므로, 피검사자는 의료진의 도움없이 스스로 선명한 안저 영상을 촬영할 수 있는 이점이 있다.According to the present invention, since the size of the pupil of the examinee is enlarged so that the fundus image can be taken, the examinee has an advantage of taking a clear fundus image by himself without the help of a medical staff.
본 발명에 따르면, 촬영된 안저 영상이 병변 판독대상 안저 영상으로 부적합할 경우 안저 영상의 재촬영이 이루어질 수 있도록 구성되어 있어서 병변판독대상 안저 영상으로싸 적합한 선명한 안저 영상을 얻을 수 있는 이점이 있다.According to the present invention, when the photographed fundus image is unsuitable as a fundus image to be read as a lesion, it is configured to re-photograph the fundus image, which is advantageous in obtaining a suitable fundus image that is suitable as the fundus image to be read.
본 발명에 따르면, 안저 영상 촬영시 좌안과 우안을 동시에 촬영할 수 있도록 구성되어 있어서 양안의 안저 영상 모두 균등한 선명도 등을 얻을 수 있는 이점이 있다.According to the present invention, it is configured to simultaneously photograph the left and right eyes when photographing the fundus image, and thus has the advantage of obtaining uniform clarity and the like for both fundus images.
본 발명에 따르면, 병변 판독대상 안저 영상에 대하여 기계학습 알고리즘이나 딥러닝 알고리즘을 적용하여 병변을 판독함으로써, 의료진의 병변 진단을 지원하는 이점이 있다.According to the present invention, by applying a machine learning algorithm or a deep learning algorithm to the fundus image to be read, the lesion is read, and thus there is an advantage of supporting the diagnosis of the lesion of the medical staff.
도 1은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 구성도를 개략적으로 도시한 것이다.1 schematically shows a configuration diagram of an auto fundus imaging apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 디스플레이부 상에 표시되는 초점용 영상을 개략적으로 도시한 것이다.FIG. 2 schematically shows an image for focus displayed on a display unit of an autonomous fundus imaging apparatus according to an embodiment of the present invention.
도 3은 ECG 센서에 의해 측정된 ECG 신호를 개략적으로 도시한 것이다.3 schematically shows the ECG signal measured by the ECG sensor.
도 4는 PPG 센서에 의해 측정된 PPG 신호를 개략적으로 도시한 것이다.Figure 4 schematically shows the PPG signal measured by the PPG sensor.
도 5는 본 발명의 일 실시예에 따른 피검사자의 초점을 수평으로 맞추는 과정을 개략적으로 설명한 도면이다.5 is a view schematically illustrating a process of horizontally focusing an examinee according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 카메라에의 의해 촬영된 좌안의 안저 영상과 우안의 안저 영상을 도시한 것이다.6 illustrates a fundus image of the left eye and a fundus image of the right eye photographed by a camera according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 및 판독 장치의 구성도를 개략적으로 도시한 것이다.7 schematically shows a configuration diagram of an auto fundus image photographing and reading device according to an embodiment of the present invention.
도 8은 본 발명의 다른 실시예에 따른 자가 안저 영상 촬영 및 판독 장치의 구성도를 개략적으로 도시한 것이다.8 schematically illustrates a configuration diagram of an autonomous fundus image photographing and reading device according to another embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 및 판독 시스템의 구성도를 개략적으로 도시한 것이다.9 schematically shows a configuration diagram of an autonomous fundus imaging and reading system according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 외관을 개략적으로 도시한 것이다.10 schematically illustrates the appearance of an auto fundus imaging apparatus according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치가 다른 지지장치에 연결되어 있는 형태를 개략적으로 도시한 것이다.11 schematically illustrates a form in which an auto fundus imaging device according to an embodiment of the present invention is connected to another support device.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야할 것이다.It should be noted that the technical terms used herein are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted as meanings generally understood by those having ordinary knowledge in the technical field to which the present invention belongs, unless defined otherwise. It should not be interpreted as a meaning or an excessively reduced meaning. In addition, when the technical terms used in this specification are incorrect technical terms that do not accurately represent the spirit of the present invention, it should be understood as being replaced by technical terms that can be correctly understood by those skilled in the art.
또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or in context before and after, and should not be interpreted as an excessively reduced meaning.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in this specification includes the plural expression unless the context clearly indicates otherwise. In the present application, the terms "consisting of" or "comprising" should not be construed as including the various components, or various steps described in the specification, among which some components or some steps are It may not be included, or it should be construed to further include additional components or steps.
이하, 실시예를 통하여 본 발명을 좀 더 구체적으로 살펴보지만, 하기 예에 본 발명의 범주가 한정되는 것은 아니다.Hereinafter, the present invention will be described in more detail through examples, but the scope of the present invention is not limited to the following examples.
도 1은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 구성도를 개략적으로 도시한 것이고, 도 2는 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 디스플레이부 상에 표시되는 초점용 영상을 개략적으로 도시한 것이다.1 schematically shows a configuration diagram of an auto fundus imaging apparatus according to an embodiment of the present invention, and FIG. 2 shows a focus displayed on a display unit of the auto fundus imaging apparatus according to an embodiment of the present invention It is a schematic illustration of a dragon image.
도 1을 참조하면, 본 발명의 일 실시예에 따른 자가 안저 영상 촬영장치(100)는, 디스플레이부(110), 제1 센서부(120), 제2 센서부(130), 카메라부(140), 및 컴퓨팅부(C)를 포함할 수 있다.Referring to FIG. 1, an auto fundus imaging apparatus 100 according to an embodiment of the present invention includes a display unit 110, a first sensor unit 120, a second sensor unit 130, and a camera unit 140 ), and the computing unit (C).
상기 컴퓨팅부(C)는 제어부(150), 메모리(160), 스토리지(170), 입출력 인터페이스(184) 등을 포함할 수 있다. 상기 제어부(150)는 하나 이상의 프로세서를 포함할 수 있다.The computing unit C may include a control unit 150, a memory 160, a storage 170, an input/output interface 184, and the like. The controller 150 may include one or more processors.
도 2를 참조하면, 상기 디스플레이부(110)에는 안저 영상 촬영 전 피검사자의 초점을 맞추기 위한 초점용 영상이 표시된다.Referring to FIG. 2, an image for focus is displayed on the display unit 110 to focus an examinee before taking a fundus image.
상기 디스플레이부(110)는 좌안용 초점용 영상(L)이 표시되는 제1영역(112)과, 우안용 초점용 영상(R)이 표시되는 제2 영역(114)를 포함할 수 있다.The display unit 110 may include a first region 112 in which the left focus image L is displayed and a second region 114 in which the right focus image R is displayed.
상기 제1 영역(112)과 상기 제2 영역(114) 사이에는 벽(W)이 마련되어 있어서 양영역은 물리적으로 분리되어 있다.A wall W is provided between the first region 112 and the second region 114 so that both regions are physically separated.
다시 도 1을 참조하면, 상기 제1 센서부(120)는 피검사자의 동공 상태를 측정할 수 있다. 상기 피검사자의 동공 상태는 상기 피검사자의 맥박으로 측정될 수 있다.Referring back to FIG. 1, the first sensor unit 120 may measure the pupil state of the examinee. The pupil state of the subject may be measured by the pulse of the subject.
상기 제1 센서부(120)는 압력 센서, 온도 센서, 기계적 센서, 움직임 센서, 광 센서 및 전 자센서를 포함하는 임의의 적절한 센서 기술이 사용될 수 있으나 반드시 이에 한정되지 않는다. 다양한 실시예에 따르면, 예를 들어, EMG(Electro MyoGraphy) 센서, ECG(Electro CardioGram)센서, PPG(Pulse PlethysmoGram)센서 중 적어도 하나의 센서가 상기 제1 선세부(120)로 사용될 수 있다.The first sensor unit 120 may be any suitable sensor technology including a pressure sensor, a temperature sensor, a mechanical sensor, a motion sensor, an optical sensor, and an electronic sensor, but is not limited thereto. According to various embodiments, for example, at least one sensor among an Electro MyoGraphy (EMG) sensor, an Electro CardioGram (ECG) sensor, and a Pulse PlethysmoGram (PPG) sensor may be used as the first predecessor 120.
상기 ECG 센서는 EKG 센서로도 불리우는데, 신체 표면에서 측정가능 한 심장의 전기적 활성단계를 반영하는 미약한 전기 신호인 심전도를 측정하는 센서이다.The ECG sensor is also referred to as an EKG sensor, and is a sensor that measures an electrocardiogram, a weak electrical signal that reflects the electrical activity stage of the heart that can be measured on the body surface.
도 3은 ECG 센서에 의해 측정된 ECG 신호를 개략적으로 도시한 것이다. 도 3에 도시된 바와 같이, R-R 간격이 얼마나 규칙적인지, 불규칙적인지에 따라서 일정한 저주파 영역과 불규칙한 고주파의 영역으로 구분될 수 있다.3 schematically shows the ECG signal measured by the ECG sensor. As illustrated in FIG. 3, it can be divided into a constant low-frequency region and an irregular high-frequency region according to how regular and irregular the R-R interval is.
시각적으로는, R파와 R파 사이의 간격이 균일해 보여도 실제 정량적으로 값을 추려내면 R-R 간격이 조금씩 변하고 있다. 정상인의 경우, R-R 간격의 변화는 자율신경계가 심장리듬 발생부에 길항 제어를 하기 때문에 발생한다. 따라서, R-R간격의 변화를 분석하면 자율신경계를 구성하는 교감신경계와 부교감 신경계의 활성 양상을 파악할 수 있다.Visually, even if the interval between the R-wave and the R-wave looks uniform, the R-R interval is gradually changing when the value is actually quantitatively extracted. In a normal person, the change in the R-R interval occurs because the autonomic nervous system controls antagonism in the heart rhythm generator. Therefore, by analyzing changes in the R-R interval, it is possible to grasp the active aspects of the sympathetic and parasympathetic nervous systems that make up the autonomic nervous system.
피검사자가 동공 상태인 경우, R-R 간격은 불규칙하게 나타난다. 따라서, 상기 ECG 센서를 통해 피검사자가 동공 상태임을 확인할 수 있다. 상기 PPG 센서는 맥파를 측정하는 센서로서, 손목에 있는 노동맥(Radial Artery)의 흐름을 감지해 맥박을 측정한다.When the subject is in the pupil state, the R-R interval appears irregular. Therefore, it can be confirmed that the subject is in the pupil state through the ECG sensor. The PPG sensor is a sensor that measures pulse waves, and measures the pulse by sensing the flow of a radial artery on the wrist.
도 4는 PPG 센서에 의해 측정된 PPG 신호를 개략적으로 도시한 것이다. 도 4에 도시된 IBI는 도 3에 도시된 R-R 간격과 마찬가지로 그 간격이 불규칙한 경우 피검사자는 긴장상태에 놓여 있는 것으로 판단될 수 있다.Figure 4 schematically shows the PPG signal measured by the PPG sensor. The IBI shown in FIG. 4, like the R-R interval shown in FIG. 3, may be judged to be in a tension state when the interval is irregular.
한편, 제1 아날로그 프론트 엔드(Analog Front-end, 122)는 이득단(Gain, 122a)과 아날로그-디지털 컨버터(Analog-Digital Convertor, 122b)를 포함한다.On the other hand, the first analog front end (Analog Front-end, 122) includes a gain stage (Gain, 122a) and an analog-to-digital converter (Analog-Digital Convertor, 122b).
상기 제1 아날로그 프론트 엔드(122)는 상기 제1 센서부(120)와 전기적으로 연결되어 있고, 제 1 센서부(120)에서 감지한 신호를 디지털 신호로 변환하여 프로세서(제어부, 150)에 제공한다.The first analog front end 122 is electrically connected to the first sensor unit 120 and converts a signal detected by the first sensor unit 120 into a digital signal and provides it to a processor (control unit, 150). do.
이득단(122a)은 단일 종단 차동 증폭기나 계측 증폭기로 구성되어 출력 신호범위가 협소한 제1 센서부(120)의 출력신호 폭을 조절할 수 있다.The gain stage 122a is composed of a single-ended differential amplifier or a measurement amplifier to adjust the output signal width of the first sensor unit 120 having a narrow output signal range.
아날로그-디지털 컨버터(122b)는 조절된 제 1센서부(120)의 출력 신호를 디지털 신호로 변환한다.The analog-to-digital converter 122b converts the output signal of the adjusted first sensor unit 120 to a digital signal.
상기 프로세서(150)는 CPU, AP(Application Processor), 마이크로 컨트롤러, 디지털 신호 프로세서(DSP) 등일 수 있고, 또한, 기계학습 모델을 통하여 자동으로 프로세싱하는 프로세싱 모듈일 수 있으나 반드시 이에 한정되는 것은 아니다.The processor 150 may be a CPU, an application processor (AP), a micro controller, a digital signal processor (DSP), or the like, but may also be a processing module that automatically processes through a machine learning model, but is not limited thereto.
상기 프로세서(150)는 디스플레이 어뎁터(180)와 통신하여 자가 안저 촬영 장치의 동작 및 유저 인터페이스를 디스플레이 디바이스(미도시)에 표시할 수 있다.The processor 150 may communicate with the display adapter 180 to display the operation and user interface of the self fundus imaging apparatus on a display device (not shown).
본 발명의 실시예에 따른 자가 안저 영상 촬영 장치는, 네트워크 어뎁터(182)를 통해 메시지들, 데이터, 정보 및 하나 이상의 프로그램(즉, 애플리케이션 코드)을 포함하는 명령들을 송신하고 수신할 수도 있다.The auto fundus imaging apparatus according to an embodiment of the present invention may transmit and receive commands including messages, data, information, and one or more programs (ie, application codes) through the network adapter 182.
상기 네트워크 어뎁터(182)는 네트워크 링크를 통한 송수신을 가능하게 하기 위한, 별개의 또는 통합된 안테나를 포함할 수도 있다. 상기 네트워크 어뎁터(182)는 네트워크에 접속하여 원격의 안저 영상 판독장치와 같은 원격 컴퓨팅 장치(미도시)와 통신할 수 있다. 네트워크는 LAN, WLAN, PSTN, 및 셀룰러 폰 네트워크 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.The network adapter 182 may include separate or integrated antennas to enable transmission and reception over a network link. The network adapter 182 may connect to a network and communicate with a remote computing device (not shown), such as a remote fundus image reading device. The network may include, but is not limited to, at least one of a LAN, WLAN, PSTN, and cellular phone network.
상기 네트워크 어뎁터(182)는 상기 네트워크에 접속하기 위한 네트워크 인터페이스 및 이동통신 모듈 중 적어도 하나를 포함할 수 있다. 이동통신 모듈은 세대별 이동통신망(예를 들어, 2G 내지 5G 이동통신망)에 접속가능하다.The network adapter 182 may include at least one of a network interface and a mobile communication module for accessing the network. The mobile communication module is connectable to a mobile communication network for each generation (for example, 2G to 5G mobile communication networks).
상기 메모리(160)는 본 발명의 실시예에 따른 자가 안저 영상 촬영 장치의 동작에 필요한 운영체제, 드라이버, 애플리케이션 프로그램, 데이터 및 데이터 베이스 등을 저장할 수 있으나 이에 한정되는 것은 아니다.The memory 160 may store an operating system, a driver, an application program, data, and a database required for the operation of the self fundus imaging device according to an embodiment of the present invention, but is not limited thereto.
또한, 상기 메모리(160)는 RAM(Random Acces Memory)과 같은 휘발성 메모리, ROM(Read Only Memory) 및 플래시 메모리와 같은 비휘발성 메모리 형태로 컴퓨터 판독 가능한 매체를 포함할 수 있고, 또한, 디스크 드라이브 예를 들면, 하드 디스크 드라이브(Hard Disk Drive), 솔리드 스테이트 드라이브(Solid State Drive), 광 디스크 드라이브 등을 포함할 수 있지만 이에 한정되지 않는다.In addition, the memory 160 may include a computer-readable medium in the form of a volatile memory such as Random Acces Memory (RAM), and a non-volatile memory such as ROM (Read Only Memory) and flash memory, and further, a disk drive example For example, a hard disk drive (Hard Disk Drive), a solid state drive (Solid State Drive), may include, but are not limited to.
또한, 상기 메모리(160)는 전형적으로 이미징 데이터와 같은 데이터, 프로세서에 의해 동작되도록 즉시 접속될 수 있는 이미징 소프트웨어와 오퍼레이팅 시스템과 같은 프로그램 모듈을 포함할 수 있다.Further, the memory 160 may typically include data such as imaging data, program modules such as an operating system and imaging software that can be immediately connected to be operated by a processor.
상기 제2 센서부(130)는 자가 안저 영상 촬영 장치를 사용하고 있는 피검사자의 동공의 움직임이나 눈의 깜빡임, 눈의 시각 등을 추적할 수 있는 적어도 하나 의 센서를 포함할 수 있다.The second sensor unit 130 may include at least one sensor capable of tracking pupil movement, eye blinking, eye vision, and the like, of an examinee who is using a self fundus imaging device.
본 명세서에서 기술된 동공 영상이란 상기 제 1센서부(120) 또는 제2 센서부(130)를 통해 얻어질 수 있는 동공 상태의 영상을 의미하거나, 전체 아이트랙킹(eye tracking)을 위한 동공 영상을 의미한다.The pupil image described herein refers to an image of a pupil state that can be obtained through the first sensor unit 120 or the second sensor unit 130, or a pupil image for overall eye tracking. it means.
상기 제2 센서부(130)는 움직임 센서, 광센서 및 전자 센서를 포함하는 임의의 센서 기술이 사용될 수 있으나 반드시 이에 한정되지 않는다. 다양한 실시예 중 하나로써 EOG(Electro OculoGram) 센서가 상기 제2 센서부(130)로써 사용될 수 있으며,상기 EOG 센서는 피검사자의 안전위도를 측정한다.The second sensor unit 130 may be any sensor technology including a motion sensor, an optical sensor, and an electronic sensor, but is not limited thereto. As one of various embodiments, an EOG (Electro OculoGram) sensor may be used as the second sensor unit 130, and the EOG sensor measures the safety latitude of an examinee.
상기 제2 센서부(130)는 좌안용 센서와 우안용 센서를 포함할 수 있다. 이 때, 상기 좌안용 센서는 바람직하게는 적어도 하나, 보다 바람직하게는 적어도 두 개일 수 있고, 상기 우안용 센서 역시 바람직하게는 적어도 하나, 보다 바람직하게는 적어도 두 개일 수 있다.The second sensor unit 130 may include a left eye sensor and a right eye sensor. At this time, the sensor for the left eye may be preferably at least one, more preferably at least two, and the sensor for the right eye may also be preferably at least one, more preferably at least two.
피검사자의 동공의 크기가 꺼졌을 때 안저 영상이 촬영되어야 병변판독대상 안저 영상으로써 적합한 선명도 등을 가질 수 있다.When the size of the pupil of the test subject is turned off, the fundus image must be photographed to have appropriate sharpness and the like as the fundus image to be read.
본 명세서에서 기술된 안저 영상이란, 눈의 병변을 찾기 위하여 촬영한 영상을 의미하는 것으로, 스틸 이지미(still image)나 모션 이미지(motionimage)일 수 있다.The fundus image described in this specification means an image photographed to search for lesions of the eye, and may be a still image or a motion image.
본 발명에서는 피검사자의 동공 크기가 커졌을 때를 확인하기 위하여 앞서 설명한 바와 같이 ECK나 PPG 센서를 통해 피검사자의 맥박이 불규칙하게 뛰고 있는지를 확인한다. 또한, EOG 센서를 통해 피검사자의 눈이 깜빡였는지를 확인한 후 피검사자의 안저 영상을 촬영하도록 구성되어 있다. 즉, 눈 깜빡임이 없는 시점에 안저 영상을 촬영하도록 구성되어 있다.In the present invention, in order to check when the pupil size of the test subject is increased, it is confirmed whether the pulse of the test subject is irregularly running through the ECK or PPG sensor as described above. In addition, it is configured to photograph the fundus image of the examinee after confirming that the eye of the examinee blinks through the EOG sensor. That is, it is configured to shoot the fundus image at a time when there is no blinking of the eye.
상기 카메라부(140)는 오브젝트의 이미지를 촬상하고 그 이미지를 광전자적으로 이미지 신호로 변환하는 이미지 센서(미도시)를 포함하고, 피검사자의 동공 영상과 안저 영상을 촬영한다. 촬영된 피검사자의 동공 영상은 제어부(프로세서, 150)에 제공되어 이미지 프로세싱 또는 기계학습 모델에 기초하여 처리된다.The camera unit 140 includes an image sensor (not shown) that captures an image of an object and converts the image into an image signal photoelectrically, and photographs a pupil image and a fundus image of the examinee. The photographed pupil image is provided to a control unit (processor, 150) and processed based on an image processing or machine learning model.
또한, 상기 카메라부(140)는 피검사자의 안저 영상을 촬영하기 전에 피검사자의 동공 크기가 안저 영상을 촬영하기에 적합한지를 판단하기 위한 목적으로 상기 피검사자의 동공 영상을 촬영한다.In addition, the camera unit 140 photographs the pupil image of the examinee for the purpose of determining whether the pupil size of the examinee is suitable for capturing the fundus image before photographing the fundus image of the examinee.
다양한 실시예 중 하나로써 펀더스 카메라(Fundus Camera)가 상기 카메라부(140)로써 사용될 수 있다.As one of various embodiments, a Fundus Camera may be used as the camera unit 140.
상기 제어부(150)는 상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 상기 카메라부(140)를 제어한다.The controller 150 controls the camera unit 140 to photograph the fundus image of the examinee based on the measured value of the first sensor portion, the measured value of the second sensor portion, and the pupil image of the examinee.
즉, 상기 제어부(150)는 상기 제1 센서부(120)에 의해 측정된 상기 피검사자의 맥박이 불규칙하고, 상기 카메라부(140)에 의해 촬영된 상기 피검사자의 동공 영상에서의 동공 크기가 미리 설정된 동공 영상에서의 동공 크기이상이며, 상기 제2 센서부(130)의 측정에 의해 상기 피검사자의 눈 깜빡임이 없는경우, 상기 피검사자의 안저 영상을 촬영하도록 카메라부(140)를 제어할 수 있다.That is, the control unit 150 has an irregular pulse of the subject measured by the first sensor unit 120, and the pupil size in the pupil image of the subject photographed by the camera unit 140 is preset. When the pupil size is greater than or equal to the pupil size in the pupil image, and there is no blinking of the subject's eye by measurement of the second sensor unit 130, the camera unit 140 may be controlled to photograph the fundus image of the subject.
이 때, 상기 제어부(150)는 기계학습 모델 또는 DSP(Digital Signal Processor) 알고리즘에 기초하여, 상기 카메라부(140)에 의해 촬영된 상기 피검사자의 동공 영상에서의 동공 크기가 미리 설정된 동공 영상에서의 동공 크기 이상인지 여부를 판단할 수 있다.At this time, the control unit 150 is based on a machine learning model or a digital signal processor (DSP) algorithm, the pupil size of the pupil image photographed by the camera unit 140 is set in the pupil image preset. It is possible to determine whether the pupil is larger than the size.
안저 영상을 촬영하기 위한 가장 적절한 시기를 파악하기 위해, 상기 설명한 동공 크기 이외에도 여러 가지 동공 상태 정보가 이용될 수 있다.In order to grasp the most appropriate time for taking a fundus image, various pupil state information may be used in addition to the pupil size described above.
기계학습 알고리즘의 하나인 딥러닝 알고리즘에는 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN) 등 다양한 모델이 존재한다.Deep learning algorithms, which are one of the machine learning algorithms, have various models such as deep neural networks (DNNs) and convolutional neural networks (CNNs).
심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다. 심층 신경망(DNN)은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다.Deep neural network (DNN) is an artificial neural network (ANN) composed of several hidden layers between an input layer and an output layer. Deep neural networks (DNNs) can model complex non-linear relationships, just like a normal artificial neural network.
예를 들어, 물체 식별 모델을 위한 심층 신경망 구조에서는 각 물체가 영상의 기본적 요소들의 계층적 구성으로 표현될 수 있다. 이때, 추가 계층들은 점진적으로 모여진 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된 인공신경망에 비해 더 적은 수의 유닛(unit, node)들만으로도 복잡한 데이터를 모델링할 수 있게 해준다.For example, in a deep neural network structure for an object identification model, each object may be represented by a hierarchical configuration of basic elements of an image. At this time, the additional layers can aggregate features of the gradually collected lower layers. This feature of the deep neural network allows modeling of complex data with fewer units (nodes) than a similarly performed artificial neural network.
합성곱 신경망(CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망(CNN)은 하나 또는 여러개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망(CNN)은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥 러닝 구조들과 비교해서, 합성곱 신경망(CNN)은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. 합성곱 신경망(CNN)은 또한 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망(CNN)은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Convolutional neural networks (CNNs) are a type of multilayer perceptrons designed to use minimal preprocessing. The convolutional neural network (CNN) consists of one or several convolutional layers and common artificial neural network layers on top of it, and additionally uses weights and pooling layers. Thanks to this structure, a convolutional neural network (CNN) can fully utilize input data of a two-dimensional structure. Compared with other deep learning structures, the convolutional neural network (CNN) shows good performance in both video and audio fields. Convolutional neural networks (CNNs) can also be trained through standard reverse propagation. Convolutional neural networks (CNNs) are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.
딥 러닝에서는 합성곱 심층 신뢰 신경망(Convolutional Deep Belief Network, CDBN)가 개발되었는데, 기존 합성곱 신경망(CNN)과 구조적으로 매우 비슷해서, 2차원 구조를 잘 이용할 수 있으며 그와 동시에 심층 신뢰 신경망(Deep Belief Network, DBN)에서의 선훈련에 의한 장점도 취할 수 있다.In deep learning, a Convolutional Deep Belief Network (CDBN) was developed.It is structurally very similar to the existing Convolutional Deep Belief Network (CBN), so it can be used well in a two-dimensional structure, and at the same time, deep trust neural networks (Deep) You can also take advantage of pre-training on the Belief Network (DBN).
합성곱 심층 신뢰 신경망(CDBN)은 다양한 영상과 신호 처리 기법에 사용될 수 있는 일반적인 구조를 제공하며 CIFAR와 같은 표준 이미지 데이터에 대한 여러 벤치마크 결과에 사용되고 있다.The convolutional deep trust neural network (CDBN) provides a general structure that can be used for various image and signal processing techniques, and is used in various benchmark results for standard image data such as CIFAR.
순환 신경망(Recurrent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 다이렉티드 사이클(directed cycle)을 구성하는 신경망을 말한다. 순환 신경망은 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다. 이러한 특성에 의해 순환 신경망은 필기체 인식(Handwriting recognition)과 같은 분야에 활용되고 있고, 높은 인식률을 나타낸다.Recurrent neural network (Recurrent Neural Network, RNN) refers to a neural network in which a connection between units constituting an artificial neural network constitutes a directed cycle. Cyclic neural networks can utilize memory inside the neural network to process arbitrary input. Due to these characteristics, the circulatory neural network is used in fields such as handwriting recognition and exhibits a high recognition rate.
DSP 알고리즘을 통해 디지털 이미지 신호에 대해서 이미지 합성(Image Synthesis) 및 화이트 밸런싱(White Balancing)와 같은 여러가지 형태의 이미지 프로세싱을 수행한다.Various types of image processing such as Image Synthesis and White Balancing are performed on a digital image signal through a DSP algorithm.
상기 제어부(150)는 피검사자의 좌안의 안저 영상과 우안의 안저 영상 중 일 안저 영상을 먼저 촬영하고, 이후 나머지 안저 영상을 촬영하도록 상기 카메라부(140)를 제어할 수 있다.The control unit 150 may control the camera unit 140 to first capture one fundus image among the fundus image of the left eye and the fundus image of the right eye, and then photograph the remaining fundus image.
상기 제어부(150)는 상기 디스플레이부(110)에 표시되는 상기 좌안용 초점용 영상(L)과 상기 우안용 초점용 영상(R)이 서로 멀어지도록 상기 좌안용 초점용 영상(L)과 상기 우안용 초점용 영상(R)을 제어할 수 있다. 이에 대하여 도 5를 참조하여 자세히 설명하기로 한다.The control unit 150 may focus the left eye focus image L and the right eye focus image L and the right eye so that the left eye focus image L and the right eye focus image R displayed on the display 110 are separated from each other. You can control the image R for focus. This will be described in detail with reference to FIG. 5.
도 5는 본 발명의 일 실시예에 따른 피검사자의 초점을 수평으로 맞추는 과정을 개략적으로 설명한 도면이다.5 is a view schematically illustrating a process of horizontally focusing an examinee according to an embodiment of the present invention.
도 5를 참조하면, 디스플레이부(110) 상에 좌안용 초점용 영상(L)과 우안용 초점용 영상(R)이 제1 영역(112)과 제2 영역(112)에 각각 표시되어 있다. 이 경우 피검사자의 초점은 영역 S에 형성된다.Referring to FIG. 5, on the display unit 110, a left focus image L and a right focus image R are displayed on the first area 112 and the second area 112, respectively. In this case, the focus of the examinee is formed in the region S.
그런데, 상기 좌안용 초점용 영상(L)과 상기 우안용 초점용 영상(R)을 서로 멀어지도록 이동시키면, 피검사자의 초점은 영역 S'에 형성된다. 따라서, 초점이 S 영역에 형성된 경우와 비교하면, 피검사자의 초점은 수평 상태에 가깝게 된다.However, when the left-eye focusing image L and the right-eye focusing image R are moved away from each other, the subject's focus is formed in the region S'. Therefore, compared to the case where the focus is formed in the S region, the focus of the examinee becomes close to the horizontal state.
피검사자의 초점이 수평 상태에 가깝게 되면, 피검사자의 좌안의 안저 영상과 우안의 안저 영상을 동시에 촬영이 가능한 상태가 된다.When the subject's focus is close to the horizontal state, the fundus image of the left eye and the fundus image of the right eye can be simultaneously photographed.
상기 제어부(150)는 좌안의 안저 영상과 우안의 안저 영상을 동시에 촬영이 가능한 상태가 되었을 때 상기 카메라부(140)가 좌안과 우안의 안저 영상을 동시에 촬영하도록 제어할 수 있다. 이를 통해, 좌안과 우안 모두 선명한 안저 영상을 얻을 수 있으며, 이러한 양안의 안저 영상은 도 6에 도시되어 있다.The control unit 150 may control the camera unit 140 to simultaneously shoot the left and right eye images when the left eye and the right eye images are simultaneously photographed. Through this, both the left eye and the right eye can obtain clear fundus images, and the fundus images of both eyes are illustrated in FIG. 6.
한편, 상기 제어부(150)는 이렇게 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정한다. 예를 들어, 미리 설정된 안저 영상의 정보는 안저 영상에서 기본적으로 보이는 눈의 조직(vessel, fovea, optic disc, macula), 안저 영상의 컨트라스트(contrast)나 브라이트니스(brightness)를 포함할 수 있다. 상기 열거된 정보는 일 예시일 뿐 반드시 이에 한정되는 것은 아니다.Meanwhile, when the fundus image of the subject to be photographed is within a preset range of the fundus image, the control unit 150 determines the fundus image of the subject to be read as a lesion fundus image. For example, the information of the preset fundus image may include tissue (vessel, fovea, optic disc, macula) basically seen in the fundus image, contrast or brightness of the fundus image. The information listed above is only an example and is not necessarily limited thereto.
보다 상세하게는, 상기 제어부(150)는 기계학습 모델을 적용하여, 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단할 수 있다.In more detail, the controller 150 may apply a machine learning model to determine whether the fundus image of the examinee is within a predetermined range of fundus images.
앞서 설명한 기계 학습 알고리즘은 안저 영상 내의 이미지를 검출하고, 분류하며, 특징을 학습하는 등 충분한 반복(iteration)을 거치면, 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 정확도 높게 판단할 수 있다.The machine learning algorithm described above, with sufficient iteration, such as detecting an image in the fundus image, classifying it, and learning a feature, determines whether the subject's fundus image is within the information range of a preset fundus image with high accuracy. You can.
판단 결과, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저영상의 정보 범위 밖인 경우, 상기 제어부(150)는 상기 피검사자의 안저 영상을 재촬영하도록 카메라부(140)를 제어할 수 있다.As a result of the determination, when the photographed fundus image of the examinee is outside the preset range of the fundus image, the controller 150 may control the camera unit 140 to re-photograph the fundus image of the examinee.
판단 결과, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저영상의 정보 범위 내인 경우, 상기 제어부(150)는 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정할 수 있다.As a result of the determination, when the photographed fundus image of the examinee is within a preset range of the fundus image, the controller 150 may determine the photographed fundus image of the examinee as a target image of the lesion to be read.
도 7은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 및 판독장치의 구성도를 개략적으로 도시한 것이다.7 schematically illustrates a configuration of an autonomous fundus image photographing and reading device according to an embodiment of the present invention.
도 7을 참조하면, 자가 안저 영상 촬영 및 판독 장치(200)는 디스플레이부 (210), 제1 센서부(220), 제2 센서부(230), 카메라부(240), 및 컴퓨팅부(C)를 포함할 수 있다. 상기 컴퓨팅부(C)는 제어부(250), 메모리(260), 스토리지(270), 입출력 인터페이스(284)등을 포함할 수 있다. 상기 제어부(150)는 하나 이상의 프로세서를 포함할 수 있다.Referring to FIG. 7, the self fundus image photographing and reading device 200 includes a display unit 210, a first sensor unit 220, a second sensor unit 230, a camera unit 240, and a computing unit C ). The computing unit C may include a control unit 250, a memory 260, a storage 270, an input/output interface 284, and the like. The controller 150 may include one or more processors.
상기 디스플레이부(210), 상기 제1 센서부(220), 상기 제2 센서부(230), 상기 카메라부(240)는 상기 도 1 내지 6을 참조하면 설명한 내용과 동일하므로, 그 설명을 생략하기로 한다.Since the display unit 210, the first sensor unit 220, the second sensor unit 230, and the camera unit 240 are the same as those described with reference to FIGS. 1 to 6, description thereof will be omitted. I will do it.
상기 제어부(250)는 앞서 도 1 내지 6을 참조하여 설명한 제어부(150)와 동일한 기능을 수행하고, 추가로, 병변 판독대상 안저 영상으로 결정된 안저 영상으로부터 병변을 판독한다.The control unit 250 performs the same function as the control unit 150 described above with reference to FIGS. 1 to 6 and additionally, reads the lesion from the fundus image determined as the fundus image to be read.
이때, 상기 제어부(250)는 기계학습 알고리즘을 적용하여 안저 영상으로부터 병변을 판독함으로써 의료진의 진단을 지원할 수 있다. 기계학습 알고리즘에 대한 내용은 앞서 설명한 바와 동일하므로, 그 설명은 생략하기로 한다.At this time, the control unit 250 may apply a machine learning algorithm to read the lesion from the fundus image to support the diagnosis of the medical staff. Since the content of the machine learning algorithm is the same as described above, the description will be omitted.
도 8은 본 발명의 다른 실시예에 따른 자가 안저 영상 촬영 및 판독장치의 구성도를 개략적으로 도시한 것이다.8 schematically illustrates a configuration of an auto fundus image photographing and reading device according to another embodiment of the present invention.
도 8을 참조하면, 자가 안저 영상 촬영 및 판독 장치(300)는 제1 디스플레이부(310), 제1 센서부(320), 제2 센서부(330), 카메라부(340), 컴퓨팅부(C) 및 제2 디스플레이부(390)를 포함할 수 있다.Referring to FIG. 8, the self fundus image capturing and reading device 300 includes a first display unit 310, a first sensor unit 320, a second sensor unit 330, a camera unit 340, and a computing unit ( C) and a second display unit 390 may be included.
상기 컴퓨팅부(C)는 제어부(350), 메모리(360), 스토리지(370), 입출력 인터페이스(384) 등을 포함할 수 있다. 상기 제어부(350)는 하나 이상의 프로세서를 포함할 수 있다.The computing unit C may include a control unit 350, a memory 360, a storage 370, an input/output interface 384, and the like. The control unit 350 may include one or more processors.
상기 제1 디스플레이부(310), 상기 제1 센서부(320), 상기 제2 센서부(330), 상기 카메라부(340), 상기 제어부(350)는 도 7을 참조하여 설명하였던 내용과 동일하므로, 이에 대한 설명은 생략하기로 한다.The first display unit 310, the first sensor unit 320, the second sensor unit 330, the camera unit 340, and the control unit 350 are the same as those described with reference to FIG. 7. Therefore, the description thereof will be omitted.
상기 제2 디스플레이부(390)는 상기 제어부(350)가 기계학습 알고리즘을 적용하여 상기 피검사자의 병변 판독대상 안저 영상으로부터 병변을 판독하면, 그 판독 결과를 표시할 수 있다.The second display unit 390 may display the read result when the control unit 350 reads the lesion from the fundus image to be read by the subject by applying a machine learning algorithm.
상기 제2 디스플레이부(390)는, 자가 안저 영상 촬영 및 판독 장치(300) 내부에 마련되어 있는 제1 디스플레이부(310)와 달리 상기 자가 안저 영상촬영 및 판독 장치(300)의 외부에 마련될 수 있어서, 자가 안저 영상 촬영을 마친 피검사자가 자신의 안저 영상에 대한 판독 결과를 손쉽게 확인할 수 있다.The second display unit 390 may be provided outside the self fundus image photographing and reading device 300 unlike the first display unit 310 provided inside the auto fundus image taking and reading device 300. In this way, an examinee who has finished taking a self fundus image can easily check the reading result of his fundus image.
도 9는 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 및 판독시스템의 구성도를 개략적으로 도시한 것이다.9 schematically shows a configuration diagram of an autonomous fundus imaging and reading system according to an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 및 판독 시스템(1000)은 자가 안저 영상 촬영 장치(1100) 및 병변 판독 장치(1200)를 포함할 수 있다.Referring to FIG. 9, an auto fundus image capturing and reading system 1000 according to an embodiment of the present invention may include an auto fundus image capturing apparatus 1100 and a lesion reading apparatus 1200.
상기 자가 안저 영상 촬영 장치(1100)는 초점용 영상이 표시되는 디스플레이부(1100), 피검사자의 동공 상태를 측정하는 제1 센서부(1120), 상기 피검사자의 눈꺼풀의 깜빡임을 측정하는 제2 센서부(1130), 상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부(1140), 및 상기 제어부(1150)을 포함할 수 있다.The self fundus image photographing apparatus 1100 includes a display unit 1100 displaying a focus image, a first sensor unit 1120 measuring a pupil's pupil state, and a second sensor unit measuring a blink of the eyelid of the examinee 1130, a camera unit 1140 photographing at least one of a pupil image of the examinee and a fundus image of the examinee, and the controller 1150.
상기 제어부(1150)는 상기 제1 센서부(1110)의 측정값, 상기 제2 센서부 (1120)의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부(1140)를 제어하고, 촬영된 상기 피검사자의 안저영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정할 수 있다.The control unit 1150 is based on the measured value of the first sensor unit 1110, the measured value of the second sensor unit 1120, and the camera unit 1140 to photograph the fundus image of the examinee based on the pupil image of the examinee ), and if the photographed fundus image of the examinee is within a preset range of the fundus image, the photographed fundus image of the examinee may be determined as a fundus image to be read.
디스플레이부(1100), 제1 센서부(1120), 제2 센서부(1130), 상기 카메라부 (1140), 상기 제어부(1150)에 대한 설명은 앞서 도 1 내지 6을 참조하면 설명한 내용과 동일하므로, 그 설명을 생략하기로 한다.Descriptions of the display unit 1100, the first sensor unit 1120, the second sensor unit 1130, the camera unit 1140, and the control unit 1150 are the same as those described with reference to FIGS. 1 to 6 above. Therefore, the description will be omitted.
상기 병변 판독 장치(1200)는 상기 자가 안저 영상 촬영 장치(1110)와 유무선 통신망으로 연결되어 있다. 상기 유무선 통신망은, 예를 들어 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution),블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct 등 있다.The lesion reading apparatus 1200 is connected to the self fundus imaging apparatus 1110 through a wired or wireless communication network. The wired/wireless communication network includes, for example, Wireless LAN (WLAN), Wireless Fidelity (WiFi) Direct, Digital Living Network Alliance (DLNA), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet (HSDPA) Access), Long Term Evolution (LTE), Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi- Fi (Wireless-Fidelity) and Wi-Fi Direct.
상기 병변 판독 장치(1200)는 상기 자가 안저 영상 촬영 장치(1110)으로부터 송신된 병변 판독대상 안저 영상을 수신하여 상기 병변 판독대상 안저영상으로부터 병변을 판독할 수 있다.The lesion reading apparatus 1200 may receive a lesion reading target fundus image transmitted from the self fundus imaging apparatus 1110 and read a lesion from the lesion reading target fundus image.
판독 결과는 상기 병변 판독 장치(1200)에 마련된 디스플레이부(미도시)에 표시될 수 있다. 또 다르게, 판독 결과는 원격의 다른 디바이스(미도시)나 상기 자가 안저 영상 촬영 장치(1110)로 전송될 수 있다.The read result may be displayed on a display unit (not shown) provided in the lesion reading apparatus 1200. Alternatively, the read result may be transmitted to another remote device (not shown) or the self fundus imaging apparatus 1110.
도 10은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치의 외관을 개략적으로 도시한 것이다.10 schematically illustrates the appearance of an auto fundus imaging apparatus according to an embodiment of the present invention.
도 10을 참조하면, 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치(400)는 본체부(410)와 상기 본체부(400)에 회전가능하게 부착되어 있는 손잡이부(420)를 포함할 수 있다.Referring to FIG. 10, the self- fundus imaging apparatus 400 according to an embodiment of the present invention includes a main body 410 and a handle 420 rotatably attached to the main body 400. You can.
상기 손잡이부(420)에는 앞서 설명한 제1 센서부가 마련되어 있을수 있으나 반드시 이에 한정되는 것은 아니다. 손잡이부에 상기 제1 센서부가 마련된 경우, 피검사자가 상기 손잡이부(420)를 잡고 있는 동안, 상기 제1 센서부에 의해 피검사자의 긴장상태, 즉 맥박의 불규칙성 여부가 측정될 수 있다.The handle part 420 may be provided with the first sensor part described above, but is not limited thereto. When the first sensor part is provided on the handle part, while the testee is holding the handle part 420, the tension state of the testee, that is, irregularity of the pulse, may be measured by the first sensor part.
도 11은 본 발명의 일 실시예에 따른 자가 안저 영상 촬영 장치가 다른 지지 장치에 연결되어 있는 형태를 개략적으로 도시한 것이다.11 schematically illustrates a form in which an auto fundus imaging device according to an embodiment of the present invention is connected to another support device.
도 11을 참조하면, 본 발명에 따른 자가 안저 영상 촬영 장치(600)는 접이식 암(710)을 구비한 지지장치(700)에 부착되어 있다.Referring to FIG. 11, the self fundus imaging apparatus 600 according to the present invention is attached to a support device 700 having a folding arm 710.
피검사자는 상기 지지장치(700)에 위치한 후 상기 지지장치(700)에 부착되어 있는 자가 안저 영상 촬영 장치(600)를 피검사자의 눈의 위치에 맞게 고정시킨 후 안저 영상 촬영을 진행할 수 있다. 이때, 상기 지지장치(700)는 접이식암(710)을 구비하고 있어 피검사자는 눈의 적절한 위치에 자가 안저 영상 촬영 장치(600)를 위치시킬 수 있다.After the test subject is positioned on the support device 700, the self fundus imaging device 600 attached to the support device 700 may be fixed to the position of the subject's eye, and then fundus imaging may be performed. At this time, the support device 700 is provided with a folding arm 710, the testee can place the self fundus imaging device 600 in the proper position of the eye.
피검사자가 자신의 눈의 적절한 위치에 상기 자가 안저 영상 촬영장치(600)를 위치시키기만 하면, 의료진의 도움 없이도 피검사자의 동공의 크기가 확대되었을 때 선명도가 높은 안저 영상 등이 촬영될 수 있다.As long as the examinee simply positions the self fundus imaging apparatus 600 at the proper position of his or her eye, a fundus image with high clarity may be captured when the pupil's pupil size is enlarged without the assistance of medical staff.
또한, 상기 촬영된 안저 영상이 병변 진단 대상 안저 영상으로 사용될 수 있는 지 여부가 기계학습 알고리즘에 기초하여 판단되며, 병변 진단 대상 영상에 대하여 안과 질환에 대한 판독이 기계학습 알고리즘에 기초하여 이루어질 수 있는 이점이 있다.In addition, whether the photographed fundus image can be used as a fundus image to be diagnosed with a lesion is determined based on a machine learning algorithm, and reading of an ophthalmic disease with respect to a lesion diagnosis image can be performed based on a machine learning algorithm. There is an advantage.
이를 보다 구체적으로 설명하면 다음과 같다.This will be described in more detail as follows.
피검사자가 자가 안저 영상 촬영 장치(600)를 자신의 얼굴에 위치시키면, 자가 안저 영상 촬영 장치(600)의 EOG 센서가 동공 전체를 트랙킹한다. 이후, ECG 센서나 PPG 센서가 동공 확장 여부를 확인하기 위하여 동공 영상을 트래킹하고, 피검사자의 동공이 디스플레이부에 표시된 초점용 영상을 응시할 때, 싱글안(Single mode)으로 촬영할 지 양안(Dual Mode)으로 촬영할 지 제어부(DSP)에서 초점용 영상을 제어하고, 이 상태에서,EOG 센서는 눈 깜빡임을 감지하게 된다.When the examinee places the self fundus image taking device 600 on his face, the EOG sensor of the self funding image taking device 600 tracks the entire pupil. Thereafter, the ECG sensor or the PPG sensor tracks the pupil image to check whether the pupil is expanded, and when the pupil of the subject gazes at the focus image displayed on the display unit, whether to shoot in a single mode (Dual Mode) Whether to shoot with the controller (DSP) controls the focus image, and in this state, the EOG sensor detects blinking of the eye.
이런 트랙킹 또는 감지 상태에서 안저 영상 촬영의 최적 조건이 만족되면, 피검사자의 안저 영상이 촬영되고, 촬영된 안저 영상 이미지는 DSP 알고리즘을 이용하여 미리 설정된 안저 영상과 비교 판단되거나 기계학습 모델을 통해 안저 영상의 적합도(병변 진단대상 안저 영상으로서의 굿(Good) 또는 푸어(Poor))가 판단된다.When the optimal conditions for fundus image shooting in such a tracking or detection state are satisfied, the fundus image of the subject is photographed, and the captured fundus image is judged to be compared with a preset fundus image using a DSP algorithm, or a fundus image through a machine learning model. The goodness of fit (Good or Poor as a fundus image to be diagnosed with a lesion) is determined.
병변 진단대상 안저 영상으로서 적합하지 않은 경우, 안저 영상의 재촬영이 이루어진다.If it is not suitable as a fundus image to be diagnosed with a lesion, the fundus image is re-photographed.
이와 같은 자가 안저 영상 촬영 장치를 이용한 안저 영상 촬영 방법은 일 예시일 뿐 본 발명이 반드시 이에 한정되는 것은 아니다. 앞서 설명한, 안저영상 촬영을 위한 최적 조건의 만족은 동시에 이루어질 수도 있고, 순차적으로 이루어질 수도 있다.The method for photographing the fundus image using the self fundus image capturing apparatus is only an example, and the present invention is not limited thereto. As described above, satisfaction of the optimal conditions for fundus imaging may be performed simultaneously or sequentially.
이상에서는 본 발명의 특정의 바람직한 실시예에 대하여 설명하였으나, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와같은 변형은 청구 범위 기재의 범위 내에 있게 된다.In the above, specific preferred embodiments of the present invention have been described, but the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Various modifications can be carried out by anyone who has ordinary knowledge in the course, and such modifications are within the scope of the claims.

Claims (21)

  1. 초점용 영상이 표시되는 디스플레이부;A display unit displaying an image for focus;
    피검사자의 동공 상태를 측정하는 제1 센서부;A first sensor unit for measuring the pupil state of the subject;
    상기 피검사자의 눈 깜빡임을 측정하는 제2 센서부;A second sensor unit measuring the eye blink of the test subject;
    상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부; 및A camera unit that photographs at least one of a pupil image of the examinee and a fundus image of the examinee; And
    상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하는 제어부;를 포함하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.Based on the measured value of the first sensor unit, the measured value of the second sensor unit, and the pupil portion of the test subject to control the camera unit to shoot the fundus image of the test subject, the captured fundus image of the test subject is preset And a controller configured to determine the fundus image of the examinee as the target image of the lesion to be read when within the information range.
  2. 제1 항에 있어서,According to claim 1,
    상기 피검사자의 동공 상태는 상기 피검사자의 맥박으로 측정되는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The pupil fundus imaging apparatus according to claim 1, wherein the pupil state of the examinee is measured by the pulse of the examinee.
  3. 제1 항에 있어서,According to claim 1,
    상기 제1 센서부는 ECG(Electro-CardioGram) 센서 또는 PPG(Pulse- PlethysmoGram) 센서를 포함하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The first sensor unit is an ECG (Electro-CardioGram) sensor or PPG (Pulse-PlethysmoGram) sensor characterized in that it comprises a self fundus image taking device.
  4. 제1 항에 있어서,According to claim 1,
    상기 제2 센서부는,The second sensor unit,
    적어도 하나의 좌안용 센서 및 우안용 센서;를 포함하는 것을 특징으로 하는자가 안저 영상 촬영 장치.At least one sensor for the left eye and the sensor for the right eye; Self fundus image capturing apparatus comprising a.
  5. 제1 항에 있어서,According to claim 1,
    상기 제2 센서부는 EOG(Electro OculoGram) 센서를 포함하는 것을 특징으로하는 자가 안저 영상 촬영 장치.The second sensor unit self- fundus imaging device, characterized in that it comprises an EOG (Electro OculoGram) sensor.
  6. 제1 항에 있어서,According to claim 1,
    상기 초점용 영상은 좌안용 초점용 영상 및 우안용 초점용 영상을 포함하는 것으로 특징으로 하는 자가 안저 영상 촬영 장치.The focus image is a focusing image for the left eye and a focusing image for the right eye.
  7. 제1 항에 있어서,According to claim 1,
    상기 제어부는 피검사자의 좌안의 안저 영상과 우안의 안저 영상 중 일 안저영상을 먼저 촬영하고, 이후 나머지 안저 영상을 촬영하도록 상기 카메라부를 제어하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The control unit photographs a first fundus image of a fundus image of the left eye and a fundus image of the right eye of the examinee first, and then controls the camera unit to capture the remaining fundus image.
  8. 제6 항에 있어서,The method of claim 6,
    상기 제어부는 상기 디스플레이부에 표시되는 상기 좌안용 초점용 영상과 상기 우안용 초점용 영상이 서로 멀어지도록 상기 좌안용 초점용 영상과 상기 우안용 초점용 영상을 제어하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The control unit controls the image for focus on the left eye and the image for focus on the right eye so that the image for focus on the left eye and the image for focus on the right eye displayed on the display unit are separated from each other. Device.
  9. 제8 항에 있어서,The method of claim 8,
    상기 제어부는 피검사자의 좌안의 안저 영상과 우안의 안저 영상을 동시에 촬영하도록 상기 카메라부를 제어하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The control unit controls the camera unit to simultaneously photograph the fundus image of the left eye and the fundus image of the right eye of the examinee.
  10. 제1 항에 있어서,According to claim 1,
    상기 제어부는 상기 카메라부에 의해 촬영된 상기 피검사자의 동공 영상에서의 동공 크기가 미리 설정된 동공 영상의 동공 크기 이상이고, 상기 제2 센서부의 측정에 의해 상기 피검사자의 눈깜박임이 없는 경우, 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.When the pupil size of the pupil image of the pupil image photographed by the camera unit is greater than or equal to a pupil size of a preset pupil image, and there is no blink of the subject by measurement of the second sensor unit, the subject Self fundus image taking device, characterized in that for controlling the camera unit to shoot the fundus image.
  11. 제10 항에 있어서,The method of claim 10,
    상기 제어부는 기계학습 알고리즘 또는 DSP 알고리즘에 기초하여, 상기 카메라부에 의해 촬영된 상기 피검사자의 동공 영상에서의 동공 크기가 미리 설정된 동공 영상의 동공 크기 이상인지 여부를 판단하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The control unit based on the machine learning algorithm or DSP algorithm, self fundus image characterized in that it determines whether the pupil size in the pupil image of the subject photographed by the camera unit is greater than or equal to the pupil size of a preset pupil image Shooting device.
  12. 제1 항에 있어서,According to claim 1,
    상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단하는 것을 특징으로 하는 자가 안저 영상 촬영 장치.The control unit is based on the machine learning algorithm, self- fundus image taking device, characterized in that for determining whether the fundus image of the subject to be photographed is within a preset range of the fundus image.
  13. 제12 항에 있어서,The method of claim 12,
    상기 제어부는 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 밖인 경우, 상기 피검사자의 안저 영상을 재촬영하도록 카메라부를 제어하는 것을 특징으로 하는 자가 영상 촬영 장치.The control unit controls the camera unit to re-photograph the fundus image of the subject when the photographed fundus image of the subject is outside a preset range of the fundus image.
  14. 제12 항에 있어서,The method of claim 12,
    상기 제어부는 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우, 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하는 것을 특징으로 하는 자가 영상 촬영 장치.The control unit determines if the photographed fundus image of the examinee is within a preset range of the fundus image, and determines the photographed fundus image of the examinee as a fundus image to be read as a lesion.
  15. 초점용 영상이 표시되는 제1 디스플레이부;A first display unit displaying an image for focus;
    피검사자의 동공 상태를 측정하는 제1 센서부;A first sensor unit for measuring the pupil state of the subject;
    상기 피검사자의 눈 깜빡임을 측정하는 제2 센서부;A second sensor unit measuring the eye blink of the test subject;
    상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부; 및A camera unit that photographs at least one of a pupil image of the examinee and a fundus image of the examinee; And
    상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위 내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하고, 상기 병변 판독대상 안저 영상으로부터 병변을 판독하는 제어부;를 포함하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 장치.Based on the measured value of the first sensor unit, the measured value of the second sensor unit, and the pupil portion of the subject to control the camera unit to shoot the fundus image of the test subject, the captured fundus image of the test subject is preset And a controller configured to determine a fundus image of the examinee, which is photographed when the information is within the information range, as a fundus image to be read by a lesion, and to read a lesion from the fundus image to be read.
  16. 제15 항에 있어서,The method of claim 15,
    상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단하는 것을 특징으로하는 자가 안저 영상 촬영 및 판독 장치.The control unit based on the machine learning algorithm, characterized in that to determine whether the photographed fundus image of the subject is within a preset range of the fundus image self-fundus image taking and reading device.
  17. 제15 항에 있어서,The method of claim 15,
    상기 제어부는 기계학습 알고리즘에 기초하여, 상기 병변 판독대상 안저 영상으로부터 병변을 판독하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 장치.The control unit based on the machine learning algorithm, self- fundus image taking and reading device, characterized in that for reading the lesion from the fundus image to be read the lesion.
  18. 제15 항에 있어서,The method of claim 15,
    상기 피검사자의 병변 판독대상 안저 영상으로부터의 병변 판독 결과를 표시하는 제2 디스플레이부;를 더 포함하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 장치.And a second display unit displaying a result of reading the lesion from the fundus image to be read by the subject to be examined.
  19. 자가 안저 영상 촬영 장치; 및Self fundus imaging device; And
    상기 자가 안저 영상 촬영 장치로부터 수신된 병변 판독대상 안저 영상으로 부터 병변을 판독하는 병변 판독 장치;를 포함하고,It includes; a lesion reading device for reading a lesion from the fundus image to be read from the lesion fundus image received from the self fundus imaging device;
    상기 자가 안저 영상 촬영 장치는,The self fundus imaging device,
    초점용 영상이 표시되는 디스플레이부;A display unit displaying an image for focus;
    피검사자의 동공 상태를 측정하는 제1 센서부;A first sensor unit for measuring the pupil state of the subject;
    상기 피검사자의 눈 깜빡임을 측정하는 제2 센서부;A second sensor unit measuring the eye blink of the test subject;
    상기 피검사자의 동공 영상 및 상기 피검사자의 안저 영상 중 적어도 하나를 촬영하는 카메라부; 및A camera unit that photographs at least one of a pupil image of the examinee and a fundus image of the examinee; And
    상기 제1 센서부의 측정값, 상기 제2 센서부의 측정값, 상기 피검사자의 동공 영상에 기초하여 상기 피검사자의 안저 영상을 촬영하도록 카메라부를 제어하고, 촬영된 상기 피검사자의 안저 영상이 미리 설정된 안저 영상의 정보 범위내인 경우 촬영된 상기 피검사자의 안저 영상을 병변 판독대상 안저 영상으로 결정하는 제어부;를 포함하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 시스템.Based on the measured value of the first sensor unit, the measured value of the second sensor unit, and the pupil portion of the subject to control the camera unit to shoot the fundus image of the test subject, the captured fundus image of the test subject is preset And a controller configured to determine the fundus image of the examinee as the target image of the lesion to be read when within the information range.
  20. 제19 항에 있어서,The method of claim 19,
    상기 제어부는 기계학습 알고리즘에 기초하여, 촬영된 상기 피검사자의 안저영상이 미리 설정된 안저 영상의 정보 범위 내인지 여부를 판단하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 시스템.The control unit is based on the machine learning algorithm, self-fundus image capture and reading system characterized in that it determines whether or not the photographed fundus image of the subject is within a preset range of the fundus image.
  21. 제19 항에 있어서,The method of claim 19,
    상기 병변 판독 장치는 기계학습 알고리즘에 기초하여, 상기 병변 판독대상 안저 영상으로부터 병변을 판독하는 것을 특징으로 하는 자가 안저 영상 촬영 및 판독 시스템.The lesion reading apparatus is based on a machine learning algorithm, characterized in that for reading the lesion from the fundus image to be read, the fundus image taking and reading system.
PCT/KR2019/017258 2018-12-07 2019-12-09 Self fundus image capture device, self fundus image capture and interpretation device, and self fundus image capture and interpretation system WO2020117021A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0156711 2018-12-07
KR1020180156711A KR102184761B1 (en) 2018-12-07 2018-12-07 Apparatus for taking fundas image, apparatus for taking fundas image and diagnosing therfrom, and system for taking fundas image and diagnosing therfrom

Publications (1)

Publication Number Publication Date
WO2020117021A1 true WO2020117021A1 (en) 2020-06-11

Family

ID=70974951

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/017258 WO2020117021A1 (en) 2018-12-07 2019-12-09 Self fundus image capture device, self fundus image capture and interpretation device, and self fundus image capture and interpretation system

Country Status (2)

Country Link
KR (1) KR102184761B1 (en)
WO (1) WO2020117021A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984764A (en) * 1995-09-20 1997-03-31 Terumo Corp Objective adaptor of fundus camera, fundus camera device, image processing device for fundus camera, and control method of fundus camera
JP5397656B2 (en) * 2007-11-08 2014-01-22 株式会社ニデック Fundus camera
JP2016140636A (en) * 2015-02-04 2016-08-08 株式会社ニデック Ophthalmologic apparatus, ophthalmologic system and ophthalmologic photographing program
WO2017057631A1 (en) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 Viewer emotion determination apparatus that eliminates influence of brightness, breathing, and pulse, viewer emotion determination system, and program
JP2018121886A (en) * 2017-01-31 2018-08-09 株式会社ニデック Image processing device and image processing program
KR20180095180A (en) * 2017-02-17 2018-08-27 주식회사 씨엠랩 Ocular photographic apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101848322B1 (en) 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating generation of finding and dignosis data of subject based on fovea image thereof and apparatus using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984764A (en) * 1995-09-20 1997-03-31 Terumo Corp Objective adaptor of fundus camera, fundus camera device, image processing device for fundus camera, and control method of fundus camera
JP5397656B2 (en) * 2007-11-08 2014-01-22 株式会社ニデック Fundus camera
JP2016140636A (en) * 2015-02-04 2016-08-08 株式会社ニデック Ophthalmologic apparatus, ophthalmologic system and ophthalmologic photographing program
WO2017057631A1 (en) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 Viewer emotion determination apparatus that eliminates influence of brightness, breathing, and pulse, viewer emotion determination system, and program
JP2018121886A (en) * 2017-01-31 2018-08-09 株式会社ニデック Image processing device and image processing program
KR20180095180A (en) * 2017-02-17 2018-08-27 주식회사 씨엠랩 Ocular photographic apparatus

Also Published As

Publication number Publication date
KR20200069547A (en) 2020-06-17
KR102184761B1 (en) 2020-11-30

Similar Documents

Publication Publication Date Title
EP3082586A1 (en) System and methods for measuring physiological parameters
CN109431452B (en) Unmanned eye health screening instrument
KR101637314B1 (en) Apparatus to image and analyses the eyes and fundus oculi and its method thereof
KR102416878B1 (en) Healthcare apparatus for measuring heart rate
CN112294282A (en) Self-calibration method of emotion detection device based on RPPG
US10835120B2 (en) Extended medical test system
CN106725295A (en) A kind of miniature check-up equipment, device and its application method
CN114999646A (en) Newborn exercise development assessment system, method, device and storage medium
EP3925518A1 (en) Detecting and tracking macular degeneration
WO2020117021A1 (en) Self fundus image capture device, self fundus image capture and interpretation device, and self fundus image capture and interpretation system
KR102435808B1 (en) Healthcare apparatus for measuring stress score
US10631727B2 (en) Method and system for detecting time domain cardiac parameters by using pupillary response
CN114795125A (en) Middle and old aged physical examination system and device based on multi-modal physiological signal processing
EP4351406A1 (en) System for assisting with provision of diagnostic information
CN116407096A (en) Vital sign detection device, system and data processing method
EP3695775B1 (en) Smartphone-based handheld optical device and method for capturing non-mydriatic retinal images
WO2021141186A1 (en) Multi-type cognitive rehabilitation training system and method
WO2023128454A1 (en) Digital healthcare device for measuring heart rate using remote ppg
WO2023128455A1 (en) Digital healthcare device for measuring stress index by using remote ppg method
TWI689895B (en) System and method for monitoring color change of skin under unstable light source
WO2020209401A1 (en) Eye imaging apparatus
CN218484554U (en) Multifunctional fusion detection device
RU2531132C1 (en) Method for determining complex hand-eye reaction rate of person being tested and device for implementing it
EP4331477A1 (en) Vital sign detection apparatus and system and data processing method
WO2023121163A1 (en) Involuntary strabismus diagnosis apparatus and operating method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19892668

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19892668

Country of ref document: EP

Kind code of ref document: A1