KR102471955B1 - Wearable neurological disease diagnosis device and the method - Google Patents

Wearable neurological disease diagnosis device and the method Download PDF

Info

Publication number
KR102471955B1
KR102471955B1 KR1020200184844A KR20200184844A KR102471955B1 KR 102471955 B1 KR102471955 B1 KR 102471955B1 KR 1020200184844 A KR1020200184844 A KR 1020200184844A KR 20200184844 A KR20200184844 A KR 20200184844A KR 102471955 B1 KR102471955 B1 KR 102471955B1
Authority
KR
South Korea
Prior art keywords
image
eyeball
unit
light
user
Prior art date
Application number
KR1020200184844A
Other languages
Korean (ko)
Other versions
KR20220093781A (en
Inventor
김종원
서영석
김세종
Original Assignee
원텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원텍 주식회사 filed Critical 원텍 주식회사
Priority to KR1020200184844A priority Critical patent/KR102471955B1/en
Publication of KR20220093781A publication Critical patent/KR20220093781A/en
Application granted granted Critical
Publication of KR102471955B1 publication Critical patent/KR102471955B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles

Abstract

본 발명은 실시간으로 획득되는 안구의 영상을 육안으로 확인하여 특정 시간동안 사용자의 안구 움직임을 관찰함으로써 사용자가 신경질환을 보유하고 있는지 여부를 판독할 수 있다.According to the present invention, it is possible to determine whether a user has a neurological disease by visually checking eyeball images obtained in real time and observing eye movements of the user for a specific period of time.

Description

휴대용 신경질환 진단장치 및 그 진단방법{WEARABLE NEUROLOGICAL DISEASE DIAGNOSIS DEVICE AND THE METHOD}Portable neurological disease diagnosis device and its diagnosis method {WEARABLE NEUROLOGICAL DISEASE DIAGNOSIS DEVICE AND THE METHOD}

본 발명은 휴대용 신경질환 진단장치 및 그 진단방법에 관한 것으로서, 보다 상세하게는 촬영 및 특정 파장의 광에 대한 광 이미지를 획득하고, 안구 움직임의 변화를 관찰하여 사용자의 신경질환을 진단하기 위한 휴대용 신경질환 진단 장치에 관한 것이다.The present invention relates to a portable neurological disease diagnosis device and method for diagnosing the same, and more particularly, to a portable device for diagnosing a user's neurological disease by photographing and obtaining an optical image of light of a specific wavelength and observing changes in eye movement. It relates to a device for diagnosing neurological diseases.

현대 사회에서 인구 고령화에 따라 치매 환자 수는 급격하게 증가하고 있다. 2018년 현재 65세 이상 노인 인구의 치매환자 수는 70만 명으로 추정되고 실제 노인 10명 중 1명 꼴로 치매를 앓고 있고 있다. 또한, 치매 환자는 2050년에 3백만 명을 초과할 것으로 전망하고 있다. 치매 치료의 어려움과 그에 따른 사회적 비용을 고려하였을 경우 치매를 조기에 진단하고 증상을 관라하는 것이 필수가 되었다.With the aging of the population in modern society, the number of patients with dementia is rapidly increasing. As of 2018, the number of dementia patients in the elderly population over the age of 65 is estimated to be 700,000, and in fact, 1 in 10 elderly people suffer from dementia. In addition, it is predicted that the number of people with dementia will exceed 3 million in 2050. Considering the difficulty of dementia treatment and the resulting social cost, it has become essential to diagnose dementia early and manage symptoms.

현재, 치매는 신체검사, 긴경학적 검사, 정신과 평가와 뇌 영상 검사를 통해 진단되어 진고 있다. 그러나, 이와 같은 방법은 의심 증상이 발현되거나 뇌 위축이 진행된 이후에야 확인이 가능하기 때문에 질병을 조기에 진단하는데 있어서는 어려움이 있다.Currently, dementia is being diagnosed through physical examination, neurological examination, psychiatric evaluation, and brain imaging examination. However, this method has difficulty in diagnosing a disease at an early stage because it can be confirmed only after suspicious symptoms appear or brain atrophy progresses.

치매의 임상 진단 몇 년 전부터는 시공간능력(Visuospatial Function)이 저하된다는 보고가 있다. 최근 사물을 바라보는 알츠하이머 환자 안구의 움직임이 정상인과 다른 패턴을 가지는 연구결과가 있어 조기 진단 가능성이 제시되고 있다. 이에 안구의 미세 떨림을 파악하고 환자가 용이하게 모니터링을 가능하게 할 수 있는 Eye Tracker 형태의 장치가 필요한 실정이다.Several years before the clinical diagnosis of dementia, it has been reported that the visuospatial function deteriorates. Recently, the possibility of early diagnosis has been suggested as a result of a study showing that the movement of the eyes of Alzheimer's patients looking at objects has a pattern different from that of normal people. Accordingly, there is a need for an eye tracker-type device capable of identifying minute tremors of the eyeball and enabling easy monitoring by the patient.

(특허문헌 1) KR 101123291 B1 (Patent Document 1) KR 101123291 B1

본 발명이 이루고자 하는 기술적 과제는, 실시간으로 획득되는 안구의 영상을 육안으로 확인하여 특정 시간동안 사용자의 안구 움직임을 관찰함으로써 사용자가 신경질환을 보유하고 있는지 여부를 판독할 수 있는 휴대용 신경질환 진단장치를 제공하는데 그 목적이 있다. A technical problem to be achieved by the present invention is a portable neurological disease diagnosis device capable of determining whether a user has a neurological disease by visually checking an eye image obtained in real time and observing the user's eye movement for a specific period of time. Its purpose is to provide

이러한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치에 있어서, 사용자 안면에 장착될 수 있는 하우징(100);과 사용자의 안구를 촬영하여 이미지를 생성하는 촬영부(200);와 사용자의 안구에 특정 파장의 광을 조사하고, 반사되는 광을 획득하여 이미지를 생성하는 광이미지획득부(300);와 상기 촬영부(200) 및 상기 광이미지획득부(300) 각각의 작동을 제어하고, 상기 촬영부(200) 및 상기 광이미지획득부(300) 각각으로부터 생성된 이미지를 전달받는 영상산출부(500); 및 상기 촬영부(200) 및 상기 광이미지획득부(300)로부터 생성된 이미지를 상기 영상산출부(500)로부터 전달받아 영상으로 송출할 수 있는 사용자 인터페이스(800);로 구성되는 것을 특징으로 한다.In order to achieve this object, in a portable neurological disease diagnosis device according to an embodiment of the present invention, a housing 100 that can be mounted on a user's face; and a photographing unit 200 for generating an image by photographing the user's eyeball and an optical image acquisition unit 300 that irradiates light of a specific wavelength to the user's eyeball and acquires the reflected light to generate an image; and each of the photographing unit 200 and the optical image acquisition unit 300 An image calculation unit 500 that controls operation and receives images generated from each of the photographing unit 200 and the optical image acquisition unit 300; and a user interface 800 capable of receiving the image generated by the photographing unit 200 and the optical image acquisition unit 300 from the image calculation unit 500 and transmitting the image as an image. .

또한, 상기 촬영부(200)는 기설정된 시간동안 기설정된 시간간격을 갖고 사용자의 안구를 촬영하여 가시광 영역의 이미지를 다수로 생성하는 안구촬영부(210); 및 사용자가 주시하는 전방의 주위 환경을 실시간으로 촬영하는 전방촬영부(220);를 포함하며, 상기 안구촬영부(210)로부터 생성된 다수의 안구 이미지를 상기 사용자 인터페이스(800)를 통해 영상으로 송출하는 것을 특징으로 한다.In addition, the photographing unit 200 includes an eye photographing unit 210 for generating a plurality of visible light region images by photographing the user's eyeballs at predetermined time intervals for a predetermined time; and a front camera 220 that captures, in real time, the surrounding environment of the front facing the user, and converts a plurality of eyeball images generated from the eye camera 210 into images through the user interface 800. It is characterized by sending.

또한, 상기 광이미지획득부(300)는 사용자의 안구의 중심을 기준으로 상측 및 하측을 향하여 각각 다수의 광을 조사하는 제1 및 제2 광원부;와In addition, the optical image acquisition unit 300 includes first and second light source units respectively irradiating a plurality of lights toward the upper and lower sides based on the center of the user's eyeball;

상기 제1 및 제2광원부(310, 320)에서 조사되어 안구로부터 반사되는 광을 감지하여 적외선광 영역의 이미지를 생성하는 광원획득부(330)를 포함하며, 상기 광원획득부(330)로부터 생성된 안구 이미지를 사용자 인터페이스(800)를 통해 영상으로 송출하는 것을 특징으로 한다.and a light source acquisition unit 330 that senses the light emitted from the first and second light source units 310 and 320 and reflected from the eyeball and generates an image of an infrared light region. It is characterized in that the image of the eyeball is transmitted as an image through the user interface 800.

또한, 상기 광원획득부(330)는 안구의 적외선광 이미지를 생성하기 위해 동공을 포함한 홍채로부터 반사되는 920nm 내지 1500nm 사이의 파장을 갖는 반사광을 획득하는 것을 특징한다.In addition, the light source acquisition unit 330 is characterized by acquiring reflected light having a wavelength between 920 nm and 1500 nm reflected from the iris including the pupil to generate an infrared light image of the eyeball.

또한, 상기 광원획득부(330)는 안구로부터 반사된 광을 감지하는 다수의 픽셀(331)을 포함하고, 안구로부터 반사광을 감지한 픽셀(331)로부터 이미지 정보와 함께 좌표값을 획득하는 경우, 다수개의 좌표값 중 그 중심이 되는 픽셀(331)의 좌표값을 안구의 중심 및 응시점으로 지정하는 응시점산출부(600)를 더 포함한다.In addition, when the light source acquisition unit 330 includes a plurality of pixels 331 detecting light reflected from the eye, and acquires image information and coordinate values from the pixels 331 detecting light reflected from the eye, It further includes a gaze point calculation unit 600 that designates the coordinate value of the pixel 331, which is the center of a plurality of coordinate values, as the center of the eyeball and the gaze point.

또한, 상기 촬영부(200)로부터 기준 안구 이미지를 전달받고, 상기 응시점산출부(600)로부터 다수의 적외선광 이미지에서 각각에 대응되어 산출되는 응시점 정보를 전달받으며, 기준 안구 이미지와 응시점 정보를 정합하여 정합이미지를 생성하는 영상정합부(700)를 더 포함한다.In addition, a reference eyeball image is received from the photographing unit 200, gaze point information calculated in correspondence with each of a plurality of infrared light images is received from the gaze point calculation unit 600, and the reference eye image and gaze point are received. It further includes an image matching unit 700 for generating a matched image by matching information.

또한, 상기 영상정합부(700)로부터 기준 안구 이미지 상에 안구의 응시점이 표시된 정합이미지를 전달 받고, 기준 안구 이미지의 중심으로부터 다수의 검출영역을 지정하여 각 검출영역별 응시점의 개수를 검출하여 사용자의 신경질환 보유 여부를 판독할 수 있는 판독부(900)를 더 포함한다.In addition, the image matching unit 700 receives a matching image in which gaze points of the eye are displayed on the reference eye image, designates a plurality of detection areas from the center of the reference eye image, and detects the number of gaze points for each detection area. It further includes a reading unit 900 capable of reading whether or not the user has a neurological disease.

이상에서 설명한 바와 같이 본 발명에 의하면, 다음과 같은 효과가 도출될 수 있다.As described above, according to the present invention, the following effects can be derived.

본 발명의 일실시예에 따르면, 실시간으로 획득되는 안구의 영상을 육안으로 확인하여 특정 시간동안 사용자의 안구 움직임 또는 미세 떨림을 관찰함으로써 사용자가 신경질환을 보유하고 있는지 여부를 용이하게 진단할 수 있는 효과가 있다.According to one embodiment of the present invention, it is possible to easily diagnose whether or not a user has a neurological disease by visually checking an image of the eyeball obtained in real time and observing the movement or fine tremor of the user's eyeball for a specific time period. It works.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the detailed description of the present invention or the configuration of the invention described in the claims.

도 1은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 전체 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사시도이다.
도 3은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 광원획득부(330)에서 안구의 움직임에 따라 픽셀(331)로부터 반사광을 감지하는 경우를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)로부터 객체영상이 송출되어 각 객체(P1, P2)를 따라 안구의 응시점의 변화를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)로부터 안구의 가시광, 적외선광 이미지 및 정합이미지가 송출되는 경우를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)가 실행되는 경우, 검사 시작, 진단 결과 보기 창이 생성된 것을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)에서 검사 결과 보기가 실행되는 경우 표시되는 화면을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단방법의 절차를 도시한 플로우차트이다.
도 9는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단방법에서 안구 이미지 획득 단계의 절차를 도시한 플로우차트이다.
1 is a diagram schematically showing the overall configuration of a portable neurological disease diagnosis device according to an embodiment of the present invention.
2 is a perspective view of a portable neurological disease diagnosis device according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining a case where the light source acquisition unit 330 of the portable neurological disease diagnosis device according to an embodiment of the present invention detects reflected light from a pixel 331 according to eye movement.
FIG. 4 is a diagram for explaining a change in a gaze point of an eyeball along each object P1 and P2 when an object image is transmitted from the user interface 800 of a portable neurological disease diagnosis apparatus according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a case in which visible light, an infrared light image, and a registration image of the eyeball are transmitted from the user interface 800 of the portable neurological disease diagnosis apparatus according to an embodiment of the present invention.
FIG. 6 is a diagram showing that a test start and a window for viewing diagnosis results are created when the user interface 800 of the portable neurological disease diagnosis device according to an embodiment of the present invention is executed.
FIG. 7 is a diagram illustrating a screen displayed when a test result view is executed in the user interface 800 of the portable neurological disease diagnosis apparatus according to an embodiment of the present invention.
8 is a flowchart illustrating the procedure of a portable neurological disease diagnosis method according to an embodiment of the present invention.
9 is a flowchart illustrating the procedure of the eyeball image acquisition step in the portable neurological disease diagnosis method according to an embodiment of the present invention.

도 1은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 전체 구성을 개략적으로 도시한 도면이다. 도 2는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사시도이다. 도 3은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 광원획득부(330)에서 안구의 움직임에 따라 픽셀(331)로부터 반사광을 감지하는 경우를 설명하기 위한 도면이다. 도 4는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)로부터 객체영상이 송출되어 각 객체(P1, P2)를 따라 안구의 응시점의 변화를 설명하기 위한 도면이다. 도 5는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)로부터 안구의 가시광, 적외선광 이미지 및 정합이미지가 송출되는 경우를 도시한 도면이다. 도 6은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)가 실행되는 경우, 검사 시작, 진단 결과 보기 창이 생성된 것을 도시한 도면이다. 도 7은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 사용자 인터페이스(800)에서 검사 결과 보기가 실행되는 경우 표시되는 화면을 도시한 도면이다. 도 8은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단방법의 절차를 도시한 플로우차트이다. 도 9는 본 발명의 일 실시예에 따른 휴대용 신경질환 진단방법에서 안구 이미지 획득 단계의 절차를 도시한 플로우차트이다.1 is a diagram schematically showing the overall configuration of a portable neurological disease diagnosis device according to an embodiment of the present invention. 2 is a perspective view of a portable neurological disease diagnosis device according to an embodiment of the present invention. FIG. 3 is a diagram for explaining a case where the light source acquisition unit 330 of the portable neurological disease diagnosis device according to an embodiment of the present invention detects reflected light from a pixel 331 according to eye movement. FIG. 4 is a diagram for explaining a change in a gaze point of an eyeball along each object P1 and P2 when an object image is transmitted from the user interface 800 of a portable neurological disease diagnosis apparatus according to an embodiment of the present invention. FIG. 5 is a diagram illustrating a case in which visible light, an infrared light image, and a registration image of the eyeball are transmitted from the user interface 800 of the portable neurological disease diagnosis apparatus according to an embodiment of the present invention. FIG. 6 is a diagram showing that a test start and a window for viewing diagnosis results are created when the user interface 800 of the portable neurological disease diagnosis device according to an embodiment of the present invention is executed. FIG. 7 is a diagram illustrating a screen displayed when a test result view is executed in the user interface 800 of the portable neurological disease diagnosis apparatus according to an embodiment of the present invention. 8 is a flowchart illustrating the procedure of a portable neurological disease diagnosis method according to an embodiment of the present invention. 9 is a flowchart illustrating the procedure of the eyeball image acquisition step in the portable neurological disease diagnosis method according to an embodiment of the present invention.

본 발명의 바람직한 실시 예에 대하여 첨부된 도면을 참조하여 더 구체적으로 설명하되, 이미 주지되어진 기술적 부분에 대해서는 설명의 간결함을 위해 생략하거나 압축하기로 한다.A preferred embodiment of the present invention will be described in more detail with reference to the accompanying drawings, but for the sake of brevity, technical parts that have already been well-known will be omitted or compressed.

본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치는 도1에 도시된 바와 같이, 하우징(100), 촬영부(200), 광이미지획득부(300), 메모리부(400), 사용자 인터페이스(500), 응시점산출부(600), 영상정합부(700), 영상송출부(800) 및 판독부(900)로 이루어질 수 있다.As shown in FIG. 1, the portable neurological disease diagnosis device according to an embodiment of the present invention includes a housing 100, a photographing unit 200, an optical image acquisition unit 300, a memory unit 400, a user interface ( 500), a gaze point calculation unit 600, an image matching unit 700, an image transmission unit 800, and a reading unit 900.

하우징(100)은 안구 전방에 위치하도록 사용자의 안면에 장착될 수 있다. 하우징(100)은 일 예로, 사용자의 안면에 용이하게 장착될 수 있도록 안경, 선글라스 등의 형태로 형성될 수 있다.The housing 100 may be mounted on the user's face to be positioned in front of the eyeball. For example, the housing 100 may be formed in the form of eyeglasses or sunglasses so as to be easily mounted on a user's face.

보다 구체적으로, 하우징(100)은 안경 형태로 한쌍의 렌즈(110)와 렌즈(110) 각각이 결합될 수 있는 렌즈 프레임(120) 및 렌즈 프레임(120)의 양측에 사용자 귀의 일측에 거치될 수 있도록 하는 제1암(121)과 제2암(122)이 결합된다. More specifically, the housing 100 may be mounted on one side of the user's ear on both sides of the lens frame 120 and the lens frame 120 to which each of the pair of lenses 110 and the lenses 110 may be coupled in the form of eyeglasses. The first arm 121 and the second arm 122 are coupled to each other.

이때, 제1암(121)과 제2암(122)은 렌즈 프레임(120)에 절첩 가능하게 힌지 결합될 수 있다.In this case, the first arm 121 and the second arm 122 may be hinged to the lens frame 120 in a collapsible manner.

따라서, 하우징(100)은 안면으로부터 용이하게 이탈되지 않고 장착될 수 있다.Thus, the housing 100 can be mounted without being easily separated from the face.

촬영부(200)는 하우징(100)에 구비되어 사용자의 안구를 촬영할 수 있다. 촬영부(200)는 사용자가 응시하는 전방의 환경을 촬영할 수도 있다. 촬영부(200)는 사용자의 안구 및 전방 환경을 촬영할 수 있도록 복수개로 구성될 수 있다. 여기서 촬영부(200)는 한 쌍으로 이루어져 하우징(100)에 상호 대응되게 구비될 수 있다.The photographing unit 200 is provided in the housing 100 to photograph the user's eyeballs. The photographing unit 200 may photograph the environment in front of the user's gaze. The photographing unit 200 may be configured in plural to photograph the user's eyes and the front environment. Here, the photographing unit 200 may be formed as a pair and provided to correspond to each other in the housing 100 .

이때, 촬영부(200)는 안구촬영부(210) 및 전방촬영부(220)를 포함한다.At this time, the photographing unit 200 includes an eye photographing unit 210 and a front photographing unit 220 .

안구촬영부(210)는 사용자의 안구를 촬영할 수 있다. 안구촬영부(210)는 기설정된 시간동안 촬영 대상이 되는 안구를 촬영할 수 있다. 안구촬영부(210)는 일 예로, “소형 카메라”일 수 있으며, 사진촬영 또는/ 및 녹화기능을 수행할 수 있다.The eye photographing unit 210 may photograph the user's eyes. The eyeball photographing unit 210 may photograph an eyeball to be photographed for a predetermined period of time. The eye photographing unit 210 may be, for example, a “small camera” and may perform photographing or/and recording functions.

보다 구체적으로, 안구촬영부(210)는 사용자의 제어에 의해 안구를 촬영하여 이미지로 기록할 수 있도록 구비되며, 사용자의 좌안 또는 우안을 촬영할 수 있도록 하우징(100)의 일측 또는 타측에 구비될 수 있다.More specifically, the eye photographing unit 210 is provided to photograph the eyeball and record the image as an image under the user's control, and may be provided on one side or the other side of the housing 100 to photograph the user's left or right eye. have.

또한, 안구촬영부(210)는 사용자의 안구를 지향하도록 특정 각도로 기울어진 상태로 렌즈 프레임(120)에 구비될 수 있다. 안구촬영부(210)는 촬영 대상이 되는 안구의 위치에 대응되도록 렌즈 프레임(120)의 일측 또는 타측에 구비될 수 있으며, 지향각이 얼라인(Align)된 상태로 고정되는 것이 보다 바람직할 수 있다.In addition, the eye photographing unit 210 may be provided in the lens frame 120 in a state tilted at a specific angle to direct the user's eyeball. The eye photographing unit 210 may be provided on one side or the other side of the lens frame 120 so as to correspond to the position of the eye to be photographed, and it may be more preferable that the beam angle is fixed in an aligned state. have.

이때, 안구촬영부(210)는 사용자의 좌안 및 우안을 모두 촬영할 수 있도록 한 쌍으로 구비될 수도 있다.In this case, the eye photographing unit 210 may be provided as a pair to photograph both the left eye and the right eye of the user.

또한, 안구촬영부(210)는 기설정된 시간동안 기설정된 시간간격으로 안구를 연속적으로 촬영하며, 촬영된 안구의 이미지는 후수할 메모리부(400)에 저장할 수 있다.In addition, the eyeball photographing unit 210 continuously photographs the eyeball at predetermined time intervals for a predetermined time period, and the photographed eyeball image may be stored in the memory unit 400 to be followed later.

여기서, 안구촬영부(210)는 촬영 대상이 되는 안구를 촬영 시, 움직임이 정지된 상태의 안구와 움직이는 상태의 안구 상호 비교할 수 있도록 비교 기준이 되는 안구 이미지(이하, 기준 안구 이미지라 함.)를 먼저 촬영하도록 한다.Here, when the eyeball photographing unit 210 captures the target eyeball, an eyeball image (hereinafter referred to as a reference eyeball image) is used as a comparison standard so that the eyeball in a motionless state and the eyeball in a moving state can be compared with each other. to be photographed first.

즉, 안구촬영부(210)는 움직임이 정지된 상태의 안구를 촬영하고, 이후, 기설정된 시간동안 기설정된 시간간격으로 안구의 움직임을 촬영하여 이미지로 획득할 수 있다. 이때, 안구촬영부(210)로부터 획득되는 안구의 이미지는 메모리부(400)에 저장과 함께 영상산출부(500)로 전달될 수 있다. That is, the eye photographing unit 210 may capture the motion of the eyeball in a stopped state, and then photograph the motion of the eyeball at predetermined time intervals for a predetermined time period to obtain an image. At this time, the image of the eyeball acquired from the eyeball photographing unit 210 may be stored in the memory unit 400 and transmitted to the image calculation unit 500.

전방촬영부(220)는 렌즈 프레임(120)에 구비되어 사용자가 응시하는 전방의 환경을 촬영할 수 있다. 전방촬영부(220)는 안구촬영부(210)의 위치에 대응되도록 렌즈 프레임(120)에 구비될 수 있다. 전방촬영부(220)는 일 예로, 안구촬영부(210)와 마찬가지로 사진촬영 또는/및 녹화기능을 수행할 수 있는 “소형 카메라”일 수 있다. The front photographing unit 220 is provided in the lens frame 120 to photograph the environment in front of the user's gaze. The front capturing unit 220 may be provided in the lens frame 120 to correspond to the position of the eye capturing unit 210 . The front photographing unit 220 may be, for example, a “small camera” capable of performing photo taking and/or recording functions similarly to the eyeball photographing unit 210 .

또한, 전방촬영부(220)는 사용자가 응시하는 전방을 실시간으로 촬영하며, 촬영된 전방의 영상은 후술할 영상산출부(500)에 송신할 수 있다.In addition, the front camera 220 captures the front of the user's gaze in real time, and the captured front image may be transmitted to the image calculator 500 to be described later.

광이미지획득부(300)는 사용자의 안구로 특정 파장의 광을 조사하고, 반사된 광을 수신함으로써 안구의 광 이미지를 획득할 수 있다. 광이미지획득부(300)는 적외선 영역의 파장을 갖는 복수의 광을 조사하도록 하우징(100)에 구비될 수 있다.The optical image acquisition unit 300 may obtain an optical image of the user's eyeball by radiating light of a specific wavelength to the user's eyeball and receiving the reflected light. The optical image acquisition unit 300 may be provided in the housing 100 to irradiate a plurality of lights having wavelengths in the infrared region.

광이미지획득부(300)는 방출하는 광이 레이저 빔 등으로 구현되고 , 영상산출부(500)의 제어 하에 안구로 조사할 수 있는 광을 생성할 수 있다. The optical image acquisition unit 300 emits light implemented as a laser beam or the like, and may generate light that can be irradiated to the eye under the control of the image calculation unit 500 .

이때, 빔의 형태는 본 발명의 휴대용 신경질환 진단 장치의 사용 용도에 따라 다양하게 가변될 수 있으나, 보통 빔의 직진성 및 방향성을 고려하여 레이저 빔이 적합할 수 있다.At this time, the shape of the beam may be variously varied according to the purpose of the portable neurological disease diagnosis device of the present invention, but a laser beam may be suitable in consideration of the straightness and direction of the ordinary beam.

또한, 레이저 빔이 아주 짧은 시간 동안 펄스(Pluse) 형태로 방출되거나 또는 적외선 파장 영역 등에서 사용함으로써 사용자의 눈으로 광을 볼 수 없도록 할 수 있다.In addition, since a laser beam is emitted in a pulse form for a very short time or used in an infrared wavelength region, the user's eyes may not be able to see the light.

광이미지획득부(300)는 촬영 대상이 되는 안구로 광을 조사하며, 반사된 광을 통해 이미지로 획득하기 위해 제1광원부(310), 제2광원부(320) 및 광원획득부(330)를 포함한다. The optical image acquisition unit 300 irradiates light to the target eyeball and uses the first light source unit 310, the second light source unit 320, and the light source acquisition unit 330 to obtain an image through the reflected light. include

제1 및 제2 광원부(310, 320)는 특정 파장을 갖는 광을 생성하고 방출할 수 있다. 여기서, 제1 및 제2 광원부(310, 320)는 상호 동일한 파장의 광을 생성하고 방출하도록 구비되나, 제1 및 제2 광원부(310, 320)가 상호 상이한 파장의 광을 생성하고 방출할 수 있는 것은 물론이다.The first and second light source units 310 and 320 may generate and emit light having a specific wavelength. Here, the first and second light source units 310 and 320 are provided to generate and emit light of the same wavelength, but the first and second light source units 310 and 320 may generate and emit light of different wavelengths. Of course there is.

이때, 제1 및 제2 광원부(310, 320)는 렌즈 프레임(120)에 구비되며, 제1광원부(310)는 렌즈 프레임(120)의 일측 상단에 위치하고 제2광원부(320)는 렌즈 프레임(110)의 일측 하단에 위치하도록 구비될 수 있다. 이때, 제1 및 제2 광원부(310, 320)는 렌즈 프레임(110)의 내부로 수용된 상태로 구비되는 것이 보다 바람직할 수 있다.At this time, the first and second light source units 310 and 320 are provided in the lens frame 120, and the first light source unit 310 is located at an upper end of one side of the lens frame 120 and the second light source unit 320 is the lens frame ( 110) may be provided to be located at the lower end of one side. At this time, it may be more preferable that the first and second light source units 310 and 320 are provided in a state accommodated inside the lens frame 110 .

보다 구체적으로, 제1 및 제2 광원부(310, 320)는 적외선 영역의 파장을 갖는 복수의 광을 생성하고, 광 이미지를 획득하기 위해 촬영 대상이 되는 안구로 연속파(Continuous) 또는 펄스(Pluse)로 조사할 수 있다. 제1 및 제2광원부(310, 320)는 복수의 광을 순차 또는 동시에 방출할 수 있으며, 방출되는 광의 파장영역은 920nm 내지 1500nm 사이일 수 있다.More specifically, the first and second light source units 310 and 320 generate a plurality of lights having wavelengths in the infrared range, and transmit continuous waves or pulses to the eyeball to be captured to obtain an optical image. can be investigated with The first and second light source units 310 and 320 may sequentially or simultaneously emit a plurality of lights, and the emitted light may have a wavelength range of 920 nm to 1500 nm.

또한, 제1 및 제2광원부(310, 320)는 이미지 획득 대상이 되는 안구로 다수의 광을 조사할 수 있도록 각각 렌즈 프레임(130)의 상단 및 하단에 다수개로 구비될 수 있다.In addition, a plurality of first and second light source units 310 and 320 may be provided at upper and lower ends of the lens frame 130 to irradiate a plurality of lights to the eyeball to be imaged.

또한, 제1 및 제2광원부(310, 320)가 렌즈 프레임(110)에 다수개로 구비되는 경우, 제1광원부(310)는 가상으로 촬영 대상이 되는 안구의 중심을 기준으로 상측을 향하여 광을 조사하고. 제2광원부(320)는 안구의 중심을 기준으로 그 하측을 향하여 광을 조사함으로써 눈꺼풀에 의해 안구의 가려저도 안구의 이미지를 획득할 수 있는 것이다. In addition, when a plurality of first and second light source units 310 and 320 are provided in the lens frame 110, the first light source unit 310 emits light toward the upper side based on the center of the eyeball to be virtually photographed. investigating The second light source unit 320 radiates light toward the lower side of the eyeball based on the center of the eyeball, so that an image of the eyeball can be acquired even if the eyeball is covered by the eyelids.

이때, 제1 및 제2광원부(310, 320)로부터 방출되는 광은 안구에 반사되어 광원획득부(330)로부터 획득될 수 있다.At this time, light emitted from the first and second light source units 310 and 320 may be reflected on the eyeball and obtained from the light source acquisition unit 330 .

광원획득부(330)는 특정 파장 영역을 갖는 광을 감지할 수 있다. 광원획득부(330)는 안구로부터 반사된 광을 획득할 수 있다. 광원획득부(330)는 제1 및 제2광원부(310, 320)를 통해 촬영 대상이 되는 안구로 조사된 광의 반사광을 획득할 수 있다. 광원획득부(330)는 획득한 광원을 통해 안구의 광 이미지를 생성할 수 있다. The light source acquisition unit 330 may detect light having a specific wavelength range. The light source acquisition unit 330 may acquire light reflected from the eyeball. The light source acquisition unit 330 may obtain the reflected light of the light irradiated to the eye to be photographed through the first and second light source units 310 and 320 . The light source acquisition unit 330 may generate an eyeball light image using the obtained light source.

또한, 광원획득부(330)는 제1 및 제2 광원부(310, 320) 각각으로부터 조사되어 안구로부터 반사된 광을 획득하기 위해 한 쌍으로 구비될 수 있다. In addition, the light source acquisition unit 330 may be provided as a pair to obtain light irradiated from the first and second light source units 310 and 320 and reflected from the eyeball.

이때, 광원획득부(330)는 렌즈 프레임(110)의 일측 상단 및 하단 각각에 위치하여 렌즈 프레임(110)의 내부로 수용될 수 있다. 제1 및 제2 광원부(310, 320)이 다수개로 이루어지는 경우, 광원획득부(330)는 제1 및 제2 광원부(310, 320)의 사이에 배치될 수 있다.In this case, the light source acquisition unit 330 may be located at the top and bottom of one side of the lens frame 110 and accommodated inside the lens frame 110 . When the first and second light source units 310 and 320 are formed in plurality, the light source acquisition unit 330 may be disposed between the first and second light source units 310 and 320 .

여기서, 광원획득부(330)는 일 예로, 렌즈 프레임(110)의 일측 상단에 구비되는 경우, 제1광원부(310)로부터 방출되어 안구로부터 반사되는 광을 획득하고, 렌즈 프레임(110)의 일측 하단에 구비되는 경우에는 제2광원부(320)로부터 방출되어 안구로부터 반사되는 광을 획득하여 광 이미지를 생성할 수 있다.Here, the light source acquisition unit 330 acquires, for example, light emitted from the first light source unit 310 and reflected from the eye when provided at an upper end of one side of the lens frame 110, and one side of the lens frame 110. When provided at the bottom, an optical image may be generated by obtaining light emitted from the second light source unit 320 and reflected from the eyeball.

보다 구체적으로, 도 3을 참조하면, 광원획득부(330)는 특정 파장의 광을 감지할 수 있는 다수개의 픽셀(331)이 매트릭스 형태로 배치될 수 있다. 각각의 픽셀(331)은 제1 및 제2 광원부(310, 320)에서 조사된 광의 반사광을 수신함으로써 광 이미지를 생성할 수 있다. 각각의 픽셀(331)이 입사되는 반사광을 획득하고, 입사된 광에 대응하는 이미지 데이터를 생성할 수 있는 것이다. More specifically, referring to FIG. 3 , in the light source acquisition unit 330, a plurality of pixels 331 capable of detecting light of a specific wavelength may be arranged in a matrix form. Each pixel 331 may generate an optical image by receiving reflected light of light emitted from the first and second light source units 310 and 320 . Each pixel 331 may obtain incident reflected light and generate image data corresponding to the incident light.

이때, 광원획득부(330)는 안구의 광 이미지를 생성하기 위해 적외선 영역의 파장을 갖는 반사광을 획득하며, 안구 중 홍채의 보다 명확한 이미지를 획득하기 위해 920nm 내지 1500nm 사이의 파장을 갖는 반사광을 획득한다.At this time, the light source acquisition unit 330 acquires reflected light having a wavelength in the infrared region to generate a light image of the eyeball, and acquires reflected light having a wavelength between 920 nm and 1500 nm to acquire a clearer image of the iris of the eyeball. do.

여기서, 광원획득부(330)는 다수개의 픽셀을 통해 특정 시간동안 획득한 광을 이미지로 생성하고, 각 픽셀(331)당 생성된 이미지 데이터를 후술할 메모리부(400)로 송신할 수 있다.Here, the light source acquisition unit 330 may generate an image of light acquired for a specific time through a plurality of pixels, and transmit image data generated for each pixel 331 to the memory unit 400 to be described later.

메모리부(400)는 각부에서 정보를 수신 받아 저장할 수 있다. 메모리부(400)는 휘발성 또는/ 및 비휘발성 메모리를 포함할 수 있다. 메모리부(400)는 촬영부(200)에서 촬영된 사용자의 전방 응시 환경과 안구의 이미지를 전달받아 저장할 수 있다. The memory unit 400 may receive and store information received from each unit. The memory unit 400 may include volatile and/or non-volatile memory. The memory unit 400 may receive and store images of the user's forward gaze environment and eyeballs captured by the photographing unit 200 .

또한, 메모리부(400)는 광영상획득부(330)로부터 생성된 안구의 광 이미지 데이터를 저장할 수 있으며, 저장된 이미지 데이터를 영상산출부(500)로 제공할 수도 있다.Also, the memory unit 400 may store optical image data of the eyeball generated by the optical image acquisition unit 330 and may provide the stored image data to the image calculation unit 500 .

영상산출부(500)는 촬영부(200)와 광이미지획득부(300)를 각각 제어하여 영상 또는/ 및 이미지를 획득할 수 있다. 영상산출부(500)는 촬영부(200)와 광이미지획득부(300)를 통해 기설정된 시간동안 획득한 영상 또는/ 및 이미지를 육안으로 확인할 수 있도록 사용자 인터페이스(800)에 전달할 수 있다.The image calculation unit 500 may obtain an image or/and an image by controlling the photographing unit 200 and the optical image acquisition unit 300, respectively. The image calculation unit 500 may transmit images or/and images acquired for a predetermined time through the photographing unit 200 and the optical image acquisition unit 300 to the user interface 800 so that the user can visually check the images.

보다 구체적으로, 영상산출부(500)는 전방촬영부(220)가 기설정된 시간동안 사용자가 주시하는 환경을 촬영할 수 있도록 작동을 제어하며, 전방촬영부(220)를 통해 촬영되는 영상을 실시간으로 전달받을 수 있다.More specifically, the image calculation unit 500 controls the operation so that the front camera 220 can capture the environment the user is watching for a predetermined time, and the image captured by the front camera 220 is captured in real time. can be delivered

또한, 영상산출부(500)는 전방촬영부(220)의 작동 시점에서 기설정된 시간동안 기설정된 시간간격을 갖고 안구의 가시광 영역의 이미지를 획득할 수 있도록 안구촬영부(210)의 작동을 제어하며, 안구촬영부(210)를 통해 획득된 안구의 이미지를 전달받을 수 있다.In addition, the image calculation unit 500 controls the operation of the eye photographing unit 210 to acquire an image of the visible light region of the eye at a predetermined time interval for a predetermined time at the time of operation of the front photographing unit 220. In addition, the image of the eye acquired through the eye photographing unit 210 may be received.

이후, 영상산출부(500)는 안구촬영부(210)로부터 획득한 안구의 이미지를 사용자 인터페이스(800)에 전달함으로써, 용이하게 육안으로 안구의 이미지를 확인할 수 있다. Thereafter, the image calculation unit 500 transfers the image of the eyeball acquired from the eyeball capture unit 210 to the user interface 800, so that the image of the eyeball can be easily checked with the naked eye.

이때, 영상산출부(500)는 전방촬영부(220)를 통해 촬영 영상을 전달받는 과정에서 사용자 인터페이스(800)의 출현이 인식되는 경우, 안구촬영부(210)가 작동될 수 있도록 제어할 수도 있다. 예를 들어, 후술할 도 4에 도시된 바와 같이, 안구 응시점의 변화를 관찰할 수 있는 객체영상이 송출되고 있는 사용자 인터페이스(800)를 전방촬영부(220)의 전방으로 출현시키고, 전방촬영부(200)를 통해 사용자 인터페이스(800)의 출현이 인식되어지는 경우, 영상산출부(500)는 안구촬영부(220)의 작동을 제어하여 사용자의 촬영 대상이 되는 안구의 이미지를 획득할 수 있다.At this time, the image calculation unit 500 may control the eye capture unit 210 to be operated when the appearance of the user interface 800 is recognized in the process of receiving a photographed image through the front capture unit 220. have. For example, as shown in FIG. 4 to be described later, a user interface 800 in which an object image capable of observing a change in an eyeball gazing point is transmitted appears in front of the front camera 220, and the front camera is photographed. When the appearance of the user interface 800 is recognized through the unit 200, the image calculation unit 500 controls the operation of the eye photographing unit 220 to obtain an image of the user's target eyeball. have.

이 경우, 영상산출부(500)는 안구의 이동을 확인하고자 필요에 따라 기설정된 시간동안의 안구 이미지를 획득할 수 있다.In this case, the image calculation unit 500 may obtain an eyeball image for a preset time as necessary to check the movement of the eyeball.

또한, 영상산출부(500)는 안구촬영부(220)의 작동 시점에서 제1 및 제2 광원부(310, 320)를 통해 안구로 광을 조사하고 광획득부(330)에 의해 획득되는 안구의 광이미지를 전달받도록 광이미지획득부(300)를 제어하며, 광이미지득부(300)로부터 획득한 안구의 적외선광 이미지를 사용자 인터페이스(800)로 전달하여 표시할 수 있다.In addition, the image calculation unit 500 irradiates light to the eyeball through the first and second light source units 310 and 320 at the time of operation of the eyeball photographing unit 220, and the image of the eyeball obtained by the light acquisition unit 330 The optical image acquisition unit 300 is controlled to receive the optical image, and the infrared light image of the eye acquired from the optical image acquisition unit 300 is transferred to the user interface 800 and displayed.

응시점산출부(600)는 안구의 움직임을 분석하여 응시점을 검출할 수 있다. 응시점산출부(600)는 사용자의 안구가 움직임에 따라 변경되는 안구의 시선을 감지하고, 응시하고 있는 응시점을 검출할 수 있다. The gaze point calculation unit 600 may detect the gaze point by analyzing eye movements. The gazing point calculation unit 600 may detect the gaze of the user's eyeball that changes according to the movement of the user's eyeball, and detect the gazing point.

보다 구체적으로, 응시점산출부(600)는 광원획득부(330)를 통해 생성된 안구의 광 이미지 정보를 획득하고, 각각의 광 이미지에서 안구의 중심이 되는 부분을 검출하여 이를 안구의 응시점으로 지정할 수 있다.More specifically, the gaze point calculation unit 600 obtains information on the light image of the eyeball generated through the light source acquisition unit 330, detects a central part of the eyeball in each light image, and determines the gaze point of the eyeball. can be specified as

이때, 응시점산출부(600)는 광원획득부(330)로부터 안구의 이미지를 획득하는 경우, 안구로부터 반사된 광을 감지한 픽셀들(331)로부터 각각의 좌표값을 함께 전달받을 수 있다.In this case, when the gaze point calculation unit 600 acquires the image of the eyeball from the light source acquisition unit 330, it may also receive respective coordinate values from the pixels 331 that sense the light reflected from the eyeball.

여기서, 좌표값이라 함은 광원획득부(330)에서 특정 파장의 광을 감지한 픽셀(331)의 위치에 대한 값일 수 있다. Here, the coordinate value may be a value for a position of a pixel 331 that detects light of a specific wavelength in the light source acquisition unit 330 .

응시점산출부(600)는 광원획득부(330)로부터 반사광을 감지한 픽셀들(331)의 좌표값을 획득하는 경우, 다수개의 좌표값 중 그 중심이 되는 픽셀의 좌표값을 안구의 중심 및 응시점으로 지정하여, 다수의 광 이미지 각각에 대응되는 응시점을 산출할 수 있다.When the gaze point calculation unit 600 acquires the coordinate values of the pixels 331 for which the reflected light has been detected from the light source acquisition unit 330, the coordinate values of the central pixels among a plurality of coordinate values are the center of the eyeball and By designating it as a gaze point, it is possible to calculate gaze points corresponding to each of a plurality of optical images.

특히, 응시점산출부(600)는 기설정된 시간동안 기설정된 시간간격을 갖고 획득된 안구의 광 이미지들 각각에서 응시점을 산출하되, 동공을 포함한 홍채영역에서 반사된 광을 감지한 픽셀들(331)을 기준으로 다수의 좌표값 중 그 중심이 되는 픽셀의 좌표값으로 안구의 응시점을 지정하는 것이 보다 바람직할 수 있다.In particular, the gazing point calculation unit 600 calculates gazing points in each of the light images of the eyeball obtained at predetermined time intervals for a predetermined time period, and pixels that detect light reflected from the iris region including the pupil ( 331), it may be more desirable to designate the gaze point of the eyeball with the coordinate value of the center pixel among a plurality of coordinate values.

이때, 응시점산출부(600)는 산출된 응시점 정보들을 영상정합부(700)로 송신하며, 사용자 인터페이스(800)를 통해 육안으로 확인할 수 있다.At this time, the gaze point calculation unit 600 transmits the calculated gaze point information to the image matching unit 700, which can be visually confirmed through the user interface 800.

영상정합부(700)는 다수의 영상을 획득하여 사용자 인터페이스(800)의 화면 상 하나의 화면으로 표시할 수 있다. 영상정합부(700)는 영상산출부(500)로부터 전달받은 기준 안구 이미지와 응시점산출부(600)로부터 전달받은 응시점을 정합할 수 있다.The image matching unit 700 may acquire multiple images and display them as one screen on the screen of the user interface 800 . The image matching unit 700 may match the reference eyeball image received from the image calculation unit 500 with the gaze point received from the gaze point calculation unit 600 .

예를 들어, 영상정합부(700)는 기준 안구 이미지 상에 응시점산출부(600)를 통해 산출된 안구의 응시점을 정합할 경우, 안구의 응시점을 소정 크기로 된 원형의 포인트(Point)로 표시할 수 있다. For example, when the image matching unit 700 matches the gaze point of the eyeball calculated through the gaze point calculation unit 600 on the reference eye image, the gaze point of the eye is a circular point having a predetermined size. ) can be expressed as

이때, 기준 안구 이미지 상에 표시되는 다수개의 응시점들은 응시점산출부(600)를 통해 산출된 시간에 따라 상호 상이한 색상을 갖도록 하며, 유사 또는 동일 위치의 응시점은 상호 오러랩되어 표시될 수 있다. 정합된 영상은 사용자 인터페이스(800)에 의해 송출될 수 있다. At this time, the plurality of gazing points displayed on the reference eyeball image have mutually different colors according to the time calculated through the gazing point calculation unit 600, and gazing points at similar or identical positions may overlap each other and be displayed. have. The matched image may be transmitted through the user interface 800 .

따라서, 영상정합부(700)는 응시점산출부(600)를 통해 산출된 안구의 응시점이 기준 안구 이미지 상에 표시될 수 있도록 기준 안구 이미지와 응시점 정보를 정합하여 정합 이미지를 생성하는 역할을 수행할 수 있는 것이다.Therefore, the image matching unit 700 plays a role of generating a matched image by matching the gaze point information with the reference eye image so that the gaze point of the eye calculated through the gaze point calculation unit 600 can be displayed on the reference eye image. that can be done

사용자 인터페이스(800)는 사용자로부터 촬영부(200) 및 광이미지획득부(300)의 작동을 위한 입력을 수신하고, 촬영부(200) 및 광이미지획득부(300)로부터 획득한 안구 이미지 또는 정합된 이미지를 영상으로 출력한다. 사용자 인터페이스(800)는 사용자가 직접 촬영부(200) 및 광이미지획득부(300)의 작동을 조작하기 위한 버튼, 키 패트, 스위치, 다이얼 또는 터치 인터페이스를 포함할 수 있다. 사용자 인터페이스(800)는 영상을 송출하기 위한 스크린을 포함할 수 있으며, 터치 스크린으로 구현될 수 있다. 일 예로, 사용자 인터페이스(800)는 전자 펜 또는 사용자의 신체 일부를 이용한 터치, 제스처, 근접 또는 호버링 입력을 수신할 수 있다.The user interface 800 receives an input for operation of the photographing unit 200 and the optical image acquisition unit 300 from a user, and acquires an eyeball image or registration from the photographing unit 200 and the optical image acquisition unit 300. outputs the image as a video. The user interface 800 may include buttons, keypads, switches, dials, or touch interfaces for a user to directly manipulate operations of the photographing unit 200 and the optical image acquisition unit 300 . The user interface 800 may include a screen for transmitting an image and may be implemented as a touch screen. For example, the user interface 800 may receive a touch, gesture, proximity, or hovering input using an electronic pen or a user's body part.

또한, 사용자 인터페이스(800)는 사용자에게 각종 콘텐츠(예 : 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. In addition, the user interface 800 may display various contents (eg, text, image, video, icon, and/or symbol) to the user.

도 5를 참조하면, 사용자 인터페이스(800)는 영상산출부(500)와 전기적으로 연결되며, 화면 상 다수개 분할된 상태로 안구촬영부(220)를 통해 획득한 안구의 가시광 이미지와 영상산출부(500)로부터 전달받은 안구의 적외선 광이미지 및 영상정합부(700)로부터 전달받은 정합이미지를 각각 송출할 수 있다.Referring to FIG. 5 , the user interface 800 is electrically connected to the image calculation unit 500, and a visible light image of the eye acquired through the eye photographing unit 220 in a divided state on a screen and the image calculation unit The infrared optical image of the eyeball received from 500 and the matched image received from image matcher 700 may be transmitted respectively.

이때 , 사용자 인터페이스(800)는 기설정된 시간동안 기설정된 시간간격을 갖고 획득된 안구의 촬영 이미지와 광 이미지를 이미지 획득 시간에 따라 연속적으로 송출함으로써, 이미지를 영상화하여 송출할 수 있는 것이다.At this time, the user interface 800 can transmit the image by continuously transmitting the captured image of the eyeball and the light image obtained at a predetermined time interval for a predetermined time according to the image acquisition time.

또한, 사용자 인터페이스(800)는 안구의 촬영 이미지, 광 이미지 및 정합 이미지를 화면 상 분할되도록 송출할 수 있지만, 화면 상 하나의 영상만을 송출할 수 있으며 별도 조작에 의해 화면상 송출될 이미지를 선정할 수 있다.In addition, the user interface 800 may transmit the captured image of the eyeball, the light image, and the matched image in a divided manner on the screen, but only one image may be transmitted on the screen, and an image to be transmitted on the screen may be selected by a separate operation. can

또한, 도 6을 참조하면, 사용자 인터페이스(800)는 실행 시, “진단 시작” 및 “진단 결과 보기” 창이 표시된 화면이 나타난다. “진단 시작” 및 “진단 결과 보기” 창 각각은 사용자의 터치와 같은 실행 입력을 획득할 경우, 각 해당되는 화면이 나타날 수 있다. Also, referring to FIG. 6 , when the user interface 800 is executed, a screen displaying “start diagnosis” and “view diagnosis result” windows appears. Each of the “Start Diagnosis” and “View Diagnosis Result” windows may display corresponding screens when an execution input such as a user's touch is acquired.

즉, 사용자 인터페이스(800)는 사용자에 의해 “진단 시작”에 대한 실행 입력을 획득하는 경우, 도 4에 도시된 바와 같은 화면이 나타나며 구체적인 설명은 후술하도록 한다. 또한, 사용자 인터페이스(800)는 사용자에 의해 “진단 결과 보기”에 대한 실행 입력을 획득하는 경우, 도 ~에 도시된 바와 같이 판독부()를 통해 신경질환 보유 여부에 대한 판독 정보를 표시한 화면이 나타날 수 있다. That is, when the user interface 800 obtains an execution input for “diagnosis start”, a screen as shown in FIG. 4 appears and a detailed description will be given later. In addition, the user interface 800 displays reading information on whether or not a neurological disease is possessed through a reading unit , as shown in FIG. this may appear.

여기서, 사용자 인터페이스(800)는 사용자에 의해 “진단 시작”에 대한 실행 입력을 획득하는 경우, 응시점산출부()를 통해 안구의 응시점을 산출하는 과정에서 안구의 응시점에 변화를 관찰할 수 있는 객체영상을 송출할 수 있다. Here, the user interface 800 can observe a change in the gaze point of the eyeball in the process of calculating the gaze point of the eyeball through the gaze point calculation unit ( ) when an execution input for “diagnosis start” is obtained by the user. It is possible to transmit object images that can be transmitted.

도 4를 참조하면, 사용자 인터페이스(800)는 안구를 움직이게 하기 위해 화면 상 기설정된 시간동안 기설정된 시간간격을 갖고 제1객체(P1)와 제2객체(P2)를 좌, 우 반복적으로 표시되는 객체영상을 송출할 수 있다. 이때, 제1 및 제2객체(P1, P2)는 사용자 인터페이스(800)의 화면 상에서 점멸 방식으로 표시될 수 있다.Referring to FIG. 4 , the user interface 800 repeatedly displays a first object P1 and a second object P2 left and right at a preset time interval during a preset time on the screen to move the eyeballs. Object images can be transmitted. In this case, the first and second objects P1 and P2 may be displayed on the screen of the user interface 800 in a flickering manner.

예를 들어, 사용자 인터페이스(800)는 안구를 움직이게 하여 안구의 응시점을 산출할 수 있도록 객체영상을 송출하는 경우, 도 4의 (a)에 도시된 바와 같이, 제1객체(P1)를 화면 상 좌측에 기설정된 시간동안 표시하고, 제1객체(P1)의 표시 시간이 지난 이후에 제1객체(P1)의 표시를 해제한다. 기설정된 시간간격 이후, 도 4의 (b)에 도시된 바와 같이, 제2객체(P2)를 기설정된 시간동안 표시되도록 할 수 있다. 또한, 제2객체(P2)의 표시 시간이 지난 이후, 제2객체(P2)의 표시를 해제하고 기설정된 시간간격 이후, 다시 제1객체(P1)를 기설정된 시간동안 표시할 수 있다.For example, when the user interface 800 transmits an object image so as to calculate the gaze point of the eyeball by moving the eyeball, as shown in FIG. 4(a), the first object P1 is displayed on the screen. It is displayed on the left side of the image for a predetermined time, and after the display time of the first object P1 has passed, the display of the first object P1 is released. After a predetermined time interval, as shown in (b) of FIG. 4 , the second object P2 may be displayed for a predetermined time. In addition, after the display time of the second object P2 has elapsed, the display of the second object P2 may be canceled, and after a preset time interval, the first object P1 may be displayed again for a preset time.

여기서, 사용자 인터페이스(800)를 통해 안구가 응시할 수 있는 제1 및 제2객체(P1, P2)를 화면 상 각각 좌, 우 교대로 표시되도록 하는 객채영상을 송출함으로써, 보다 효율적으로 안구 응시점의 변화를 관찰할 수 있는 것이다.Here, by transmitting object images to display the first and second objects P1 and P2 that the eyes can gaze at alternately on the screen through the user interface 800, respectively, the eye gaze point can be more efficiently change can be observed.

이때, 사용자 인터페이스(800)로부터 객체영상이 송출되고, 사용자는 송출되는 객체영상을 응시하여 안구를 움직임에 따라 영상정합부(700)에 의해 정합 이미지가 생성되는 경우, 판독부(900)를 통해 신경질환을 진단할 수 있다.At this time, when an object image is transmitted from the user interface 800 and a matched image is generated by the image matching unit 700 as the user gazes at the transmitted object image and moves his or her eyes, the reading unit 900 transmits the object image. Neurological disorders can be diagnosed.

판독부(900)는 영상정합부(700)를 통해 생성된 정합 이미지를 통해 신경질환 보유에 대한 여부를 판독할 수 있다. 판독부(900)는 기준 안구 이미지 상에 안구의 응시점이 표시된 정합 이미지를 영상정합부(700)로부터 전달받아 응시점들이 다수의 영역 중 각 영역에 분포되어 있는 정도를 판단할 수 있다. The reading unit 900 may read whether or not a person has a neurological disease through the matching image generated by the image matching unit 700 . The reading unit 900 may receive a matched image in which gaze points of the eye are displayed on the reference eye image from the image matching unit 700 and determine the degree to which gaze points are distributed in each region among a plurality of regions.

이때, 판독부(900)는 각 영역 당 분포되어 있는 응시점의 개수를 검출하고, 각 영역별 응시점 개수를 상호 비교함으로써 사용자의 신경질환 보유 여부를 판독할 수 있는 것이다. 여기서, 신경질환은 일 예로, 알츠하이머 또는 치매일 수 있다.At this time, the reading unit 900 can detect whether or not the user has a neurological disease by detecting the number of gaze points distributed in each region and comparing the number of gaze points in each region. Here, the neurological disease may be, for example, Alzheimer's disease or dementia.

도 7을 참조하면, 판독부(900)는 예를 들어, 기준 안구 이미지 상 안구의 중심으로부터 이격된 다수의 궤적을 표시하고, 각각의 궤적 내 존재하는 응시점의 개수를 검출하여 각 검출영역별 응시점의 개수를 비교함으로써 신경질환 보유 여부를 판독할 수 있다.Referring to FIG. 7 , the reading unit 900 displays, for example, a plurality of trajectories spaced apart from the center of the eyeball on a reference eyeball image, detects the number of gaze points existing in each trajectory, and detects By comparing the number of gaze points, it is possible to determine whether a person has a neurological disease.

이때, 다수의 궤적에 대응되어 검출영역이 형성되며, 다수의 궤적은 상호 일정 간격을 두고 그 직경이 점차 증가되는 원형 형태로 형성될 수 있다.At this time, a detection area is formed corresponding to the plurality of traces, and the plurality of traces may be formed in a circular shape with a diameter gradually increasing at regular intervals.

여기서, 다수의 검출영역은 제1궤적 내의 영역을 제1검출영역(A1), 제1궤적과 제2궤적 사이의 영역을 제2검출영역(A2), 제2궤적과 제3궤적 사이를 제3검출영역으로 지정하고 각 검출영역별로 제1검출영역은 ‘정상범위’, 제2검출영역은 ‘의심범위’, 제3검출영역은 ‘위험범위’로 설정함으로써, 각 영역별로 분포된 응시점의 개수 정도에 따라 신경질환 보유 여부를 판독할 수 있는 것이다.Here, the plurality of detection areas include a first detection area A1 for an area within the first trajectory, a second detection area A2 for an area between the first and second trajectories, and a third area between the second and third trajectories. By designating 3 detection areas and setting the first detection area as 'normal range', the second detection area as 'suspicious range', and the third detection area as 'risk range' for each detection area, gaze points distributed for each area Depending on the degree of the number of , it is possible to read whether or not you have a neurological disease.

따라서, 판독부(900)는 각 검출영역별 응시점의 개수를 검출 및 비교하여, ‘정상범위’, ‘의심범위’ 및 ‘위험범위’ 중 적어도 하나의 표시 문구를 사용자 인터페이스(800) 상에서 표시되도록 하여 신경질환의 보유 여부와 함께 질환 정도를 파악할 수 있는 것이다.Therefore, the reading unit 900 detects and compares the number of gaze points for each detection area, and displays at least one display phrase among 'normal range', 'suspicious range', and 'risk range' on the user interface 800. By doing so, it is possible to determine the extent of the disease as well as whether or not there is a neurological disease.

이하에서는, 도 8을 참조하여 본 발명의 일 실시예에 따른 휴대용 신경질환 진단장치의 동작의 흐름 및 신경질환을 진단하는 방법에 대하여 상세히 설명하도록 한다. Hereinafter, with reference to FIG. 8 , the operational flow of the portable neurological disease diagnosis device according to an embodiment of the present invention and a method for diagnosing a neurological disease will be described in detail.

도 8은 본 발명의 일 실시예에 따른 휴대용 신경질환 진단방법의 절차를 도시한 플로우차트이다.8 is a flowchart illustrating the procedure of a portable neurological disease diagnosis method according to an embodiment of the present invention.

도 8을 참조하면, 휴대용 신경질환 진단 방법(S10)은 하우징(100)을 안면에 장착한 상태에서 사용자 인터페이스(800)를 통해 촬영부(200) 및 광이미지획득부(300)를 작동시키기 위한 입력 정보를 획득하는 작동 입력 획득 단계(S100)를 포함할 수 있다.Referring to FIG. 8, the portable neurological disease diagnosis method (S10) is for operating the photographing unit 200 and the optical image acquisition unit 300 through the user interface 800 while the housing 100 is mounted on the face. It may include an operation input acquisition step (S100) of acquiring input information.

예를 들어, 작동 입력 획득 단계(S100)는 사용자로부터 안구촬영부(210)의 작동 시간 및 안구 이미지를 획득하는 시간 간격 정보, 전방촬영부(220)의 작동 시간 정보, 제1 및 제2 광원부(310, 320)와 광원획득부(330)의 작동 시간 정보 등 촬영부(200) 및 광이미지획득부(300)의 작동에 대한 입력 정보를 획득할 수 있다. 더불어, 사용자 인터페이스(800)으로부터 송출되는 객체영상의 송출 시간 정보도 포함될 수 있다.For example, the operation input acquisition step ( S100 ) includes operating time of the eye photographing unit 210 and time interval information for obtaining an eyeball image from the user, operating time information of the front photographing unit 220 , first and second light source units Input information about operations of the photographing unit 200 and the optical image acquisition unit 300, such as operation time information of 310 and 320 and the light source acquisition unit 330, may be obtained. In addition, transmission time information of object images transmitted from the user interface 800 may also be included.

휴대용 신경질환 진단 방법(S10)는 전방촬영부(220)의 작동을 통한 사용자가 주시하는 전방의 주위 환경을 실시간 영상으로 획득하는 전방 주위 환경 영상 획득 단계(S200)를 포함할 수 있다. 전방 주위 환경 영상 힉득 단계(S200)는 전방촬영부(220)에 의해 수행될 수 있다.The portable neurological disease diagnosis method ( S10 ) may include an anterior surrounding environment image acquisition step ( S200 ) of obtaining a real-time image of the surrounding environment in front of the user through the operation of the front imaging unit 220 . The front surrounding environment image acquisition step ( S200 ) may be performed by the front camera 220 .

휴대용 신경질환 진단 방법(S10)은 작동 입력 획득 단계(S200)에서 촬영부()에 대한 작동 입력 정보를 획득하게 되면, 촬영 대상이 되는 안구의 정지 상태인 기준 안구 이미지를 획득하는 기준 안구 이미지 획득 단계(S300)를 포함할 수 있다. 기준 안구 이미지 획득 단계(S300)는 안구촬영부(210)에 의해 수행될 수 있다. In the portable neurological disease diagnosis method (S10), when operation input information for the photographing unit is obtained in the operation input acquisition step (S200), a reference eye image is acquired to obtain a reference eye image in a stationary state of an eyeball to be captured. Step S300 may be included. The step of obtaining a reference eyeball image ( S300 ) may be performed by the eyeball photographing unit 210 .

휴대용 신경질환 진단 방법(S10)은 촬영 대상이 되는 안구를 촬영하고, 안구의 움직임이 변화되는 과정에서 촬영된 안구의 가시광 이미지 및 적외선광 이미지를 획득하는 안구 이미지 획득 단계(S400)를 포함할 수 있다. The portable neurological disease diagnosis method (S10) may include an eyeball image acquisition step (S400) of photographing an eyeball to be photographed and acquiring a visible light image and an infrared light image of the photographed eyeball in the process of changing the movement of the eyeball. have.

도 9를 참조하면, 안구 이미지 획득 단계(S400)는 사용자 인터페이스 인식 단계(S410), 검사 시작 입력 정보 획득 단계(S420), 안구의 가시광 이미지 획득 단계(S430) 및 안구의 적외선광 이미지 획득 단계(S440)을 포함할 수 있다.Referring to FIG. 9 , the eyeball image acquisition step (S400) includes a user interface recognition step (S410), examination start input information acquisition step (S420), eyeball visible light image acquisition step (S430), and eyeball infrared light image acquisition step (S420). S440) may be included.

안구 이미지 획득 단계(S400)에서 사용자 인터페이스 인식 단계(S410)는 전방촬영부(220)를 통해 사용자 인터페이스(800)가 출현되는 영상 정보가 영상산출부()로 전달되도록 전방촬영부(220)의 전방으로 사용자 인터페이스(800)를 출현시키고, 영상산출부(500)를 통해 전방촬영부(220)로부터 촬영된 영상 정보에서 사용자 인터페이스(800)의 출현을 판단할 수 있다. 이때, 영상산출부(500)를 통해 사용자 인터페이스(800)의 출현이 인식되는 경우, 검사 시작 입력 정보 획득 단계(S420)를 수행하도록 한다.In the eyeball image acquisition step (S400), the user interface recognition step (S410) is performed by the front capture unit 220 so that image information in which the user interface 800 appears through the front capture unit 220 is transmitted to the image calculation unit ( ). The user interface 800 may appear forward, and the appearance of the user interface 800 may be determined from image information photographed from the front photographing unit 220 through the image calculation unit 500 . At this time, when the appearance of the user interface 800 is recognized through the image calculation unit 500, a test start input information acquisition step (S420) is performed.

여기서, 사용자 인터페이스(800) 화면 상 “검사 시작” 및 “검사 결과 보기” 창이 표시된 상태에서의 사용자 인터페이스(800)의 출현을 인식하도록 한다.Here, the appearance of the user interface 800 in a state in which the windows “start test” and “view test results” are displayed on the screen of the user interface 800 is recognized.

검사 시작 입력 정보 획득 단계(S420)에서는 영상산출부(500)가 사용자 인터페이스(800)의 출현을 인식하고, 사용자로부터 “검사 시작”에 대한 입력 정보를 획득한 이후, 사용자 인터페이스(800)의 화면 상으로 객체영상을 송출할 수 있다. 객체영상은 상술한 바와 같이, 제1 및 제2객체(P1, P2)가 각각 좌, 우 교대로 표시되는 영상일 수 있다.In the test start input information acquisition step (S420), after the image calculator 500 recognizes the appearance of the user interface 800 and obtains input information about “start test” from the user, the screen of the user interface 800 Object images can be transmitted over the image. As described above, the object image may be an image in which the first and second objects P1 and P2 are alternately displayed left and right, respectively.

안구의 가시광 이미지 획득 단계(S430)에서는 사용자 인터페이스(800)로부터 객체영상이 송출되고, 교대로 표시되는 제1 및 제2객체(P1, P2)를 따라 움직이는 안구를 촬영하여 가시광 영역의 안구 이미지를 획득할 수 있다. In the step of obtaining a visible light image of the eyeball (S430), the object image is transmitted from the user interface 800, and the eyeball moving along the alternately displayed first and second objects P1 and P2 is photographed to obtain an eyeball image in the visible light region. can be obtained

이때, 안구 이미지 획득 단계(S400)에서는 안구의 가시광 이미지 획득 단계(S430)와 함께 제1 및 제2광원부(310, 320)가 촬영 대상이 되는 안구로 광을 조사하고, 광원획득부(330)를 통해 안구로 조사된 광 중 동공을 포함한 홍채로부터 반사되는 반사광을 감지하여 적외선광 영역의 안구 이미지로 획득하는 안구의 적외선광 이미지 획득 단계(S440)가 수행될 수 있다.At this time, in the eyeball image acquisition step (S400), together with the eyeball visible light image acquisition step (S430), the first and second light source units 310 and 320 radiate light to the target eyeball, and the light source acquisition unit 330 An infrared light image acquisition step ( S440 ) of the eyeball may be performed in which reflected light reflected from the iris including the pupil among the lights irradiated to the eyeball is acquired as an eyeball image in the infrared light region.

이후, 휴대용 신경질환 진단 방법(S10)은 안구의 적외선광 이미지를 획득하는 과정에서 응시점산출부(600)를 통해 다수의 적외선광 이미지에 대해 각각에 대응되는 응시점을 산출하는 안구 응시점 산출 단계(S500)를 포함할 수 있다.Thereafter, in the portable neurological disease diagnosis method (S10), in the process of obtaining an infrared light image of the eyeball, gaze point calculation unit 600 calculates a gaze point corresponding to each of a plurality of infrared light images through the gaze point calculation unit 600. Step S500 may be included.

휴대용 신경질환 진단 방법(S10)은 영상산출부(500)로부터 전달받은 기준 안구 이미지와 응시점산출부(600)로부터 안구의 응시점 정보를 전달받아 기준 안구 이미지에 응시점 정보가 표시될 수 있도록 기준 안구 이미지와 응시점 정보를 정합하여 정합이미지를 생성하는 영상 정합 단계(S600)를 포함할 수 있다.The portable neurological disease diagnosis method (S10) receives the reference eye image transmitted from the image calculation unit 500 and gaze point information of the eye from the gaze point calculation unit 600 so that the gaze point information can be displayed on the reference eye image. An image matching step (S600) of generating a matched image by matching the reference eyeball image and gaze point information may be included.

휴대용 신경질환 진단 방법(S10)은 영상산출부(500) 및 영상정합부()로부터 안구의 가시광 및 적외선광 이미지 그리고 정합이미지를 사용자 인터페이스(800)를 통해 영상으로 송출할 수 있는 안구 이미지 송출 단계(S700)를 포함할 수 있다. 안구 이미지 송출 단계(S700)에서 송출되는 영상 중 촬영한 안구의 가시광 및 적외선광 이미지에 대한 영상은 안구의 가시광 및 적외선광 이미지 각각을 이미지 획득 시간에 따라 연속적으로 송출되도록 한다.The portable neurological disease diagnosis method (S10) is an eye image transmission step capable of transmitting visible light and infrared light images of the eye and a matched image of the eye from the image calculation unit 500 and the image matching unit through the user interface 800 as an image. (S700) may be included. Among the images transmitted in the eyeball image transmission step (S700), the captured visible and infrared light images of the eye are continuously transmitted according to the image acquisition time, respectively.

휴대용 신경질환 진단 방법(S10)은 사용자로부터 “진단 결과 보기”에 대한 입력 정보를 획득하는 경우, 판독부(900)를 통해 신결질환 보유 여부를 판독한 정보를 사용자 인터페이스(800)의 화면으로부터 송출될 수 있는 신경질환 진단 결과 산출 단계(S800)를 포함할 수 있다. 신경질환 진단 결과 산출 단계(S800)에서 ‘정상범위’, ‘의심범위’ 및 ‘위험범위’ 중 적어도 하나에 해당하는 판독 정보에 따른 문구를 사용자 인터페이스(800)의 ‘진단 결과 보기’ 화면상에서 표시될 수 있도록 할 수 있다.In the portable neurological disease diagnosis method (S10), when input information for “viewing diagnosis results” is obtained from the user, information read through the reader 900 whether or not a kidney disease is present is transmitted from the screen of the user interface 800. A neurological disease diagnosis result calculation step (S800) may be included. In the neurological disease diagnosis result calculation step (S800), a phrase according to reading information corresponding to at least one of 'normal range', 'suspect range', and 'risk range' is displayed on the 'view diagnosis result' screen of the user interface 800. can make it possible

따라서, 본 발명에 따른 휴대용 신경질환 진단 장치는 검사가 진행되는 경우, 객체영상 중 교대로 표시되는 제1객체(P1) 또는 제2객체(P2)를 응시하는 과정에서 특정 시간동안 제1객체(P1) 또는 제2객체(P2) 중 정지된 어느 하나의 객체를 응시할 때, 안구의 움직임 또는 미세 떨림을 관찰하여 사용자가 신경질환을 보유하고 있는지 여부를 용이하게 진단할 수 있는 것이다.Therefore, in the portable neurological disease diagnosis device according to the present invention, when the examination is in progress, the first object (P1) or the second object (P2) displayed alternately among the object images is gazed at for a specific time. When gazing at any one of the still objects P1) or the second object P2, it is possible to easily diagnose whether or not the user has a neurological disease by observing eye movement or micro-tremors.

100 : 하우징 200 : 촬영부
300 : 광이미지획득부 400 : 메모리부
500 : 영상산출부 600 : 응시점산출부
700 : 영상정합부 800 : 사용자 인터페이스
900 ; 판독부
100: housing 200: shooting unit
300: optical image acquisition unit 400: memory unit
500: image calculation unit 600: gaze point calculation unit
700: image matching unit 800: user interface
900; reader

Claims (7)

사용자 안면에 장착될 수 있는 하우징(100);과
사용자의 안구를 촬영하여 이미지를 생성하는 촬영부(200);와
사용자의 안구에 특정 파장의 광을 조사하고, 반사되는 광을 획득하여 이미지를 생성하는 광이미지획득부(300);와
상기 촬영부(200) 및 상기 광이미지획득부(300) 각각의 작동을 제어하고, 상기 촬영부(200) 및 상기 광이미지획득부(300) 각각으로부터 생성된 이미지를 전달받는 영상산출부(500); 및
상기 촬영부(200) 및 상기 광이미지획득부(300)로부터 생성된 이미지를 상기 영상산출부(500)로부터 전달받아 영상으로 송출할 수 있는 사용자 인터페이스(800);로 구성하되,
상기 광이미지획득부(300)는 사용자의 안구의 중심을 기준으로 상측 및 하측을 향하여 각각 다수의 광을 조사하는 제1 및 제2 광원부;와
상기 제1 및 제2광원부(310, 320)에서 조사되어 안구로부터 반사되는 광을 감지하여 적외선광 영역의 이미지를 생성하는 광원획득부(330)를 포함하며,
상기 광원획득부(330)로부터 생성된 안구 이미지를 사용자 인터페이스(800)를 통해 영상으로 송출하며,
상기 광원획득부(330)는 안구로부터 반사된 광을 감지하는 다수의 픽셀(331)을 포함하고,
안구로부터 반사광을 감지한 픽셀(331)로부터 이미지 정보와 함께 좌표값을 획득하는 경우, 다수개의 좌표값 중 그 중심이 되는 픽셀(331)의 좌표값을 안구의 중심 및 응시점으로 지정하는 응시점산출부(600)를 더 포함하는 것을 특징으로 하는 휴대용 신경질환 진단 장치.
A housing 100 that can be mounted on a user's face; and
A photographing unit 200 for generating an image by photographing the user's eyeball; and
An optical image acquisition unit 300 for generating an image by irradiating light of a specific wavelength to the user's eyeball and acquiring reflected light;
An image calculation unit 500 that controls operations of the photographing unit 200 and the optical image acquisition unit 300 and receives images generated by the photographing unit 200 and the optical image acquisition unit 300, respectively. ); and
A user interface 800 capable of receiving an image generated by the photographing unit 200 and the optical image acquisition unit 300 from the image calculation unit 500 and outputting the image as an image;
The optical image acquisition unit 300 includes first and second light source units respectively irradiating a plurality of lights toward the upper and lower sides based on the center of the user's eyeball;
A light source acquisition unit 330 detects light emitted from the first and second light source units 310 and 320 and reflected from the eyeball to generate an image of an infrared light region,
The eyeball image generated by the light source acquisition unit 330 is transmitted as an image through the user interface 800,
The light source acquisition unit 330 includes a plurality of pixels 331 for detecting light reflected from the eye,
When obtaining coordinate values along with image information from the pixel 331 detecting reflected light from the eyeball, gaze point designating the coordinate value of the pixel 331 as the center of a plurality of coordinate values as the center of the eyeball and gaze point. Portable neurological disease diagnosis device characterized in that it further comprises a calculator (600).
제 1항에 있어서,

상기 촬영부(200)는 기설정된 시간동안 기설정된 시간간격을 갖고 사용자의 안구를 촬영하여 가시광 영역의 이미지를 다수로 생성하는 안구촬영부(210); 및
사용자가 주시하는 전방의 주위 환경을 실시간으로 촬영하는 전방촬영부(220);를 포함하며,

상기 안구촬영부(210)로부터 생성된 다수의 안구 이미지를 상기 사용자 인터페이스(800)를 통해 영상으로 송출하는 것을 특징으로 하는 휴대용 신경질환 진단 장치.
According to claim 1,

The photographing unit 200 includes an eye photographing unit 210 for generating a plurality of visible light region images by photographing the user's eyeballs at predetermined time intervals for a predetermined time; and
Including; a front camera 220 for capturing the surrounding environment in front of the user in real time;

A portable neurological disease diagnosis device, characterized in that for transmitting a plurality of eyeball images generated by the eyeball photographing unit 210 as images through the user interface 800.
삭제delete 제1항에 있어서,

상기 광원획득부(330)는 안구의 적외선광 이미지를 생성하기 위해 동공을 포함한 홍채로부터 반사되는 920nm 내지 1500nm 사이의 파장을 갖는 반사광을 획득하는 것을 특징으로 하는 휴대용 신경질환 진단 장치.
According to claim 1,

The light source acquisition unit 330 acquires reflected light having a wavelength between 920 nm and 1500 nm reflected from the iris including the pupil to generate an infrared light image of the eyeball.
삭제delete 제1항에 있어서,

상기 촬영부(200)로부터 기준 안구 이미지를 전달받고, 상기 응시점산출부(600)로부터 다수의 적외선광 이미지에서 각각에 대응되어 산출되는 응시점 정보를 전달받으며, 기준 안구 이미지와 응시점 정보를 정합하여 정합이미지를 생성하는 영상정합부(700)를 더 포함하는 것을 특징으로 하는 휴대용 신경질환 진단 장치.
According to claim 1,

The reference eyeball image is received from the photographing unit 200, the gazepoint information calculated in correspondence with each of the plurality of infrared light images is received from the gazepoint calculation unit 600, and the reference eyeball image and gazepoint information are obtained. A portable neurological disease diagnosis device, characterized in that it further comprises an image matching unit (700) for generating a matched image by matching.
제6항에 있어서,

상기 영상정합부(700)로부터 기준 안구 이미지 상에 안구의 응시점이 표시된 정합이미지를 전달 받고, 기준 안구 이미지의 중심으로부터 다수의 검출영역을 지정하여 각 검출영역별 응시점의 개수를 검출하여 사용자의 신경질환 보유 여부를 판독할 수 있는 판독부(900)를 더 포함하고,

판독부(900)는 기준 안구 이미지 상에 안구의 응시점이 표시된 정합 이미지를 영상정합부(700)로부터 전달받아 응시점들이 다수의 영역 중 각 영역에 분포되는 것을 특징으로 하는 휴대용 신경질환 진단 장치.
According to claim 6,

The image matching unit 700 receives a matched image in which gaze points of the eye are displayed on the reference eye image, designates a plurality of detection areas from the center of the reference eye image, and detects the number of gaze points for each detection area. Further comprising a reading unit 900 capable of reading whether or not a neurological disease is present,

The reading unit 900 receives a matched image in which the gaze points of the eye are displayed on the reference eye image from the image matching unit 700, and gaze points are distributed in each region among a plurality of regions.
KR1020200184844A 2020-12-28 2020-12-28 Wearable neurological disease diagnosis device and the method KR102471955B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200184844A KR102471955B1 (en) 2020-12-28 2020-12-28 Wearable neurological disease diagnosis device and the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200184844A KR102471955B1 (en) 2020-12-28 2020-12-28 Wearable neurological disease diagnosis device and the method

Publications (2)

Publication Number Publication Date
KR20220093781A KR20220093781A (en) 2022-07-05
KR102471955B1 true KR102471955B1 (en) 2022-11-29

Family

ID=82401763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200184844A KR102471955B1 (en) 2020-12-28 2020-12-28 Wearable neurological disease diagnosis device and the method

Country Status (1)

Country Link
KR (1) KR102471955B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143599A (en) * 2003-11-11 2005-06-09 Tokai Univ Line-of-sight display device and dementia diagnostic device
JP2006235745A (en) * 2005-02-22 2006-09-07 Yaskawa Information Systems Co Ltd Line of sight image processor
US10687708B1 (en) * 2009-06-04 2020-06-23 Masoud Vaziri Method and apparatus for a compact and high resolution mind-view communicator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102215077B1 (en) * 2014-08-04 2021-02-10 삼성전자주식회사 Iris recognition apparatus and iris recognition method
WO2018094232A1 (en) * 2016-11-17 2018-05-24 Cognito Therapeutics, Inc. Methods and systems for neural stimulation via visual, auditory and peripheral nerve stimulations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143599A (en) * 2003-11-11 2005-06-09 Tokai Univ Line-of-sight display device and dementia diagnostic device
JP2006235745A (en) * 2005-02-22 2006-09-07 Yaskawa Information Systems Co Ltd Line of sight image processor
US10687708B1 (en) * 2009-06-04 2020-06-23 Masoud Vaziri Method and apparatus for a compact and high resolution mind-view communicator

Also Published As

Publication number Publication date
KR20220093781A (en) 2022-07-05

Similar Documents

Publication Publication Date Title
US7458685B2 (en) Automated fundus imaging system
US6830336B2 (en) Automated generation of fundus images based on processing of acquired images
JP5607640B2 (en) Method and apparatus for obtaining images of eye features
US20110299036A1 (en) Portable digital direct ophthalmoscope
KR20030062377A (en) System and method for iris recognition using stereoscopic face recognition
FI125445B (en) Blick Control Device
US7290880B1 (en) System and method for producing a stereoscopic image of an eye fundus
CN103648366A (en) System and method for remote measurement of optical focus
CN109758107A (en) A kind of VR visual function examination device
KR102174241B1 (en) Portable inspecting device based on virtual reality and examination method using thereof
JP2007029333A (en) System, method and program for processing ophthalmic information and attachment for photography
JP2004337348A (en) Eye movement analysis system
KR101984993B1 (en) Visual field examination device using personalized marker control
JP3914090B2 (en) Eye movement analysis system and eye imaging device
JP6556466B2 (en) Laser therapy device
JP4336854B2 (en) Gaze display device and dementia diagnosis device
KR102471955B1 (en) Wearable neurological disease diagnosis device and the method
JP7209954B2 (en) Nystagmus analysis system
KR102263830B1 (en) Fundus image photography apparatus using auto focusing function
US20230014952A1 (en) Retinal imaging system
JP7212063B2 (en) ophthalmic equipment
KR102483010B1 (en) Measuring device of microsaccade
JPH11347016A (en) Imaging device
JP7352905B2 (en) Visual inspection device and visual inspection method
CN109285602B (en) Master module, system and method for self-checking a user's eyes

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant