KR20220068440A - Method and apparatus for displaying eye movement - Google Patents

Method and apparatus for displaying eye movement Download PDF

Info

Publication number
KR20220068440A
KR20220068440A KR1020200155218A KR20200155218A KR20220068440A KR 20220068440 A KR20220068440 A KR 20220068440A KR 1020200155218 A KR1020200155218 A KR 1020200155218A KR 20200155218 A KR20200155218 A KR 20200155218A KR 20220068440 A KR20220068440 A KR 20220068440A
Authority
KR
South Korea
Prior art keywords
image
eyeball
new
eye
video
Prior art date
Application number
KR1020200155218A
Other languages
Korean (ko)
Inventor
신승학
Original Assignee
주식회사 올빛트리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 올빛트리 filed Critical 주식회사 올빛트리
Priority to KR1020200155218A priority Critical patent/KR20220068440A/en
Publication of KR20220068440A publication Critical patent/KR20220068440A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

The present invention relates to a method and apparatus for displaying eye movement. According to an embodiment of the present invention, a method for displaying eye movement comprises: a step of obtaining a video related to eye movement; a step of extracting an eye image in a frame unit from the video; a step of selecting at least one representative image from eye images extracted in the frame unit; a step of searching for an image corresponding to a new eye image of the at least one representative image when the new eye image is obtained; and a step of comparing and displaying a searched image with the new eye image. According to the present invention, a change in the range of eye movement could be objectively and accurately displayed.

Description

안구 운동 표시 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING EYE MOVEMENT}METHOD AND APPARATUS FOR DISPLAYING EYE MOVEMENT

본 발명은 안구의 운동 범위 변화를 객관적이고 정확하며 효율적으로 표시할 수 있는 안구 운동 표시 방법 및 장치에 과한 것이다.The present invention is directed to a method and apparatus for displaying eye movements that can objectively, accurately, and efficiently display changes in the range of motion of the eyeball.

인간의 안구는 네 개의 직근(내직근, 상직근, 하직근, 외직근) 및 두 개의 사근(상사근, 하사근)에 의해서 움직이게 되는데, 신경 제어를 통해 이러한 근육에 가해지는 힘의 조합, 안구 궤도의 점성, 근육의 탄성 등에 의하여 안구의 위치가 결정되며, 안구 이동 시, 양안이 동시에 같은 방향으로 움직이게 된다. 하지만, 노화 또는 근육 이상 등 여러 가지 이유로 인하여 안구 운동에 문제가 발생할 수 있다. 이러한 안구 운동의 문제로는, 안구 운동의 불균형, 안구 근육 이상, 안구 운동 장애, 사시 등이 있을 수 있다.The human eyeball is moved by four rectus muscles (medial rectus, superior rectus, inferior rectus, external rectus) and two oblique muscles (superior and inferior oblique). The position of the eyes is determined by the viscosity of the orbit and the elasticity of the muscles, and when the eyes are moved, both eyes move in the same direction at the same time. However, problems with eye movement may occur due to various reasons such as aging or muscle abnormalities. Problems of such eye movement may include an imbalance of eye movement, abnormal eye muscle, eye movement disorder, strabismus, and the like.

이러한 문제들을 진단하고 관리하기 위하여 안구의 운동 범위를 확인하는 것이 매우 중요하다. 특히, 안구 운동의 형태 별로 그 수행 내용과 정도를 정확히 확인할 수 있으면, 관련 신경 회로의 손상 또는 진행 중인 질병 유무 등을 진단할 수 있다.In order to diagnose and manage these problems, it is very important to check the range of motion of the eyeball. In particular, if the contents and extent of each type of eye movement can be accurately confirmed, it is possible to diagnose whether a related neural circuit is damaged or an ongoing disease or the like.

따라서, 안구의 운동 범위 변화를 객관적이고 정확하며 효율적으로 표시하기 위한 방법이 요구된다.Accordingly, there is a need for a method for objectively, accurately, and efficiently displaying changes in the range of motion of the eyeball.

본 발명은 안구의 운동 범위 변화를 객관적이고 정확하며 효율적으로 표시할 수 있는 안구 운동 표시 방법 및 장치를 제공할 수 있다.The present invention can provide an eye movement display method and apparatus capable of objectively, accurately and efficiently displaying a change in an eye movement range.

본 발명의 일 실시예에 따른 안구 운동 표시 방법은, 안구 운동과 관련된 동영상을 획득하는 단계, 상기 동영상으로부터 프레임 단위로 안구 이미지를 추출하는 단계, 상기 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택하는 단계, 새로운 안구 이미지를 획득하는 경우 상기 적어도 하나 이상의 대표 이미지들 중 상기 새로운 안구 이미지에 대응되는 이미지를 검색하는 단계 및 상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계를 포함할 수 있다.The eye movement display method according to an embodiment of the present invention includes: obtaining a moving picture related to eye movement; extracting an eyeball image from the moving image frame by frame; Selecting a representative image, when acquiring a new eyeball image, searching for an image corresponding to the new eyeball image from among the at least one or more representative images, Comprising the steps of comparing and displaying the searched image with a new eyeball image can do.

일 실시예에 따르면, 상기 안구 운동과 관련된 동영상을 획득하는 단계는, 안구 운동을 촬영하여 동영상을 획득하거나, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 획득하거나, 또는 저장 장치에 저장된 동영상을 획득하는 단계를 포함할 수 있다.According to an embodiment, the step of obtaining a video related to the eye movement includes obtaining a video by photographing an eye movement, obtaining a video captured from a video recording device capturing the eye movement, or a video stored in a storage device may include the step of obtaining

일 실시예에 따르면, 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계는, 상기 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬하는 단계를 포함할 수 있다.According to an embodiment, the selecting of the at least one representative image may include aligning the directions of each image based on a head movement with respect to the eyeball images extracted in units of frames.

일 실시예에 따르면, 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계는, 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치(cardinal positions of gaze)에서 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계를 포함할 수 있다.According to an embodiment, the selecting of the at least one or more representative images includes at least one or more set eye movement sections, at least one set eye position, or at least one or more cardinal positions of gaze. It may include selecting one or more representative images.

일 실시예에 따르면, 상기 대표 이미지를 생성하는 단계는, 상기 적어도 하나 이상의 설정된 안구 운동 구간, 상기 적어도 하나 이상의 설정된 안구 위치, 또는 상기 적어도 하나 이상의 시선의 기본 위치에서 촬영된 이미지들 중 다른 이미지들과의 유사도를 기초로 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계를 포함할 수 있다.According to an embodiment, the generating of the representative image may include selecting other images from among the images captured in the at least one or more set eye movement sections, the at least one set eye positions, or the at least one or more basic positions of the gaze. The method may include selecting the at least one or more representative images based on the degree of similarity to .

일 실시예에 따르면, 상기 새로운 안구 이미지에 대응되는 이미지를 검색하는 단계는, 상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하는 단계 및 상기 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계를 포함할 수 있다.According to an embodiment, the step of searching for an image corresponding to the new eyeball image includes at least one first feature extracted from the new eyeball image and at least one first feature extracted from the at least one or more representative image. The method may include comparing and determining an image having a similarity of the extracted first features greater than a threshold value as an image corresponding to the new eyeball image.

일 실시예에 따르면, 상기 적어도 하나 이상의 대표 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계는, 상기 유사도가 임계 값보다 대표 이미지가 복수 개 존재하는 경우, 제1 특징과 다른 적어도 하나의 제2 특징을 비교하는 단계 및 상기 추출된 제2 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계를 포함할 수 있다.According to an embodiment, the determining of the at least one representative image as an image corresponding to the new eyeball image may include, when a plurality of representative images having a similarity higher than a threshold value exist, at least one different from the first characteristic The method may include comparing second features and determining an image having a similarity of the extracted second features greater than a threshold value as an image corresponding to the new eyeball image.

일 실시예에 따르면, 상기 추출된 특징은, 동공, 아이라인, 홍채, 안구의 크기, 각막의 크기, 눈꺼풀 틈새의 위치 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment, the extracted feature may include at least one of a pupil, an eyeliner, an iris, a size of an eyeball, a size of a cornea, and a position of an eyelid crevice.

일 실시예에 따르면, 상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하는 단계는, 인공 신경망(artificial neural network)을 이용하여 수행될 수 있다.According to an embodiment, the comparing of the at least one first feature extracted from the new eyeball image with the at least one first feature extracted from the at least one or more representative images includes using an artificial neural network. can be performed.

일 실시예에 따르면, 상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계는, 상기 검색된 이미지와 상기 새로운 안구 이미지를 겹쳐서 표시하는 단계를 포함할 수 있다.According to an embodiment, the comparing and displaying the searched image and the new eyeball image may include overlapping the searched image and the new eyeball image and displaying the displayed image.

일 실시예에 따르면, 상기 검색된 이미지 및 상기 새로운 안구 이미지 중 적어도 하나의 이미지를 반투명하게 표시할 수 있다.According to an embodiment, at least one of the found image and the new eyeball image may be displayed translucently.

일 실시예에 따르면, 상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계는, 안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 중 적어도 하나 이상을 표시할 수 있다.According to an embodiment, the comparing and displaying the searched image and the new eyeball image may include displaying at least one of a movement angle of the eyeball, a change in the position of the corneal limbus, and a change in the central position of the eyeball.

본 발명의 일 실시예에 따른 안구 운동 표시 장치는, 디스플레이부, 동영상 획득부, 안구 운동 표시를 위한 프로그램을 저장하는 적어도 하나 이상의 메모리 및 상기 프로그램을 실행함으로써, 상기 동영상 획득부를 통해 안구 운동과 관련된 동영상을 획득하고, 상기 동영상으로부터 프레임 단위로 안구 이미지를 추출하며, 상기 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택하고, 새로운 안구 이미지를 획득하는 경우, 상기 적어도 하나 이상의 대표 이미지들 중 상기 새로운 안구 이미지에 대응되는 이미지를 검색하며, 상기 디스플레이부를 통해 상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하도록 제어하는 적어도 하나 이상의 프로세서를 포함할 수 있다.The eye movement display device according to an embodiment of the present invention includes a display unit, a video acquisition unit, at least one memory for storing a program for displaying eye movements, and executing the program, so that eye movement related through the video acquisition unit When acquiring a moving picture, extracting an eyeball image from the moving picture in units of frames, selecting at least one representative image from the extracted eyeball images in units of frames, and acquiring a new eye image, the at least one representative image It may include at least one processor that searches for an image corresponding to the new eyeball image among them, and controls to compare and display the searched image with the new eyeball image through the display unit.

일 실시예에 따르면, 상기 동영상 획득부는, 안구 운동을 촬영하여 동영상을 획득하기 위한 동영상 촬영부, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 수신하기 위한 송수신부 및 동영상을 저장하기 위한 저장부 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment, the video acquisition unit includes a video capture unit for acquiring a video by photographing an eye movement, a transceiver for receiving a video captured from a video recording device capturing an eye movement, and a storage for storing the video It may include at least one or more of the parts.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬하도록 제어할 수 있다.According to an embodiment, the at least one processor may control to align the directions of each image based on a head movement with respect to the eyeball images extracted in units of frames.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치(cardinal positions of gaze)에서 상기 적어도 하나 이상의 대표 이미지를 선택하도록 제어할 수 있다.According to an embodiment, the at least one processor is configured to select the at least one or more representative images in at least one or more set eye movement sections, at least one or more set eye positions, or at least one or more cardinal positions of gaze. You can control what you choose.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 적어도 하나 이상의 설정된 안구 운동 구간, 상기 적어도 하나 이상의 설정된 안구 위치, 또는 상기 적어도 하나 이상의 시선의 기본 위치에서 촬영된 이미지들 중 다른 이미지들과의 유사도를 기초로 상기 적어도 하나 이상의 대표 이미지를 선택하도록 제어할 수 있다.According to an embodiment, the at least one processor may be configured to communicate with other images among images captured in the at least one or more set eye movement sections, the at least one set eye positions, or the at least one or more basic positions of the gaze. It is possible to control the selection of the at least one or more representative images based on the similarity.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하고, 상기 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하도록 제어할 수 있다.According to an embodiment, the at least one or more processors compare at least one first feature extracted from the new eyeball image with at least one first feature extracted from the at least one or more representative image, and 1 It is possible to control an image having a similarity greater than a threshold value to be determined as an image corresponding to the new eyeball image.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 유사도가 임계 값보다 대표 이미지가 복수 개 존재하는 경우, 제1 특징과 다른 적어도 하나의 제2 특징을 비교하고, 상기 추출된 제2 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단할 수 있다.According to an embodiment, the at least one processor compares a first feature with at least one other second feature, and compares the first feature with at least one other second feature, when there are a plurality of representative images having the similarity higher than a threshold value. An image having a similarity greater than a threshold value may be determined as an image corresponding to the new eyeball image.

일 실시예에 따르면, 상기 추출된 특징은, 동공, 아이라인, 홍채, 안구의 크기, 각막의 크기, 눈꺼풀 틈새의 위치 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment, the extracted feature may include at least one of a pupil, an eyeliner, an iris, a size of an eyeball, a size of a cornea, and a position of an eyelid crevice.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 인공 신경망(artificial neural network)을 이용할 수 있다. According to an embodiment, the at least one or more processors may use an artificial neural network.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 검색된 이미지와 상기 새로운 안구 이미지를 겹쳐서 표시하도록 제어할 수 있다.According to an embodiment, the at least one processor may control the searched image and the new eyeball image to be displayed in an overlapping manner.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 상기 검색된 이미지 및 상기 새로운 안구 이미지 중 적어도 하나의 이미지를 반투명하게 표시할 수 있다.According to an embodiment, the at least one processor may display at least one of the searched image and the new eyeball image semi-transparently.

일 실시예에 따르면, 상기 적어도 하나 이상의 프로세서는, 안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 중 적어도 하나 이상을 표시하도록 제어할 수 있다.According to an embodiment, the at least one processor may control to display at least one of a movement angle of the eyeball, a change in the position of the corneal limbus, and a change in the central position of the eyeball.

본 발명에 따르면, 안구의 운동 범위 변화를 객관적이고 정확하게 표시할 수 있다.According to the present invention, it is possible to objectively and accurately display the change in the range of motion of the eyeball.

도 1은 안구 운동 범위의 전후를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 안구 운동 표시 방법을 나타내는 순서도이다.
도 3은 본 발명의 일 실시예에 따라 이미지의 방향을 정렬하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 안구 위치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 안구 운동 구간을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 각막 윤부의 위치 변화를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 안구 운동 표시 장치의 구성을 나타내는 도면이다.
1 is a view showing before and after an eye movement range.
2 is a flowchart illustrating an eye movement display method according to an embodiment of the present invention.
3 is a view for explaining a method of aligning the direction of an image according to an embodiment of the present invention.
4 is a view for explaining an eyeball position according to an embodiment of the present invention.
5 is a view for explaining an eye movement section according to an embodiment of the present invention.
6 is a diagram for comparing and displaying a searched image and a new eyeball image according to an exemplary embodiment.
7 is a view for explaining a change in the position of the corneal limbus according to an embodiment of the present invention.
8 is a diagram illustrating the configuration of an eye movement display device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. In addition, in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로 프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 안구 운동 범위의 전후를 나타내는 도면이다.1 is a view showing before and after an eye movement range.

안구 운동은 상하, 좌우로 움직이는 선 운동으로 보이지만 실제로는 회전 중심이 안구 중앙에 위치하는 회전 운동이다. 안구는 시선에 수직인 적도 면에 놓여있는 축을 중심으로 회전하게 된다. 정상적인 안구의 경우, 안구가 정상적인 범위에서 움직이게 되나, 노화, 근육 이상, 신경 회로의 손상 또는 진행 중인 질병, 예를 들어, 외사시, 내사시, 마비사시, 갑상샘눈병증, 중증근무력증, 브라운증후군, 만성진행바깥눈근육마비, 듀안안구후퇴증후군, 안와파열골절 등이 있는 경우, 안구 운동에 문제가 발생할 수 있다. 안구 운동에 문제가 발생하는 경우, 안구 운동 범위가 제한되거나, 과도한 안구의 움직임이 발생할 수 있다. 이러한 안구 운동 이상은 치료를 통해 수정될 수 있다. 이와 같이 안구 운동에 문제가 발생한 것을 인지하거나, 치료를 통해 안구 운동 이상을 수정하는 것을 확인하기 위하여, 안구 운동 범위 변화를 확인하기 위한 방법이 필요하다.Although the eye movement appears to be a linear movement moving up and down, left and right, it is actually a rotational movement in which the center of rotation is located in the center of the eyeball. The eyeball rotates around an axis lying on the equator perpendicular to the line of sight. In the case of a normal eyeball, the eyeball moves within a normal range, but aging, muscle abnormalities, damage to nerve circuits, or ongoing diseases such as exotropia, esotropia, paralytic strabismus, thyroid eye disease, myasthenia gravis, Brown syndrome, chronic progression If you have external ocular muscle paralysis, Duane retraction syndrome, orbital rupture fracture, problems with eye movement may occur. If a problem occurs in eye movement, the range of eye movement may be limited or excessive eye movement may occur. These eye movement abnormalities can be corrected through treatment. As such, in order to recognize that a problem has occurred in eye movement or to correct the eye movement abnormality through treatment, a method for confirming changes in the range of eye movement is required.

도 1을 참조하여 설명하면, 도 1(a)는 안구 운동 범위가 제한되는 모습을 나타내고, 도 1(b)는 정상 범위에 가까운 안구 움직임을 나타낸다. 도 1(a)와 도 1(b)를 나란히 두고 비교하는 경우, 안구 운동 범위의 차이를 대략적으로 확인할 수 있으나, 각각의 화면만을 별도로 비교하거나 순차적으로 비교하는 경우, 안구 운동 범위의 차이를 객관적이고 정확하게 알기는 쉽지 않다.Referring to FIG. 1, FIG. 1(a) shows a state in which the eye movement range is limited, and FIG. 1(b) shows an eye movement close to a normal range. When comparing FIG. 1(a) and FIG. 1(b) side by side, the difference in eye movement range can be roughly confirmed, but when comparing only each screen separately or sequentially, the difference in eye movement range can be objectively And it is not easy to know exactly.

따라서, 안구의 운동 범위 변화를 객관적이고 정확하며 효율적으로 표시하기 위한 방법이 요구된다.Accordingly, there is a need for a method for objectively, accurately, and efficiently displaying changes in the range of motion of the eyeball.

도 2는 본 발명의 일 실시예에 따른 안구 운동 표시 방법을 나타내는 순서도이다.2 is a flowchart illustrating an eye movement display method according to an embodiment of the present invention.

먼저, 210 단계에서, 안구 운동과 관련된 동영상을 획득한다. 일 실시예에서, 안구 운동과 관련된 동영상은 안구 운동을 촬영하여 동영상을 획득하거나, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 획득하거나, 또는 저장 장치에 저장된 동영상을 획득할 수 있다. 예를 들어, 카메라를 이용하여 안구 운동을 촬영함으로써 동영상을 획득하거나, 외부 동영상 촬영 장치로부터 안구 운동이 촬영된 동영상을 수신할 수도 있다. 또한, 이미 촬영되어 외부 또는 내부 저장 장치에 저장되어 있던 안구 운동과 관련된 동영상을 획득할 수도 있다. 다만, 이에 한정되지 않고 다양한 방법으로 안구 운동과 관련된 동영상을 획득할 수 있으며, 두 가지 이상의 방법을 이용하여 안구 운동과 관련된 동영상을 획득할 수도 있다. 예를 들어, 안구 운동을 촬영하여 동영상을 획득하고, 외부 장치로부터 촬영된 동영상을 수신할 수도 있다.First, in step 210, a video related to eye movement is acquired. In an embodiment, for the video related to eye movement, a video may be obtained by photographing an eye movement, a video captured from a video recording device capturing the eye movement may be obtained, or a video stored in a storage device may be obtained. For example, a video may be obtained by photographing an eye movement using a camera, or a video in which the eye movement is photographed may be received from an external video recording device. In addition, it is also possible to acquire a video related to eye movement that has already been captured and stored in an external or internal storage device. However, the present invention is not limited thereto, and a moving picture related to the eye movement may be obtained in various ways, and a moving picture related to the eye movement may be obtained by using two or more methods. For example, a video may be obtained by photographing an eye movement, and the captured video may be received from an external device.

그 후, 220 단계에서, 동영상으로부터 프레임 단위로 안구 이미지를 추출한다. 예를 들어, 60 fps (frame per second) 동영상인 경우, 1초마다 60개의 안구 이미지를 추출할 수 있다. 이때, 특정 프레임 단위마다 안구 이미지를 추출할 수 있다. 예를 들어, 1 개의 프레임 당 1개의 이미지를 추출할 수도 있고, 10 개의 프레임 당 1개의 이미지를 추출할 수도 있으며, 60 개의 프레임 당 1개의 이미지를 추출할 수도 있다.Thereafter, in step 220, an eyeball image is extracted from the video in frame units. For example, in the case of a 60 fps (frame per second) video, 60 eyeball images can be extracted every second. In this case, the eyeball image may be extracted for each specific frame unit. For example, one image may be extracted per one frame, one image may be extracted per ten frames, and one image may be extracted per 60 frames.

이와 같이 동영상 그 자체를 이용하는 것이 아니라, 동영상으로부터 이미지를 추출하여 사용함으로써 안구의 운동 범위 변화를 효율적으로 표시할 수 있다. 보다 구체적으로, 동영상은 데이터 크기가 커서 저장하고 관리하는데 어려움이 있다. 따라서, 상대적으로 크기가 작은 이미지를 활용함으로써 효율성을 높일 수 있다.In this way, instead of using the moving image itself, the change in the range of motion of the eyeball can be efficiently displayed by extracting and using an image from the moving image. More specifically, a video has a large data size, so it is difficult to store and manage it. Accordingly, efficiency can be increased by using an image having a relatively small size.

230 단계에서, 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택한다. 220 단계에서 동영상으로부터 프레임 단위로 복수 개의 안구 이미지가 추출될 수 있다. 이 중, 안구의 운동 범위 변화를 표시하는데 사용하기 위한 대표 이미지를 선택할 수 있다.In operation 230, at least one representative image is selected from the eyeball images extracted in units of frames. In operation 220 , a plurality of eyeball images may be extracted from the video in frame units. Among them, a representative image to be used to display the change in the range of motion of the eye may be selected.

일 실시예에서, 대표 이미지를 선택하기 위하여, 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬할 수 있다. 안구 운동과 관련된 동영상을 촬영 시, 여러 가지 이유에서 사람의 머리, 즉, 헤드가 고정되지 않고 움직일 수 있다. 헤드가 움직이게 되면 사람의 눈 역시 헤드의 움직임에 따라 방향이 변하게 되고, 이러한 상태에서 동영상으로부터 이미지를 추출하면 추출된 안구 이미지 역시 중심 축의 방향이 틀어진 상태로 획득될 수 있다. 도 3을 참조하여 설명한다.In an embodiment, in order to select a representative image, directions of each image may be aligned based on a head movement with respect to the eye images extracted in units of frames. When shooting a video related to eye movement, a person's head, ie, the head, may move without being fixed for various reasons. When the head moves, the direction of the human eye also changes according to the movement of the head. It will be described with reference to FIG. 3 .

도 3은 본 발명의 일 실시예에 따라 이미지의 방향을 정렬하는 방법을 설명하기 위한 도면이다.3 is a view for explaining a method of aligning the direction of an image according to an embodiment of the present invention.

도 3을 참조하면, 도 3(b)의 경우 중심 축(30)이 수직인 상태이나, 도 3(a) 및 도 3(c)의 중심 축(31, 32)의 방향은 수직이 아니라 좌우로 틀어져 있는 것을 확인할 수 있다. 이와 같이 중심 축이 틀어진 상태의 안구 이미지를 사용하게 되면 안구의 운동 범위 변화를 정확하게 표시하기 어렵다. 특히, 안구의 경우 운동 범위가 크지 않으므로, 중심 축이 약간만 틀어져 있는 경우에도 안구의 운동 범위 변화를 정확하게 표시하기 어려울 수 있다. 따라서, 일 실시예에서는 구의 운동 범위 변화를 정확하게 표시하기 위하여, 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬할 수 있다.Referring to FIG. 3, in the case of FIG. 3(b), the central axis 30 is in a vertical state, but the directions of the central axes 31 and 32 in FIGS. 3(a) and 3(c) are not vertical but left and right. You can check that it is wrong. In this way, when the eyeball image in a state in which the central axis is misaligned is used, it is difficult to accurately display the change in the range of motion of the eyeball. In particular, since the range of motion of the eyeball is not large, it may be difficult to accurately display the change in the range of motion of the eyeball even when the central axis is slightly shifted. Accordingly, in one embodiment, in order to accurately display the change in the movement range of the sphere, the direction of each image may be aligned based on the head movement with respect to the eyeball images extracted in units of frames.

다시 도 2의 설명으로 돌아가면, 일 실시예에서, 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치(cardinal positions of gaze)에서 대표 이미지를 선택할 수 있다. 도 3 및 도 4를 참조하여 설명한다.Returning to the description of FIG. 2 , in one embodiment, a representative image may be selected from at least one or more set eye movement sections, at least one set eye position, or at least one or more cardinal positions of gaze. . It will be described with reference to FIGS. 3 and 4 .

도 4는 본 발명의 일 실시예에 따른 안구 위치를 설명하기 위한 도면이다.4 is a view for explaining an eyeball position according to an embodiment of the present invention.

시선의 기본 위치는 안구가 정면을 향하고 있는(straight ahead), 다시 말하면 시축(visual axis)이 머리의 정시 상면(midsagittal plane)과 평행한 중심 위치(central position), 내전, 외전, 상전, 하전과 같이 순수한 수평, 혹은 수직 회전이 오직 한번 일어난 후에 안구의 위치, 중심 위치로부터 수평 및 수직 회전이 복합된 회전 후에 안구의 위치를 포함한다. 즉, 시선의 기본 위치(9 cardinal positions of gaze)는 중심 위치, 중심 위치의 상, 하, 좌, 우, 좌상, 좌하, 우상 또는 우하의 9 개 위치를 포함할 수 있다.The basic position of the gaze is a central position in which the eyeball is straight ahead, that is, the visual axis is parallel to the midsagittal plane of the head, adduction, abduction, superior and inferior As such, it includes the position of the eye after only one pure horizontal or vertical rotation has occurred, and the position of the eye after a combined horizontal and vertical rotation from the central position. That is, the 9 cardinal positions of gaze may include a central position, nine positions above, below, left, right, upper left, lower left, upper right, or lower right of the central position.

안구는 한 개의 축을 중심으로 한 번의 회전에 의해 이러한 9 개의 시선의 기본 위치로 이동할 수 있다. 일 실시예에서는, 이러한 기본 위치에서의 안구 이미지를 대표 이미지로 선택할 수 있다.The eyeball can move to the basic positions of these nine gazes by one rotation around one axis. In one embodiment, the eyeball image at this basic position may be selected as the representative image.

도 5는 본 발명의 일 실시예에 따른 안구 운동 구간을 설명하기 위한 도면이다.5 is a view for explaining an eye movement section according to an embodiment of the present invention.

안구와 관련된 동영상을 촬영 시, 안구가 각각 위치 별로 이동하는 모습을 촬영할 수도 있지만, 안구를 시계 방향 또는 반시계 방향으로 한바퀴 회전하는 모습을 촬영할 수도 있다. 이 경우, 설정된 안구 운동 구간에서 적어도 하나 이상의 대표 이미지를 선택할 수 있다.When shooting a video related to the eyeball, it is possible to record the movement of the eyeballs for each position, but also a state in which the eyeball rotates in a clockwise or counterclockwise direction. In this case, at least one representative image may be selected in the set eye movement section.

도 5를 참조하면, 도 5(a)에서 안구는 상전되어 있고, 도 5(b)에서 안구는 외전(또는 내전)되어 있다. 안구를 시계 방향 또는 반시계 방향으로 한바퀴 회전하는 모습을 촬영하는 경우, 안구의 운동 구간은 안구가 상전되는 경우를 포함하는 안구 운동 구간(51)을 포함할 수도 있고, 안구는 외전(또는 내전)되는 경우를 포함하는 안구 운동 구간(52)을 포함할 수도 있다. 일 실시예에서는 이와 같이 적어도 하나 이상의 설정된 안구 운동 구간에서 적어도 하나 이상의 대표 이미지를 선택할 수 있다.Referring to FIG. 5 , in FIG. 5( a ), the eyeball is in an upturned state, and in FIG. 5( b ), the eyeball is abducted (or adducted). When taking a picture of the eyeball rotating in a clockwise or counterclockwise direction, the eye movement section may include an eye movement section 51 including a case in which the eyeball is inverted, and the eyeball is abducted (or adducted) It may include an eye movement section 52 including a case where the In one embodiment, at least one or more representative images may be selected from at least one or more set eye movement sections as described above.

다시 도 2의 설명으로 돌아가면, 적어도 하나 이상의 설정된 안구 운동 구간 또는 적어도 하나 이상의 시선의 기본 위치 외에도 적어도 하나 이상의 설정된 안구 위치에서 대표 이미지를 선택하는 것도 가능하다.Returning to the description of FIG. 2 , it is also possible to select a representative image from at least one set eyeball position in addition to at least one set eye movement section or at least one or more basic positions of gaze.

일 실시예에서, 대표 이미지는 추출된 다른 이미지들과의 유사도를 기초로 선택될 수 있다. 예를 들어, 다른 이미지들과 유사도가 가장 높은 이미지가 대표 이미지로 선택될 수 있다. 대표 이미지는 복수 개가 선택될 수 있으며, 이때, 유사도가 높은 순서대로 복수 개의 대표 이미지가 선택될 수 있다. 즉, 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치에서 촬영된 이미지들 중 다른 이미지들과의 유사도를 기초로 적어도 하나 이상의 대표 이미지를 선택할 수 있다.In an embodiment, the representative image may be selected based on similarity with other extracted images. For example, an image having the highest similarity to other images may be selected as the representative image. A plurality of representative images may be selected, and in this case, a plurality of representative images may be selected in an order of high similarity. That is, at least one representative image may be selected based on the similarity with other images among images captured in at least one or more set eye movement sections, at least one set eye position, or at least one basic position of gaze.

그 후, 240 단계에서, 새로운 안구 이미지를 획득하는 경우, 적어도 하나 이상의 대표 이미지들 중 새로운 안구 이미지에 대응되는 이미지를 검색한다. 일 실시예에서, 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하고, 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 새로운 안구 이미지에 대응되는 이미지로 판단할 수 있다. 이때, 추출된 특징은 동공, 아이라인, 홍채, 안구의 크기, 각막의 크기, 눈꺼풀 틈새의 위치 등을 포함할 수 있다.Thereafter, in step 240 , when a new eyeball image is obtained, an image corresponding to the new eyeball image is searched for among at least one or more representative images. In an embodiment, comparing at least one first feature extracted from a new eyeball image with at least one first feature extracted from at least one or more representative images, and selecting an image in which the similarity of the extracted first features is greater than a threshold value It may be determined as an image corresponding to the new eyeball image. In this case, the extracted features may include a pupil, an eyeliner, an iris, a size of an eyeball, a size of a cornea, a position of an eyelid crevice, and the like.

또한, 일 실시예에서, 유사도가 임계 값보다 대표 이미지가 복수 개 존재하는 경우, 제1 특징과 다른 적어도 하나의 제2 특징을 비교하고, 추출된 제2 특징들의 유사도가 임계 값보다 큰 이미지를 새로운 안구 이미지에 대응되는 이미지로 판단할 수 있다. 즉, 검색 정확도를 높이기 위하여 기준을 변경하여 새로운 안구 이미지에 대응되는 이미지를 검색할 수 있다.In addition, in an embodiment, when there are a plurality of representative images having a similarity higher than a threshold value, the first characteristic and at least one other second characteristic are compared, and an image in which the similarity of the extracted second characteristics is greater than the threshold value is selected. It may be determined as an image corresponding to the new eyeball image. That is, an image corresponding to a new eyeball image may be searched by changing the criterion in order to increase the search accuracy.

이때, 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하기 위하여 인공 신경망(artificial neural network)을 이용할 수도 있다. 이러한 인공 신경망은 기계 학습을 통해 특징을 비교하도록 구현될 수 있으며, 합성곱 신경망(CNN, convolution neural network) 또는 이를 변형/개량한 인공 신경망으로 구현될 수도 있다.In this case, an artificial neural network may be used to compare at least one first feature extracted from a new eyeball image with at least one first feature extracted from at least one or more representative images. Such an artificial neural network may be implemented to compare features through machine learning, and may be implemented as a convolutional neural network (CNN) or a modified/improved artificial neural network.

이와 같이, 새로운 안구 이미지를 기초로 기 저장된 안구 이미지를 검색하도록 구현함으로써, 촬영 대상의 인적 정보 등의 수집 없이도 대표 이미지 간의 유사성에 기초하여 쵤영 대상의 동일성을 인식할 수 있게 된다.In this way, by implementing a search for a pre-stored eye image based on a new eye image, the identity of the target image can be recognized based on the similarity between the representative images without collecting personal information of the subject to be photographed.

마지막으로, 250 단계에서, 검색된 이미지와 새로운 안구 이미지를 비교하여 표시한다. 일 실시예에서, 검색된 이미지와 새로운 안구 이미지를 겹쳐서 표시할 수 있다. 이때, 검색된 이미지와 새로운 안구 이미지 중 적어도 하나의 이미지를 반투명하게 표시할 수 있다. 도 6을 참조하여 설명한다.Finally, in step 250, the searched image and the new eyeball image are compared and displayed. In an embodiment, the searched image and the new eyeball image may be overlapped and displayed. In this case, at least one of the searched image and the new eyeball image may be displayed translucently. It will be described with reference to FIG. 6 .

도 6은 일 실시예에 따른 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 도면이다.6 is a diagram for comparing and displaying a searched image and a new eyeball image according to an exemplary embodiment.

도 6은 도 1(a)와 도 1(b)를 겹쳐서 표시한 도면이다. 도 1(a)와 도 1(b)의 비교를 위하여, 도 1(a)를 반투명하게 처리하고, 반투명하게 처리된 도 1(a)를 도 1(b)와 겹쳐서 표시하였다. 이와 같이 이미지 처리를 수행한 도 6에서는 안구의 운동 범위 변화(60)를 정확하게 확인할 수 있다.FIG. 6 is a view showing the overlapping of FIGS. 1(a) and 1(b). For comparison between Fig. 1 (a) and Fig. 1 (b), Fig. 1 (a) was treated to be semi-transparent, and Fig. 1 (a) treated to be semi-transparent was displayed overlaid with Fig. 1 (b). In FIG. 6 in which the image processing is performed in this way, the change in the movement range 60 of the eyeball can be accurately identified.

다시 도 2의 설명으로 돌아가면, 이와 같이, 검색된 이미지와 새로운 안구 이미지를 겹쳐서 표시하는 방법은 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 방법의 일례이고, 이에 한정되지 않고 다양한 방법을 이용하여 검색된 이미지와 새로운 안구 이미지를 비교하여 표시할 수 있다.Returning to the description of FIG. 2 again, as described above, the method of overlapping the searched image and the new eye image is an example of a method of comparing and displaying the searched image and the new eye image, and is not limited thereto. You can compare the image with the new eye image and display it.

일 실시예에서, 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 경우, 안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 등을 표시할 수도 있다. 이미지의 비교를 통해 직관적으로 안구의 운동 범위 차이를 알 수 있지만, 이러한 실시예에 따르면, 비교결과를 보다 객관적인 방법으로 제공하는 것도 가능하다. 도 7을 참조하여 설명한다.In an embodiment, when the searched image and the new eyeball image are compared and displayed, the movement angle of the eyeball, the change in the position of the corneal limbus, the change in the central position of the eye, etc. may be displayed. Although the difference in the range of motion of the eye can be intuitively known through the comparison of the images, according to this embodiment, it is also possible to provide the comparison result in a more objective way. It will be described with reference to FIG. 7 .

도 7은 본 발명의 일 실시예에 따른 각막 윤부의 위치 변화를 설명하기 위한 도면이다.7 is a view for explaining a change in the position of the corneal limbus according to an embodiment of the present invention.

도 7을 참조하면, 검색된 이미지와 새로운 안구 이미지에서의 각막 윤부의 위치를 비교할 수 있다. 보다 구체적으로, 검색된 이미지와 새로운 안구 이미지에서 동공 중심을 통과하는 직선 상에 위치한 각막 윤부 일 지점을 비교할 수 있다(70). 예를 들어, 도 7과 같이 검색된 이미지와 새로운 안구 이미지를 오버랩(overlap)하여, 동공 중심과 비교 영상에서의 동공 중심을 통과하는 직선의 연장선과 기준 영상에서 각막 윤부 및 비교 영상에서 각막 윤부가 각각 만나는 지점을 측정할 수 있다.Referring to FIG. 7 , the position of the corneal limbus in the searched image and the new eyeball image may be compared. More specifically, a point of the corneal limbus located on a straight line passing through the center of the pupil in the searched image and the new eyeball image may be compared ( 70 ). For example, by overlapping the retrieved image and the new eyeball image as shown in FIG. 7 , the extension line of a straight line passing through the pupil center and the pupil center in the comparison image, and the corneal limbus in the reference image and the corneal limbus in the comparison image, respectively The point of intersection can be measured.

본 발명의 일 실시예에 따르면, 안구의 운동 범위 변화를 객관적이고 정확하게 표시할 수 있다.According to an embodiment of the present invention, it is possible to objectively and accurately display the change in the range of motion of the eyeball.

도 8은 본 발명의 일 실시예에 따른 안구 운동 표시 장치의 구성을 나타내는 도면이다.8 is a diagram illustrating the configuration of an eye movement display device according to an embodiment of the present invention.

도 8을 참조하면, 일 실시예에 따른 안구 운동 표시 장치는 디스플레이부(810), 동영상 획득부(820), 메모리(830) 및 프로세서(840)를 포함할 수 있다. 그러나, 이에 한정되지 않고, 안구 운동 표시 장치는 도 8에 도시된 구성 요소 모두보다 많거나 적은 구성 요소에 의해 구현될 수도 있다.Referring to FIG. 8 , the apparatus for displaying eye movements according to an embodiment may include a display 810 , a video acquisition unit 820 , a memory 830 , and a processor 840 . However, the present invention is not limited thereto, and the eye movement display device may be implemented by more or fewer than all of the elements illustrated in FIG. 8 .

도 8에서는 안구 운동 표시 장치가 하나의 프로세서를 포함하는 것으로 도시되었으나, 실시예는 이에 제한되지 않으며, 복수의 프로세서들을 포함할 수 있다. 이하, 서술되는 프로세서(840)의 동작 및 기능들의 적어도 일부는 복수의 프로세서들에 의해 수행될 수 있다. 도 8에 도시된 안구 운동 표시 장치는, 본 개시의 다양한 실시예들에 따른 안구 운동 표시 방법을 수행할 수 있으며, 도 1 내지 도 7에 대한 설명이 적용될 수 있다. 따라서, 상술한 내용과 중복되는 내용은 간단히 설명하도록 한다.Although the eye movement display device is illustrated as including one processor in FIG. 8 , the embodiment is not limited thereto and may include a plurality of processors. At least some of the operations and functions of the processor 840 described below may be performed by a plurality of processors. The eye movement display device illustrated in FIG. 8 may perform the eye movement display method according to various embodiments of the present disclosure, and the descriptions of FIGS. 1 to 7 may be applied. Accordingly, content overlapping with the above will be briefly described.

디스플레이부(810)는 안구 운동 표시 장치에서 처리되는 정보를 표시한다. 디스플레이부(810)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 한편, 디스플레이부(810)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(810)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 일 실시예에서, 디스플레이부(810)는 검색된 이미지와 새로운 안구 이미지를 비교하여 표시할 수 있다.The display unit 810 displays information processed by the eye movement display device. The display unit 810 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display ( 3D display) and electrophoretic display (electrophoretic display) may include at least one. Meanwhile, when the display unit 810 and the touchpad form a layer structure to form a touch screen, the display unit 810 may be used as an input device in addition to an output device. In an embodiment, the display unit 810 may compare and display the searched image with a new eyeball image.

동영상 획득부(820)는 안구 운동과 관련된 동영상을 획득한다. 일 실시예에서, 동영상 획득부(820)는, 안구 운동을 촬영하여 동영상을 획득하기 위한 동영상 촬영부, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 수신하기 위한 송수신부, 동영상을 저장하기 위한 저장부 등을 포함할 수 있다. 동영상 촬영부는 피사체를 촬영하며, 광신호를 전기적 신호로 변환하는 카메라 센서와, 아날로그 이미지 신호를 디지털 데이터로 변환하는 신호 처리부를 구비할 수 있다. 여기서 카메라 센서는 CCD(Charge Coupled Device) 센서 또는 CMOS(complementary metal semiconductor) 센서가 될 수 있으며, 신호 처리부는 DSP(Digital Signal Processor)로 구현될 수 있다. 또한, 카메라 센서 및 신호 처리부는 일체형으로 구현할 수 있으며, 분리하여 구현할 수도 있다. 일 실시예에서, 동영상 촬영부는 안구 운동을 촬영할 수 있다. 송수신부는, 외부 장치로부터 안구 운동을 촬영한 동영상을 수신할 수 있다. 또한, 송수신부는 유무선 송신부를 모두 포함할 수 있다. 저장부는 외부 장치로부터 수신한 또는 동영상 촬영부를 통해 촬영한 안구 운동과 관련된 동영상을 저장할 수 있다.The video acquisition unit 820 acquires a video related to eye movement. In an embodiment, the video acquisition unit 820 includes a video recording unit for acquiring a video by photographing an eye movement, a transceiver for receiving a video captured from a video recording device capturing an eye movement, and storing the video It may include a storage unit for The moving picture capturing unit may include a camera sensor that captures a subject and converts an optical signal into an electrical signal, and a signal processor that converts an analog image signal into digital data. Here, the camera sensor may be a charge coupled device (CCD) sensor or a complementary metal semiconductor (CMOS) sensor, and the signal processing unit may be implemented as a digital signal processor (DSP). In addition, the camera sensor and the signal processing unit may be implemented integrally or may be implemented separately. In an embodiment, the video capturing unit may record eye movements. The transceiver may receive a moving picture of an eye movement from an external device. In addition, the transceiver may include both wired and wireless transmission units. The storage unit may store a moving picture related to eye movement received from an external device or captured by the moving picture capturing unit.

메모리(830)는 애플리케이션과 같은 프로그램 및 파일 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 프로세서(840)는 메모리(830)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(830)에 저장할 수도 있다. 일 실시예에서, 메모리(830)에는 안구 운동 표시를 위한 프로그램 및 데이터가 설치 및 저장될 수 있다.The memory 830 may be installed and stored in various types of data such as programs and files such as applications. The processor 840 may access and use data stored in the memory 830 or store new data in the memory 830 . In one embodiment, the memory 830 may install and store a program and data for displaying eye movements.

프로세서(840)는 안구 운동 표시 장치의 전체적인 동작을 제어하며, CPU, GPU 등과 같은 프로세서를 적어도 하나 이상 포함할 수 있다. 프로세서(840)는 안구 운동 표시 동작을 수행하도록 안구 운동 표시 장치에 포함된 다른 구성들을 제어할 수 있다. 또한, 프로세서(840)는 메모리(830)에 저장된 프로그램을 실행시키거나, 저장된 파일을 읽어오거나, 새로운 파일을 저장할 수도 있다. The processor 840 controls the overall operation of the eye movement display device, and may include at least one processor such as a CPU or GPU. The processor 840 may control other components included in the eye movement display device to perform an eye movement display operation. Also, the processor 840 may execute a program stored in the memory 830 , read a stored file, or store a new file.

일 실시예에서, 프로세서(840)는 메모리(830)에 저장된 프로그램을 실행함으로써, 동영상 획득부(810)를 통해 안구 운동과 관련된 동영상을 획득하고, 동영상으로부터 프레임 단위로 안구 이미지를 추출하며, 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택하고, 새로운 안구 이미지를 획득하는 경우, 적어도 하나 이상의 대표 이미지들 중 새로운 안구 이미지에 대응되는 이미지를 검색하며, 디스플레이부(820)를 통해 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하도록 제어할 수 있다.In an embodiment, the processor 840 executes a program stored in the memory 830 to obtain a moving image related to eye movement through the moving image acquisition unit 810, extracts an eyeball image from the moving image frame by frame, and When at least one representative image is selected from the eyeball images extracted as a unit and a new eyeball image is acquired, an image corresponding to the new eyeball image is searched for among the at least one or more representative images, and through the display unit 820 You can control to compare the searched image with the new eye image and display it.

일 실시예에서, 프로세서(840)는 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬하도록 제어할 수 있다. 프로세서(840)는 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치(cardinal positions of gaze)에서 상기 적어도 하나 이상의 대표 이미지를 선택하도록 제어할 수 있다. 또한, 프로세서(840)는 적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치에서 촬영된 이미지들 중 다른 이미지들과의 유사도를 기초로 상기 적어도 하나 이상의 대표 이미지를 선택하도록 제어할 수 있다.In an embodiment, the processor 840 may control to align the direction of each image based on a head movement with respect to the eyeball images extracted on a frame-by-frame basis. The processor 840 may control to select the at least one representative image from at least one or more set eye movement sections, at least one set eye position, or at least one or more cardinal positions of gaze. In addition, the processor 840 is configured to display the at least one or more representatives based on the similarity with other images among images captured in at least one or more set eye movement sections, at least one set eye position, or at least one or more basic positions of gaze. You can control the selection of images.

일 실시예에서, 프로세서(840)는 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하고, 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 새로운 안구 이미지에 대응되는 이미지로 판단하도록 제어할 수 있다. 또한, 프로세서(840)는 유사도가 임계 값보다 대표 이미지가 복수 개 존재하는 경우, 제1 특징과 다른 적어도 하나의 제2 특징을 비교하고, 추출된 제2 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단할 수 있다. 이때, 프로세서(840)는 인공 신경망(artificial neural network)을 이용할 수 있다. 일 실시예에서, 추출된 특징은 동공, 아이라인, 홍채, 안구의 크기, 각막의 크기, 눈꺼풀 틈새의 위치 중 적어도 하나 이상을 포함할 수 있다.In an embodiment, the processor 840 compares the at least one first feature extracted from the new eyeball image with the at least one first feature extracted from the at least one or more representative images, and the degree of similarity between the extracted first features is a threshold value. An image larger than the value may be controlled to be determined as an image corresponding to a new eyeball image. In addition, the processor 840 compares the first feature with at least one other second feature when there are a plurality of representative images having a similarity higher than a threshold value, and selects an image in which the similarity of the extracted second features is greater than a threshold value. It may be determined as an image corresponding to the new eyeball image. In this case, the processor 840 may use an artificial neural network. In an embodiment, the extracted feature may include at least one of a pupil, an eyeliner, an iris, a size of an eyeball, a size of a cornea, and a position of an eyelid crevice.

일 실시예에서, 프로세서(840)는 디스플레이부(820)를 통해 검색된 이미지와 새로운 안구 이미지를 겹쳐서 표시하도록 제어할 수 있다. 프로세서(840)는 검색된 이미지 및 상기 새로운 안구 이미지 중 적어도 하나의 이미지를 반투명하게 표시할 수 있다.In an embodiment, the processor 840 may control the image searched through the display 820 and the new eyeball image to be displayed in an overlapping manner. The processor 840 may semi-transparently display at least one of the searched image and the new eyeball image.

일 실시예에 따르면, 프로세서(840)는 안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 중 적어도 하나 이상을 표시하도록 제어할 수 있다.According to an embodiment, the processor 840 may control to display at least one of a movement angle of the eyeball, a change in the position of the corneal limbus, and a change in the central position of the eye.

한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체를 포함하는 컴퓨터 프로그램 제품의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.Meanwhile, the above-described embodiment can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described embodiment may be recorded in a computer-readable medium through various means. In addition, the above-described embodiment may be implemented in the form of a computer program product including a recording medium including instructions executable by a computer, such as a program module executed by a computer. For example, methods implemented as a software module or algorithm may be stored in a computer-readable recording medium as computer-readable codes or program instructions.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고, 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.Computer-readable media may be any recording media that can be accessed by a computer, and may include volatile and nonvolatile media, removable and non-removable media. The computer readable medium may include a magnetic storage medium, for example, a ROM, a floppy disk, a hard disk, and the like, and an optically readable medium, for example, a storage medium such as a CD-ROM or DVD, but is not limited thereto. . Additionally, computer-readable media may include computer storage media and communication media.

또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.In addition, a plurality of computer-readable recording media may be distributed in network-connected computer systems, and data stored in the distributed recording media, for example, program instructions and codes, may be executed by at least one computer. have.

이상과 첨부된 도면을 참조하여 본 개시의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present disclosure have been described with reference to the above and the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can practice the present invention in other specific forms without changing its technical spirit or essential features. You can understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

810: 디스플레이부
820: 동영상 획득부
830: 메모리
840: 프로세서
810: display unit
820: video acquisition unit
830: memory
840: processor

Claims (18)

안구 운동과 관련된 동영상을 획득하는 단계;
상기 동영상으로부터 프레임 단위로 안구 이미지를 추출하는 단계;
상기 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택하는 단계;
새로운 안구 이미지를 획득하는 경우, 상기 적어도 하나 이상의 대표 이미지들 중 상기 새로운 안구 이미지에 대응되는 이미지를 검색하는 단계; 및
상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계를 포함하는, 안구 운동 표시 방법.
acquiring a video related to eye movement;
extracting an eyeball image in units of frames from the video;
selecting at least one representative image from the eyeball images extracted for each frame;
when acquiring a new eyeball image, searching for an image corresponding to the new eyeball image from among the at least one or more representative images; and
Comprising the step of comparing and displaying the searched image and the new eyeball image, the eye movement display method.
제1항에 있어서,
상기 안구 운동과 관련된 동영상을 획득하는 단계는,
안구 운동을 촬영하여 동영상을 획득하거나, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 획득하거나, 또는 저장 장치에 저장된 동영상을 획득하는 단계를 포함하는, 방법.
According to claim 1,
The step of acquiring a video related to the eye movement is,
A method comprising the step of acquiring a video by photographing an eye movement, acquiring a video captured from a video recording device recording an eye movement, or acquiring a video stored in a storage device.
제1항에 있어서,
상기 적어도 하나 이상의 대표 이미지를 선택하는 단계는,
상기 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬하는 단계를 포함하는, 방법.
According to claim 1,
The step of selecting the at least one or more representative images comprises:
and aligning the direction of each image based on a head movement with respect to the eye images extracted in units of frames.
제1항에 있어서,
상기 적어도 하나 이상의 대표 이미지를 선택하는 단계는,
적어도 하나 이상의 설정된 안구 운동 구간, 적어도 하나 이상의 설정된 안구 위치, 또는 적어도 하나 이상의 시선의 기본 위치(cardinal positions of gaze)에서 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계를 포함하는, 방법.
According to claim 1,
The step of selecting the at least one or more representative images comprises:
Selecting the at least one representative image from at least one or more set eye movement sections, at least one set eye position, or at least one or more cardinal positions of gaze.
제4항에 있어서,
상기 대표 이미지를 생성하는 단계는,
상기 적어도 하나 이상의 설정된 안구 운동 구간, 상기 적어도 하나 이상의 설정된 안구 위치, 또는 상기 적어도 하나 이상의 시선의 기본 위치에서 촬영된 이미지들 중 다른 이미지들과의 유사도를 기초로 상기 적어도 하나 이상의 대표 이미지를 선택하는 단계를 포함하는, 방법.
5. The method of claim 4,
The step of generating the representative image comprises:
Selecting the at least one representative image based on the similarity with other images among the at least one or more set eye movement sections, the at least one or more set eye positions, or images captured at the at least one or more basic positions of the gaze A method comprising steps.
제1항에 있어서,
상기 새로운 안구 이미지에 대응되는 이미지를 검색하는 단계는,
상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하는 단계; 및
상기 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계를 포함하는, 방법.
According to claim 1,
The step of searching for an image corresponding to the new eyeball image,
comparing the at least one first feature extracted from the new eyeball image with the at least one first feature extracted from the at least one or more representative images; and
and determining an image in which the similarity of the extracted first features is greater than a threshold value as an image corresponding to the new eyeball image.
제6항에 있어서,
상기 적어도 하나 이상의 대표 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계는,
상기 유사도가 임계 값보다 대표 이미지가 복수 개 존재하는 경우, 제1 특징과 다른 적어도 하나의 제2 특징을 비교하는 단계; 및
상기 추출된 제2 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하는 단계를 포함하는, 방법.
7. The method of claim 6,
The step of determining the at least one representative image as an image corresponding to the new eyeball image comprises:
comparing a first feature with at least one second feature different from the first feature when there are a plurality of representative images having the similarity higher than a threshold value; and
and determining an image in which the similarity of the extracted second features is greater than a threshold value as an image corresponding to the new eyeball image.
제6항에 있어서,
상기 추출된 특징은,
동공, 아이라인, 홍채, 안구의 크기, 각막의 크기, 눈꺼풀 틈새의 위치 중 적어도 하나 이상을 포함하는, 방법.
7. The method of claim 6,
The extracted features are
A method comprising at least one of a pupil, an eyeliner, an iris, a size of an eyeball, a size of a cornea, and a position of an eyelid crevice.
제6항에 있어서,
상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하는 단계는,
인공 신경망(artificial neural network)을 이용하여 수행되는, 방법.
7. The method of claim 6,
Comparing the at least one first feature extracted from the new eyeball image with the at least one first feature extracted from the at least one or more representative images,
A method performed using an artificial neural network.
제1항에 있어서,
상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계는,
상기 검색된 이미지와 상기 새로운 안구 이미지를 겹쳐서 표시하는 단계를 포함하는, 방법.
According to claim 1,
Comparing and displaying the searched image with a new eye image includes:
and overlapping the retrieved image with the new eye image.
제10항에 있어서,
상기 검색된 이미지 및 상기 새로운 안구 이미지 중 적어도 하나의 이미지를 반투명하게 표시하는, 방법.
11. The method of claim 10,
displaying at least one of the retrieved image and the new eye image as translucent.
제1항에 있어서,
상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하는 단계는,
안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 중 적어도 하나 이상을 표시하는, 방법.
According to claim 1,
Comparing and displaying the searched image with a new eye image includes:
A method of displaying at least one of a movement angle of the eyeball, a change in the position of the corneal limbus, and a change in the central position of the eyeball.
디스플레이부;
동영상 획득부;
안구 운동 표시를 위한 프로그램을 저장하는 적어도 하나 이상의 메모리; 및
상기 프로그램을 실행함으로써, 상기 동영상 획득부를 통해 안구 운동과 관련된 동영상을 획득하고, 상기 동영상으로부터 프레임 단위로 안구 이미지를 추출하며, 상기 프레임 단위로 추출된 안구 이미지들로부터 적어도 하나 이상의 대표 이미지를 선택하고, 새로운 안구 이미지를 획득하는 경우, 상기 적어도 하나 이상의 대표 이미지들 중 상기 새로운 안구 이미지에 대응되는 이미지를 검색하며, 상기 디스플레이부를 통해 상기 검색된 이미지와 새로운 안구 이미지를 비교하여 표시하도록 제어하는 적어도 하나 이상의 프로세서를 포함하는 안구 운동 표시 장치.
display unit;
video acquisition unit;
at least one memory for storing a program for displaying eye movements; and
By executing the program, a video related to eye movement is obtained through the video acquisition unit, an eye image is extracted from the video frame by frame, and at least one representative image is selected from the eyeball images extracted for each frame, and , when acquiring a new eyeball image, searches for an image corresponding to the new eyeball image among the at least one or more representative images, and compares and displays the searched image with the new eyeball image through the display unit. At least one or more An eye movement display device comprising a processor.
제13항에 있어서,
상기 동영상 획득부는,
안구 운동을 촬영하여 동영상을 획득하기 위한 동영상 촬영부, 안구 운동을 촬영한 동영상 촬영 장치로부터 촬영된 동영상을 수신하기 위한 송수신부 및 동영상을 저장하기 위한 저장부 중 적어도 하나 이상을 포함하는 장치.
14. The method of claim 13,
The video acquisition unit,
A device comprising at least one of a video recording unit for capturing an eye movement to obtain a video, a transceiver for receiving a video captured from a video recording device for capturing an eye movement, and a storage unit for storing the video.
제13항에 있어서,
상기 적어도 하나 이상의 프로세서는,
상기 프레임 단위로 추출된 안구 이미지들에 대해서 헤드 움직임을 기초로 각 이미지의 방향을 정렬하도록 제어하는, 장치.
14. The method of claim 13,
The at least one or more processors,
An apparatus for controlling to align the direction of each image based on a head movement with respect to the eye images extracted in units of frames.
제13항에 있어서,
상기 적어도 하나 이상의 프로세서는,
상기 새로운 안구 이미지에서 추출된 적어도 하나의 제1 특징과 상기 적어도 하나 이상의 대표 이미지에서 추출된 적어도 하나의 제1 특징을 비교하고, 상기 추출된 제1 특징들의 유사도가 임계 값보다 큰 이미지를 상기 새로운 안구 이미지에 대응되는 이미지로 판단하도록 제어하는, 장치.
14. The method of claim 13,
The at least one or more processors,
At least one first feature extracted from the new eyeball image is compared with at least one first feature extracted from the at least one or more representative images, and an image in which the degree of similarity of the extracted first features is greater than a threshold is selected as the new Controlling the determination to be an image corresponding to the eyeball image, the device.
제13항에 있어서,
상기 적어도 하나 이상의 프로세서는,
상기 검색된 이미지와 상기 새로운 안구 이미지를 겹쳐서 표시하도록 제어하는, 장치.
14. The method of claim 13,
The at least one or more processors,
Controlling the searched image and the new eyeball image to overlap and display.
제13항에 있어서,
상기 적어도 하나 이상의 프로세서는,
안구의 이동 각도, 각막 윤부의 위치 변화, 안구의 중심 위치 변화 중 적어도 하나 이상을 표시하도록 제어하는, 장치.
14. The method of claim 13,
The at least one or more processors,
An apparatus for controlling to display at least one of a movement angle of the eyeball, a change in the position of the corneal limbus, and a change in the central position of the eyeball.
KR1020200155218A 2020-11-19 2020-11-19 Method and apparatus for displaying eye movement KR20220068440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200155218A KR20220068440A (en) 2020-11-19 2020-11-19 Method and apparatus for displaying eye movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200155218A KR20220068440A (en) 2020-11-19 2020-11-19 Method and apparatus for displaying eye movement

Publications (1)

Publication Number Publication Date
KR20220068440A true KR20220068440A (en) 2022-05-26

Family

ID=81808237

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200155218A KR20220068440A (en) 2020-11-19 2020-11-19 Method and apparatus for displaying eye movement

Country Status (1)

Country Link
KR (1) KR20220068440A (en)

Similar Documents

Publication Publication Date Title
CN109086726B (en) Local image identification method and system based on AR intelligent glasses
US9791927B2 (en) Systems and methods of eye tracking calibration
Arabadzhiyska et al. Saccade landing position prediction for gaze-contingent rendering
US11051691B2 (en) Ocular analysis
US10165176B2 (en) Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
US20190235624A1 (en) Systems and methods for predictive visual rendering
US11829523B2 (en) Systems and methods for anatomy-constrained gaze estimation
Sigut et al. Iris center corneal reflection method for gaze tracking using visible light
US11715231B2 (en) Head pose estimation from local eye region
Hosp et al. RemoteEye: An open-source high-speed remote eye tracker: Implementation insights of a pupil-and glint-detection algorithm for high-speed remote eye tracking
Santini et al. EyeRecToo: Open-source Software for Real-time Pervasive Head-mounted Eye Tracking.
CN109044263A (en) Detection method, device, equipment and the storage medium of eye sight line
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
KR102182185B1 (en) System and method for evaluating ocular motility disturbance and computer readable storage medium
JP2024518412A (en) Method and system for detecting eye gaze-pattern abnormalities and associated neurological disorders
US20220206571A1 (en) Personalized calibration-independent regional fixation prediction for simultaneous users of a digital display
WO2020106792A1 (en) System and method for retina template matching in teleophthalmology
US10036902B2 (en) Method of determining at least one behavioural parameter
KR20220068440A (en) Method and apparatus for displaying eye movement
KR102502420B1 (en) Method and apparatus for measuring eye movement
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
Emoto et al. Lightweight convolutional neural network for image processing method for gaze estimation and eye movement event detection
KR20220068442A (en) Method and apparatus for measuring eye movement
KR102473744B1 (en) A method of diagnosing strabismus through the analysis of eyeball image from cover and uncovered test
US20220244781A1 (en) Eye tracking and gaze estimation using off-axis camera