WO2023033461A1 - 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 - Google Patents

가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 Download PDF

Info

Publication number
WO2023033461A1
WO2023033461A1 PCT/KR2022/012772 KR2022012772W WO2023033461A1 WO 2023033461 A1 WO2023033461 A1 WO 2023033461A1 KR 2022012772 W KR2022012772 W KR 2022012772W WO 2023033461 A1 WO2023033461 A1 WO 2023033461A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual
image
stimulus
virtual reality
eye movement
Prior art date
Application number
PCT/KR2022/012772
Other languages
English (en)
French (fr)
Inventor
강동화
임현택
이병주
홍락균
김용환
Original Assignee
재단법인 아산사회복지재단
주식회사 뉴냅스
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 주식회사 뉴냅스, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to EP22864963.8A priority Critical patent/EP4378442A1/en
Publication of WO2023033461A1 publication Critical patent/WO2023033461A1/ko
Priority to US18/590,552 priority patent/US20240197554A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • A61H5/005Exercisers for training the stereoscopic view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0107Constructive details modular
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to an apparatus and method for providing eye movement and visual perception training based on virtual reality, and more particularly, to enable training to improve visual perception including eye movement and stereoscopic perception based on virtual reality. It relates to an apparatus and method for providing virtual reality-based eye movement and visual perception training.
  • strabismus refers to a condition in which the two eyes are not straight, and if not treated early, vision may not be restored forever, so it must be detected and corrected early in childhood.
  • the present invention has been proposed to solve the above problems, and by providing a dichoptic presentation in consideration of the user's eyeball deviation, it is possible to prevent additional damage to stereopsis due to suppression. It is to provide a virtual reality-based eye movement and visual perception training providing apparatus and method.
  • the present invention changes the location of the visual stimulus based on the user's deviation level and training performance ability to adjust the level of difficulty, so that the user can receive training suitable for his or her condition, as well as eye movement (
  • An object of the present invention is to provide an apparatus and method for providing virtual reality-based eye movement and visual perception training that enables simultaneous training of motion) training and visual perception training including stereoscopic perception.
  • An apparatus for providing virtual reality-based eye movement and visual perception training for solving the above problems includes a communication module; input module; a display module including a plurality of first displays and second displays respectively corresponding to the eyes of the test subject; and a memory for storing at least one process required to provide virtual reality-based eye movement and visual perception training. and a control module for controlling the virtual reality-based eyeball movement and visual perception training to be performed based on the at least one process, wherein the control module is configured to display both eyes in the first display and the second display, respectively.
  • the visual information may include information on whether or not there is strabismus for the left and right eyes of the test subject, and strabismus angle and stereoscopic effect information, which are information on the degree of strabismus.
  • visual stimulation for inducing binocular disparity in each of a plurality of first displays and second displays provided in the device outputting a first image and a second image including a dichoptic presentation—the first display and the second display are respectively disposed at positions corresponding to the eyes of the test subject; receiving a response of the test subject to the visual stimulus; obtaining visual information about the test subject based on the response; and controlling training provided to the test subject by changing only visual stimuli of an image output corresponding to an eyeball having strabismus among the first image and the second image based on the obtained visual information.
  • the visual information may include strabismus information for the left and right eyes of the test subject, and strabismus angle and stereoscopic effect information, which are information on the degree of strabismus.
  • the position of the visual stimulus is changed based on the user's deviation level and training performance ability, and the level of difficulty is adjusted and provided, so that the user can receive training suitable for his or her condition, as well as the eyesight. It enables to perform motor (movement) training and visual perception training including stereoscopic perception at the same time.
  • 1 is a view for explaining the concept of strabismus and training for improving the visual ability and stereoscopic sense of the eyeball.
  • FIG. 2 is a block diagram showing the configuration of an apparatus for providing eye movement and visual perception training based on virtual reality according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of an image output through a display module of an apparatus for providing eye movement and visual perception training based on virtual reality according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of a third image in which visual stimuli of a first image and a second image are combined, which are induced by the apparatus for providing virtual reality-based eye movement and visual perception training according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method for providing virtual reality-based eye movement and visual perception training according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a process of measuring a three-dimensional effect among visual information of a test subject in order to provide virtual reality-based eye movement and visual perception training according to an embodiment of the present invention.
  • spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as “below” or “beneath” another component will be placed “above” the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.
  • unit or “module” used in the specification means a hardware component such as software, FPGA or ASIC, and "unit” or “module” performs certain roles. However, “unit” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and “units” or “modules” may be combined into fewer components and “units” or “modules” or may be combined into additional components and “units” or “modules”. can be further separated.
  • test subject referred to in the following description represents a user who performs eye movement and visual perception training using the VR-based eye movement and visual perception training providing apparatus according to an embodiment of the present invention.
  • 1 is a view for explaining the concept of strabismus and training for improving the visual ability and stereoscopic sense of the eyeball.
  • Strabismus is a visual disorder in which the two eyes are not aligned and looking at different points. When one eye looks straight ahead, the other eye turns inward or outward, or up or down. The eyes can always be turned, but intermittently, the eyes that have turned are looking at the front at some point, and the eyes that have been looking at the front are intermittently turning.
  • the present invention allows such eye movement and visual perception training to be performed based on virtual reality.
  • FIG. 2 is a block diagram showing the configuration of an apparatus for providing eye movement and visual perception training based on virtual reality according to an embodiment of the present invention.
  • an apparatus for providing virtual reality-based eye movement and visual perception training (hereinafter referred to as 'training apparatus') 100 according to an embodiment of the present invention includes a communication module 110 and an input module 130 , a display module 150, a memory 170 and a control module 190.
  • the communication module 110 performs wired or wireless communication with at least one external device (such as a server).
  • a wireless signal is transmitted and received in a communication network according to wireless Internet technologies.
  • Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc. ) transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above.
  • BluetoothTM RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi -Local communication may be supported using at least one of wireless-fidelity (Fi), Wi-Fi Direct, and wireless universal serial bus (USB) technologies.
  • the local area wireless communication network may be a local area wireless personal area network (Wireless Personal Area Networks).
  • the input module 130 may acquire a signal corresponding to the input of the test subject.
  • the input module 130 may obtain an input of a test subject for measurement or training, a response to a visual stimulus provided through the display module 150, and the like.
  • the input module 130 may include a keyboard, a keypad, a button, a jog shuttle, a wheel, and the like.
  • the input of the test subject in the input module 130 may be, for example, button press, touch, and drag.
  • the input module 130 may be configured as a separate module connected to the training providing device 100 wirelessly or wired.
  • the training providing apparatus 100 provides an image for measurement or training to a test subject through a display module 150 mounted on and attached to the head of the test subject, and a separate module given to the test subject's hand.
  • a response may be received from the test subject through the input module 130 composed of .
  • the display module 150 outputs a video or image.
  • the display module 150 may include an LCD, OLED, AMOLED display, and the like.
  • the display module 150 may include a plurality of first displays and second displays respectively corresponding to the eyes (left and right eyes) of the test subject.
  • the first display may output a first image
  • the second display may output a second image.
  • the first image and the second image are for expressing a dichoptic presentation for inducing binocular disparity, and any one of the same image, an image at least partially overlapping each other, and an image not overlapping each other can be one
  • the visual stimulus is a sinusoidal lattice visual stimulus having a frame and a certain shape, and includes a reference stimulus and a target stimulus.
  • the display module 150 may be provided by physically separating the first display and the second display, or may be configured by dividing the left area and the right area of one display, respectively.
  • the memory 170 stores various types of data (information) as well as at least one data (information) and at least one process necessary for providing eye movement and visual perception training based on virtual reality.
  • a program for performing training at least one test subject information (personal information, visual information, response information, training result, etc.), various reference values that are standards for measuring angle of view and/or 3D effect, measurement images, training An image or the like can be stored as data.
  • the memory 170 stores various commands, algorithms, etc. for executing a method for providing eye movement and visual perception training based on virtual reality.
  • the memory 170 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD memory).
  • RAM Random Access Memory, RAM
  • SRAM Static Random Access Memory
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • PROM Programmable Read-Only Memory
  • It may include a storage medium of at least one type of a magnetic disk and an optical disk.
  • the memory 170 may store information temporarily, permanently or semi-permanently, and may be provided in a built-in or removable type.
  • the control module 190 is for controlling components within the training providing device 100 or for processing and calculating various types of information, and based on at least one process stored in the memory 170, eye movement and visual perception training based on virtual reality. control this to happen.
  • the control module 190 outputs a first image and a second image representing a dichoptic presentation for inducing binocular disparity to the first display and the second display, respectively, and the input module 130 ), based on the response of the test subject to the visual stimulus received through the subject, visual information about the subject is acquired. Thereafter, the control module 190 controls training to be performed by changing only the visual stimuli of the output image corresponding to the eyeball having strabismus among the first image and the second image based on the acquired visual information. At this time, the first image and the second image represent the same visual stimulus, but the image output corresponding to the eyeball with strabismus has a visual deviation according to the acquired visual information.
  • control module 190 outputs a first image and a second image expressing visual stimuli to each of the left and right eyes of the test subject, but the image output corresponding to the eye without strabismus among the two images remains the same.
  • image output corresponding to the eyeball with strabismus is changed to control the eyeball movement training to be performed. That is, training is performed to gather the eyes with strabismus among the two eyes of the test subject in a specific direction.
  • the visual information may include at least one of strabismus information on the left and right eyes of the test subject and information about the degree of strabismus, such as angle of strabismus and stereoscopic effect information.
  • the control module 190 may measure the viewing angle of the test subject by inducing the visual stimuli included in the first image and the second image to be combined into one image and measuring the moving distance of the subject's gaze. In addition, the control module 190 receives a response to a stimulus for which a three-dimensional effect is felt among the first display and the second display for the visual stimulus, and determines whether the direction of the three-dimensional effect is concave or convex for the stimulus for which the three-dimensional effect is felt. The three-dimensional effect of the test object can be measured by receiving the response to the test object.
  • the control module 190 may be implemented in software, hardware, or a combination thereof.
  • the control module 190 may be implemented as a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a semiconductor chip, or other various types of electronic circuits.
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • semiconductor chip or other various types of electronic circuits.
  • the control module 190 may be implemented in a logic program executed according to the above-described hardware or various computer languages.
  • the operation of the training providing apparatus 100 is performed under the control of the control module 190 .
  • the training providing device 100 may include various devices capable of performing arithmetic processing.
  • the training providing device 100 may include a desktop PC, a mobile phone, a smart phone, a laptop computer, personal digital assistants (PDA), a portable multimedia player (PMP), and a slate PC , a tablet PC, an ultrabook, a wearable device, and the like.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • slate PC slate PC
  • tablet PC an ultrabook
  • a wearable device and the like.
  • the training providing apparatus 100 is a head mounted device such as a head mounted display (HMD) for displaying an image mounted on the head of a test subject, smart glasses, smart goggles, or a mobile phone that can be used by being mounted on a head mounted device. It may include a display device and the like.
  • HMD head mounted display
  • the training providing apparatus 100 shown in FIG. 2 only corresponds to one embodiment and is not limited thereto.
  • the display module 150 may serve as the input module 130 .
  • a separate input module 130 may not be provided, or an input module 130 performing limited functions such as volume control, power button, and home button may be provided.
  • the display module 150 may be provided in the form of an image output port that transmits image information to an external display device.
  • FIG. 3 is a view showing an example of an image output through a display module of an apparatus for providing virtual reality-based eye movement and visual perception training according to an embodiment of the present invention, and controls a test subject having exotropia in the right eye to perform training. It shows the case of In addition, FIG. 3 shows a display module visible when the test subject wears the training providing device 100, and the first display 151 disposed in an area corresponding to the test subject's left eyeball and the test subject's right eyeball. and a second display 152 disposed in an area corresponding to .
  • the visual stimuli include reference stimuli and target stimuli.
  • the visual stimulus included in the image output corresponding to the strabismic eyeball is based on the angle of strabismus in the corresponding image. It is arranged at the determined position, but arranged and provided so that there is a difference between the central axis of the reference stimulus and the central axis of the target stimulus in the image.
  • the visual stimuli included in the image output corresponding to the eye without strabismus in the first image and the second image are arranged based on the center of the corresponding image, and the central axis of the reference stimulus and the target stimulus in the image The central axes are arranged on the same line.
  • a first image 10 is output through a first display 151 corresponding to an eye without strabismus
  • a second image 10 is output through a second display 152 corresponding to an eye with strabismus. 2 Output the video (20).
  • both the first image 10 and the second image 20 represent visual stimuli, and include a heart-shaped object as a reference stimulus and a star-shaped object as a target stimulus.
  • the first image 10 corresponding to the left eye without strabismus arranges the visual stimulus in the center of the image, but the second image 20 corresponding to the right eye with strabismus shows the strabismic angle of the test subject.
  • Visual stimuli are placed at the reflected positions based on
  • the central axis C of the first reference stimulus 11 represented in the first image 10 (consistent with the central axis of the first image 10) and the central axis D of the first target stimulus 12 ) are arranged on the same line, while the central axis (C) of the second reference stimulus 21 and the central axis (D) of the second target stimulus 22 expressed in the second image 20 have a difference.
  • the training providing apparatus 100 provides eye movement and visual perception training for the test subject
  • the central axis D of the second target stimulus 22 is set to the central axis C of the second reference stimulus 21.
  • the preset distance and preset time are set based on visual information on the test subject, and may be changed and set according to the training ability or need of the test subject.
  • FIG. 4 is a diagram illustrating an example of a third image in which visual stimuli of a first image and a second image are combined, which are induced by the apparatus for providing eye movement and visual perception training based on virtual reality according to an embodiment of the present invention.
  • the test subject simultaneously provides the first image 10 and the second image 20 through the first display 151 and the second display 152, respectively, so that the two visual stimuli become one image.
  • the test subject can check the visual stimulus such as the third image 30.
  • the test subject cannot feel the three-dimensional effect through the third target stimulus 32, but can feel the three-dimensional effect through the third reference stimulus 31.
  • FIG. 5 is a flowchart illustrating a method for providing virtual reality-based eye movement and visual perception training according to an embodiment of the present invention.
  • a first image and a second image including a dichoptic presentation for inducing binocular disparity are output to each of a plurality of first and second displays provided in the training providing apparatus 100 to avoid It is provided to the test subject (S210), and a response to the visual stimulus is received from the test subject (S230).
  • the central axis of the target stimulus among the reference and target stimuli included in the image output in response to the eyeball with strabismus is moved toward the reference stimulus so that the test subject performs training on the corresponding eyeball. control to do
  • FIG. 6 is a flowchart illustrating a process of measuring a three-dimensional effect among visual information of a test subject in order to provide virtual reality-based eye movement and visual perception training according to an embodiment of the present invention.
  • the training providing apparatus 100 may obtain information on a perspective angle and three-dimensional effect as visual information of the test subject. Among them, three-dimensional effect information can be obtained by the response of the test subject.
  • the training providing apparatus 100 may measure the three-dimensional effect of the test subject.
  • a software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Rehabilitation Therapy (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Rehabilitation Tools (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것으로, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 하고, 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 한다.

Description

가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법
본 발명은 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것으로, 보다 상세하게는 가상현실을 기반으로 안구의 운동능력 및 입체감각을 포함한 시지각능력을 향상시키기 위한 훈련이 가능하도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것이다.
최근 미디어의 발달로 인해 근시, 난시, 사시 등의 발병률이 높다. 이들을 대상으로 한 질병 치료 연구는 많지만 정상 시력 발달에 영향을 미치는 인자에 대한 연구는 아직 부족한 상태이다.
그 중, 사시(strabismus)는 두 눈이 똑바로 정렬되어 있지 않은 상태를 말하는데, 일찍 치료하지 않으면 시력이 영원히 회복되지 못할 수 있기 때문에 소아기에 빨리 발견하여 교정해야 한다.
만일, 사시가 2~5세경에 발생한다면 그 환아의 두 눈은 각각 서로 다른 물체를 보게되며, 그로 인해 전혀 다른 두 개의 상이 뇌로 전달되어 완전히 다른 물체가 겹쳐 보이는 시각 혼란을 느끼게 된다. 또한, 하나의 상이 동시에 서로 다른 곳에 있는 것처럼 보이는 복시 현상을 느끼게 됨에 따라, 환아는 시각 혼란과 복시를 해소하기 위해 한 쪽에서 들어오는 상을 무시하게 되어, 결과적으로, 환아는 물체를 입체적으로 느끼게 하는 양안시 기능을 포기하게 되고, 나아가 사시가 된 눈의 사용도 포기하여 약시까지 초래한다.
 이러한 증상을 방치하면, 성인이 되어서 안경, 렌즈를 사용하거나 수술을 하더라도 시력을 바로잡을 수 없고, 한 눈으로만 보는 상태가 되어 입체적인 거리감을 느끼지 못하는 상태가 된다. 따라서 소아에게 사시가 있는 경우 시력과 삶의 질을 위해 빨리 진단하고 적절히 치료해야한다.
그러나, 사시각이 작거나 융합력이 좋은 경우에는 안경 치료나 시능 교정 훈련 등을 할 수는 있으나, 그 치료 시간이 오래 걸리고 비용적인 부담이 큰 문제점이 있다.
따라서, 사용자(피시험체)의 안구 운동능력 및 입체감각을 포함한 시지각능력 향상을 위해 가상현실을 기반으로 안구운동 및 시지각 훈련을 제공 및 제어하도록 하는 기술이 개발될 필요가 있다.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
또한, 본 발명은 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치는, 통신모듈; 입력모듈; 피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및 가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및 상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며, 상기 제어모듈은, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고, 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
한편, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은, 상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-; 상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계; 상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 의하면, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 한다.
또한, 본 발명에 의하면, 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 한다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 이하의 설명에서 언급되는 피시험체는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치를 사용하여 안구운동 및 시지각 훈련을 수행하는 사용자를 나타낸다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
사시는 두 눈이 정렬되지 않고 서로 다른 지점을 바라보는 시력 장애이다. 한 쪽 눈이 정면을 바라볼 때, 다른 쪽 눈은 안쪽 또는 바깥쪽으로 돌아가거나 위 또는 아래로 돌아가게 된다. 항상 눈이 돌아가 있을 수 있지만 간헐적으로 돌아간 눈이 어느 순간 정면을 주시하기도 하고, 정면을 주시하던 눈이 간헐적으로 돌아가기도 한다.
도 1은 피시험체의 안구 중 우안에 외사시가 존재하는 경우를 일 예로서 도시한 것으로, 피시험체가 정면을 바라볼 때, 좌안은 정면을 주시하게 되지만, 우안은 바깥쪽으로 돌아간 상태이다.
이러한 피시험체의 안구의 시각능력 및 입체감각 능력을 향상시키기 위해서는 우안을 안쪽, 즉, 중앙으로 모아주는 훈련을 반복적으로 수행해야만 한다.
본 발명은 이러한 안구운동 및 시지각 훈련을 가상현실을 기반으로 수행하도록 한다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 2를 참조하면, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치(이하, '훈련 제공 장치'라 칭함)(100)는 통신모듈(110), 입력모듈(130), 디스플레이모듈(150), 메모리(170) 및 제어모듈(190)을 포함한다.
통신모듈(110)은 적어도 하나의 외부장치(서버 등)와 유선 또는 무선 통신을 수행한다. 특히, 무선 통신을 수행함에 있어서, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 한다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 훈련 제공 장치(100)는 앞에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이때, 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
입력모듈(130)은 피시험체의 입력에 대응하는 신호를 획득할 수 있다. 예를 들어, 입력모듈(130)은 측정 또는 훈련 수행을 위한 피시험체의 입력, 디스플레이모듈(150)을 통해 제공되는 시각자극에 대한 응답 등을 획득할 수 있다.
이때, 입력모듈(130)은 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등을 포함할 수 있다. 또한, 입력 모듈(130)에서의 피시험체의 입력은, 예를 들어, 버튼의 누름, 터치 및 드래그 등일 수 있다.
입력 모듈(130)은 훈련 제공 장치(100)와 무선 또는 유선으로 연결되는 별도의 모듈로 구성될 수도 있다. 예를 들어, 훈련 제공 장치(100)는 피시험체의 머리에 장착되고 부착된 디스플레이모듈(150)을 통해 측정 또는 훈련 수행을 위한 영상을 피시험체에게 제공하고, 피시험체의 손에 주어진 별도의 모듈로 구성된 입력모듈(130)을 통해 피시험체로부터 응답을 입력 받을 수 있다.
디스플레이모듈(150)은 영상이나 이미지를 출력한다. 예를 들어, 디스플레이모듈(150)은 LCD, OLED, 아몰레드 디스플레이 등을 포함할 수 있다.
디스플레이모듈(150)은 피시험체의 안구(좌안 및 우안)에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함할 수 있다. 여기서, 제1 디스플레이는 제1 영상을 출력하고, 제2 디스플레이는 제2 영상을 출력할 수 있다. 이때, 제1 영상 및 제2 영상은 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하기 위한 것으로, 동일한 영상, 적어도 일부가 서로 중첩되는 영상 및 서로 중첩되지 않는 영상 중 어느 하나일 수 있다. 여기서, 시각 자극은 프레임 및 일정 형상을 갖는 정현파 격자 시각 자극으로서, 참조 자극 및 표적 자극을 포함한다.
여기서, 디스플레이모듈(150)은 제1 디스플레이 및 제2 디스플레이를 물리적으로 분리하여 구비하거나, 각각 하나의 디스플레이의 좌측 영역 및 우측 영역으로 구분하여 설정할 수 있다.
메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공에 필요한 적어도 하나의 데이터(정보) 및 적어도 하나의 프로세스는 물론, 각종 데이터(정보)를 저장한다. 예를 들어, 훈련을 수행하기 위한 프로그램, 적어도 하나의 피시험체 정보(인적 정보, 시각정보, 응답정보, 훈련 결과 등), 사시각 및/또는 입체감 측정의 기준이 되는 각종 기준값, 측정 영상, 훈련 영상 등을 데이터로서 저장할 수 있다. 그 외에도, 메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공 방법을 실행하기 위한 각종 명령어, 알고리즘 등을 저장한다.
또한, 메모리(170)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 아울러, 메모리(170)는 일시적, 영구적 또는 반영구적으로 정보를 저장할 수 있으며, 내장형 또는 탈착형으로 제공될 수 있다.
제어모듈(190)은 훈련 제공 장치(100) 내 구성들을 제어하거나 각종 정보를 처리하고 연산하기 위한 것으로, 메모리(170)에 저장된 적어도 하나의 프로세스를 기반으로 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어한다.
제어모듈(190)은 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 입력모듈(130)을 통해 수신되는 시각 자극에 대한 피시험체의 응답을 기반으로 그 피시험체에 대한 시각정보를 획득한다. 이후, 제어모듈(190)은 그 획득된 시각정보를 기반으로 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어한다. 이때, 제1 영상 및 제2 영상은 동일한 시각 자극을 표현하되, 사시가 존재하는 안구에 대응하여 출력되는 영상은 그 획득된 시각정보에 따라 시각 편차를 갖도록 한다.
다시 말해, 제어모듈(190)은 피시험체의 좌안 및 우안 각각에 시각 자극을 표현하는 제1 영상 및 제2 영상을 출력하되, 두 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상은 그대로 두고, 사시가 존재하는 안구에 대응하여 출력되는 영상에만 변화를 주어 안구 움직임 훈련이 수행되도록 제어한다. 즉, 피시험체의 두 안구 중 사시가 존재하는 안구를 특정 방향으로 모아주는 훈련을 수행하는 것이다.
한편, 시각정보는 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보 중 적어도 하나를 포함할 수 있다.
제어모듈(190)은 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 유도하여 피시험체 시선의 이동거리를 측정함으로써 피시험체의 사시각을 측정할 수 있다. 또한, 제어모듈(190)은 그 시각 자극에 대해 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 그 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 피시험체의 입체감을 측정할 수 있다.
제어모듈(190)은 소프트웨어, 하드웨어 및 이들의 조합으로 구현될 수 있다. 예를 들어, 하드웨어적으로 제어모듈(190)은 FPGA((field programmable gate array)나 ASIC(Application Specific Integrated Circuit), 반도체 칩, 및 그 외의 다양한 형태의 전자 회로로 구현될 수 있다. 또 예를 들어, 소프트웨어적으로 제어모듈(190)은 상술한 하드웨어에 따라 수행되는 논리 프로그램이나 각종 컴퓨터 언어 등으로 구현될 수 있다.
이하의 설명에서 별도의 언급이 없는 경우, 훈련 제공 장치(100)의 동작은 제어모듈(190)의 제어에 의해 수행되는 것으로 이해될 수 있다.
본 발명의 실시예에 따른 훈련 제공 장치(100)는 연산 처리를 수행할 수 있는 다양한 장치들을 포함할 수 있다. 예를 들어, 훈련 제공 장치(100)는 데스크탑 PC, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다.
한편, 훈련 제공 장치(100)는 피시험체의 머리에 장착되어 영상을 표시하는 HMD(Head Mounted Display), 스마트 글라스, 스마트 고글 등의 헤드 마운티드 디바이스 또는 헤드 마운티드 디바이스에 거치하여 사용할 수 있는 휴대폰 등의 디스플레이 디바이스 등을 포함할 수 있다.
한편, 도 2에 도시된 훈련 제공 장치(100)는 하나의 실시예에 해당할 뿐, 이를 한정하지 않는다. 예를 들어, 디스플레이모듈(150)이 터치 스크린으로 구현되는 경우, 디스플레이모듈(150)이 입력모듈(130)의 역할을 수행할 수도 있다. 이 경우, 선택에 따라 별도의 입력모듈(130)이 제공되지 않거나, 볼륨 조절, 전원 버튼 및 홈 버튼 등 제한적인 기능을 수행하는 입력모듈(130)이 제공될 수 있다. 또한, 디스플레이모듈(150)은 외부 디스플레이 장치로 영상 정보를 전송하는 영상 출력 포트 형태로 제공될 수도 있다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면으로, 우안에 외사시를 갖는 피시험체가 훈련을 수행하도록 제어하는 경우를 도시한 것이다. 또한, 도 3은 피시험체가 훈련 제공 장치(100)를 착용했을 때 보이는 디스플레이모듈을 도시한 것으로서, 피시험체의 좌측 안구에 대응하는 영역에 배치된 제1 디스플레이(151) 및 피시험체의 우측 안구에 대응하는 영역에 배치된 제2 디스플레이(152)를 포함한다.
앞서 설명한 바와 같이, 시각 자극은 참조 자극 및 표적 자극이 포함되는데, 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상에서 사시각을 기반으로 하여 결정된 위치에 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축 간에는 차이를 갖도록 배치되어 제공된다. 한편, 제1 영상 및 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상의 중앙을 기준으로 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축은 동일선 상에서 배치되어 제공된다.
도 3을 참조하면, 사시가 존재하지 않는 안구에 대응하는 제1 디스플레이(151)를 통해 제1 영상(10)을 출력하고, 사시가 존재하는 안구에 대응하는 제2 디스플레이(152)를 통해 제2 영상(20)을 출력한다.
이때, 제1 영상(10) 및 제2 영상(20)은 모두 시각 자극이 표현되는데, 참조 자극으로서 하트 형상의 객체를 포함하고, 표적 자극으로서 별 형상의 객체를 포함한다. 다만, 사시가 존재하지 않는 좌안에 대응하는 제1 영상(10)은 해당 영상의 중앙에 시각 자극을 배치하지만, 사시가 존재하는 우안에 대응하는 제2 영상(20)은 그 피시험체의 사시각을 기반으로 반영된 위치에 시각 자극을 배치한다. 또한, 제1 영상(10)에 표현되는 제1 참조 자극(11)의 중심축(C)(제1 영상(10)의 중심축과 일치) 및 제1 표적 자극(12)의 중심축(D)은 동일선 상에 배치되는 반면에, 제2 영상(20)에 표현되는 제2 참조 자극(21)의 중심축(C) 및 제2 표적 자극(22)의 중심축(D)은 차이를 갖도록 배치된다.
한편, 훈련 제공 장치(100)가 그 피시험체의 안구운동 및 시지각 훈련을 제공할 시, 제2 표적 자극(22)의 중심축(D)을 제2 참조 자극(21)의 중심축(C)을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시켜 피시험체가 훈련을 수행하도록 할 수 있다. 여기서, 미리 설정된 거리 및 미리 설정된 시간은 그 피시험체에 대한 시각정보를 기반으로 설정되며, 그 피시험체의 훈련 능력 또는 필요에 따라 변경되어 설정될 수 있다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각 자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 3에서와 같이, 피시험체는 제1 영상(10) 및 제2 영상(20)을 각각 제1 디스플레이(151) 및 제2 디스플레이(152)를 통해 동시에 제공하여 두 시각 자극이 하나의 상으로 결합하도록 유도하는데, 이를 통해 피시험체는 제3 영상(30)과 같은 시각 자극을 확인할 수 있다. 결과적으로, 피시험체는 제3 표적 자극(32)을 통해서는 입체감이 느낄수 없지만, 제3 참조 자극(31)을 통해서는 입체감을 느낄 수 있다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
훈련 제공 장치(100)에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하여 피시험체에게 제공하고(S210), 그 시각 자극에 대한 응답을 피시험체로부터 수신한다(S230).
그 응답을 기반으로 피시험체에 대한 시각정보를 획득하고(S250), 그 획득된 시각정보를 기반으로 제1 영상 및 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 피시험체에게 제공되는 훈련을 제어한다(S270).
구체적으로, 훈련을 제어할 시, 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 참조 자극 및 표적 자극 중 표적 자극의 중심축을 참조 자극을 향해 이동시켜가며 피시험체가 해당 안구에 대한 훈련을 수행하도록 제어한다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
앞서 설명한 도 5의 각 단계들 중, 시각정보를 획득하는 단계를 통해 훈련 제공 장치(100)는 그 피시험체의 시각정보로서 사시각 및 입체감 정보를 획득할 수 있다. 그 중 입체감 정보는, 그 피시험체의 응답에 의해 획득할 수 있다.
구체적으로, 피시험체로부터 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고(S251), 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받는다(S253). 이로써, 훈련 제공 장치(100)는 그 피시험체의 입체감을 측정할 수 있다.
한편, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (15)

  1. 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 있어서,
    통신모듈;
    입력모듈;
    피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및
    가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및
    상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며,
    상기 제어모듈은,
    상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고,
    상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고,
    상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고,
    상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  2. 제1항에 있어서,
    상기 시각 자극은,
    프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  3. 제2항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  4. 제3항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  5. 제3항에 있어서,
    상기 제어모듈은,
    상기 훈련이 수행되도록 제어할 시, 상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키고,
    상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  6. 제1항에 있어서,
    상기 제어모듈은,
    상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  7. 제1항에 있어서,
    상기 제어모듈은,
    상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  8. 장치에 의해 수행되는, 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은,
    상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-;
    상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계;
    상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및
    상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며,
    상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  9. 제8항에 있어서,
    상기 시각 자극은,
    프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  10. 제9항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  11. 제10항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  12. 제10항에 있어서,
    상기 훈련을 제어하는 단계는,
    상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키고,
    상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  13. 제8항에 있어서,
    상기 시각정보를 획득하는 단계는,
    상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  14. 제8항에 있어서,
    상기 시각정보를 획득하는 단계는,
    상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  15. 컴퓨터와 결합되어, 제8항 내지 제14항 중 어느 한 항에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 수행하도록 컴퓨터를 기능시키기 위한 컴퓨터 프로그램이 기록된 비휘발성 컴퓨터 판독 가능한 기록매체.
PCT/KR2022/012772 2021-09-03 2022-08-25 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 WO2023033461A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22864963.8A EP4378442A1 (en) 2021-09-03 2022-08-25 Apparatus and method for providing virtual reality-based eye exercise and visual perception training
US18/590,552 US20240197554A1 (en) 2021-09-03 2024-02-28 Apparatus and method for providing virtual reality-based eye movement exercise and visual perception training

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210117301A KR102549616B1 (ko) 2021-09-03 2021-09-03 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법
KR10-2021-0117301 2021-09-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/590,552 Continuation US20240197554A1 (en) 2021-09-03 2024-02-28 Apparatus and method for providing virtual reality-based eye movement exercise and visual perception training

Publications (1)

Publication Number Publication Date
WO2023033461A1 true WO2023033461A1 (ko) 2023-03-09

Family

ID=85412894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/012772 WO2023033461A1 (ko) 2021-09-03 2022-08-25 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법

Country Status (4)

Country Link
US (1) US20240197554A1 (ko)
EP (1) EP4378442A1 (ko)
KR (1) KR102549616B1 (ko)
WO (1) WO2023033461A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116509694A (zh) * 2023-04-23 2023-08-01 广州视景医疗软件有限公司 一种眼球平滑聚散训练方法及装置
CN116725829A (zh) * 2023-06-15 2023-09-12 湖南奥视医疗科技有限公司 一种图像训练修复视觉功能缺损的系统
CN116942074A (zh) * 2023-09-19 2023-10-27 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026151A (en) * 1989-06-23 1991-06-25 Mentor O & O, Inc. Visual function tester with binocular vision testing
KR20180034278A (ko) * 2016-09-26 2018-04-04 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
KR20180083069A (ko) * 2017-01-12 2018-07-20 고려대학교 산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법
US20200329961A1 (en) * 2016-09-23 2020-10-22 Nova-Sight Ltd. Screening apparatus and method
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016233280B2 (en) * 2015-03-16 2021-03-25 Magic Leap, Inc. Augmented reality pulse oximetry
KR101937041B1 (ko) * 2016-10-04 2019-01-11 주식회사 첸트랄 사시를 개선하는 안구운동장치 및 방법
US10742944B1 (en) * 2017-09-27 2020-08-11 University Of Miami Vision defect determination for facilitating modifications for vision defects related to double vision or dynamic aberrations
KR102029423B1 (ko) * 2018-03-16 2019-10-07 김선호 시각장애 예방 및 치료장치
US11007109B1 (en) * 2018-04-09 2021-05-18 Albert Hofeldt Binocular amblyopic therapy
CN110812145B (zh) * 2019-11-20 2022-02-22 精准视光(北京)医疗技术有限公司 一种视功能调整方法及装置、虚拟现实头戴式显示设备
KR102120112B1 (ko) 2020-02-11 2020-06-09 가천대학교 산학협력단 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026151A (en) * 1989-06-23 1991-06-25 Mentor O & O, Inc. Visual function tester with binocular vision testing
US20200329961A1 (en) * 2016-09-23 2020-10-22 Nova-Sight Ltd. Screening apparatus and method
KR20180034278A (ko) * 2016-09-26 2018-04-04 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
KR20180083069A (ko) * 2017-01-12 2018-07-20 고려대학교 산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116509694A (zh) * 2023-04-23 2023-08-01 广州视景医疗软件有限公司 一种眼球平滑聚散训练方法及装置
CN116509694B (zh) * 2023-04-23 2024-05-24 广州视景医疗软件有限公司 一种眼球平滑聚散训练装置
CN116725829A (zh) * 2023-06-15 2023-09-12 湖南奥视医疗科技有限公司 一种图像训练修复视觉功能缺损的系统
CN116942074A (zh) * 2023-09-19 2023-10-27 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法
CN116942074B (zh) * 2023-09-19 2024-01-02 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法

Also Published As

Publication number Publication date
US20240197554A1 (en) 2024-06-20
KR102549616B1 (ko) 2023-06-29
KR20230034497A (ko) 2023-03-10
EP4378442A1 (en) 2024-06-05

Similar Documents

Publication Publication Date Title
WO2023033461A1 (ko) 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법
CN104306102B (zh) 针对视觉障碍患者的头戴式视觉辅助系统
CA2770073C (en) Anaglyphic depth perception training or testing
WO2013162156A1 (en) Method of simulating lens using augmented reality
US11612316B2 (en) Medical system and method operable to control sensor-based wearable devices for examining eyes
WO2016158000A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
WO2018169330A1 (en) Systems and methods for determining defects in visual field of a user
US20190021588A1 (en) Main module, system and method for self-examination of a user's eye
JP7370091B2 (ja) 視力検査方法、視力検査機及びこの視力検査方法のプログラムを保存するダウンローダサーバ
CN102813499B (zh) 基于双眼同时视知觉矫治和训练系统
WO2016114496A1 (ko) 시선 인식 및 생체 신호를 이용한 헤드 마운트 디스플레이를 통해 사용자 인터페이스를 제공하는 방법, 이를 이용한 장치 및 컴퓨터 판독 가능한 기록 매체
WO2018117443A1 (ko) 클라우드 연동형 시기능 강화 웨어러블 디바이스 시스템
WO2022062436A1 (zh) 弱视训练方法、装置、设备、存储介质及程序产品
CN109521871B (zh) 一种融合功能的训练方法、装置、设备及存储介质
KR102219659B1 (ko) 가상현실 기반의 눈 건강 측정방법 및 그 시스템
KR20180034278A (ko) 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
IL257096A (en) Systems and methods for displaying objects on a screen at a desired viewing angle
Li et al. Augmented reality in ophthalmology: applications and challenges
CN102008286A (zh) 一种基于半球面投射的视功能诊疗系统
WO2020230908A1 (ko) 사시진단어플리케이션 및 이를 갖는 사시진단장치
WO2019143186A1 (ko) 뇌연결성 기반의 시지각 트레이닝 장치, 방법 및 프로그램
WO2018056791A1 (ko) 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
WO2018056790A1 (ko) 뇌 자극을 통한 기억력 훈련 장치, 방법 및 프로그램
Shioiri et al. Low-level motion analysis of color and luminance for perception of 2D and 3D motion
KR102458553B1 (ko) 눈 건강 측정 디바이스 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22864963

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024514345

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2022864963

Country of ref document: EP

Effective date: 20240301

NENP Non-entry into the national phase

Ref country code: DE