KR20230034497A - 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 - Google Patents
가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 Download PDFInfo
- Publication number
- KR20230034497A KR20230034497A KR1020210117301A KR20210117301A KR20230034497A KR 20230034497 A KR20230034497 A KR 20230034497A KR 1020210117301 A KR1020210117301 A KR 1020210117301A KR 20210117301 A KR20210117301 A KR 20210117301A KR 20230034497 A KR20230034497 A KR 20230034497A
- Authority
- KR
- South Korea
- Prior art keywords
- visual
- image
- stimulus
- virtual reality
- eye movement
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 103
- 230000016776 visual perception Effects 0.000 title claims abstract description 57
- 230000004424 eye movement Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 claims abstract description 84
- 238000012360 testing method Methods 0.000 claims abstract description 73
- 208000004350 Strabismus Diseases 0.000 claims abstract description 50
- 210000001508 eye Anatomy 0.000 claims abstract description 38
- 230000000694 effects Effects 0.000 claims abstract description 31
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000004891 communication Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 11
- 230000001939 inductive effect Effects 0.000 claims abstract description 9
- 238000004590 computer program Methods 0.000 claims 1
- 230000004438 eyesight Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 208000003164 Diplopia Diseases 0.000 description 2
- 201000005538 Exotropia Diseases 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 229920001621 AMOLED Polymers 0.000 description 1
- 201000009487 Amblyopia Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 208000029444 double vision Diseases 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
- A61H5/005—Exercisers for training the stereoscopic view
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
- A61H2201/501—Control means thereof computer controlled connected to external computer devices or networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5025—Activation means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5064—Position sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5092—Optical sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5097—Control means thereof wireless
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2205/00—Devices for specific parts of the body
- A61H2205/02—Head
- A61H2205/022—Face
- A61H2205/024—Eyes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Rehabilitation Therapy (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Rehabilitation Tools (AREA)
Abstract
본 발명은 가상현실 기반 안구운동 및 시지각 훈련 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 장치에 있어서, 통신모듈; 입력모듈; 피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및 가상현실 기반의 안구운동 및 시지각 훈련을 제제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및 상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며, 상기 제어모듈은, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고, 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
Description
본 발명은 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것으로, 보다 상세하게는 가상현실을 기반으로 안구의 운동능력 및 입체감각을 포함한 시지각능력을 향상시키기 위한 훈련이 가능하도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것이다.
최근 미디어의 발달로 인해 근시, 난시, 사시 등의 발병률이 높다. 이들을 대상으로 한 질병 치료 연구는 많지만 정상 시력 발달에 영향을 미치는 인자에 대한 연구는 아직 부족한 상태이다.
그 중, 사시(strabismus)는 두 눈이 똑바로 정렬되어 있지 않은 상태를 말하는데, 일찍 치료하지 않으면 시력이 영원히 회복되지 못할 수 있기 때문에 소아기에 빨리 발견하여 교정해야 한다.
만일, 사시가 2~5세경에 발생한다면 그 환아의 두 눈은 각각 서로 다른 물체를 보게되며, 그로 인해 전혀 다른 두 개의 상이 뇌로 전달되어 완전히 다른 물체가 겹쳐 보이는 시각 혼란을 느끼게 된다. 또한, 하나의 상이 동시에 서로 다른 곳에 있는 것처럼 보이는 복시 현상을 느끼게 됨에 따라, 환아는 시각 혼란과 복시를 해소하기 위해 한 쪽에서 들어오는 상을 무시하게 되어, 결과적으로, 환아는 물체를 입체적으로 느끼게 하는 양안시 기능을 포기하게 되고, 나아가 사시가 된 눈의 사용도 포기하여 약시까지 초래한다.
이러한 증상을 방치하면, 성인이 되어서 안경, 렌즈를 사용하거나 수술을 하더라도 시력을 바로잡을 수 없고, 한 눈으로만 보는 상태가 되어 입체적인 거리감을 느끼지 못하는 상태가 된다. 따라서 소아에게 사시가 있는 경우 시력과 삶의 질을 위해 빨리 진단하고 적절히 치료해야한다.
그러나, 사시각이 작거나 융합력이 좋은 경우에는 안경 치료나 시능 교정 훈련 등을 할 수는 있으나, 그 치료 시간이 오래 걸리고 비용적인 부담이 큰 문제점이 있다.
따라서, 사용자(피시험체)의 안구 운동능력 및 입체감각을 포함한 시지각능력 향상을 위해 가상현실을 기반으로 안구운동 및 시지각 훈련을 제공 및 제어하도록 하는 기술이 개발될 필요가 있다.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
또한, 본 발명은 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치는, 통신모듈; 입력모듈; 피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및 가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및 상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며, 상기 제어모듈은, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고, 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
한편, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은, 상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-; 상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계; 상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 의하면, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 한다.
또한, 본 발명에 의하면, 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 한다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 이하의 설명에서 언급되는 피시험체는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치를 사용하여 안구운동 및 시지각 훈련을 수행하는 사용자를 나타낸다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
사시는 두 눈이 정렬되지 않고 서로 다른 지점을 바라보는 시력 장애이다. 한 쪽 눈이 정면을 바라볼 때, 다른 쪽 눈은 안쪽 또는 바깥쪽으로 돌아가거나 위 또는 아래로 돌아가게 된다. 항상 눈이 돌아가 있을 수 있지만 간헐적으로 돌아간 눈이 어느 순간 정면을 주시하기도 하고, 정면을 주시하던 눈이 간헐적으로 돌아가기도 한다.
도 1은 피시험체의 안구 중 우안에 외사시가 존재하는 경우를 일 예로서 도시한 것으로, 피시험체가 정면을 바라볼 때, 좌안은 정면을 주시하게 되지만, 우안은 바깥쪽으로 돌아간 상태이다.
이러한 피시험체의 안구의 시각능력 및 입체감각 능력을 향상시키기 위해서는 우안을 안쪽, 즉, 중앙으로 모아주는 훈련을 반복적으로 수행해야만 한다.
본 발명은 이러한 안구운동 및 시지각 훈련을 가상현실을 기반으로 수행하도록 한다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 2를 참조하면, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치(이하, '훈련 제공 장치'라 칭함)(100)는 통신모듈(110), 입력모듈(130), 디스플레이모듈(150), 메모리(170) 및 제어모듈(190)을 포함한다.
통신모듈(110)은 적어도 하나의 외부장치(서버 등)와 유선 또는 무선 통신을 수행한다. 특히, 무선 통신을 수행함에 있어서, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 한다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 훈련 제공 장치(100)는 앞에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이때, 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
입력모듈(130)은 피시험체의 입력에 대응하는 신호를 획득할 수 있다. 예를 들어, 입력모듈(130)은 측정 또는 훈련 수행을 위한 피시험체의 입력, 디스플레이모듈(150)을 통해 제공되는 시각자극에 대한 응답 등을 획득할 수 있다.
이때, 입력모듈(130)은 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등을 포함할 수 있다. 또한, 입력 모듈(130)에서의 피시험체의 입력은, 예를 들어, 버튼의 누름, 터치 및 드래그 등일 수 있다.
입력 모듈(130)은 훈련 제공 장치(100)와 무선 또는 유선으로 연결되는 별도의 모듈로 구성될 수도 있다. 예를 들어, 훈련 제공 장치(100)는 피시험체의 머리에 장착되고 부착된 디스플레이모듈(150)을 통해 측정 또는 훈련 수행을 위한 영상을 피시험체에게 제공하고, 피시험체의 손에 주어진 별도의 모듈로 구성된 입력모듈(130)을 통해 피시험체로부터 응답을 입력 받을 수 있다.
디스플레이모듈(150)은 영상이나 이미지를 출력한다. 예를 들어, 디스플레이모듈(150)은 LCD, OLED, 아몰레드 디스플레이 등을 포함할 수 있다.
디스플레이모듈(150)은 피시험체의 안구(좌안 및 우안)에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함할 수 있다. 여기서, 제1 디스플레이는 제1 영상을 출력하고, 제2 디스플레이는 제2 영상을 출력할 수 있다. 이때, 제1 영상 및 제2 영상은 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하기 위한 것으로, 동일한 영상, 적어도 일부가 서로 중첩되는 영상 및 서로 중첩되지 않는 영상 중 어느 하나일 수 있다. 여기서, 시각 자극은 프레임 및 일정 형상을 갖는 정현파 격자 시각 자극으로서, 참조 자극 및 표적 자극을 포함한다.
여기서, 디스플레이모듈(150)은 제1 디스플레이 및 제2 디스플레이를 물리적으로 분리하여 구비하거나, 각각 하나의 디스플레이의 좌측 영역 및 우측 영역으로 구분하여 설정할 수 있다.
메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공에 필요한 적어도 하나의 데이터(정보) 및 적어도 하나의 프로세스는 물론, 각종 데이터(정보)를 저장한다. 예를 들어, 훈련을 수행하기 위한 프로그램, 적어도 하나의 피시험체 정보(인적 정보, 시각정보, 응답정보, 훈련 결과 등), 사시각 및/또는 입체감 측정의 기준이 되는 각종 기준값, 측정 영상, 훈련 영상 등을 데이터로서 저장할 수 있다. 그 외에도, 메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공 방법을 실행하기 위한 각종 명령어, 알고리즘 등을 저장한다.
또한, 메모리(170)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 아울러, 메모리(170)는 일시적, 영구적 또는 반영구적으로 정보를 저장할 수 있으며, 내장형 또는 탈착형으로 제공될 수 있다.
제어모듈(190)은 훈련 제공 장치(100) 내 구성들을 제어하거나 각종 정보를 처리하고 연산하기 위한 것으로, 메모리(170)에 저장된 적어도 하나의 프로세스를 기반으로 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어한다.
제어모듈(190)은 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 입력모듈(130)을 통해 수신되는 시각 자극에 대한 피시험체의 응답을 기반으로 그 피시험체에 대한 시각정보를 획득한다. 이후, 제어모듈(190)은 그 획득된 시각정보를 기반으로 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어한다. 이때, 제1 영상 및 제2 영상은 동일한 시각 자극을 표현하되, 사시가 존재하는 안구에 대응하여 출력되는 영상은 그 획득된 시각정보에 따라 시각 편차를 갖도록 한다.
다시 말해, 제어모듈(190)은 피시험체의 좌안 및 우안 각각에 시각 자극을 표현하는 제1 영상 및 제2 영상을 출력하되, 두 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상은 그대로 두고, 사시가 존재하는 안구에 대응하여 출력되는 영상에만 변화를 주어 안구 움직임 훈련이 수행되도록 제어한다. 즉, 피시험체의 두 안구 중 사시가 존재하는 안구를 특정 방향으로 모아주는 훈련을 수행하는 것이다.
한편, 시각정보는 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보 중 적어도 하나를 포함할 수 있다.
제어모듈(190)은 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 유도하여 피시험체 시선의 이동거리를 측정함으로써 피시험체의 사시각을 측정할 수 있다. 또한, 제어모듈(190)은 그 시각 자극에 대해 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 그 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 피시험체의 입체감을 측정할 수 있다.
제어모듈(190)은 소프트웨어, 하드웨어 및 이들의 조합으로 구현될 수 있다. 예를 들어, 하드웨어적으로 제어모듈(190)은 FPGA((field programmable gate array)나 ASIC(Application Specific Integrated Circuit), 반도체 칩, 및 그 외의 다양한 형태의 전자 회로로 구현될 수 있다. 또 예를 들어, 소프트웨어적으로 제어모듈(190)은 상술한 하드웨어에 따라 수행되는 논리 프로그램이나 각종 컴퓨터 언어 등으로 구현될 수 있다.
이하의 설명에서 별도의 언급이 없는 경우, 훈련 제공 장치(100)의 동작은 제어모듈(190)의 제어에 의해 수행되는 것으로 이해될 수 있다.
본 발명의 실시예에 따른 훈련 제공 장치(100)는 연산 처리를 수행할 수 있는 다양한 장치들을 포함할 수 있다. 예를 들어, 훈련 제공 장치(100)는 데스크탑 PC, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다.
한편, 훈련 제공 장치(100)는 피시험체의 머리에 장착되어 영상을 표시하는 HMD(Head Mounted Display), 스마트 글라스, 스마트 고글 등의 헤드 마운티드 디바이스 또는 헤드 마운티드 디바이스에 거치하여 사용할 수 있는 휴대폰 등의 디스플레이 디바이스 등을 포함할 수 있다.
한편, 도 2에 도시된 훈련 제공 장치(100)는 하나의 실시예에 해당할 뿐, 이를 한정하지 않는다. 예를 들어, 디스플레이모듈(150)이 터치 스크린으로 구현되는 경우, 디스플레이모듈(150)이 입력모듈(130)의 역할을 수행할 수도 있다. 이 경우, 선택에 따라 별도의 입력모듈(130)이 제공되지 않거나, 볼륨 조절, 전원 버튼 및 홈 버튼 등 제한적인 기능을 수행하는 입력모듈(130)이 제공될 수 있다. 또한, 디스플레이모듈(150)은 외부 디스플레이 장치로 영상 정보를 전송하는 영상 출력 포트 형태로 제공될 수도 있다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면으로, 우안에 외사시를 갖는 피시험체가 훈련을 수행하도록 제어하는 경우를 도시한 것이다. 또한, 도 3은 피시험체가 훈련 제공 장치(100)를 착용했을 때 보이는 디스플레이모듈을 도시한 것으로서, 피시험체의 좌측 안구에 대응하는 영역에 배치된 제1 디스플레이(151) 및 피시험체의 우측 안구에 대응하는 영역에 배치된 제2 디스플레이(152)를 포함한다.
앞서 설명한 바와 같이, 시각 자극은 참조 자극 및 표적 자극이 포함되는데, 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상에서 사시각을 기반으로 하여 결정된 위치에 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축 간에는 차이를 갖도록 배치되어 제공된다. 한편, 제1 영상 및 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상의 중앙을 기준으로 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축은 동일선 상에서 배치되어 제공된다.
도 3을 참조하면, 사시가 존재하지 않는 안구에 대응하는 제1 디스플레이(151)를 통해 제1 영상(10)을 출력하고, 사시가 존재하는 안구에 대응하는 제2 디스플레이(152)를 통해 제2 영상(20)을 출력한다.
이때, 제1 영상(10) 및 제2 영상(20)은 모두 시각 자극이 표현되는데, 참조 자극으로서 하트 형상의 객체를 포함하고, 표적 자극으로서 별 형상의 객체를 포함한다. 다만, 사시가 존재하지 않는 좌안에 대응하는 제1 영상(10)은 해당 영상의 중앙에 시각 자극을 배치하지만, 사시가 존재하는 우안에 대응하는 제2 영상(20)은 그 피시험체의 사시각을 기반으로 반영된 위치에 시각 자극을 배치한다. 또한, 제1 영상(10)에 표현되는 제1 참조 자극(11)의 중심축(C)(제1 영상(10)의 중심축과 일치) 및 제1 표적 자극(12)의 중심축(D)은 동일선 상에 배치되는 반면에, 제2 영상(20)에 표현되는 제2 참조 자극(21)의 중심축(C) 및 제2 표적 자극(22)의 중심축(D)은 차이를 갖도록 배치된다.
한편, 훈련 제공 장치(100)가 그 피시험체의 안구운동 및 시지각 훈련을 제공할 시, 제2 표적 자극(22)의 중심축(D)을 제2 참조 자극(21)의 중심축(C)을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시켜 피시험체가 훈련을 수행하도록 할 수 있다. 여기서, 미리 설정된 거리 및 미리 설정된 시간은 그 피시험체에 대한 시각정보를 기반으로 설정되며, 그 피시험체의 훈련 능력 또는 필요에 따라 변경되어 설정될 수 있다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각 자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 3에서와 같이, 피시험체는 제1 영상(10) 및 제2 영상(20)을 각각 제1 디스플레이(151) 및 제2 디스플레이(152)를 통해 동시에 제공하여 두 시각 자극이 하나의 상으로 결합하도록 유도하는데, 이를 통해 피시험체는 제3 영상(30)과 같은 시각 자극을 확인할 수 있다. 결과적으로, 피시험체는 제3 표적 자극(32)을 통해서는 입체감이 느낄수 없지만, 제3 참조 자극(31)을 통해서는 입체감을 느낄 수 있다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
훈련 제공 장치(100)에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하여 피시험체에게 제공하고(S210), 그 시각 자극에 대한 응답을 피시험체로부터 수신한다(S230).
그 응답을 기반으로 피시험체에 대한 시각정보를 획득하고(S250), 그 획득된 시각정보를 기반으로 제1 영상 및 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 피시험체에게 제공되는 훈련을 제어한다(S270).
구체적으로, 훈련을 제어할 시, 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 참조 자극 및 표적 자극 중 표적 자극의 중심축을 참조 자극을 향해 이동시켜가며 피시험체가 해당 안구에 대한 훈련을 수행하도록 제어한다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
앞서 설명한 도 5의 각 단계들 중, 시각정보를 획득하는 단계를 통해 훈련 제공 장치(100)는 그 피시험체의 시각정보로서 사시각 및 입체감 정보를 획득할 수 있다. 그 중 입체감 정보는, 그 피시험체의 응답에 의해 획득할 수 있다.
구체적으로, 피시험체로부터 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고(S251), 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받는다(S253). 이로써, 훈련 제공 장치(100)는 그 피시험체의 입체감을 측정할 수 있다.
한편, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 훈련 제공 장치 110 : 통신모듈
130 : 입력모듈 150 : 디스플레이모듈
170 : 메모리 190 : 제어모듈
10 : 제1 영상 11 : 제1 참조 자극
12 : 제1 표적 자극 20 : 제2 영상
21 : 제2 참조 자극 22 : 제2 표적 자극
30 : 제3 영상 31: 제3 참조 자극
32 : 제3 표적 자극
130 : 입력모듈 150 : 디스플레이모듈
170 : 메모리 190 : 제어모듈
10 : 제1 영상 11 : 제1 참조 자극
12 : 제1 표적 자극 20 : 제2 영상
21 : 제2 참조 자극 22 : 제2 표적 자극
30 : 제3 영상 31: 제3 참조 자극
32 : 제3 표적 자극
Claims (17)
- 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 있어서,
통신모듈;
입력모듈;
피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및
가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및
상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며,
상기 제어모듈은,
상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고,
상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고,
상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고,
상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제1항에 있어서,
상기 시각 자극은,
프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제2항에 있어서,
상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제3항에 있어서,
상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제3항에 있어서,
상기 제어모듈은,
상기 훈련이 수행되도록 제어할 시, 상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제5항에 있어서,
상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제1항에 있어서,
상기 제어모듈은,
상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 제1항에 있어서,
상기 제어모듈은,
상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
- 장치에 의해 수행되는, 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은,
상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-;
상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계;
상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및
상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며,
상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제9항에 있어서,
상기 시각 자극은,
프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제10항에 있어서,
상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제11항에 있어서,
상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제11항에 있어서,
상기 훈련을 제어하는 단계는,
상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제13항에 있어서,
상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제9항에 있어서,
상기 시각정보를 획득하는 단계는,
상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 제9항에 있어서,
상기 시각정보를 획득하는 단계는,
상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
- 컴퓨터와 결합되어, 제9항 내지 제16항 중 어느 한 항에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 실행시키기 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210117301A KR102549616B1 (ko) | 2021-09-03 | 2021-09-03 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
PCT/KR2022/012772 WO2023033461A1 (ko) | 2021-09-03 | 2022-08-25 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210117301A KR102549616B1 (ko) | 2021-09-03 | 2021-09-03 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230034497A true KR20230034497A (ko) | 2023-03-10 |
KR102549616B1 KR102549616B1 (ko) | 2023-06-29 |
Family
ID=85412894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210117301A KR102549616B1 (ko) | 2021-09-03 | 2021-09-03 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102549616B1 (ko) |
WO (1) | WO2023033461A1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116725829A (zh) * | 2023-06-15 | 2023-09-12 | 湖南奥视医疗科技有限公司 | 一种图像训练修复视觉功能缺损的系统 |
CN116942074B (zh) * | 2023-09-19 | 2024-01-02 | 广东视明科技发展有限公司 | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180034278A (ko) * | 2016-09-26 | 2018-04-04 | 재단법인 아산사회복지재단 | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 |
KR101937041B1 (ko) * | 2016-10-04 | 2019-01-11 | 주식회사 첸트랄 | 사시를 개선하는 안구운동장치 및 방법 |
KR20190108903A (ko) * | 2018-03-16 | 2019-09-25 | 김선호 | 시각장애 예방 및 치료장치 |
KR102120112B1 (ko) | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체 |
KR20210019883A (ko) * | 2019-08-13 | 2021-02-23 | 박시현 | 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5026151A (en) * | 1989-06-23 | 1991-06-25 | Mentor O & O, Inc. | Visual function tester with binocular vision testing |
WO2018055618A1 (en) * | 2016-09-23 | 2018-03-29 | Novasight Ltd. | Screening apparatus and method |
KR101966164B1 (ko) * | 2017-01-12 | 2019-04-05 | 고려대학교산학협력단 | 가상현실을 이용한 안과 검사 시스템 및 방법 |
-
2021
- 2021-09-03 KR KR1020210117301A patent/KR102549616B1/ko active IP Right Grant
-
2022
- 2022-08-25 WO PCT/KR2022/012772 patent/WO2023033461A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180034278A (ko) * | 2016-09-26 | 2018-04-04 | 재단법인 아산사회복지재단 | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 |
KR101937041B1 (ko) * | 2016-10-04 | 2019-01-11 | 주식회사 첸트랄 | 사시를 개선하는 안구운동장치 및 방법 |
KR20190108903A (ko) * | 2018-03-16 | 2019-09-25 | 김선호 | 시각장애 예방 및 치료장치 |
KR20210019883A (ko) * | 2019-08-13 | 2021-02-23 | 박시현 | 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램 |
KR102120112B1 (ko) | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체 |
Also Published As
Publication number | Publication date |
---|---|
KR102549616B1 (ko) | 2023-06-29 |
WO2023033461A1 (ko) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11733542B2 (en) | Light field processor system | |
EP3108292B1 (en) | Stereoscopic display responsive to focal-point shift | |
KR102549616B1 (ko) | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 | |
Hoffman et al. | Focus information is used to interpret binocular images | |
CN111656256A (zh) | 利用注视跟踪和焦点跟踪的系统和方法 | |
WO2011017320A1 (en) | Anaglyphic depth perception training or testing | |
CN104382552A (zh) | 一种综合视觉功能检测设备与方法 | |
KR102219659B1 (ko) | 가상현실 기반의 눈 건강 측정방법 및 그 시스템 | |
US11808940B2 (en) | Eye tracking system for smart glasses and method therefor | |
KR20210020133A (ko) | 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치 | |
CN103778602A (zh) | 色觉缺陷校正 | |
KR20180034278A (ko) | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 | |
JP2022529893A (ja) | リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム | |
US9921418B2 (en) | Spectacle lens supply system, program therefor, prism amount determination device, prism amount determination method, and method for producing spectacle lens | |
US10780015B2 (en) | Method and apparatus for visual training | |
JPWO2017022302A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2017524992A (ja) | 累進型眼科用レンズ | |
KR101862381B1 (ko) | 사용자의 양안의 초점에 부합하는 영상제공 휴대단말장치 | |
EP4226841A1 (en) | Device and method for virtual-reality-based eye health measurement, and system therefor | |
KR102458553B1 (ko) | 눈 건강 측정 디바이스 및 방법 | |
KR102604303B1 (ko) | 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법 | |
EP3875071A1 (en) | System and method for managing amblyopia and suppression | |
KR102669685B1 (ko) | 광 필드 프로세서 시스템 | |
KR20220009796A (ko) | 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법 | |
KR20220009799A (ko) | 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |