KR20230034497A - 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 - Google Patents

가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 Download PDF

Info

Publication number
KR20230034497A
KR20230034497A KR1020210117301A KR20210117301A KR20230034497A KR 20230034497 A KR20230034497 A KR 20230034497A KR 1020210117301 A KR1020210117301 A KR 1020210117301A KR 20210117301 A KR20210117301 A KR 20210117301A KR 20230034497 A KR20230034497 A KR 20230034497A
Authority
KR
South Korea
Prior art keywords
visual
image
stimulus
virtual reality
eye movement
Prior art date
Application number
KR1020210117301A
Other languages
English (en)
Other versions
KR102549616B1 (ko
Inventor
강동화
임현택
이병주
홍락균
김용환
Original Assignee
재단법인 아산사회복지재단
주식회사 뉴냅스
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 주식회사 뉴냅스, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020210117301A priority Critical patent/KR102549616B1/ko
Priority to PCT/KR2022/012772 priority patent/WO2023033461A1/ko
Publication of KR20230034497A publication Critical patent/KR20230034497A/ko
Application granted granted Critical
Publication of KR102549616B1 publication Critical patent/KR102549616B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • A61H5/005Exercisers for training the stereoscopic view
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5025Activation means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/02Head
    • A61H2205/022Face
    • A61H2205/024Eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Rehabilitation Therapy (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Rehabilitation Tools (AREA)

Abstract

본 발명은 가상현실 기반 안구운동 및 시지각 훈련 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 장치에 있어서, 통신모듈; 입력모듈; 피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및 가상현실 기반의 안구운동 및 시지각 훈련을 제제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및 상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며, 상기 제어모듈은, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고, 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.

Description

가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING EYE MOVEMENT AND VISUAL PERCEPTION TRAINING BASED ON VIRTUAL REALITY}
본 발명은 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것으로, 보다 상세하게는 가상현실을 기반으로 안구의 운동능력 및 입체감각을 포함한 시지각능력을 향상시키기 위한 훈련이 가능하도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법에 관한 것이다.
최근 미디어의 발달로 인해 근시, 난시, 사시 등의 발병률이 높다. 이들을 대상으로 한 질병 치료 연구는 많지만 정상 시력 발달에 영향을 미치는 인자에 대한 연구는 아직 부족한 상태이다.
그 중, 사시(strabismus)는 두 눈이 똑바로 정렬되어 있지 않은 상태를 말하는데, 일찍 치료하지 않으면 시력이 영원히 회복되지 못할 수 있기 때문에 소아기에 빨리 발견하여 교정해야 한다.
만일, 사시가 2~5세경에 발생한다면 그 환아의 두 눈은 각각 서로 다른 물체를 보게되며, 그로 인해 전혀 다른 두 개의 상이 뇌로 전달되어 완전히 다른 물체가 겹쳐 보이는 시각 혼란을 느끼게 된다. 또한, 하나의 상이 동시에 서로 다른 곳에 있는 것처럼 보이는 복시 현상을 느끼게 됨에 따라, 환아는 시각 혼란과 복시를 해소하기 위해 한 쪽에서 들어오는 상을 무시하게 되어, 결과적으로, 환아는 물체를 입체적으로 느끼게 하는 양안시 기능을 포기하게 되고, 나아가 사시가 된 눈의 사용도 포기하여 약시까지 초래한다.
 이러한 증상을 방치하면, 성인이 되어서 안경, 렌즈를 사용하거나 수술을 하더라도 시력을 바로잡을 수 없고, 한 눈으로만 보는 상태가 되어 입체적인 거리감을 느끼지 못하는 상태가 된다. 따라서 소아에게 사시가 있는 경우 시력과 삶의 질을 위해 빨리 진단하고 적절히 치료해야한다.
그러나, 사시각이 작거나 융합력이 좋은 경우에는 안경 치료나 시능 교정 훈련 등을 할 수는 있으나, 그 치료 시간이 오래 걸리고 비용적인 부담이 큰 문제점이 있다.
따라서, 사용자(피시험체)의 안구 운동능력 및 입체감각을 포함한 시지각능력 향상을 위해 가상현실을 기반으로 안구운동 및 시지각 훈련을 제공 및 제어하도록 하는 기술이 개발될 필요가 있다.
한국등록특허공보 제10-2120112호 (등록일: 2016년 10월 27일)
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
또한, 본 발명은 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 하는 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법을 제공함에 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치는, 통신모듈; 입력모듈; 피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및 가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및 상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며, 상기 제어모듈은, 상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고, 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
한편, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은, 상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-; 상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계; 상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및 상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며, 상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 의하면, 사용자의 안구의 편위(deviation)을 고려하여 이분법적 표현(dichoptic presentation)을 제공함으로써, 억제로 인한 입체시의 추가적인 손상을 방지할 수 있도록 한다.
또한, 본 발명에 의하면, 사용자의 편위 수준과 훈련 수행 능력에 기반하여 시각 자극의 위치를 변경하여 난이도를 조절하여 제공함으로써, 사용자가 자신의 상태에 적합한 훈련을 제공받을 수 있도록 하는 것은 물론, 안구 운동(움직임) 훈련과 입체시 인지를 포함하는 시지각 훈련을 동시에 수행할 수 있도록 한다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 이하의 설명에서 언급되는 피시험체는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치를 사용하여 안구운동 및 시지각 훈련을 수행하는 사용자를 나타낸다.
도 1은 사시에 대한 개념 및 안구의 시각능력 및 입체감각을 향상시키기 위한 훈련을 설명하기 위한 도면이다.
사시는 두 눈이 정렬되지 않고 서로 다른 지점을 바라보는 시력 장애이다. 한 쪽 눈이 정면을 바라볼 때, 다른 쪽 눈은 안쪽 또는 바깥쪽으로 돌아가거나 위 또는 아래로 돌아가게 된다. 항상 눈이 돌아가 있을 수 있지만 간헐적으로 돌아간 눈이 어느 순간 정면을 주시하기도 하고, 정면을 주시하던 눈이 간헐적으로 돌아가기도 한다.
도 1은 피시험체의 안구 중 우안에 외사시가 존재하는 경우를 일 예로서 도시한 것으로, 피시험체가 정면을 바라볼 때, 좌안은 정면을 주시하게 되지만, 우안은 바깥쪽으로 돌아간 상태이다.
이러한 피시험체의 안구의 시각능력 및 입체감각 능력을 향상시키기 위해서는 우안을 안쪽, 즉, 중앙으로 모아주는 훈련을 반복적으로 수행해야만 한다.
본 발명은 이러한 안구운동 및 시지각 훈련을 가상현실을 기반으로 수행하도록 한다.
도 2는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 구성을 나타내는 블록도이다.
도 2를 참조하면, 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치(이하, '훈련 제공 장치'라 칭함)(100)는 통신모듈(110), 입력모듈(130), 디스플레이모듈(150), 메모리(170) 및 제어모듈(190)을 포함한다.
통신모듈(110)은 적어도 하나의 외부장치(서버 등)와 유선 또는 무선 통신을 수행한다. 특히, 무선 통신을 수행함에 있어서, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 한다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 훈련 제공 장치(100)는 앞에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이때, 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
입력모듈(130)은 피시험체의 입력에 대응하는 신호를 획득할 수 있다. 예를 들어, 입력모듈(130)은 측정 또는 훈련 수행을 위한 피시험체의 입력, 디스플레이모듈(150)을 통해 제공되는 시각자극에 대한 응답 등을 획득할 수 있다.
이때, 입력모듈(130)은 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등을 포함할 수 있다. 또한, 입력 모듈(130)에서의 피시험체의 입력은, 예를 들어, 버튼의 누름, 터치 및 드래그 등일 수 있다.
입력 모듈(130)은 훈련 제공 장치(100)와 무선 또는 유선으로 연결되는 별도의 모듈로 구성될 수도 있다. 예를 들어, 훈련 제공 장치(100)는 피시험체의 머리에 장착되고 부착된 디스플레이모듈(150)을 통해 측정 또는 훈련 수행을 위한 영상을 피시험체에게 제공하고, 피시험체의 손에 주어진 별도의 모듈로 구성된 입력모듈(130)을 통해 피시험체로부터 응답을 입력 받을 수 있다.
디스플레이모듈(150)은 영상이나 이미지를 출력한다. 예를 들어, 디스플레이모듈(150)은 LCD, OLED, 아몰레드 디스플레이 등을 포함할 수 있다.
디스플레이모듈(150)은 피시험체의 안구(좌안 및 우안)에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함할 수 있다. 여기서, 제1 디스플레이는 제1 영상을 출력하고, 제2 디스플레이는 제2 영상을 출력할 수 있다. 이때, 제1 영상 및 제2 영상은 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하기 위한 것으로, 동일한 영상, 적어도 일부가 서로 중첩되는 영상 및 서로 중첩되지 않는 영상 중 어느 하나일 수 있다. 여기서, 시각 자극은 프레임 및 일정 형상을 갖는 정현파 격자 시각 자극으로서, 참조 자극 및 표적 자극을 포함한다.
여기서, 디스플레이모듈(150)은 제1 디스플레이 및 제2 디스플레이를 물리적으로 분리하여 구비하거나, 각각 하나의 디스플레이의 좌측 영역 및 우측 영역으로 구분하여 설정할 수 있다.
메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공에 필요한 적어도 하나의 데이터(정보) 및 적어도 하나의 프로세스는 물론, 각종 데이터(정보)를 저장한다. 예를 들어, 훈련을 수행하기 위한 프로그램, 적어도 하나의 피시험체 정보(인적 정보, 시각정보, 응답정보, 훈련 결과 등), 사시각 및/또는 입체감 측정의 기준이 되는 각종 기준값, 측정 영상, 훈련 영상 등을 데이터로서 저장할 수 있다. 그 외에도, 메모리(170)는 가상현실 기반의 안구운동 및 시지각 훈련 제공 방법을 실행하기 위한 각종 명령어, 알고리즘 등을 저장한다.
또한, 메모리(170)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 아울러, 메모리(170)는 일시적, 영구적 또는 반영구적으로 정보를 저장할 수 있으며, 내장형 또는 탈착형으로 제공될 수 있다.
제어모듈(190)은 훈련 제공 장치(100) 내 구성들을 제어하거나 각종 정보를 처리하고 연산하기 위한 것으로, 메모리(170)에 저장된 적어도 하나의 프로세스를 기반으로 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어한다.
제어모듈(190)은 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고, 입력모듈(130)을 통해 수신되는 시각 자극에 대한 피시험체의 응답을 기반으로 그 피시험체에 대한 시각정보를 획득한다. 이후, 제어모듈(190)은 그 획득된 시각정보를 기반으로 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어한다. 이때, 제1 영상 및 제2 영상은 동일한 시각 자극을 표현하되, 사시가 존재하는 안구에 대응하여 출력되는 영상은 그 획득된 시각정보에 따라 시각 편차를 갖도록 한다.
다시 말해, 제어모듈(190)은 피시험체의 좌안 및 우안 각각에 시각 자극을 표현하는 제1 영상 및 제2 영상을 출력하되, 두 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상은 그대로 두고, 사시가 존재하는 안구에 대응하여 출력되는 영상에만 변화를 주어 안구 움직임 훈련이 수행되도록 제어한다. 즉, 피시험체의 두 안구 중 사시가 존재하는 안구를 특정 방향으로 모아주는 훈련을 수행하는 것이다.
한편, 시각정보는 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보 중 적어도 하나를 포함할 수 있다.
제어모듈(190)은 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 유도하여 피시험체 시선의 이동거리를 측정함으로써 피시험체의 사시각을 측정할 수 있다. 또한, 제어모듈(190)은 그 시각 자극에 대해 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 그 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 피시험체의 입체감을 측정할 수 있다.
제어모듈(190)은 소프트웨어, 하드웨어 및 이들의 조합으로 구현될 수 있다. 예를 들어, 하드웨어적으로 제어모듈(190)은 FPGA((field programmable gate array)나 ASIC(Application Specific Integrated Circuit), 반도체 칩, 및 그 외의 다양한 형태의 전자 회로로 구현될 수 있다. 또 예를 들어, 소프트웨어적으로 제어모듈(190)은 상술한 하드웨어에 따라 수행되는 논리 프로그램이나 각종 컴퓨터 언어 등으로 구현될 수 있다.
이하의 설명에서 별도의 언급이 없는 경우, 훈련 제공 장치(100)의 동작은 제어모듈(190)의 제어에 의해 수행되는 것으로 이해될 수 있다.
본 발명의 실시예에 따른 훈련 제공 장치(100)는 연산 처리를 수행할 수 있는 다양한 장치들을 포함할 수 있다. 예를 들어, 훈련 제공 장치(100)는 데스크탑 PC, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다.
한편, 훈련 제공 장치(100)는 피시험체의 머리에 장착되어 영상을 표시하는 HMD(Head Mounted Display), 스마트 글라스, 스마트 고글 등의 헤드 마운티드 디바이스 또는 헤드 마운티드 디바이스에 거치하여 사용할 수 있는 휴대폰 등의 디스플레이 디바이스 등을 포함할 수 있다.
한편, 도 2에 도시된 훈련 제공 장치(100)는 하나의 실시예에 해당할 뿐, 이를 한정하지 않는다. 예를 들어, 디스플레이모듈(150)이 터치 스크린으로 구현되는 경우, 디스플레이모듈(150)이 입력모듈(130)의 역할을 수행할 수도 있다. 이 경우, 선택에 따라 별도의 입력모듈(130)이 제공되지 않거나, 볼륨 조절, 전원 버튼 및 홈 버튼 등 제한적인 기능을 수행하는 입력모듈(130)이 제공될 수 있다. 또한, 디스플레이모듈(150)은 외부 디스플레이 장치로 영상 정보를 전송하는 영상 출력 포트 형태로 제공될 수도 있다.
도 3은 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치의 디스플레이모듈을 통해 출력되는 영상의 일 예를 나타내는 도면으로, 우안에 외사시를 갖는 피시험체가 훈련을 수행하도록 제어하는 경우를 도시한 것이다. 또한, 도 3은 피시험체가 훈련 제공 장치(100)를 착용했을 때 보이는 디스플레이모듈을 도시한 것으로서, 피시험체의 좌측 안구에 대응하는 영역에 배치된 제1 디스플레이(151) 및 피시험체의 우측 안구에 대응하는 영역에 배치된 제2 디스플레이(152)를 포함한다.
앞서 설명한 바와 같이, 시각 자극은 참조 자극 및 표적 자극이 포함되는데, 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상에서 사시각을 기반으로 하여 결정된 위치에 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축 간에는 차이를 갖도록 배치되어 제공된다. 한편, 제1 영상 및 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은 해당 영상의 중앙을 기준으로 배치되되, 그 영상에서 참조 자극의 중심축 및 표적 자극의 중심축은 동일선 상에서 배치되어 제공된다.
도 3을 참조하면, 사시가 존재하지 않는 안구에 대응하는 제1 디스플레이(151)를 통해 제1 영상(10)을 출력하고, 사시가 존재하는 안구에 대응하는 제2 디스플레이(152)를 통해 제2 영상(20)을 출력한다.
이때, 제1 영상(10) 및 제2 영상(20)은 모두 시각 자극이 표현되는데, 참조 자극으로서 하트 형상의 객체를 포함하고, 표적 자극으로서 별 형상의 객체를 포함한다. 다만, 사시가 존재하지 않는 좌안에 대응하는 제1 영상(10)은 해당 영상의 중앙에 시각 자극을 배치하지만, 사시가 존재하는 우안에 대응하는 제2 영상(20)은 그 피시험체의 사시각을 기반으로 반영된 위치에 시각 자극을 배치한다. 또한, 제1 영상(10)에 표현되는 제1 참조 자극(11)의 중심축(C)(제1 영상(10)의 중심축과 일치) 및 제1 표적 자극(12)의 중심축(D)은 동일선 상에 배치되는 반면에, 제2 영상(20)에 표현되는 제2 참조 자극(21)의 중심축(C) 및 제2 표적 자극(22)의 중심축(D)은 차이를 갖도록 배치된다.
한편, 훈련 제공 장치(100)가 그 피시험체의 안구운동 및 시지각 훈련을 제공할 시, 제2 표적 자극(22)의 중심축(D)을 제2 참조 자극(21)의 중심축(C)을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시켜 피시험체가 훈련을 수행하도록 할 수 있다. 여기서, 미리 설정된 거리 및 미리 설정된 시간은 그 피시험체에 대한 시각정보를 기반으로 설정되며, 그 피시험체의 훈련 능력 또는 필요에 따라 변경되어 설정될 수 있다.
도 4는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 의해 유도되어 제1 영상 및 제2 영상 각각의 시각 자극이 결합된 제3 영상의 일 예를 나타내는 도면이다.
도 3에서와 같이, 피시험체는 제1 영상(10) 및 제2 영상(20)을 각각 제1 디스플레이(151) 및 제2 디스플레이(152)를 통해 동시에 제공하여 두 시각 자극이 하나의 상으로 결합하도록 유도하는데, 이를 통해 피시험체는 제3 영상(30)과 같은 시각 자극을 확인할 수 있다. 결과적으로, 피시험체는 제3 표적 자극(32)을 통해서는 입체감이 느낄수 없지만, 제3 참조 자극(31)을 통해서는 입체감을 느낄 수 있다.
도 5는 본 발명의 실시예에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 나타내는 순서도이다.
훈련 제공 장치(100)에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하여 피시험체에게 제공하고(S210), 그 시각 자극에 대한 응답을 피시험체로부터 수신한다(S230).
그 응답을 기반으로 피시험체에 대한 시각정보를 획득하고(S250), 그 획득된 시각정보를 기반으로 제1 영상 및 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 피시험체에게 제공되는 훈련을 제어한다(S270).
구체적으로, 훈련을 제어할 시, 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 참조 자극 및 표적 자극 중 표적 자극의 중심축을 참조 자극을 향해 이동시켜가며 피시험체가 해당 안구에 대한 훈련을 수행하도록 제어한다.
도 6은 본 발명의 실시예에 따라 가상현실 기반 안구운동 및 시지각 훈련을 제공하기 위해 피시험체에 대한 시각정보 중 입체감을 측정하는 과정을 나타내는 순서도이다.
앞서 설명한 도 5의 각 단계들 중, 시각정보를 획득하는 단계를 통해 훈련 제공 장치(100)는 그 피시험체의 시각정보로서 사시각 및 입체감 정보를 획득할 수 있다. 그 중 입체감 정보는, 그 피시험체의 응답에 의해 획득할 수 있다.
구체적으로, 피시험체로부터 제1 디스플레이 및 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고(S251), 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받는다(S253). 이로써, 훈련 제공 장치(100)는 그 피시험체의 입체감을 측정할 수 있다.
한편, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 훈련 제공 장치 110 : 통신모듈
130 : 입력모듈 150 : 디스플레이모듈
170 : 메모리 190 : 제어모듈
10 : 제1 영상 11 : 제1 참조 자극
12 : 제1 표적 자극 20 : 제2 영상
21 : 제2 참조 자극 22 : 제2 표적 자극
30 : 제3 영상 31: 제3 참조 자극
32 : 제3 표적 자극

Claims (17)

  1. 가상현실 기반 안구운동 및 시지각 훈련 제공 장치에 있어서,
    통신모듈;
    입력모듈;
    피시험체의 안구에 각각 대응되는 복수의 제1 디스플레이 및 제2 디스플레이를 포함하는 디스플레이모듈; 및
    가상현실 기반의 안구운동 및 시지각 훈련을 제공하기 위해 필요한 적어도 하나의 프로세스를 저장하는 메모리; 및
    상기 적어도 하나의 프로세스를 기반으로 상기 가상현실 기반의 안구운동 및 시지각 훈련이 수행되도록 제어하는 제어모듈;을 포함하며,
    상기 제어모듈은,
    상기 제1 디스플레이 및 상기 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 표현하는 제1 영상 및 제2 영상을 출력하고,
    상기 입력모듈을 통해 수신되는 상기 시각 자극에 대한 상기 피시험체의 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하고,
    상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 훈련이 수행되도록 제어하고,
    상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  2. 제1항에 있어서,
    상기 시각 자극은,
    프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  3. 제2항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  4. 제3항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  5. 제3항에 있어서,
    상기 제어모듈은,
    상기 훈련이 수행되도록 제어할 시, 상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  6. 제5항에 있어서,
    상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  7. 제1항에 있어서,
    상기 제어모듈은,
    상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  8. 제1항에 있어서,
    상기 제어모듈은,
    상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 장치.
  9. 장치에 의해 수행되는, 가상현실 기반 안구운동 및 시지각 훈련 제공 방법은,
    상기 장치에 구비된 복수의 제1 디스플레이 및 제2 디스플레이 각각에 양안 무등(binocular disparity)을 유도하기 위한 시각 자극(dichoptic presentation)을 포함하는 제1 영상 및 제2 영상을 출력하는 단계-상기 제1 디스플레이 및 제2 디스플레이는 피시험체의 안구에 해당하는 위치에 각각 배치됨-;
    상기 시각 자극에 대한 상기 피시험체의 응답을 수신하는 단계;
    상기 응답을 기반으로 상기 피시험체에 대한 시각정보를 획득하는 단계; 및
    상기 획득된 시각정보를 기반으로 상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상의 시각 자극만을 변화시켜 상기 피시험체에게 제공되는 훈련을 제어하는 단계;를 포함하며,
    상기 시각정보는, 상기 피시험체의 좌안 및 우안에 대한 사시 유무 정보와, 사시 정도에 대한 정보인 사시각 및 입체감 정보를 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  10. 제9항에 있어서,
    상기 시각 자극은,
    프레임 및 일정 형상을 갖는 정현파 격자 시각 자극이며, 참조 자극 및 표적 자극을 포함하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  11. 제10항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하는 안구에 대응하여 출력되는 영상에 포함된 상기 시각 자극은, 해당 영상에서 상기 사시각을 기반으로 하여 결정된 위치에 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축 간 차이를 두어 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  12. 제11항에 있어서,
    상기 제1 영상 및 상기 제2 영상 중 사시가 존재하지 않는 안구에 대응하여 출력되는 영상에 포함된 시각 자극은, 해당 영상의 중앙을 기준으로 배치되되, 상기 참조 자극의 중심축 및 상기 표적 자극의 중심축이 동일선 상에 배치되도록 하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  13. 제11항에 있어서,
    상기 훈련을 제어하는 단계는,
    상기 표적 자극의 중심축을 상기 참조 자극의 중심축을 향해 미리 설정된 거리만큼 미리 설정된 시간에 따라 점진적으로 이동시키는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  14. 제13항에 있어서,
    상기 미리 설정된 거리 및 상기 미리 설정된 시간은, 상기 피시험체에 대한 시각정보를 기반으로 설정되는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  15. 제9항에 있어서,
    상기 시각정보를 획득하는 단계는,
    상기 제1 영상 및 상기 제2 영상에 포함된 각각의 시각 자극을 하나의 상으로 결합하도록 하여 시선의 이동거리를 측정함으로써 상기 피시험체의 사시각을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  16. 제9항에 있어서,
    상기 시각정보를 획득하는 단계는,
    상기 시각 자극에 대해 상기 제1 디스플레이 및 상기 제2 디스플레이 중 입체감이 느껴지는 자극에 대한 응답을 입력받고, 상기 입체감이 느껴지는 자극에 대해 입체감의 방향이 오목한지 또는 볼록한지 여부에 대한 응답을 입력받아 상기 피시험체의 입체감을 측정하는 것을 특징으로 하는,
    가상현실 기반 안구운동 및 시지각 훈련 제공 방법.
  17. 컴퓨터와 결합되어, 제9항 내지 제16항 중 어느 한 항에 따른 가상현실 기반 안구운동 및 시지각 훈련 제공 방법을 실행시키기 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
KR1020210117301A 2021-09-03 2021-09-03 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 KR102549616B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210117301A KR102549616B1 (ko) 2021-09-03 2021-09-03 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법
PCT/KR2022/012772 WO2023033461A1 (ko) 2021-09-03 2022-08-25 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210117301A KR102549616B1 (ko) 2021-09-03 2021-09-03 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20230034497A true KR20230034497A (ko) 2023-03-10
KR102549616B1 KR102549616B1 (ko) 2023-06-29

Family

ID=85412894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210117301A KR102549616B1 (ko) 2021-09-03 2021-09-03 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102549616B1 (ko)
WO (1) WO2023033461A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116725829A (zh) * 2023-06-15 2023-09-12 湖南奥视医疗科技有限公司 一种图像训练修复视觉功能缺损的系统
CN116942074B (zh) * 2023-09-19 2024-01-02 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180034278A (ko) * 2016-09-26 2018-04-04 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
KR101937041B1 (ko) * 2016-10-04 2019-01-11 주식회사 첸트랄 사시를 개선하는 안구운동장치 및 방법
KR20190108903A (ko) * 2018-03-16 2019-09-25 김선호 시각장애 예방 및 치료장치
KR102120112B1 (ko) 2020-02-11 2020-06-09 가천대학교 산학협력단 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026151A (en) * 1989-06-23 1991-06-25 Mentor O & O, Inc. Visual function tester with binocular vision testing
WO2018055618A1 (en) * 2016-09-23 2018-03-29 Novasight Ltd. Screening apparatus and method
KR101966164B1 (ko) * 2017-01-12 2019-04-05 고려대학교산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180034278A (ko) * 2016-09-26 2018-04-04 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
KR101937041B1 (ko) * 2016-10-04 2019-01-11 주식회사 첸트랄 사시를 개선하는 안구운동장치 및 방법
KR20190108903A (ko) * 2018-03-16 2019-09-25 김선호 시각장애 예방 및 치료장치
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램
KR102120112B1 (ko) 2020-02-11 2020-06-09 가천대학교 산학협력단 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체

Also Published As

Publication number Publication date
KR102549616B1 (ko) 2023-06-29
WO2023033461A1 (ko) 2023-03-09

Similar Documents

Publication Publication Date Title
US11733542B2 (en) Light field processor system
EP3108292B1 (en) Stereoscopic display responsive to focal-point shift
KR102549616B1 (ko) 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법
Hoffman et al. Focus information is used to interpret binocular images
CN111656256A (zh) 利用注视跟踪和焦点跟踪的系统和方法
WO2011017320A1 (en) Anaglyphic depth perception training or testing
CN104382552A (zh) 一种综合视觉功能检测设备与方法
KR102219659B1 (ko) 가상현실 기반의 눈 건강 측정방법 및 그 시스템
US11808940B2 (en) Eye tracking system for smart glasses and method therefor
KR20210020133A (ko) 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치
CN103778602A (zh) 色觉缺陷校正
KR20180034278A (ko) 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
JP2022529893A (ja) リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム
US9921418B2 (en) Spectacle lens supply system, program therefor, prism amount determination device, prism amount determination method, and method for producing spectacle lens
US10780015B2 (en) Method and apparatus for visual training
JPWO2017022302A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2017524992A (ja) 累進型眼科用レンズ
KR101862381B1 (ko) 사용자의 양안의 초점에 부합하는 영상제공 휴대단말장치
EP4226841A1 (en) Device and method for virtual-reality-based eye health measurement, and system therefor
KR102458553B1 (ko) 눈 건강 측정 디바이스 및 방법
KR102604303B1 (ko) 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
EP3875071A1 (en) System and method for managing amblyopia and suppression
KR102669685B1 (ko) 광 필드 프로세서 시스템
KR20220009796A (ko) 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
KR20220009799A (ko) 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant