KR20190104137A - 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템 - Google Patents

시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템 Download PDF

Info

Publication number
KR20190104137A
KR20190104137A KR1020197015653A KR20197015653A KR20190104137A KR 20190104137 A KR20190104137 A KR 20190104137A KR 1020197015653 A KR1020197015653 A KR 1020197015653A KR 20197015653 A KR20197015653 A KR 20197015653A KR 20190104137 A KR20190104137 A KR 20190104137A
Authority
KR
South Korea
Prior art keywords
user
display unit
visual
interface
clinical parameters
Prior art date
Application number
KR1020197015653A
Other languages
English (en)
Other versions
KR102489677B1 (ko
Inventor
에바 가르시아 라모스
Original Assignee
이-헬스 테크니컬 솔루션즈, 에스.엘.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이-헬스 테크니컬 솔루션즈, 에스.엘. filed Critical 이-헬스 테크니컬 솔루션즈, 에스.엘.
Publication of KR20190104137A publication Critical patent/KR20190104137A/ko
Application granted granted Critical
Publication of KR102489677B1 publication Critical patent/KR102489677B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/09Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템은, 장면 내의 가상 위치 및 가상 볼륨과 같은 가변 특성들을 갖는 3D 오브젝트로 상기 장면을 표현하는 디스플레이 유닛(20); 상기 디스플레이 유닛(20)으로부터 사용자의 머리 위치 및 거리를 검출하는 이동 센서(60); 상기 사용자의 동공들 위치 및 동공 거리를 검출하는 트래킹 센서(10); 장면 상에서 상기 사용자 상호 작용을 위한 인터페이스(30); 상기 센서들(60,10) 및 상기 인터페이스(30)로부터 오는 데이터에 기초하여 상기 3D 오브젝트의 상기 특성 변화들과 상기 사용자 응답을 분석하는 처리 수단들(42, 44)을 포함하고, 양안시, 적응, 안구 운동성 및 시각 지각과 관련된 시각적 기능의 복수의 임상적 파라미터들의 추정에 기초하여 결정된다.

Description

시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템
본 발명은 시각적 기능의 임상적 파라미터들을 측정하는 시스템 및 방법 분야에 속한다. 특히, 이러한 유형의 파라미터들을 측정하기 위해 몰입형 가상 현실을 사용하는 기술에 관한 것이다.
최근, 시각적 기능의 이러한 유형의 임상적 파라미터들을 측정하기 위해서는 환자가 다양한 테스트 및 시력 검사를 통해 테스트를 받는 세션이 있는 임상 전문가가 필요하다. 일반적으로, 측정 프로세스의 개인적이고 수작업적인 요소는 주관적이고, 재현 가능성 거의 없으며, 단순한 품질의 결과를 제공한다.
다른 한편 상기 측정들은 테스트 되는 시각적 기능을 기반으로 독립적으로 수행된다. 이로 인해 다른 요인의 영향이 고려되지 않기 때문에, 가끔 상기 결과들이 유효하지 않게 된다. 예를 들어, 환자들은 일반적으로 다른 시각적 기능을 통합적으로 사용하여 시각적 기능의 특정 이상 또는 손상을 보상하는 것으로 알려져 있다.
간단히 말해서, 현재 환자의 적응력은 고려되지 않으므로 구체적인 이상을 교정하기 위한 조치는 실제적으로 환자의 시각을 전체적으로 악화시킬 수 있다. 또한 환자의 측정 및 테스트들은 그들을 수행하는 전문가의 주관성에 영향을 받아 실험 결과의 재현성과 일관성이 크게 제한된다.
본 발명은 안구, 안구 운동 및 시각적 기능 파라미터들을 바람직하게는 실시간으로 통합적으로 측정하고 시각적 기능 개선을 위한 치료 및 훈련을 생성하는 시스템에 관한 것이다.
이를 위하여, 사용자의 동공들의 위치를 검출하는 트래킹 센서들, 세션의 일부로 수행되는 테스트 유형에 기초하여 선택되고 크기, 모양, 색체, 속도 등에 관해 미리 결정된 특성들을 갖는 3D 오브젝트로 사용자를 위한 특정 장면들을 재생하는 3차원 디스플레이 유닛(3D)이 사용된다. 이동 센서들은 사용자 이동들을 감지하여 상기 디스플레이 장치가 상기 장면을 개조하고 몰입형 캐릭터를 제공할 수 있다.
상기 시스템은 사용자가 상호 작용할 수 있는 인터페이스를 더 포함한다. 특히, 상기 인터페이스는 상기 디스플레이 시스템과 상호 작용하도록 사용자로부터 명령을 수신한다. 이러한 명령들(제어 버튼, 음성 명령, 장갑 등을 통해)은 다양한 방법으로 등록될 수 있다.
상기 시스템은 상기 디스플레이 유닛, 상기 센서 및 상기 인터페이스를 좌표 방식으로 관리하는 처리 수단을 더 구비한다. 따라서, 상기 디스플레이 유닛에서 생성된 시각적 자극에 대한 사용자 응답은 상기 센서에 의해 검출되고, 상기 임상적 파라미터들을 측정하기 위한 처리 수단으로 송신된다.
본 개시의 중요한 점은 사용자와의 상호 작용을 위한 환경을 생성할 수 있는 가상 현실에 기초한 기술에 있다. 특히, 검색 대상은 가상 환경에 몰입할 수 있다. 이는 사용자를 위한 실제 조건과 유사한 조건을 생성하는데 특히 흥미로우며, 따라서 원하는 경우 반복된 시간의 재생을 허용한다. 그 목적을 위해, 상기 디스플레이 유닛은 상기 사용자에 의해 운반되는 이동 센서들에 연결될 필요가 있다. 일부 실시 예에서, 이것은 가상 현실 안경일 수 있고, 다른 것들은 3D 스크린 및 편광 안경일 수 있다. 어느 경우에든, 상기 이동 센서 및 디스플레이 유닛을 연결함으로써, 3D 이미지가 사람의 움직임 또는 위치에 적응되는 것으로 도시되어, 사용자가 디스플레이 되는 가상 환경을 따라 움직이는 것처럼 느끼게 할 수 있고, 특히 시각적 기능의 평가, 치료 및 훈련을 적절하게 수행할 수 있도록 최소 60°의 시야를 유지해야 그 안에서 몰입감을 가질 수 있다. 위의 목표를 달성하려면 세션에 참여하는 요소간에 정확한 조정이 중요하다. 따라서, 사용자는 먼저 사용자가 그 안에 몰입되도록 의도된 3D 가상 현실 환경으로 안내된다. 상기 3D 환경에서, 일부 3D 오브젝트들은 사용자가 그들의 시야에 초점을 맞추고 수행되어야 하는 테스트와 관련된 자극으로서 작용하도록 의도 된 "시력 검사"에 의해 표시될 것이다.
도 1은 본 발명의 가능한 실시 예에 따른 단순 블록도를 도시한다.
도 2a 및 도 2b는 움직이는 3D 오브젝트를 갖는 장면을 바라 보는 건강한 사용자의 측정의 예를 도시한다.
도 3a 및 도 3b는 움직이는 3D 오브젝트를 갖는 장면을 바라 보는 장애를 가진 사용자의 측정의 예를 도시한다.
도 4는 일 실시 예에서 구현되는 일반적인 단계들을 요약한 순서도이다.
예시적인 비 제한적인 실시 예가 이전의 도면을 참조하여 더 상세히 설명된다.
도 1은 몇몇 구성 요소들을 포함하여 실시간으로 시각적 기능의 임상적 파라미터들을 통합적으로 측정하기 위한 시스템을 도시한다. 사용자의 동공들의 위치를 주기적으로 검출하는데 사용되는 트래킹 센서(10)가 있다. 따라서, 방향 변경뿐만 아니라 속도가 측정될 수 있다. 일반적으로, 트래킹 센서(10)를 통해 세션에서 수행되는 특정 테스트에 기초하여 다수의 파라미터들을 측정할 수 있게 된다. 도 2 및 도 3은 본 발명의 이러한 양상을 보다 상세하게 도시한다. 예를 들어, 트래킹 센서(10)는 좌우 동공의 위치, (양쪽 안구 및 개별 안구를 통해) 사용자가 보고 있는 오브젝트의 위치, 안구-센서 거리, 동공 크기, 동공 간 거리, 안구 운동 속도 등에 대한 값을 취할 수 있다. 일반적으로, 측정 동작을 수행하기 위해, 트래킹 센서(10)는 사용자의 눈에 포커싱 되어 그들의 움직임 및 위치를 포착하기 위한 한 쌍의 카메라를 포함한다. 이를 위해서는 안구의 빠른 움직임을 포착할 수 있을 만큼 높은 샘플링 주파수가 필요하다. 또한 사용자가 보고 있는 상기 생성된 가상 환경 내의 위치를 계산해야 한다. 트래킹 센서(10)는 정확한 시력 측정을 위해 필수적이다. 꽤 다량의 기능 장애가 여러 가지 자극에 대한 안구의 비정상적인 움직임에 의해 감지된다. 명확성을 위해, 도 2 및 도 3은 센서들(10, 60)에 의해 취해진 측정치가 가능한 장애의 유무에 따라 혹은 이와 관계없이 사용자의 시각 상태와 각각 어떻게 관련되는지의 예를 도시한다.
3D 몰입형 성능을 갖는 디스플레이 유닛(20)은 크기, 모양, 색상, 풍경 내의 위치, 사용자와의 거리, 정지 혹은 움직이는 것 등에 관한 소정의 특성을 갖는 3D 오브젝트를 포함하는 깊이 피처를 갖는 사용자 장면을 재생하거나 투영한다. 3D 오브젝트를 포함하는 이러한 장면들은 시력 검사로 사용되며, 사용자에게 특정 시각적 자극을 발생시킬 수 있도록 수행하려는 테스트 유형에 따라 시스템에서 선택될 수 있다. 따라서, 시각적 기능의 평가, 치료 또는 훈련을 위해 상이한 시각적 도전 및 자극을 갖는 사용자를 위해 복수의 장면이 설계될 수 있다.
또한 상기 시스템은 사용자 상호 작용을 위한 인터페이스(30)를 포함한다. 특히, 상기 인터페이스는 디스플레이 유닛(20) 및 상기 시스템의 다른 요소를 제어하기 위해 사용자로부터 명령을 수신한다. 또한 인터페이스(30)는 테스트를 위한 지시들을 사용자에게 전송할 수 있다. 따라서 상기 시스템은 사용자 동작 (움직임, 3D 환경에서의 위치, 버튼 누르기 등)에 대한 응답을 측정할 수 있다.
또한 상기 시스템은 바람직하게는 서버(42) 및 단말기(44)로서 구현되고, 디스플레이 유닛(20), 센서(10) 및 인터페이스(30) 제어의 관리를 조정하여 공유하는 처리 수단(40)을 포함하고, 이로써 사용자로부터의 시각적 응답은 센서(10)에 의해 검출되어 시각적 기능의 임상적 파라미터들을 측정하기 위해 서버(42)에 전송될 수 있다. 또한, 디스플레이 유닛(20)은 사용자의 움직임에 따라 표현되는 3D 이미지의 적응을 허용한다. 디스플레이 유닛(20)은 (편광 안경과 같은) 해리 시스템(dissociating system)을 포함할 수 있다.
상기 테스트는 3D 인터페이스를 통해 시작하는 것이 바람직하다. 구체적인 장면을 시각화하는 동안, 주어진 시간에 센서(10)에 의해 검출된 사용자 시각적 자극은 그때 표현된 3D 오브젝트와 디스플레이 유닛(20)에 연관된다. 사용자 동공의 위치에서의 이러한 변화는 이동 센서(60)에 의해 검출되는 사용자의 머리에 의해 만들어진 움직임과 함께 검출되고 결합된다. 이동 센서들(60) 및 디스플레이 유닛(20)을 결합시킴으로써, 사람의 움직임 또는 위치에 적응되는 3D 이미지를 보여주게 되고, 사용자는 그들이 시각화하고 있는 가상 환경(즉, 거기에 몰입된 것처럼)을 통해 실제로 움직이는 것처럼 느끼게 된다. 데이터가 처리되고, 3D 오브젝트의 속성은 센서들(10, 60)에 의해 검출된 상기 생성된 자극과 관련된다. 이를 통해 재현 가능하고 제어 가능한 조건에서 시각적 기능의 임상적 파라미터들을 측정할 수 있다. 따라서, 획득되는 데이터의 적절한 처리에 의해, 사용자의 시각적 행동, 안구의 움직임, 컨버전스 등이 알려질 수 있다. 또한, 시각적 기능의 임상적 파라미터들을 예상 범위와 비교하여 문제가 있는지 여부를 판단할 수 있다.
전술한 바와 같이, 디스플레이 유닛(20)의 3D 오브젝트 시각화와 함께, 트래킹 센서(10)는 상기 가상 현실 환경에서의 사용자의 모습을 추적한다. 트래킹 센서(10)는 다음을 등록한다:
- 안구들의 위치 (좌측 및 우측).
- 각 안구가 바라 보는 장소 (개별적으로).
- 3D 환경에서 두 눈을 함께 사용하여 사용자가 바라 보는 장소.
또한 동시에 사용자들이 매 순간마다 해야 할 일을 설명하여 지침들을 제공할 수 있다. 이러한 지침들은 인터페이스(30)를 통해 텍스트 또는 오디오를 통해 이루어질 수 있다. 상기한 인터페이스(30)는 또한 사용자가 디스플레이 유닛(20)에 의해 표현되는 장면으로부터 3D 오브젝트와 상호 작용할 수 있게 한다. 그 순간에 사용자와의 상호 작용이 시작되고 측정 결과로서 자극에 대한 응답이 등록되어야 한다.
이러한 사용자의 응답은 예를 들어 다음과 같은 방법으로 나타낼 수 있다:
- 장치의 움직임 (공간의 모든 방향에서).
- 가상 현실 환경 내 장치의 위치.
- 장치의 버튼들을 누르는 것.
- 음성 명령들.
전술한 상황에서, 이전의 작업에 대해, 상기 프로세스는 외부 서버(42)로부터 제공(다운로드) 되었지만, 클라이언트 단말기(44)에서 수행되는 것이 바람직하다. 분산된 환경은 단말기(44)의 기술적 요건, 상이한 사용자들에서 수행된 테스트들의 중앙 집중식 제어, 통계 데이터에 대한 액세스 등을 저감시킬 수 있다. 예를 들어, 가장 무거운 동작 및 계산은 단말기(44)로부터 처리 부하를 오프로드 하는 서버(42)에서 수행될 수 있다. 마찬가지로 테스트를 위해 설정할 수 있는 특성들은 서버(42)에서 정의될 수 있다:
- 사용될 가상 현실 환경.
- 3D 오브젝트와 그 특성들 (크기, 거리, 색상, 움직임, ...).
- 사용자에게 제공할 지침.
- 트래킹 센서(10)로 정보를 캡처할 시점.
- 사용자 인터페이스(30)로 정보를 캡처할 시점.
- 실행 태스크의 결과로 등록 및 출력할 데이터.
등록 될 데이터와 관련하여, 센서들(10, 60)로부터 오는 데이터가 있고, 또한 인터페이스(30)를 갖는 사용자와의 상호 작용을 통한 데이터가 있다.
데이터의 전체적인 로컬 처리가 완료되면, 이들은 그룹화되어 저장 및 후속 분석을 위해 서버(42)로 전송된다. 따라서 통계들, 새로운 테스트들, 권고들, 치료법 등을 수행할 수 있다.
예를 들어, 주어진 파라미터들에 대해 얻어진 값이 서버(42)에 저장된 과학적 연구에 따라 허용 한계 내에 있는지를 검증할 수 있다. 다른 한편, 테스트가 더 나쁜 결과를 제공하는 일부 기능을 개선하기 위한 치료 또는 훈련으로 작동하는 권장 사항으로 새로운 장면이 설계될 수 있다.
도 2a 및 도 2b는 사용자가 두 순간에 상기 시스템과 상호 작용하는 예를 도시한다. 초기 순간 t=ti 에서, 상기 시스템은 철도를 따라 달리는 열차에 대응하는 디스플레이 유닛(30)의 3D 모델을 나타낸다.
사용자는 두 시점에서 헤드 이동(Xic,yic), (Xfc,Yfc) 및 거리(Dic, Dfc)를 디스플레이 유닛 (20)에 등록하기 위한 이동 센서(60)를 탑재하고 있다. 마찬가지로, 트래킹 센서(10)는 두 동공의 위치에 관한 더 많은 정보를 제공하면서 두 순간에 사용자의 동공 운동을 등록한다. 우측:(xi1,yi1, zi1), (xf1, yf1, zf1); 좌측:(xi2,yi2, zi2), (xf2, yf2, zf2).
다른 한편, 디스플레이 유닛(20)은 2개의 상이한 가상 위치(xio, yio, zio), (xfo, yfo, zfo) 및 각각의 순간에서 2개의 다른 볼륨(Vio, Vfo)으로 3차원 오브젝트를 나타낸다. 3D 오브젝트의 색상과 같은 다른 속성들은 세션에서 수행할 테스트의 기능에 따라 다를 수 있다.
상기 값들이 처리되면, 사용자의 시선이 장면에서의 3D 오브젝트 움직임과 적절하게 조정되는지가 점검된다. 상기 시각적 행동은 건강한 사람과 대응된다.
도 3a 및 도 3b는 사용자의 시각적 행동이 상기 자극에 적절하게 응답하지 않는 경우를 개략적으로 도시한다. 도 3a에 도시된 바와 같이, 사용자는 좌측 안구(xi2,yi2,zi2)의 시각적 축을 관심 오브젝트(Vio)에 정확하게 정렬시키지 않고, 양안시(사시)의 한계를 나타낸다. 이러한 경우, 편향 각(도 3b 참조)은 관심 오브젝트(Vfo)를 이동시킴으로써 일정하게 유지되며, 이는 상반되는 위치에서 동일한 편향 각을 갖는, 즉 합동 조건을 나타낸다. 이러한 정보는 오브젝트의 양안시를 재확립하기 위해 시각 요법의 권고 유형의 정도뿐만 아니라 상태의 심각한 수준을 결정하는데 중요하다.
분명히 선택된 장면은 단지 예시일 뿐이다. 다른 예들은 계속 나타나고 사라지는 다른 모양, 색상, 크기의 물고기를 가지는 수족관이 될 수 있다; 사용자 가까이로 이동하는 차가 있는 도로; 무작위로 두더지가 나오는 구멍 등. 이러한 장면들에서 상기 파라미터들은 객관적으로 측정될 수 있고, 또한 (서로 간의 기존 영향을 과소 평가하지 않고) 함께 측정될 수도 있다.
도 4는 테스트를 위해 시스템을 동작시키는 동안 일어날 수 있는 일련의 동작을 간략하게 도시 한 것이다. 제1단계에서, 사용자의 개인 관련 정보가 등록된다. 권장되는 데이터는 다음과 같다: 성별, 연령, 습관 등을 포함할 수 있다. 사용자는 단말기(44)에 의해 클라이언트로서 서버(42)에 요청을 하고, 선택된 테스트 유형에 관련된 애플리케이션이 설치될 수 있다.
사용자는 디스플레이 유닛(20) 앞에 위치하고, 인터페이스(30) 또는 디스플레이 유닛(20)을 통해 트래킹 센서(10)를 정확하게 위치시키거나 이동 센서(60)에 따라 디스플레이 유닛에 대해 적절한 위치에 앉히도록 지시한다. 그 다음, 단계(51)에서, 시간에 따라 또는 사용자 상호 작용에 의해 속성이 변화하는 하나 또는 수 개의 3D 오브젝트들로, 선택된 테스트와 관련된 장면이 표시된다.
사용자 및 디스플레이 유닛은 단계(52)에서 인터페이스(30)를 통해 상호 작용한다. 일반적으로 그래픽 및 오디오를 사용하여 테스트하는 동안 사용자에게 지침을 제공할 수 있다. 예를 들어, 인터페이스(30)는 디스플레이 유닛(20)에 표현된 장면(30)으로부터의 3D 오브젝트와 사용자 상호 작용을 보다 쉽게 하기 위한 임의의 요소를 포함할 수 있다.
센서들(10, 60)은 상기 장면이 재생되는 동안 단계(53)에서 값을 검출한다. 이러한 데이터는 최소 지연 시간과 함께 단말기(44)로 전송되어야 한다.
단말기(44)는 캡처 된 데이터를 수신하여 전처리하고 이를 서버(42)로 전송하여 단계(54)에서 시각적 기능의 임상적 파라미터 값을 얻는다.
상기 테스트 또는 상이한 테스트들을 갖는 세션이 종료되면, 단말기(44)는 상기 획득된 데이터를 서버(42)에 전송하여, 저장 및 추가 처리한다. 특히, 상기 파라미터들은 단계(55)에서 사용자 프로파일에 대한 예상 범위와 비교된다.
서버(42)가 상기 획득된 데이터를 처리할 때, 단계(56)에서 이들을 가능한 기능 장애와 관련시킨다.
최종적으로, 상기 서버는 단계(57)에서 기능 장애를 개선시키기 위한 가능한 권고를 생성하고, 상기 획득된 결과와 함께 이들을 사용자에게 보여주기 위해 단말기(44)에 전송한다.
이러한 기술 덕분에 상기 테스트들은 객관적이고 통합적이며 사용자 맞춤식으로 수행되며 다양한 시각 장애를 식별할 수 있다. 특히, 관심 오브젝트에 대한 안구 정렬 능력(컨버전스 부족, 다이버전스 초과, 버전스 유연성 부족), 포커싱 능력(적응 부족, 적응 초과, 적응 유연성 부족), 일방 오브젝트에서 타방 오브젝트로 관점을 변경하는 능력(맹목적인 안구 운동), 오브젝트를 추적하는 능력(스므드한 추적 움직임), 혹은 우리 환경에 대한 정보를 식별하고 관리하는 데 필요한 시각적 인식 능력의 한계가 있다. 이들 모두 (테스트가 수행된 조건뿐만 아니라 각 작업 세션의 개발에 기반하여) 사용자 맞춤식으로 평가되고 훈련될 수 있다. 반면에, 다양한 시각화를 동일한 운동에 제공하여 일상적인 시각 요구에 더 잘 적응하고 연습에 관심과 주의를 기울일 수 있다.
본 발명은 기능 장애를 식별하는 데 유용할 뿐만 아니라, 시각적 자극 및 도전에 의해 건강한 사용자의 물리적 및 기술적 활동을 훈련하는데도 유용하다는 점에 유의해야 한다. 이것은 스포츠 성인 및 어린이에게 직접 적용될 수 있으며, 시각적 요구에 따라 특정 전문가 (운전사, 조종사, ...) 및 아마추어(미니어처를 다루는 능력, 엔터테인먼트 게임, ...)로 확대될 수 있다.
본 개시의 특징 중 하나는 필수 장치를 수용하기 위해 최소한의 공간으로도 충분하다는 점이다. 예를 들어, 디스플레이 유닛(20)으로서 구성된 스크린을 사용하는 실시 예에 있어서, 모든 것은 처리 수단(40)의 일부인 구성 요소로서 컴퓨터와 함께 50cm 내지 1m 사이에 앉는 것이 바람직한 사용자로부터 이격된 테이블 상에 배치될 수 있다. 구성 요소들 중 나머지 부분은 사용자의 머리와 손(제어 장치, 장갑 등)에 탑재된다. 디스플레이 유닛(20)이 한 쌍의 VR 안경인 경우, 더 적은 구성 요소로 충분하다.

Claims (13)

  1. 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템으로서,
    적어도 3D 오브젝트가 사용자의 시각적 응답을 촉진시키기 위해 가변 특성들을 갖는 장면을 표현하도록 구성된 디스플레이 유닛(20); - 상기 가변 특성들은 적어도 상기 장면 내의 3D 오브젝트의 가상 위치(Xo,Yo,Zo)및 가상 볼륨(Vo)을 포함한다.
    상기 디스플레이 유닛(20)으로부터 상기 사용자의 머리 위치(Xc,Yc) 및 거리(Dc)를 검출하도록 구성된 복수의 이동 센서들(60);
    사용자 동공 위치(xp, yp, zp) 및 동공 지름(dp)을 검출하도록 구성된 복수의 트래킹 센서(10);
    상기 사용자가 상기 장면 상에서 상호 작용할 수 있도록 구성된 인터페이스(30); 및
    상기 이동 센서들(60)과 트래킹 센서들(10) 및 상기 인터페이스(30)에서 오는 데이터를 상기 디스플레이 유닛에 표현된 3D 오브젝트의 피처 가변성과 연관시키는 단계, 및
    사용자 시각적 기능의 복수의 임상적 파라미터들을 추정하는 단계에 기초하여 상기 사용자 응답을 분석하도록 구성된 처리 수단(42, 44)을 포함하여 구성되는 것을 특징으로 하는 시스템.
  2. 제 1 항에 있어서,
    상기 가변 특성들은 미리 결정된 프로그램에 따라 시간의 함수로서 가변적인 것을 특징으로 하는 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 가변 특성들은 상기 3D 오브젝트의 색상을 더 포함하는 것을 특징으로 하는 시스템.
  4. 제 1 항 내지 제 3 항에 있어서,
    상기 가변 특성들은 상기 인터페이스(30)를 통한 사용자 상호 작용의 함수로서 가변적인 것을 특징으로 하는 방법.
  5. 제 4 항에 있어서,
    상기 인터페이스(30)는 디지털 펜, 글러브, 제어 장치 중 적어도 하나를 포함하는 것을 특징으로 하는 시스템.
  6. 제 1 항 내지 제 5 항에 있어서,
    상기 디스플레이 유닛(20)은 3D 스크린을 포함하는 것을 특징으로 하는 시스템.
  7. 제 1 항 내지 제 6 항에 있어서,
    상기 디스플레이 유닛(20)은 가상 현실(VR) 안경을 포함하는 것을 특징으로 하는 시스템.
  8. 제 1 항 내지 제 7 항에 있어서,
    상기 디스플레이 유닛(20)은 해리 시스템을 포함하는 것을 특징으로 하는 시스템.
  9. 제 1 항 내지 제 8 항에 있어서,
    상기 처리 수단(42, 44)은 상기 시각적 기능의 상기 추정된 임상적 파라미터들을 기준 값의 저장된 범위와 비교하고, 상기 비교에 기초하여 가능한 시각적 기능 장애를 설립하도록 더 구성되는 것을 특징으로 하는 시스템.
  10. 제 9 항에 있어서,
    상기 기준값의 범위와의 비교는 적어도 연령 정보를 포함하는 사용자 프로파일에 기초하여 실현되는 것을 특징으로 하는 시스템.
  11. 제 1 항 내지 제 10 항에 있어서,
    상기 처리 수단은 클라이언트 단말기(44) 및 서버(42)를 포함하고, 상기 클라이언트 단말기(44)은 상기 센서들(60, 10)에 의해 측정된 데이터를 수신하여 처리하고 상기 서버(42)에 전송하도록 구성되는 것을 특징으로 하는 시스템.
  12. 제 11 항에 있어서,
    상기 서버(42)는 상기 데이터의 측정 값을 상기 기본 데이터의 기준값과 비교하도록 구성되는 것을 특징으로 하는 시스템.
  13. 제 1 항 내지 제 12 항에 있어서,
    상기 임상적 파라미터들의 시각적 기능은 양안시, 적응, 안구 운동 또는 시각 지각 중 적어도 하나를 의미하는 것을 특징으로 하는 시스템.
KR1020197015653A 2016-11-10 2017-10-27 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템 KR102489677B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16382521.9 2016-11-10
EP16382521.9A EP3320829A1 (en) 2016-11-10 2016-11-10 System for integrally measuring clinical parameters of visual function
PCT/ES2017/070721 WO2018087408A1 (es) 2016-11-10 2017-10-27 Sistema para medición integral de parámetros clínicos de la función visual

Publications (2)

Publication Number Publication Date
KR20190104137A true KR20190104137A (ko) 2019-09-06
KR102489677B1 KR102489677B1 (ko) 2023-01-16

Family

ID=57708479

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197015653A KR102489677B1 (ko) 2016-11-10 2017-10-27 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템

Country Status (11)

Country Link
US (1) US11559202B2 (ko)
EP (1) EP3320829A1 (ko)
JP (1) JP7344795B2 (ko)
KR (1) KR102489677B1 (ko)
CN (1) CN110167421B (ko)
AU (1) AU2017359293B2 (ko)
BR (1) BR112019009614A8 (ko)
CA (1) CA3043276C (ko)
IL (1) IL266461B2 (ko)
RU (1) RU2754195C2 (ko)
WO (1) WO2018087408A1 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
CN106569339B (zh) * 2016-11-08 2019-11-15 歌尔科技有限公司 Vr头戴设备以及vr头戴设备的控制方法
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
WO2019113570A1 (en) 2017-12-10 2019-06-13 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
WO2019178567A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11204491B2 (en) 2018-05-30 2021-12-21 Magic Leap, Inc. Compact variable focus configurations
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. POSITIONING A RADAR HEAD
CN112400157A (zh) 2018-06-05 2021-02-23 奇跃公司 观看系统的基于单应性变换矩阵的温度校准
US11092812B2 (en) 2018-06-08 2021-08-17 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
WO2020028834A1 (en) * 2018-08-02 2020-02-06 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
CN117111304A (zh) 2018-11-16 2023-11-24 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
KR102184972B1 (ko) * 2019-02-01 2020-12-01 주식회사 룩시드랩스 동공 중심간 거리를 측정하는 장치 및 방법
JP2022519292A (ja) 2019-02-06 2022-03-22 マジック リープ, インコーポレイテッド 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
CN114025657A (zh) 2019-05-29 2022-02-08 电子医疗技术解决方案有限公司 用于测量视觉功能的临床参数的系统
CN114174895A (zh) 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
CN112866679B (zh) * 2021-04-23 2021-08-10 广东视明科技发展有限公司 在运动状态下的多位点立体视检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160262608A1 (en) * 2014-07-08 2016-09-15 Krueger Wesley W O Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100941062B1 (ko) * 2001-07-06 2010-02-05 팔란티르 리서치, 엘엘씨 역 공간 광학 설계를 사용한 이미지 형성 시스템 및 방법
UY28083A1 (es) * 2003-11-14 2003-12-31 Nicolas Fernandez Tourn Suarez Unidad de rehabilitacion vestibular
EP1691670B1 (en) * 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US20060005846A1 (en) * 2004-07-07 2006-01-12 Krueger Wesley W Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation
JP4890060B2 (ja) 2005-03-31 2012-03-07 株式会社トプコン 眼科装置
CN105212890B (zh) * 2006-01-26 2017-04-26 诺基亚公司 眼睛跟踪器设备
JP2008012223A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
TW200913957A (en) * 2007-09-17 2009-04-01 Liao Li Shi System for detecting and compensating vision defect and method thereof
CN101727531A (zh) * 2008-10-16 2010-06-09 国际商业机器公司 用于在虚拟环境中进行交互的方法和系统
WO2012125172A1 (en) * 2011-03-15 2012-09-20 Kona Medical, Inc. Energetic modulation of nerves
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
FR2987920B1 (fr) * 2012-03-08 2018-03-02 Essilor International Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes
BR112015030546A2 (pt) * 2012-10-22 2019-09-24 Realvision S R L rede de dispositivos para a realização de testes ópticos/optométricos/ oftalmológicos e método para o controle e gerenciamento de uma rede de dispositivos
US9848771B2 (en) * 2012-11-26 2017-12-26 The Australian National University Clustered volley method and apparatus
US20160235323A1 (en) * 2013-09-25 2016-08-18 Mindmaze Sa Physiological parameter measurement and feedback system
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
CN104382552B (zh) * 2014-11-27 2016-04-27 毕宏生 一种综合视觉功能检测设备
CN104545787B (zh) * 2014-12-12 2017-02-01 许昌红 一种穿戴式瞳孔对光反射测量设备
AU2016227316B2 (en) * 2015-03-01 2020-06-25 Novasight Ltd. A system and method for measuring ocular motility
CN105832502B (zh) * 2016-03-15 2018-01-02 广东卫明眼视光研究院 智能视觉功能训练方法及训练仪

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160262608A1 (en) * 2014-07-08 2016-09-15 Krueger Wesley W O Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments

Also Published As

Publication number Publication date
CA3043276A1 (en) 2018-05-17
BR112019009614A2 (pt) 2019-08-13
IL266461B2 (en) 2023-09-01
US11559202B2 (en) 2023-01-24
US20190254519A1 (en) 2019-08-22
RU2019116179A (ru) 2020-12-10
KR102489677B1 (ko) 2023-01-16
EP3320829A8 (en) 2018-07-18
WO2018087408A1 (es) 2018-05-17
CA3043276C (en) 2023-10-10
CN110167421B (zh) 2022-03-04
RU2754195C2 (ru) 2021-08-30
IL266461A (en) 2019-06-30
JP2019535401A (ja) 2019-12-12
AU2017359293A1 (en) 2019-06-06
CN110167421A (zh) 2019-08-23
EP3320829A1 (en) 2018-05-16
RU2019116179A3 (ko) 2021-02-09
BR112019009614A8 (pt) 2023-03-21
IL266461B1 (en) 2023-05-01
AU2017359293B2 (en) 2022-11-17
JP7344795B2 (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
KR102489677B1 (ko) 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템
US20210076930A1 (en) Interactive system for vision assessment and correction
US20220301669A1 (en) Systems and methods for a web platform hosting one or more assessments of human visual performance
JP6229867B2 (ja) 軽度認知症の早期発見・予防プログラム及びシステム
WO2012160741A1 (ja) 視覚疲労度測定装置、その方法、視覚疲労度測定システムおよび3次元メガネ
CN111248851B (zh) 一种视功能自测方法
CN112053781B (zh) 动静态立体视测试方法及终端
US10832483B2 (en) Apparatus and method of monitoring VR sickness prediction model for virtual reality content
US20120035498A1 (en) Apparatus and method for improving eye-hand coordination
US11366520B2 (en) Method for analyzing element inducing motion sickness in virtual-reality content and apparatus using the same
CN109923529A (zh) 信息处理装置、信息处理方法和程序
JP2018044977A (ja) 疑似体験提供装置、疑似体験提供方法、疑似体験提供システム、及びプログラム
CN104352340A (zh) 一种综合视觉功能训练设备与方法
JP6445418B2 (ja) 印象推定装置、印象推定方法、およびプログラム
DK3287074T3 (en) Method of recording the cerebral cognition time and device for recording the cerebral cognition time
WO2004112598A1 (en) Method of testing and corresponding vision aid
US20230181029A1 (en) Method and device for determining at least one astigmatic effect of at least one eye
US20220240775A1 (en) System for Measuring Clinical Parameters of Visual Function
Estemyr et al. Designing a VR user experience test regarding the Vergence-Accommodation Conflict: An investigation surrounding the relations to Depth Perception
Paulus Evaluation Methods for Stereopsis Performance
US20210085172A1 (en) Method of analyzing a visual field of an individual and a corresponding ophthalmic lens
Lepecq et al. Afforded actions as a behavioral assessment of physical presence
Renaud et al. The Use of Virtual Reality in Clinical Psychology Research

Legal Events

Date Code Title Description
AMND Amendment
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant