KR102616391B1 - 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치 - Google Patents

양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치 Download PDF

Info

Publication number
KR102616391B1
KR102616391B1 KR1020217001349A KR20217001349A KR102616391B1 KR 102616391 B1 KR102616391 B1 KR 102616391B1 KR 1020217001349 A KR1020217001349 A KR 1020217001349A KR 20217001349 A KR20217001349 A KR 20217001349A KR 102616391 B1 KR102616391 B1 KR 102616391B1
Authority
KR
South Korea
Prior art keywords
eye
user
eye movement
head
visual
Prior art date
Application number
KR1020217001349A
Other languages
English (en)
Other versions
KR20210020133A (ko
Inventor
타라 린 알바레즈
창 야라모투
존 비토 디'안토니오-베르타그놀리
미첼 쉐이먼
Original Assignee
뉴저지 인스티튜트 오브 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴저지 인스티튜트 오브 테크놀로지 filed Critical 뉴저지 인스티튜트 오브 테크놀로지
Publication of KR20210020133A publication Critical patent/KR20210020133A/ko
Application granted granted Critical
Publication of KR102616391B1 publication Critical patent/KR102616391B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • A61H5/005Exercisers for training the stereoscopic view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • G02B30/36Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers using refractive optical elements, e.g. prisms, in the optical path between the images and the observer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1604Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/02Head
    • A61H2205/022Face
    • A61H2205/024Eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 개시내용의 예시적인 실시형태는 다양한 형태의 치료적 개입 전, 중, 후에 시야/안구 운동 기능의 검사, 진단 및 평가를 위해 양안 기능 장애를 객관적으로 평가하는 시스템, 방법 및 장치에 관한 것이다. 본 개시내용의 시스템 및 방법은 양안 기능 장애를 객관적이고 자동으로 진단하고 평가하고, 하나 이상의 디스플레이 상에 시각적 자극을 제공할 수 있고, 사용자의 안구의 조절 및 근위 버전스 자극을 제어할 수 있다.

Description

양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치
관련 출원에 대한 상호 참조
본 출원은 2018년 6월 18일자로 출원된 미국 특허 가출원 번호 62/686,406의 우선권 및 이익을 주장하며, 그 전체 내용이 본원에 참조로 포함된다.
연방 지원 연구에 관한 진술
본 발명은 National Science Foundation에서 수여하는 수여 번호 CBET1228254 및 National Institutes of Health에서 수여하는 수여 번호 R01EY023261에 따른 정부의 지원을 받아 만들어졌다. 정부는 본 발명에 대해 특정 권리를 가지고 있다.
기술분야
본 개시내용은 양안 기능 장애의 진단 평가 및 선별을 위한 시스템 및 방법에 관한 것이다.
증상을 보이는 양안 기능 장애는 일반적인 모집단의 약 4.2% 내지 17.6% 그리고 뇌 손상 모집단의 40% 및 50% 사이로 나타난다. 양안 기능 장애의 일부 예로는 사시(strabismus), 수렴 부족(CI), 수렴 과잉, 발산 부족 및 발산 과잉이 있지만 이에 한정되지 않는다. 양안 기능 장애의 시각적 증상은, 예를 들면, 휴대용 전자 장치(예를 들면, 스마트 폰, 테블릿 등)의 광범위한 사용과 임의의 근시 작업(예를 들면, 독서, 컴퓨터 작업 등)에 의해 악화될 수 있으며, 양안 기능 장애를 겪는 사람들의 직업 및 여가 활동에 부정적인 영향을 미친다.
또한, 가상 현실(VR)은 엔터테인먼트 및 교육 분야에서 인기를 얻고 있으며 양안 기능 장애를 겪는 사람은 양안 기능 장애가 없는 사람에 비하여 VR을 사용하려고 할 때 더 많은 증상을 경험할 수 있다. 독서 또는 기타 근거리 작업에 참여할 때, 양안 기능 장애와 관련된 안정 피로(asthenopic) 증상은, 이중/흐림 시야(double/blurred vision), 안정 피로(eyestrain), 시각적 피로, 텍스트를 다시 읽어야 하는 것, 천천히 읽는 것, 텍스트가 떠 다니는 느낌, 두통이 있지만, 이에 한정되지 않으며, 이는 일상 생활의 활동에 부정적인 영향을 미칠 수 있다. 시각 요법은 양안 기능 장애를 치료하는 데에 보통 사용되는 하나의 치료적 개입이다.
CI는 먼 시각적 공간에 비해 가까운 곳에서 눈이 외측으로 표류하는 경향(외사위(exophoria)), 가까운 수렴 지점의 감소, 그리고 눈을 정렬하는 보상 능력 부족을 특징으로 하는 양안 시각 장애이다. 주시 시차(fixation disparity)는 눈이 고정되는 곳과 사용자가 고정하려는 객체가 있는 곳 사이의 오차 또는 차이이다. 양안이 정상인 대조군에 비하여 CI가 있는 환자는 주시 시차가 통상적으로 크다. CI가 있는 사람이 경험하는 증상으로 흐릿하거나 이중의 시야, 두통, 안정 피로 및/또는 독서 및 기타 근거리 작업 중 주의 유지의 어려움이 있을 수 있다. 수렴은 눈을 객체 또는 사람과 가까이 위치한 객체로 향하게 하기 위해 눈을 내측으로 회전시키는 것이며, 수렴은 사람이 독서를 하거나 컴퓨터에서 작업할 때와 같이 사람과 가까이 위치한 객체를 볼 때 시야를 유지하는 데에 필요하다. CI가 있는 사람은 근시(near visual) 작업을 수행한 후 몇 분 이내에 시각적 증상을 경험할 수 있다. 이는 특히 뇌 진탕 및 연관된 양안 기능 장애를 포함하는 뇌 손상이 있는 사람에게 해당된다.
선별 도구가 이용 가능하지만, 이러한 기법은 주관적이며 안구 운동 기능을 정확하게 측정하기 위해서는 임상 경험을 필요로 한다. 안과 및 비안과 전문가 모두가 사용하도록 안구 운동 기능을 객관적으로 측정하여 양안 기능 장애를 선별하는 시스템 및 방법이 요구된다.
본 개시내용의 예시적인 실시형태는 다양한 형태의 시기능 치료 전, 중, 후에 시야/안구 운동 기능의 선별, 진단 및 평가를 위해 양안 기능 장애를 객관적으로 평가하는 시스템, 방법 및 장치에 관한 것이다. 학교 간호사, 직업적, 물리적, 또는 시기능 치료사, 소아과 의사, 가정의, 스포츠 의학 임상의, 스포츠 트레이너, 코치, 검안사 또는 안과 의사를 포함하지만 이에 한정되지 않는 다양한 유형의 건강 관리 전문가에 의해 예시적인 실시형태가 사용될 수 있다.
이 시스템 내에서 머리 착용 디스플레이가 사용될 수 있다. 시각적 자극이 머리 착용 디스플레이 내에서 좌안, 우안 또는 양쪽 안구에 표시될 수 있다. 본 개시내용의 예시적인 실시형태는, 가까운 수렴 지점, 양성 및 음성 융합 버전스 범위, 해리 사위(dissociated phoria) 및 연합 사위(associated phoria), 주시 시차, 버전스 설비, 수평/수직 신속 안구 운동(saccade) 안구 이동, 원활한 추적 안구 이동, 버전스 안구 이동, 안구 운동/양안 지구력, 안구 운동 학습 프로토콜 및 기타 검안 측정을 통한 적응 능력을 정량화할 수 있다. 더욱이, 일부 실시형태에서, 각각의 버전스 안구 이동의 속도, 정확도 및 정밀도가 정량화될 수 있다. 본 개시내용의 실시형태는 양안 대등 관계의 품질을 결정할 수 있고, 어느 쪽 안구가 더 낮은 피크 속도(더 느림)을 갖는지를 결정한 다음, 두 안구가 대칭 양안 대등 관계를 향상시키기 위해 치료 플랫폼 내에서 시각적 자극을 동적으로 조정할 수 있다.
또한, 일부 환자는 한쪽 안구가 다른 쪽 안구에 비해 한쪽 안구로 시각적 자극이나 시각적 객체를 보다 양호하게 인식하는 감각 우위를 갖는다. 이러한 시각적 감각은 환자가 억제를 경험할 때 일반적으로 나타난다. 환자가 시각적 억제를 표현하는 경우, 본 개시내용의 예시적인 실시형태는 가상/증강/혼합 설정에서 제공된 시각적 자극을 조정하여 우세하지 않은 눈이 더 강한 시각적 자극을 보도록 할 수 있으며, 이는 우세한 눈에 비하여 더 밝거나 더 명확하게 인식될 수 있는 이미지를 의미한다.
본 개시내용의 예시적인 실시형태를 통해 구현된 시각적 자극은 조절 신호(accommodative cue)를 저감하기 위해 작은 문자와 같은 가버 패치(Gabor Patch) 및/또는 작은 표적을 사용할 수 있다. 다른 형태의 시각적 자극이 사용될 수 있음을 이해할 것이다. 가버 패치는 조절 신호를 저감하는 것으로 알려진 가우시안 자극의 다수의 차이로 구성된다.
안구 운동 평가 소프트웨어 플랫폼(oculomotor assessment software platform, OASP)의 실시형태는, 조절 신호를 최소화하면서, 시차 버전스(disparity vergence)를 일으킬 수 있으며, 양안 시야 기능 장애를 갖는 사용자의 치료적 개입에 사용될 수 있다. OASP의 실시형태는 안구 이동 위치를 통합할 수 있고 사용자의 현재 안구 위치를 기초로 OASP에 제공된 시각적 자극을 동적으로 수정할 수 있다. OASP의 실시형태는 종래의 임상 치료적 개입에 비하여 사용자의 주의를 보다 양호하게 평가하도록 구성될 수 있다.
본 개시내용의 실시형태에 따르면, 사용자의 안구 운동 기능을 관찰하기 위한 시스템이 개시된다. 이 시스템은 머리 착용 디스플레이 및 전산 시스템을 포함한다. 머리 착용 디스플레이는 사용자가 볼 수 있는 입체 효과를 생성하도록 구성된다. 전산 시스템은 머리 착용 디스플레이와 통신한다. 전산 시스템은 머리 착용 디스플레이와 상호 작용하여 머리 착용 디스플레이로 시각적 자극을 제공하고, 시각적 자극을 조정하여 사용자의 시각계로부터 응답을 유도하고, 응답에 기초하여 사용자의 복수의 안구 운동 특성을 객관적으로 측정하고, 복수의 안구 운동 특성을 결합하여 안구 운동 기능 평가를 생성한다.
본 개시내용의 실시형태에 따르면, 사용자의 안구 운동 기능을 관찰하는 방법이 개시된다. 이 방법은, 입체 효과를 사용하여 머리 착용 디스플레이로 시각적 자극을 제공하는 단계, 전산 시스템에 의해, 시각적 자극을 조정하여 머리 착용 디스플레이를 착용하는 사용자의 시각계로부터 응답을 유도하는 단계, 머리 착용 디스플레이 및 전산 시스템 사이의 상호 작용 및 응답을 기초로 사용자의 복수의 안구 운동 특성을 객관적으로 측정하는 단계, 복수의 안구 운동 특성을 결합하여 안구 운동 기능 평가를 생성하는 단계를 포함한다.
본 개시내용의 실시형태에 따르면, 처리 장치에 의해 실행될 때, 입체 효과를 사용하여 머리 착용 디스플레이로 시각적 자극을 제공하는 단계, 시각적 자극을 조정하여 머리 착용 디스플레이를 착용하는 사용자의 시각계로부터 응답을 유도하는 단계, 머리 착용 디스플레이 및 전산 시스템 사이의 상호 작용 및 응답을 기초로 사용자의 복수의 안구 운동 특성을 객관적으로 측정하는 단계, 복수의 안구 운동 특성을 결합하여 안구 운동 기능 평가를 생성하는 단계를 포함하는 방법을 처리 장치가 구현하도록 하는 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체가 개시된다.
본 개시내용의 실시형태에 따르면, 양안 기능 장애를 객관적이고 자동으로 진단하고 평가하는 방법이 개시된다. 방법은 하나 이상의 디스플레이 상에 시각적 자극을 제공하는 단계, 및 OASP의 실시형태를 통해 사용자의 안구의 조절 및 근위 버전스 자극을 제어하는 단계를 포함할 수 있다. OASP의 실시형태는 머리 착용 디스플레이에 의해 제공될 수 있다. OASP는 머리 착용 디스플레이 통합 시선 추적 하드웨어 및 소프트웨어 상에 제공될 수 있다. OASP는 가상 현실, 증강 현실 및 혼합 현실 설정 모두에서 추가적으로 제공될 수 있다. 고속 융합 시차 버전스 시스템은 OASP에 의해 객관적으로 평가될 수 있는 사전 프로그램되고 피드백 제어된 구성 요소로 구성된다.
본 개시내용의 실시형태에 따르면, 사용자의 좌안 또는 우안은 OASP의 실시형태를 통하여 비대칭 또는 대칭으로 자극되어 좌안 및 우안 사이의 피크 속도 차이를 객관적으로 측정할 수 있다. 비대칭 자극의 크기는 좌안 및 우안의 위치로부터 도출될 수 있다. 비대칭 자극의 크기는 동적으로 변화하여 시각적 억제를 평가할 수 있다.
본 개시내용의 실시형태에 따르면, 사용자의 좌안 및 우안의 실시간 물리적 안구 이동이 검출될 수 있고 OASP에 대한 입력으로서 사용될 수 있다. 실시간 물리적 안구 이동을 기초로, 사용자의 좌안 및 우안이 융합되는 3차원 가상/증강/혼합 현실 공간에서의 한 지점이 결정될 수 있다. 또한, 시선 추적 없이 장치 및 머리 착용 디스플레이에서의 사용자 피드백을 통해 측정의 정량화가 잠재적으로 기록될 수 있다.
본 개시내용의 실시형태에 따르면, 양안 기능 장애를 진단하고 평가하는 방법이 개시된다. 이 방법은 OASP를 제공하고 조절 자극 및 근위 버전스 자극을 제한하거나 제어하도록 구성된 머리 착용 디스플레이를 사용자에게 맞추어 가상 현실 소프트웨어를 통해 대칭 및 비대칭으로 시차 버전스를 자극하는 단계를 포함할 수 있다. 좌안 및 우안은 좌안 및 우안 사이의 비대칭 피크 속도 차이를 기초로 비대칭으로 자극된다. 이 방법은 머리 착용 디스플레이에 의해 제공된 OASP를 통하여 사용자의 좌안 또는 우안을 비대칭으로 자극하여 시각적 억제를 제한하는 단계를 더 포함할 수 있다. 3차원 가상 공간에서 가상/증강/혼합 현실 소프트웨어를 제공하기 위해 OASP가 입체적으로 제공될 수 있다.
머리 착용 디스플레이는 OASP를 제공하도록 구성된 우안 디스플레이 및 좌안 디스플레이를 포함할 수 있고, 우안 디스플레이에 근접한 우안 촬상 장치 및 좌안 촬상 장치에 근접한 좌안 촬상 장치를 포함할 수 있고, 이 방법은 좌측 및 우측 촬상 장치에 의해 촬상된 좌안 및 우안의 이미지를 기초로 좌안 및 우안 사이의 비대칭 피크 속도 차이를 결정하는 단계를 더 포함할 수 있고, 좌안 및 우안은 좌안 및 우안 디스플레이의 관찰에 응답하여 이동한다. 머리 착용 디스플레이가 사용자의 머리에 맞춰지면 우안 및 좌안 디스플레이 사이의 초점 거리가 고정된다. 이 방법은 또한 OASP에서 비대칭 자극의 크기를 동적으로 조정하여 시각적 억제를 제한하는 단계를 포함할 수 있다.
본 개시내용의 실시형태에 따르면, 양안 기능 장애를 진단하는 데에 사용될 수 있는 양안 기능을 객관적으로 측정하고 평가하는 시스템이 개시된다. 이 시스템은 전산 시스템 및 머리 착용 디스플레이를 포함할 수 있다. 전산 시스템은 OASP를 실행하도록 구성된다. 머리 착용 디스플레이는 전산 시스템에 작동되게 결합된다. 머리 착용 디스플레이는, 좌안 디스플레이; 우안 디스플레이; 머리 착용 디스플레이의 좌안 디스플레이 및 우안 디스플레이 상에 이미지를 제공하여 입체 효과를 생성하도록 구성되는 하나 이상의 디스플레이 컨트롤러; 좌안 디스플레이에 근접하게 배치되는 제1 촬상 장치; 및 우안 디스플레이에 근접하게 배치되는 제2 촬상 장치를 포함할 수 있다. 제1 촬상 장치는 머리 착용 디스플레이의 사용자의 좌안의 이미지를 촬상하도록 구성되고, 제2 촬상 장치는 사용자의 우안의 이미지를 촬상하도록 구성된다.
전산 시스템의 실시형태는 시각적 자극 및 시각적 자극 시퀀스를 머리 착용 디스플레이로 출력하고 안구 이동 데이터를 객관적으로 분석한다. 머리 착용 디스플레이는 제1 및 제2 촬상 장치에 의해 촬상된 이미지를 기초로 우안 및 좌안의 위치를 출력하고, 전산 시스템은 OASP를 제어한다. 좌안 및 우안 디스플레이는 시각적 자극을 제공하여 시차 버전스의 사전 프로그램밍된 피드백 부분, 좌안 및 우안 이동 사이의 잠재적 비대칭을 평가할 수 있고 공통의 임상 파라미터/특징을 객관적으로 측정할 수 있다. 공통 임상 시야 파라미터는, 가까운 수렴 지점, 양성 및 음성 융합 버전스 범위, 해리 사위 및 연합 사위, 주시 시차, 버전스 설비, 수평/수직 신속 안구 운동, 원활한 안구 이동, 안구 운동/양안 지구력, 및 안구 운동 학습 프로토콜을 통한 안구 운동 적응을 포함하지만 이에 한정되지 않는다.
실시형태의 임의의 조합 및/또는 순열이 구상된다. 다른 목적 및 특징은 첨부 도면과 함께 고려되는 후술하는 상세한 설명으로부터 명백해질 것이다. 그러나, 도면은 본 개시내용의 제한의 정의로서가 아닌 단지 예시로서 설계된다는 것이 이해되어야 한다.
당업자가 개시된 시스템 및 방법을 만들고 사용하는 방법을 보다 양호하게 이해할 수 있도록, 첨부된 도면이 참조된다.
도 1은 본 개시내용의 예시적인 실시형태에 따른 예시적인 안구 운동 평가 시스템의 블록도를 도시한다.
도 2는 본 개시내용의 예시적인 실시형태에 따른 예시적인 안구 운동 평가 시스템의 기능 다이어그램을 도시한다.
도 3은 좌안 입구, 좌안 디스플레이, 좌안 컨트롤러를 갖는 기계적 고정구의 실시형태, 촬상 장치를 나타내기 위해 좌측 렌즈가 제거되어 우안 측이 우안 입구 위에 장착된 렌즈를 포함하는 머리 착용 디스플레이의 실시형태의 일부분을 도시한다.
도 4는 조절 자극을 저감하기 위해 가우시안의 차이를 사용하는 예를 도시한다.
도 5는 도 1에 도시된 전산 시스템의 예시적인 실시형태의 블록도이다.
도 6은 본 개시내용의 실시형태에 따른 양안 기능 장애에 대한 평가 및/또는 진단을 위한 객관적인 측정을 제공하기 위한 예시적인 과정을 도시하는 순서도이다.
도 7은 본 개시내용의 실시형태에 따른 안구 운동 기능에 대한 평가 및/또는 진단을 위한 객관적인 측정을 제공하기 위한 다른 예시적인 과정을 도시하는 순서도이다.
도 8은 본 개시내용의 실시형태에 따른 훈련된 기계 학습 모델을 기초로 안구 운동 기능의 동적 및 객관적인 평가를 위한 예시적인 과정을 도시하는 순서도이다.
본 개시내용의 예시적인 실시형태는 시선 추적을 사용하여 양안 기능을 객관적으로 평가한다. 가까운 수렴 지점(near point of convergence, NPC)은 사람이 양안 시야를 더 이상 유지할 수 없는 정중선(midline)을 따라 가장 가까운 지점으로 정의된다. 시각적 자극(하나는 좌안에 대해 다른 하나는 우안에 대해)은 OASP가 안구 정렬을 감시할 수 있는 가상 현실 머리 착용 디스플레이로 프로그래밍될 수 있다. OASP는 시선 추적을 통해 양안 융합이 더 이상 발생하지 않을 때를 객관적으로 결정할 수 있고 이 위치를 대상의 NPC로서 저장할 수 있다.
본 개시내용의 다른 실시형태는 임상적으로 측정된 양성 및 음성 융합 범위와 유사한 양안 범위를 객관적으로 평가하는 것이다. 한쪽 안구의 시각적 자극이 유지되는 좌안 및 우안으로 이미지가 표시될 수 있다. 다른 쪽 안구는 베이스 아웃 프리즘과 유사하게 이미지를 외측으로 이동시키거나 베이스 인 프리즘과 유사하게 이미지를 내측으로 이동시킬 수 있다. 시각적 자극 중 하나를 이동시켜 달성되는 프리즘 효과가 증가될 수 있고 안구 위치가 감시될 수 있다. OASP는 대상이 융합을 유지할 수 있는 객관적으로 가장 큰 프리즘 강도를 결정할 수 있다. 융합이 손실되고 복시(diplopia)가 발생하면, OASP는 대상이 융합을 회복할 수 있는 프리즘 강도의 양을 객관적으로 결정할 수 있다. 이러한 데이터는 양성 및 음성 융합 범위로서 저장될 수 있다.
예시적인 실시형태는 또한 다른 쪽 안구가 시각적 자극을 갖지 않을 때(어두운 화면) 안구의 휴지 위치를 측정하는 단계를 포함한다. 일 실시형태는 우안은 시각적 표적을 갖지 않고 휴지 위치로 감쇠하는 한편 좌안은 시각적 자극을 보는 것일 수 있다. 우안의 휴지 위치는 시선 추적기로 객관적으로 측정될 수 있다. 이러한 데이터는 해리 사위로서 저장될 수 있다. 일부 실시형태에서, 독립적인 이미지가 좌안 및 우안에 표시되고 오차(주시 시차라고도 함)를 저감하기 위한 프리즘 수요의 양(눈에 표시되는 이미지의 오프셋으로서 머리 착용 디스플레이 내에서 측정됨)이 연합 사위로서 측정되도록, 전산 시스템은 머리 착용 디스플레이를 제어할 수 있다. 일부 실시형태에서, 주시 시차를 측정하기 위해 안구 위치의 정상(steady) 상태 위치가 시스템에 의해 측정된다. 주시 시차는 실제 표적이 위치되는 곳과 안구가 고정되는 곳 사이의 차이로서 측정될 수 있다.
본 개시내용의 예시적인 실시형태는 (예를 들면, 입체 효과를 사용하여) 각각의 눈이 약간 상이한 각도 또는 관점에서 동일한 객체 또는 장면의 이미지를 수신하는 3D 시야를 생성하기 위해 머리 착용 디스플레이를 이용할 수 있고, 전산 시스템을 이용할 수 있다. 머리 착용 디스플레이는 환자의 눈으로부터 일정한 초점 거리를 제공하여, 조절 자극을 거의 일정하게 유지한다. 머리 착용 디스플레이를 통해 사용자에게 표시되는 이미지에서 시각적 자극[예를 들면, 가우시안(DoG) 차이 또는 작은 문자를 사용하는 가버 패치 등]을 사용하는 것은 조절 자극을 더 저감할 수 있다. 본원에 설명된 시스템 및 방법의 실시형태는, 시각 디스플레이, 시선 추적 기능을 갖거나 갖지 않는 머리 착용 디스플레이, 컴퓨터, 및 안구 이동 분석 및 평가를 위한 안구 운동 평가 소프트웨어 플랫폼을 포함할 수 있다.
도 1은 본 개시내용의 예시적인 실시형태에 따른 예시적인 안구 운동 평가 시스템(100)을 도시한다. 안구 운동 평가 시스템(100)은 머리 착용 디스플레이(110) 및 전산 시스템(170)을 포함할 수 있다. 머리 착용 디스플레이(110) 및 전산 시스템(170)은 무선 또는 유선 통신을 통해 서로 통신 가능하게 결합될 수 있어, 머리 착용 디스플레이(110) 및 전산 시스템(170)은 서로 상호 작용하여 안구 운동 평가를 위한 가상 현실 환경을 구현할 수 있다. 예를 들면, 안구 운동 평가 시스템(100)의 실시형태는, 비제한적으로, 안구 진탕(nystagmus), 사시(strabismus), 수렴 부족(CI), 수렴 과잉, 발산 부족 및 발산 과잉 등과 같은 양안 기능 장애와 연관된 안구 운동 기능을 평가하기 위해 가상 현실 환경을 제공하도록 구성될 수 있다.
머리 착용 디스플레이(110)는 하우징(150) 내에 배치되는 회로 구성을 포함할 수 있다. 회로 구성은, 우안 디스플레이(122), 좌안 디스플레이(124), 하나 이상의 우안 촬상 장치(126), 하나 이상의 좌안 촬상 장치(128), 하나 이상의 우안 발광 다이오드(130), 하나 이상의 좌안 발광 다이오드(132), 우안 컨트롤러(134), 좌안 컨트롤러(136), 하나 이상의 디스플레이 컨트롤러(138), 및 하나 이상의 하드웨어 인터페이스(140)를 포함할 수 있다.
하우징(150)이 사용자의 머리에 장착될 때 사용자의 우안의 전방에 우안 디스플레이(122)가 위치되고, 하우징(150)이 사용자의 머리에 장착될 때 사용자의 좌안의 전방에 좌안 디스플레이(124)가 위치되도록, 우안 및 좌안 디스플레이(122, 124)가 하우징(150) 내에 배치될 수 있다. 이러한 구성에서, 사용자의 우안 및 우안 디스플레이(122) 사이 및 사용자의 좌안 및 좌안 디스플레이(124) 사이의 일정한 초점 거리를 유지하면서 이미지 내의 객체가 사용자의 시야 시스템에 의해 상이한 깊이에 있는 것으로 인식될 수 있는 3차원 이미지를 생성하는 데에 사용될 수 있는 입체 효과를 유도하기 위해 우안 및 좌안 디스플레이(122, 124) 상에 이미지를 제공하도록 우안 디스플레이(122) 및 좌안 디스플레이(124)가 하나 이상의 디스플레이 컨트롤러(138)에 의해 제어될 수 있다. 예시적인 실시형태에서, 우안 디스플레이(122) 및/또는 좌안 디스플레이(124)는 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이(예를 들면, 패시브 매트릭스(PMOLED) 디스플레이, 액티브 매트릭스(AMOLED) 디스플레이), 및/또는 임의의 적합한 디스플레이로서 구현될 수 있다.
사용자가 우안 디스플레이(122)를 볼 때 사용자의 우안의 이미지를 촬상하기 위해 하나 이상의 우안 촬상 장치(126)가 위치되고 배향될 수 있도록, 하나 이상의 우안 촬상 장치(126)가 하우징(150) 내에서 우안 디스플레이(122)에 대하여 배치될 수 있다. 마찬가지로, 사용자가 좌안 디스플레이(124)를 볼 때 사용자의 좌안의 이미지를 촬상하기 위해 하나 이상의 좌안 촬상 장치(128)가 위치되고 배향될 수 있도록, 하나 이상의 좌안 촬상 장치(128)가 하우징(150) 내에서 좌안 디스플레이(124)에 대하여 배치될 수 있다. 예시적인 실시형태에서, 하나 이상의 우안 및 좌안 촬상 장치(122, 124)는 IR 광에 대하여 특정 민감도를 갖도록(예를 들면, IR 방사선의 이미지를 촬상하도록) 구성된 적외선(IR) 카메라일 수 있다.
사용자가 우안 디스플레이(122)를 볼 때 사용자의 우안을 향하여 광을 방출하기 위해 하나 이상의 발광 다이오드(130)가 위치되고 배향될 수 있도록, 하나 이상의 우안 발광 다이오드(130)가 하우징(150) 내에서 우안 디스플레이(122) 및 하나 이상의 우안 발광 다이오드에 대하여 배치될 수 있다. 마찬가지로, 사용자가 좌안 디스플레이(124)를 볼 때 사용자의 좌안을 향하여 광을 방출하기 위해 하나 이상의 좌안 발광 다이오드(132)가 위치되고 배향될 수 있도록, 하나 이상의 좌안 발광 다이오드(132)가 하우징(150) 내에서 좌안 디스플레이(124)에 대하여 배치될 수 있다. 예시적인 실시형태에서, 하나 이상의 우안 및 좌안 발광 다이오드(130, 132)는 IR 광을 방출하도록 구성되는 적외선(IR) 발광 다이오드일 수 있다. 일부 실시형태에서, 발광 다이오드는 안전 한계의 약 10%에서 안구로 적외광을 투사한다.
하나 이상의 우안 촬상 장치(126)의 동작을 제어하고/하거나 하나 이상의 우안 촬상 장치(126)에 의해 촬상된 우안의 이미지를 처리하기 위해 우안 컨트롤러(134)가 하나 이상의 우안 촬상 장치(126)에 작동되게 결합될 수 있다. 마찬가지로, 하나 이상의 좌안 촬상 장치(128)의 동작을 제어하고/하거나 하나 이상의 좌안 촬상 장치(128)에 의해 촬상된 좌안의 이미지를 처리하기 위해 좌안 컨트롤러(136)가 하나 이상의 좌안 촬상 장치(128)에 작동되게 결합될 수 있다. 하나의 비한정적인 예로서, 우안 및 좌안 컨트롤러(134, 136)는 하나 이상의 우안 및 좌안 촬상 장치(122, 124) 각각의 셔터, 조리개, 재생율(refresh rate), 방출율(discharge rate) 등을 제어하도록 구성될 수 있다. 다른 비한정적인 예로서, 사용자가 우안 및 좌안 디스플레이(126)를 볼 때 우안 및 좌안 컨트롤러(134, 136)는 사용자의 우안 및 우안의 이동을 감시하고/하거나 추적할 수 있으며, 이는 양안 기능 장애에 대한 사용자의 시각 요법을 달성하기 위해 예시적인 실시형태에 의해 이용될 수 있다. 우안 및 좌안 컨트롤러(134, 136) 형태의 별도의 컨트롤러가 우안 및 좌안 촬상 장치(122, 124)를 제어하고 접속하는 데에 이용되고, 본 개시내용의 예시적인 실시형태는 우안 및 좌안 촬상 장치(122, 124)와의 제어 및 접속을 위해 단일의 통합 컨트롤러로 구현될 수 있다.
일부 실시형태에서, 우안 컨트롤러(134) 및/또는 좌안 컨트롤러(136)는 시선 추적 펌웨어/소프트웨어를 사용하여 안구 운동을 검출하도록 구성되는 마이크로컨트롤러 또는 마이크로프로세서로 구현될 수 있다. 일부 실시형태에서, 시선 추적 시스템(예를 들면, 촬상 장치 및 우안 및 좌안 제어를 포함)은 초당 약 40 프레임의 실시간 시선 추적이 가능하다. 발광 다이오드(예를 들면, IR 광원으로서 작동함)는 머리 착용 디스플레이의 어두운 환경에서 각각의 눈을 조명한다.
머리 착용 디스플레이(110)의 예시적인 실시형태는 우측 및 좌측 촬상 장치(126, 128), 우측 및 좌측 LED(130, 132), 및 우안 및 좌안 컨트롤러(134, 136)와 같은 구성 요소를 포함하는 것으로 본원에 설명되지만, 머리 착용 디스플레이의 실시형태는 이러한 구성 요소 중 하나 이상을 갖지 않을 수 있다. 예를 들면, 일부 실시형태에서, 시선 추적 기능이 없는 머리 착용 디스플레이는 이러한 구성 요소를 갖지 않을 수 있다. 이러한 실시형태에서, 시스템(100)은 안구 운동 기능의 측정 및 평가를 용이하게 하기 위해 사용자 피드백을 이용할 수 있다.
본원에 설명된 바와 같이, 전산 시스템(170)으로부터 수신된 입력에 응답하여 그리고 사용자의 우안 및 좌안의 위치에 응답하여, 우안 및 좌안 디스플레이(122, 124)의 동작을 제어하도록 하나 이상의 디스플레이 컨트롤러(138)가 우안 및 좌안 디스플레이(122, 124)에 작동되게 결합될 수 있다. 예시적인 실시형태에서, 하나 이상의 디스플레이 컨트롤러(138)는, 입체 효과를 용이하게 하기 위해 장면 및/또는 객체의 이미지가 약간 상이한 각도 또는 관점에서 제공되는, 동일한 장면 및/또는 객체의 이미지를 우안 및 좌안 디스플레이 상에 제공하도록 구성될 수 있다. 예시적인 실시형태에서, 하나 이상의 디스플레이 컨트롤러(138)는 그래픽 처리 유닛을 포함할 수 있다.
하나 이상의 하드웨어 인터페이스(140)는 머리 착용 디스플레이(110) 및 전산 시스템(170) 사이의 통신을 용이하게 할 수 있다. 머리 착용 디스플레이(110)는 하나 이상의 하드웨어 인터페이스(140)을 통하여 전산 시스템(170)으로 데이터를 전송하고 전산 시스템(170)으로부터 데이터를 수신하도록 구성될 수 있다. 일 예로서, 하나 이상의 하드웨어 인터페이스(140)는 이미지에 대응하여 전산 시스템(170)으로부터 데이터를 수신하도록 구성될 수 있고, 하나 이상의 디스플레이 컨트롤러(138)로 데이터를 전송하도록 구성될 수 있으며, 이는 우안 및 좌안 디스플레이(122, 124) 상에 이미지를 제공하여 안구 운동 기능의 평가를 용이하게 하도록 설계된 (예를 들면, 입체 효과의 결과로서의) 3차원의 가상 현실 환경을 제공할 수 있다. 마찬가지로, 하나 이상의 하드웨어 인터페이스(140)는 각각 사용자의 우안 및 좌안 위치 또는 각도에 대응하여 우안 및 좌안 컨트롤러(134, 136)로부터 데이터를 수신할 수 있고, 전산 시스템(170)으로 데이터를 전송할 수 있으며, 이는 (예를 들면, 가상 현실 환경에서의 자극에 응답하여 사용자의 안구의 수렴 및 발산을 추적하고 기록하는 것에 의해) 안구 운동 평가를 용이하게 하기 위해 안구 운동 평가 소프트웨어 플랫폼(OASP)(172)의 동작을 제어하기 위해 데이터를 사용할 수 있다.
하우징(150)은 장착 구조(152) 및 디스플레이 구조(154)를 포함할 수 있다. 장착 구조(152)는 사용자가 사용자의 머리에 머리 착용 디스플레이(110)를 착용하도록 하고 각각 사용자의 우안 및 좌안이 우안 및 좌안 디스플레이(122, 124)를 보는 것을 용이하게 하기 위해 디스플레이 구조를 사용자의 안구 위에 위치시키도록 한다. 장착 구조는 일반적으로 머리 착용 디스플레이(110)를 사용자의 머리에 고정적이고 안정적인 방식으로 장착하도록 구성될 수 있다. 이와 같이, 머리 착용 디스플레이(110)는 일반적으로 사용자의 머리에 대해 고정된 상태로 유지되어, 사용자가 머리를 좌측, 우측, 상방 및 하방으로 이동시킬 때, 머리 착용 디스플레이(110)는 일반적으로 사용자의 머리와 함께 이동한다.
도 1 및 도 3을 참조하면, 디스플레이 구조(154)는 사용자의 안구를 덮고 일반적으로 사용자를 주위의 환경으로부터의 빛이 사용자의 안구에 도달하는 것을 방지하기 위해 사용자의 얼굴에 꼭 맞는 윤곽을 가질 수 있다. 디스플레이 구조(154)는 그 내부에 형성되는 우안 입구(156) 및 좌안 입구(158)를 포함할 수 있다. 우안 렌즈(160a)는 우안 입구 위에 배치될 수 있고, 좌안 렌즈(160b)는 좌안 입구 위에 배치될 수 있다. 렌즈(156)가 우안 디스플레이(122), 하나 이상의 우안 촬상 장치(126), 및 하나 이상의 우안 발광 다이오드(130)의 각각과 사용자의 우안 사이에 배치되도록, 우안 디스플레이(122), 하나 이상의 우안 촬상 장치(126), 및 하나 이상의 우안 발광 다이오드(130)는 우안 입구(156)를 덮는 렌즈(160) 후방에서 디스플레이 구조(154) 내에 배치될 수 있다. 렌즈(160)가 좌안 디스플레이(124), 하나 이상의 좌안 촬상 장치(128), 및 하나 이상의 좌안 발광 다이오드(132)의 각각과 사용자의 좌안 사이에 배치되도록, 좌안 디스플레이(124), 하나 이상의 좌안 촬상 장치(128), 및 하나 이상의 좌안 발광 다이오드(132)는 좌안 입구(158)를 덮는 렌즈(160)의 후방에서 디스플레이 구조(154) 내에 배치될 수 있다.
예시적인 실시형태로서, 하나 이상의 우안 촬상 장치(126) 및 하나 이상의 우안 발광 다이오드(130)가 우안 입구를 덮는 렌즈(160) 후방에 배치되는 것으로 설명되지만, 본 개시내용의 예시적인 실시형태에서, 하나 이상의 우안 촬상 장치(126) 및/또는 하나 이상의 우안 발광 다이오드(130)와 사용자의 우안 사이에 렌즈(160)가 위치되지 않도록, 하나 이상의 우안 촬상 장치(126) 및/또는 하나 이상의 우안 발광 다이오드(130)가 우안 입구를 덮는 렌즈(160)의 전방 및/또는 주위에 배치될 수 있다. 마찬가지로, 예시적인 실시형태로서, 하나 이상의 좌안 촬상 장치(128) 및 하나 이상의 좌안 발광 다이오드(132)가 좌안 입구를 덮는 렌즈(160) 후방에 배치되는 것으로 설명되지만, 본 개시내용의 예시적인 실시형태에서, 하나 이상의 우안 촬상 장치(126) 및/또는 하나 이상의 우안 발광 다이오드(130)와 사용자의 좌안 사이에 렌즈(160)가 위치되지 않도록, 하나 이상의 좌안 촬상 장치(128) 및/또는 하나 이상의 좌안 발광 다이오드(132)가 좌안 입구를 덮는 렌즈(160)의 전방 및/또는 주위에 배치될 수 있다.
전산 시스템(170)은 머리 착용 디스플레이(110)를 통해 안구 운동 기능을 평가하기 위해 가상 현실 환경에서 객체/자극을 생성하도록 OASP(172)를 실행하도록 구성될 수 있다. 전산 장치에 의한 OASP(172)의 실행은 사용자가 통상적으로 명확하게 초점을 맞출 수 없는 객체를 포함하는 이미지를 머리 착용 디스플레이가 제공하도록 할 수 있다. 조절 시스템의 자극 또는 흐림(blur) 입력을 저감하기 위해 하나 이상의 기법을 사용하여 객체/자극이 형성될 수 있다. 예를 들면, 가버 패치, 작은 문자, 및/또는 조절의 자극 및/또는 흐림(blur)을 저감하는 임의의 다른 기법을 사용하여 객체/자극이 형성될 수 있다. 가버 패치는 도 4의 예시적인 가버 패치(400)에 도시된 것과 같은 흐린(blurry) 라인으로서 나타나는 일련의 가우시안 차이(DOG) 자극을 사용한다. 시각계는 가버 패치로 형성되는 객체 상에 초점을 맞출 수 없어, 조절 시스템은 본 개시내용의 예시적인 실시형태에 의해 최소한으로 자극된다.
사용자가 눈을 객체/자극에 조준하려고 할 때, 사용자의 안구의 응답을 측정하기 위해, 전산 시스템(170)은 OASP(172)를 실행하여 객체/자극을 동적으로 조정할 수 있다. 머리 착용 디스플레이(110)는, 임상의에 의한 정량적 및/또는 정성적 평가를 용이하게 하기 위해, 전산 시스템(170)으로 출력될 수 있는 (그리고, 전산 시스템으로부터 원격 전산 시스템으로 전송될 수 있는) 버전스 파라미터를 포획하도록, 사용자의 안구의 예상되고/되거나 요구되는 위치에 대한 사용자의 안구의 위치를 추적하고/하거나 감시하는 데에 사용될 수 있다.
안구 운동 기능의 평가를 용이하게 하기 위해, 전산 시스템(170)은 OASP(172)를 실행하여 우안 및 좌안 디스플레이(122, 124)에 의해 제공되는 우측 및 좌측 이미지를 포함하는 데이터를 머리 착용 디스플레이(110)로 전송한다. 우측 및 좌측 이미지의 제공에 응답하여, 사용자의 시각계는 (예를 들면, 입체 효과를 사용하여) 3차원 공간에서 단일 이미지로서 우측 및 좌측 이미지를 인식할 수 있다. 일부 객체/자극을 융합하기 위해서는 시각계가 다른 객체보다 많이 수렴해야 하도록 우안 및 좌안 디스플레이(122, 124) 상에 제공된 우측 및 좌측 이미지가 각각 서로로부터 오프셋될 수 있다. 눈이 더 많이 수렴될수록, 머리 착용 디스플레이 내에서 시각적 객체가 사람에게 더 가깝게 인식될 것이다. 우측 및 좌측 이미지에 포함된 객체를 기초로 사용자의 안구의 위치 및/또는 각도가 조정될 수 있고, 하나 이상의 우측 및 좌측 촬상 장치(126, 128)는 각각, 전산 시스템(170)으로 전송될 수 있는, 사용자의 안구의 위치 및/또는 각도를 추적할 수 있다. 전산 시스템은 표시되고 있는 우측 및 좌측 이미지에 응답하여 사용자의 안구의 위치 및/또는 각도를 입력으로서 수신할 수 있다. 예를 들면, 사용자의 안구가 융합되는 3차원 가상 현실 공간 내에서의 지점을 결정하도록 사용자의 우안 및 좌안의 위치가 추적될 수 있다. 감시되거나 추적된 안구 위치 및/또는 각도를 기초로, 전산 시스템(170)은, OASP를 실행하여, 사용자의 안구의 안구 운동 기능을 평가하기 위해 후속하는 우측 및 좌측 이미지를 생성할 수 있다.
우측 및 좌측 이미지로 통합될 수 있는 시각적 자극의 일부 예는 객체/자극의 애니메이션을 3 차원으로 생성할 수 있으며, 객체/자극의 애니메이션은, 예를 들면, 단계, 램프(ramp), 단계 및 램프의 조합, 사인 형상(sinusoidal), 이중 단계(double step) 또는 개방 루프 자극을 포함한다.
예시적인 실시형태가 머리 착용 디스플레이(110) 및 전산 시스템(170)을 포함하는 것으로 도시되지만, 머리 착용 디스플레이(110)가 본원에 설명된 안구 운동 평가를 제공하는 독립형 자립 장치가 되도록, 머리 착용 디스플레이가 전산 시스템(170)을 포함하고/하거나 전산 시스템(170)의 기능 및 동작을 수행하도록 구성되도록 본 개시내용의 예시적인 실시형태가 구성될 수 있다.
도 1 및 도 2를 참조하면, 예시적인 작동에서, 시스템(100)은 안구 운동 측정을 얻을 수 있고 안구 운동 평가를 생성할 수 있다. 검안 측정 및 평가의 예가 시스템(100)의 예시적인 실시형태에 대해 설명되지만, 시스템(100)의 예시적인 실시형태에 의해 다른 검안 측정이 얻어질 수 있다. 전산 시스템(170)은 머리 착용 디스플레이(110)로 OASP 인터페이스를 실행하여 3축 가상 좌표계를 갖는 3차원 공간 내에 나타나도록 가상 현실 환경에서 하나 이상의 객체의 시각 디스플레이(202)를 제공할 수 있다. OASP의 실행을 통해, 전산 시스템(170)은 3차원 공간에 객체/자극이 제공되는 방식을 변경하도록 머리 착용 디스플레이(110)의 동작을 제어할 수 있다. 전산 시스템(170)은, 예를 들면, 시선 추적 구성 요소를 통하여, 머리 착용 디스플레이(110)로부터 피드백(204)을 수신하여, OASP를 통해 안구 이동(206)을 측정하고 분석할 수 있고, 시스템(100)의 사용자의 안구 운동 기능의 평가(208)를 생성할 수 있다.
전산 시스템(170)은 머리 착용 디스플레이(110)를 통하여 가상 현실 환경 내에 객체/자극을 제공하도록 OASP(172)를 실행하여, 가까운 수렴 지점을 객관적으로 측정하고 결정한 다음, 해리 사위 및 연합 사위 및 주시 시차를 객관적으로 측정할 수 있다. 예를 들면, 객체/자극은 사용자로부터 가상 거리만큼 떨어져 우안 및/또는 좌안 디스플레이 상에 제공될 수 있다(즉, 사용자의 안구 및 우안 및 좌안 디스플레이 사이의 초점 거리가 고정된 상태로 유지되면서, 객체/자극이 사용자로부터의 특정 거리를 나타내도록 제공될 수 있다). 사용자의 안구는 객체/자극에 수렴할 수 있고, 객체/자극은 사용자의 안구가 더 이상 객체/자극에 수렴하지 않을 때까지 객체/자극이 사용자를 향하여 이동하는 것처럼 보이는 애니메이션으로서 제공될 수 있다. 시선 추적은 한쪽 안구가 더 이상 내측으로 실질적으로 이동하지 않을 때까지 내측으로 회전하는 안구의 각도 위치를 기록할 것이다. 양안 융합의 한계에 도달하면, 이는 사용자에게 가장 가까운 버전스 각도 수요일 것이며, 사용자의 가까운 수렴 지점으로서 평가될 것이다. 사용자는 또한 객체/자극이 두 배로 나타나고 마지막 시각적 자극의 버전스 각도 수요가 사용자의 가까운 수렴 지점이 될 때를 버튼의 누름 또는 구두의(verbal) 피드백을 통해 알릴 수 있다. 전산 시스템(170)은 애니메이션화된 객체/자극을 한 번에 한쪽 안구에 일정하게 제공하고, 애니메이션으로 된 객체/자극의 제공을 가끔씩 깜박이는 것을 제외하고, 다른 쪽 안구로의 시각적 자극을 폐색하면서, (해리 및 연합) 사위를 측정할 수 있다. 전산 시스템(170)은 OASP(172)를 실행시켜 머리 착용 디스플레이(110)를 통해 에니메이션화된 객체/자극을 일정하게 제공하고 안구의 위치가 현재 위치되는 곳과 표적 사이의 차이를 측정하면서 정상 상태 오차(주시 시차)를 측정할 수 있다. 폐색된 안구의 지수 감쇠(exponential decay) 및 최종 휴지 지점(final resting spot)이 머리 착용 디스플레이(110)에 의한 안구 이동의 추적을 기초로 전산 시스템(170)에 의해 추적되고 기록될 수 있고, 시선 추적이 없는 장치(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통해 전산 시스템(170)에 작동되게 결합됨)의 경우, 사용자 피드백을 통해 기록될 수 있다.
전산 시스템(170)은 OASP(172)를 실행하여 신속 안구 운동(수평 및 수직) 및 원활한 추적을 측정할 수 있다. 전산 시스템(170)은 수직 및/또는 수평 신속 안구 이동을 자극하는 에니메이션화된 객체/자극을 제공하면서 양안 대등 관계를 측정하여 신속 안구 운동을 측정할 수 있다. 마찬가지로, 전산 시스템(170)은 램프 또는 사인 함수를 통하여 자극되는 원활하게 이동하는 자극을 만드는 에니메이션화된 객체/자극을 제공하면서 양안 대등 관계를 측정하여 원활한 추적을 측정할 수 있다. 신속 안구 이동은 좌우(side to side) 또는 상하(up to down) 신속 안구 이동일 수 있거나 경사각으로 자극될 수 있다. 신속 안구 이동은 하나의 위치로부터 접합 안구 이동을 자극하는 다른 위치로 시선을 급격하게 변경함으로써 관심 대상 객체를 중심와(fovea)(망막에서 광수용기(photoreceptor)의 가장 큰 밀도)로 투사하는 신속 개방 루프 안구 이동이다. 원활한 추적 이동은 접합 안구 이동을 사용하여 원활하게 이동하는 표적을 추종하는 안구의 피드백 제어된 회전으로서 분류된다. 안구가 객체를 추적하고 식별할 수 있는 능력, 이를 수행하는 속도, 시각적 자극에 대한 안구 이동 응답의 정확도 및 정밀도, 주어진 시간 동안의 추적 횟수도 머리 착용 디스플레이(110)에 의한 안구 이동의 추적을 기초로 전산 시스템(170)에 의해 평가되고 기록될 수 있고, 시선 추적이 없는 장치(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통해 전산 시스템(170)에 작동되게 결합됨)의 경우, 사용자 피드백을 통해 기록될 수 있다.
전산 시스템(170)은 OASP(172)를 실행하여 안구 운동/양안 지구력 및 적응을 평가할 수 있다. 전산 시스템(170)은 사용자에 대해 시각적으로 요구되는 경험을 생성하는 다수의 에니메이션화된 객체/자극을 제공하면서 양안 시스템의 저하를 측정하여 안구 운동/양안 지구력을 평가할 수 있다. 안구가 객체를 추적하고 식별하는 능력, 평가의 시작부터 평가의 종료까지의 속도의 변화, 평가의 시작부터 평가의 종료까지의 이동 위치 크기의 변화, 객체/자극과 연관된 안구 이동의 정확도/정밀도의 변화는 머리 착용 디스플레이(110)에 의한 안구 이동의 추적을 기초로 전산 시스템(170)에 의해 추적되고 기록될 수 있고, 시선 추적이 없는 장치(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통해 전산 시스템(170)에 작동되게 결합됨)의 경우, 사용자 피드백을 통해 기록될 수 있다. 전산 시스템(170)은 크고 작은 시각적 단계 자극, 느리고 빠른 램프 자극, 개방 루프 이득 시각적 자극, 이중 및 단일 단계 시각적 자극을 혼합하는 것에 제한되지 않지만 이를 포함하는 양성 또는 음성의 이득 프로토콜을 사용하여 안구 운동 시스템 중 임의의 안구 운동 시스템을 조절할 수 있다. 시선 추적이 없는 장치(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통해 전산 시스템(170)에 작동되게 결합됨)의 경우, 시간에 따른 응답 진폭, 피크 속도, 오차, 정확도 및 정밀도의 변화는 전산 시스템(170) 내에서 평가되거나 사용자 피드백을 통하여 기록될 것이다.
전산 시스템(170)은 OASP를 실행하여 융합 범위 및 버전스 설비를 객관적으로 측정할 수 있다. 플리퍼(flipper) 프리즘과 유사하게, 우안 및/또는 좌안에 대해 머리 착용 디스플레이(110)에 의해 제공된 객체/자극이 내측 또는 외측으로 이동하는 버전스 설비가 측정될 수 있다. 사용자의 안구 이동을 추적하는 것에 의해 객관적으로 정량화되거나 사용자 피드백(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통하여 전산 시스템(170)에 작동되게 결합됨)을 통하여 객관적으로 정량화된 안구가 객체/자극의 변화를 조정하는 능력이 시스템(100)에 의해 기록될 수 있다. 주어진 특정 시간 내에 사용자가 수행할 수 있는 버전스 응답의 수는 시스템(100)에 의해 기록될 것이다. 프리즘 바와 유사하게, 우안 및/또는 좌안에 대해 머리 착용 디스플레이(110)에 의해 제공된 객체/자극이 내측(양성) 또는 외측(음성)으로 이동하는, 융합 범위, 두 가지의 양성 및 음성 범위가 측정될 수 있다. 사용자의 안구 이동을 추적하는 것에 의해 객관적으로 정량화되거나 사용자 피드백(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통하여 전산 시스템(170)에 작동되게 결합됨)을 통하여 객관적으로 정량화된 안구가 객체/자극의 변화를 조정하는 능력이 시스템(100)에 의해 기록될 수 있다.
전산 시스템은 OASP(172)를 실행하여 버전스 피크 속도, 정확도, 응답 진폭, 지연(latency), 피크 속도에 대한 시간, 시간 상수, 오차, 변동, 좌안 및 우안 이동 간의 비대칭, 융합 개시 구성 요소 크기 높이 및 폭에 한정되지 않지만 이를 포함하는 안구 이동 파라미터를 객관적으로 측정할 수 있고/있거나 상이한 초기 버전스 각도에서 발산 피크 속도에 대한 수렴의 비율을 측정할 수 있다. 전산 시스템(170)은 정중선을 따라 급격하게 변화하는 시각적 자극, 점프 단안 운동(jump duction)이라고도 하는 버전스 단계 자극의 피크 속도를 객관적으로 측정할 수 있다. 안구 위치의 변화의 미분 계수가 산출될 수 있고 버전스 피크 단계 속도로서 저장될 수 있다. 초기 응답 진폭이 또한 측정될 수 있다. 제시된 버전스 자극은 또한 원활하게 변화하는 표적을 추적하는 버전스 시스템 능력을 평가하기 위해 램프 또는 사인 곡선을 포함할 수 있다. 버전스의 사전 프로그램밍된 융합 개시 구성 요소를 평가하기 위해 급격하게 변화한 다음 시각적으로 소멸되는 자극이 사용될 수 있다. 전산 장치(170)는 OASP(172)를 실행하여 머리 착용 디스플레이에 의한 가상 환경에서 객체/자극을 제공하여 양안 대등 관계를 측정함으로써 사용자가 다방향 안구 이동을 수행하도록 할 수 있다. 시선 추적이 없는 장치(예를 들면, 키보드, 마우스, 조이스틱, 마이크로폰, 등을 통하여 전산 시스템(170)에 작동되게 결합됨)의 경우, 사용자의 안구가 객체를 추적하고 식별하는 능력, 이를 수행하는 속도, 정밀도/정확도는 시스템(100)에 의해 추적될 수 있거나 사용자 피드백에 의해 기록될 수 있다.
시스템(100)에 의해 측정된 객관적인 안구 운동 측정은 사람이 정상 범위 내에 있는지 또는 안과 전문 평가를 구해야 하는지를 제안하는 가중 평가로 결합될 수 있다. 가중 평가는 전술한 파라미터/특징 중 임의의 조합일 수 있다. 가중 평가의 일 실시형태는 안구 운동 특성/파라미터(Δ안구 운동 파라미터(i))를 시간 빈(bin)(예를 들면, i=1 내지 i=N)에 따른 시간 상수(시간 상수(i))로 나눈 변화의 크기일 수 있다. 예를 들면, 시간 상수는 안구 이동 특징/파라미터의 총 변화의 특정된 양(예를 들면, 66.7%)만큼 사용자의 안구 이동이 변화하는 데에 걸리는 시간을 나타낼 수 있다. 시간 빈은 안구 운동 파라미터 및/또는 안구 운동 파라미터에 대한 구체적인 시간 간격에 대해 수행되는 다수의 반복에 대응할 수 있다. 이러한 가중 평가는 다양한 양안 장애에 해당하는 상이한 지표를 생성하는 데에 사용될 수 있다. 평가가 변화 안구 운동 파라미터를 시간 상수로 나눈 값과 스칼라 안구 운동 파라미터(안구 운동 파라미터(i))의 합을 가중치의 제1 파라미터(i)로부터 마지막 파라미터(N)까지의 총액과 곱한 것이 되는 수식의 실시형태가 아래에서 설명될 수 있으며, 스칼라 안구 운동 파라미터는 시간과는 무관한 안구 운동 파라미터의 기준값을 나타낸다.
시스템(100)은 임상의에 의해 환자의 시각계를 정량적으로 평가하기 위해 사용될 수 있고 치료적 개입으로부터의 진행 또는 변화를 평가하는 데에 사용될 수 있는 정량적 데이터를 생성할 수 있다.
OASP(172)는 사용자의 안구 운동 기능의 객관적인 평가를 용이하게 하기 위해 하나 이상의 훈련된 기계 학습 알고리즘을 이용할 수 있다. 하나 이상의 기계 학습 알고리즘은 하나 이상의 기계 학습 모델을 생성하기 위해 측정된 안구 운동 특성 및 안구 운동 평가 또는 진단과 관련된 트레이닝 데이터 자료를 사용하여 훈련될 수 있다. 훈련된 기계 학습 모델은 안구 운동 기능의 객관적인 평가를 용이하게 하기 위해 OASP(172)에 통합될 수 있다. 일 예로서, OASP(172)의 실시형태는 신경 네트워크 또는 기계 학습 알고리즘을 사용하여 객관적인 가까운 수렴 지점, 양성 및 음성 융합 범위, 해리 사위 및 연합 사위, 주시 시차, 버전스 피크 속도, 응답 진폭으로 나눈 버전스 피크 속도의 비율, 신속 안구 이동의 품질 및 횟수, 원활한 추적 안구 이동, 버전스 설비, 좌안 및 우안 사이의 비대칭, 정확도, 변동, 깜빡임 속도, 수렴 대 발산 피크 속도 비율, 양안 지구력 및 안구 이동 적응을 평가할 수 있다. 이러한 파라미터의 가중치를 사용하여, OASP는 대상이 전문 안과 의사를 만나야 하는지를 결정할 수 있다. 신경 네트워크 또는 기계 학습의 사용을 통해 OASP 172는 평가의 민감도와 세부 사항을 유지하면서 평가 기간을 줄이기 위해 객체/자극의 제공을 독립적으로 변경할 수 있다. 신경 네트워크 또는 기계 학습 알고리즘의 사용은 시간의 평가 지속 기간을 줄이기 위해 사용자가 평가를 잘 수행할 때 융합 범위 또는 가까운 수렴 지점과 같은 평가에서 비선형이 되도록 프로그램 시퀀스를 변경할 수 있다. 신경 네트워크 또는 기계 학습 알고리즘 사용의 다른 예는 안구 운동/양안 지구력 평가에서 시각적으로 요구되는 작업의 어려움의 변화일 수 있다. 전산 시스템(170)은 OASP(172)를 실행하여 사용자의 시각계가 안구 운동 특성을 측정하기 위해 자극에 반응하는 방식에 기초하여 사용자에 대해 측정되는 안구 운동 특성을 동적으로 조정하기 위해 기계 학습 모델을 구현할 수 있다. 이에 따라, 시스템(100)의 실시형태는 사용자의 안구 운동 기능의 정확한 평가를 계속 제공하면서 상이한 환자에 대한 상이한 자극 및 상이한 측정을 제공할 수 있고, 이는 일부 사용자를 평가하는 데에 요구되는 자원의 양을 저감할 수 있고/있거나 일부 사용자를 평가하는 데에 요구되는 시간을 줄일 수 있다.
하나의 비한정적인 예에서, 시스템(100)의 실시형태는 지도 학습을 사용하여 훈련된 지원 벡터를 사용할 수 있다. 다른 비제한적인 예에서, 시스템에 의해 사용되는 기계 학습 알고리즘은, 예를 들어, 지도 학습 알고리즘, 비지도 학습 알고리즘, 인공 신경 네트워크 알고리즘, 연관 규칙 학습 알고리즘, 계층적 클러스터링 알고리즘, 클러스터 분석 알고리즘, 아웃라이어(outlier) 검출 알고리즘, 준지도 학습 알고리즘, 강화 학습 알고리즘 및/또는 심층 학습(deep learning) 알고리즘을 포함할 수 있다. 지도 학습 알고리즘의 예는, 예를 들어, AODE; 역 전파, 자동 인코더, Hopfield 네트워크, Boltzmann 머신, Restricted Boltzmann 머신 및/또는 Spiking 신경 네트워크와 같은 인공 신경 네트워크; Bayesian 네트워크 및/또는 Bayesian 지식 기반과 같은 Bayesian 통계; 사례 기반 추론; 가우스 과정 회귀; 유전자 발현 프로그래밍; 그룹 데이터 처리 방법 (GMDH); 유도 로직 프로그래밍; 인스턴스 기반 학습; 레이지(Lazy) 학습; Automata 학습; 벡터 양자화 학습; 물류 모델 트리; Nearest Neighbor 알고리즘 및/또는 유추적 모델링과 같은 최소 메시지 길이(의사 결정 트리, 결정 그래프 등); 확률적으로 근사적인 정확한 학습(PAC); 지식 획득 방법인, 리플 다운 규칙; 상징적 기계 학습 알고리즘; 지원 벡터 머신; 랜덤 포레스트; 부트스트랩 집계(배깅(bagging)) 및/또는 부스팅(메타 알고리즘)과 같은 분류기 총체(ensemble); 서수 분류; 정보 퍼지 네트워크(IFN); 조건부 랜덤 필드; ANOVA; Fisher의 선형 판별, 선형 회귀, 로지스틱 회귀, 다항 로지스틱 회귀, Naive Bayes 분류기, 퍼셉트론 및/또는 지원 벡터 머신과 같은 선형 분류기; 2차(quadratic) 분류기; k-최근접 이웃(k-nearest neighbor); 부스팅; C4.5, 랜덤 포레스트, ID3, CART, SLIQ 및/또는 SPRINT와 같은 의사 결정 트리; Naive Bayes와 같은 Bayesian 네트워크; 및/또는 히든 마르코프(Hidden Markov) 모델을 포함할 수 있다. 비지도 학습 알고리즘의 예는 기대 최대화 알고리즘; 벡터 양자화; 생성 지형도; 및/또는 정보 병목 방법을 포함할 수 있다. 인공 신경 네트워크의 예는 자가 구성 맵을 포함할 수 있다. 연관 규칙 학습 알고리즘의 예는 Apriori 알고리즘; Eclat 알고리즘; 및/또는 FP-성장 알고리즘을 포함할 수 있다. 계층적 클러스터링의 예는 단일 연결 클러스터링 및/또는 개념적 클러스터링을 포함할 수 있다. 클러스터 분석의 예는 K-평균 알고리즘; 퍼지 클러스터링; DBSCAN; 및/또는 OPTICS 알고리즘을 포함할 수 있다. 아웃라이어 검출의 예는 로컬 아웃라이어 팩터를 포함할 수 있다. 준지도 학습 알고리즘의 예는 생성 모델; 저밀도 분리; 그래프 기반 방법; 및/또는 공동 훈련을 포함할 수 있다. 강화 학습 알고리즘의 예는 시간 차이 학습; Q-학습; Automata 학습; 및/또는 SARSA를 포함할 수 있다. 심층 학습 알고리즘의 예는 딥 빌리프 네트워크; Deep Boltzmann 기계; Deep Convolutional 신경 네트워크; 심층 순환 신경망; 및/또는 계층형 시간 메모리를 포함할 수 있다.
시각적 자극 렌더는 시차 버전스 시스템을 자극하고 조절 또는 근위 버전스에 대한 신호를 최소화하고 제어하는 데에 사용될 수 있다. 일 예로서, 제공된 객체/자극은 가버 패치를 포함할 수 있지만 이에 한정되지 않으며, 가버 패치는 일련의 가우시안 차이(DoG) 자극을 사용하며 도 4의 예시적인 가버 패치에 도시된 것과 같은 흐린(blurry) 라인으로 나타난다. 시각계는 가버 패치로 형성되는 객체 상에 초점을 맞출 수 없어; 조절 시스템은 본 개시내용의 예시적인 실시형태에 의해 최소한으로 자극되며, 이는 시차 버전스 시스템의 성공적인 평가에 중요할 수 있다. 본 개시내용의 예시적인 실시형태에 의해 제공될 수 있는 객체의 다른 비한정적인 예는 사람이 명확하게 집중하는 작은 문자를 포함할 수 있다.
도 5는 전산 시스템(170)의 예시적인 실시형태의 블록도이다. 일부 실시형태에서, 전산 시스템(170)은 머리 착용 디스플레이(110)의 실시형태를 통해 제공될 가상 현실 환경을 실행할 수 있다. 전산 시스템(170)은 예시적인 실시형태를 구현하기 위한 하나 이상의 컴퓨터 실행 가능 명령 또는 소프트웨어를 저장하는 하나 이상의 비일시적 컴퓨터 판독 가능 매체를 포함한다. 비일시적 컴퓨터 판독 가능 매체는, 하나 이상의 유형의 하드웨어 메모리, 비일시적 유형(tangible) 매체(예를 들면, 하나 이상의 자성 스토리지 디스크, 하나 이상의 광학 디스크, 하나 이상의 플래시 드라이브) 등을 포함할 수 있지만 이에 한정되지 않는다. 예를 들면, 전산 시스템(170)에 포함되는 메모리(506)는 예시적인 실시형태를 구현하기 위한 컴퓨터 판독 가능 및 컴퓨터 실행 가능 명령 또는 소프트웨어를 저장할 수 있다. 전산 시스템(170)은 또한 프로세서(502) 및 관련 코어(504)와, 선택적으로, 메모리(506)에 저장된 컴퓨터 판독 가능 및 컴퓨터-실행 가능 명령 또는 소프트웨어 및 시스템 하드웨어를 제어하기 위한 다른 프로그램을 실행하기 위한 하나 이상의 추가적인 프로세서(502') 및 관련 코어(504')(예를 들면, 다중 프로세서/코어를 갖는 컴퓨터 시스템의 경우)를 포함한다. 프로세서(502) 및 프로세서(502')는 각각 단일 코어 프로세서 또는 다중 코어(504 및 504') 프로세서일 수 있고 중앙 처리 유닛, 그래픽 처리 유닛, 등일 수 있다.
전산 장치의 하부 구조(infrastructure) 및 자원이 동적으로 공유될 수 있도록 전산 시스템(170)에서 가상화가 채용될 수 있다. 가상 머신(514)은 다중 프로세서에서 실행되는 프로세스를 처리하도록 제공되어 프로세스가 다중 전산 자원이 아닌 단지 하나의 전산 자원을 사용하는 것처럼 보일 수 있다. 다수의 가상 머신이 하나의 프로세서와 함께 사용될 수도 있다.
메모리(506)는 DRAM, SRAM, EDO RAM 등과 같은 컴퓨터 시스템 메모리 또는 랜덤 액세스 메모리를 포함할 수 있다. 메모리(506)는 또한 다른 유형의 메모리 또는 이들의 조합을 포함할 수 있다.
사용자는 머리 착용 디스플레이(510)의 실시형태를 통해 전산 시스템(170)과 상호 작용할 수 있으며, 이는 예시적인 실시형태에 따라 전산 시스템(170)에 의해 실행되는 OASP의 가상 현실 환경에서 하나 이상의 객체를 표시할 수 있다. 전산 시스템(170)은 사용자로부터 입력을 수신하기 위한 다른 I/O 장치, 예를 들어, 키보드 또는 임의의 적절한 다점 터치 인터페이스(508), 포인팅 장치(510)(예를 들면, 마우스 또는 조이스틱), 마이크로폰(511) 등을 포함할 수 있다. 전산 장치(170)는 다른 적합한 종래의 I/O 주변기기를 포함할 수 있다.
전산 시스템(170)은 또한 안구 운동 기능의 평가 및/또는 양안 기능 장애에 대한 시각적 요법을 용이하게 하기 위해 하나 이상의 가상 현실 환경의 예시적인 실시형태를 구현하는 OASP(172)와 같은 데이터 및 컴퓨터 판독 가능 명령 및/또는 소프트웨어를 저장하기 위한 하드 드라이브, CD-ROM, 또는 기타 컴퓨터 판독 가능 매체와 같은 하나 이상의 저장 장치(524)를 포함할 수 있다. 예시적인 저장 장치(524)는 또한 예시적인 실시형태를 구현하는데 요구되는 임의의 적합한 정보를 저장하기 위한 하나 이상의 데이터베이스를 저장할 수 있다. 예를 들어, 예시적인 저장 장치(524)는 안구 운동 측정, 안구 운동 평가, 사용자 데이터, 사용자 마일스톤 등과 같은 정보를 저장하기 위한 하나 이상의 데이터베이스(528)를 저장할 수 있다. 데이터베이스는 데이터베이스에서 하나 이상의 항목을 추가, 삭제 및/또는 업데이트하기 위해 임의의 적합한 시간에 업데이트될 수 있다.
표준 전화선, LAN 또는 WAN 링크(예를 들면, 802.11, T1, T3, 56kb, X.25), 광대역 연결(예를 들면, ISDN, 프레임 릴레이, ATM), 무선 연결, 컨트롤러 포함(이에 국한되지 않음) 영역 네트워크(CAN) 또는 위의 일부 또는 전부의 조합에 한정되지 않지만 이를 포함하는 다양한 연결을 통해, 전산 시스템(170)은 하나 이상의 네트워크 장치(522)를 통해 하나 이상의 네트워크, 예를 들어, LAN(Local Area Network), WAN(Wide Area Network) 또는 인터넷과 접속하도록 구성된 네트워크 인터페이스(512)를 포함할 수 있다. 네트워크 인터페이스(512)는 빌트인 네트워크 어댑터, 네트워크 인터페이스 카드, PCMCIA 네트워크 카드, 카드 버스 네트워크 어댑터, 무선 네트워크 어댑터, USB 네트워크 어댑터, 모뎀, 또는 통신 가능하고 본원에 설명된 작동을 수행할 수 있는 임의의 유형의 네트워크로 전산 시스템(170)을 접속시키는 데에 적합한 임의의 다른 장치를 포함할 수 있다. 더욱이, 전산 시스템(170)은 워크 스테이션, 데스크탑 컴퓨터, 서버, 랩톱, 핸드 헬드 컴퓨터, 태블릿 컴퓨터 (예를 들면, iPadTM 태블릿 컴퓨터), 모바일 전산 또는 통신 장치(예를 들면, iPhoneTM 통신 장치), 또는 통신 가능하며 본원에 설명된 작동을 수행하기에 충분한 프로세서 전력 및 메모리 용량을 갖는 다른 형태의 전산 또는 통신 장치와 같은 임의의 컴퓨터 시스템일 수 있다.
전산 시스템(170)은 Microsoft® Windows® 운영 체제의 모든 버전, Unix 및 Linux 운영 체제의 상이한 릴리스, Macintosh 컴퓨터용 MacOS®의 모든 버전, 임의의 임베디드 운영 체제, Xbox 게임 시스템용 Microsoft® Xbox 운영 체제, PlayStation 게임 시스템용 Playstation 운영 체제, Wii 게임 시스템용 Wii 운영 체제, 모든 실시간 운영 체제, 모든 오픈 소스 운영 체제, 모든 독점 운영 체제, 또는 전산 장치에서 실행될 수 있고 본원에 설명된 작동을 수행할 수 있는 기타 운영 체제와 같은 임의의 운영 체제(516)를 실행시킬 수 있다. 예시적인 실시형태에서, 운영 체제(516)는 네이티브 모드 또는 에뮬레이트 모드에서 실행될 수 있다. 예시적인 실시형태에서, 운영 체제(516)는 하나 이상의 클라우드 머신 인스턴스에서 실행될 수 있다.
도 6은 시스템(100)의 실시형태를 통해 안구 운동 기능 및/또는 양안 기능 장애를 객관적으로 평가하기 위한 프로세스(600)를 도시하는 순서도이다. 단계 602에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 가까운 수렴 지점을 객관적으로 측정하고 결정하고, 단계 604에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 해리 사위 및 연합 사위 및 주시 시차를 객관적으로 측정한다. 단계 606에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 신속 안구 운동(수평 및 수직) 및 원활한 추적을 측정하고, 단계 608에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 안구 운동/양안 지구력 및 안구 운동 적응을 평가한다. 단계 610에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 사용자의 시각계의 융합 범위 및 버전스 설비를 객관적으로 측정한다. 단계 612에서, 전산 시스템은 OASP를 실행하여 머리 착용 디스플레이와 상호 작용하여 버전스 피크 속도, 정확도, 응답 진폭, 지연, 피크 속도 대한 시간, 시간 상수, 오차, 변동, 좌안 및 우안 이동 간의 비대칭, 램프 응답 속도, 융합 개시 구성 요소의 크기 높이 및 폭을 평가하기 위한 이동의 해부, 상이한 초기 버전스 각도에서 발산 피크 속도에 대한 수렴의 비율 측정에 한정되지 않지만 이와 같은 안구 이동 파라미터를 객관적으로 측정한다.
단계 614에서, 객관적인 측정은 OASP를 실행하는 전산 시스템에 의해 사람이 정상 범위 내에 있는지 여부 또는 안과 전문의를 찾아야 하는지 여부를 제안하는 가중 평가로 결합된다. 단계 616에서, 전산 시스템은 OASP를 실행하여, 치료적 개입으로부터의 진행 또는 변화를 평가하는 데에 사용될 시각계를 정량적으로 평가하기 위해 임상의에 의해 사용될 수 있는 정량적 데이터를 제공한다.
도 7은 본 개시내용의 실시형태에 따른 안구 운동 기능에 대한 평가 및/또는 진단을 위한 객관적인 측정을 제공하는 다른 예시적인 프로세스(700)를 도시하는 순서도이다. 단계 702에서, 입체 효과를 사용하여 디스플레이(예를 들면, 머리 착용 디스플레이(110))로 시각적 자극이 제공된다. 단계 704에서, 디스플레이를 보는 사용자의 시각계로부터 응답을 유도하기 위해 전산 시스템에 의해 시각적 자극이 조정된다. 단계 706에서, 디스플레이 및 전산 시스템 사이의 상호 작용 및 응답을 기초로 하나 이상의 안구 운동 특성이 시스템에 의해 측정된다. 단계 708에서, 안구 운동 특성 각각에 대한 사용자의 안구 이동과 연관된 기준값이 결정되고, 단계 710에서, 사용자의 응답을 기초로 하나 이상의 안구 운동 특성 중 각각에 대해 특정된 기간 동안의 안구 이동의 변화가 결정된다. 단계 712에서, 변화와 연관된 시간 상수가 산출되고, 단계 714에서, 하나 이상의 안구 운동 특성 각각에 가중치가 할당된다. 단계 716에서, 할당된 가중치, 시간 상수, 및 시간 경과에 따른 안구 이동의 변화를 기초로 안구 운동 특성 각각에 대해 객체 값이 생성되고, 단계 718에서, 안구 운동 특성 각각에 대한 객체 값이 결합되어 안구 운동 기능 평가를 생성한다. 일 예에서, 안구 운동 특성 각각에 대한 객관적인 값은 안구 운동 기능 평가를 생성하기 위해 합산될 수 있으며, 이는 임상의에 의해 환자의 시각계를 정량적으로 평가하는 데에 사용될 수 있고 치료적 개입으로부터의 진행 또는 변화를 평가하는 데에 사용될 수 있다.
도 8은 본 개시내용의 실시형태에 따른 안구 운동 기능의 동적 및 객관적인 평가를 위한 예시적인 과정(800)을 도시하는 순서도이다. 단계 802에서, 기계 학습 알고리즘은 하나 이상의 기계 학습 모델을 생성하기 위해 측정된 안구 운동 특성 및 안구 운동 평가 또는 진단과 관련된 트레이닝 데이터의 자료를 사용하여 훈련될 수 있다. 단계 804에서, 훈련된 기계 학습 모델이 머리 착용 디스플레이를 통해 하나 이상의 안구 운동 특성을 동적이고 객관적으로 측정하기 위해 전산 시스템에 의해 채용된다. 단계 806에서, 안구 운동 기능 평가는 하나 이상의 안구 운동 특성 각각에 대한 객관적인 값을 결합함으로써 생성된다.
예시적인 순서도는 예시적인 목적으로 본원에 제공되며 방법의 비한정적인 예이다. 당업자는 예시적인 방법이 예시적인 순서도에 도시된 것보다 더 많거나 적은 단계를 포함할 수 있고 예시적인 순서도의 단계가 예시적인 흐름도에 도시된 순서와 상이한 순서로 수행될 수 있다는 것을 인식할 것이다.
본원에 개시된 요지의 구체적인 실시형태에 대한 전술한 설명은 예시 및 설명의 목적으로 제시되었으며 본원에 제시된 요지의 범위를 제한하려는 것이 아니다. 다른 다양한 실시형태, 수정 및 응용이 전술한 설명 및 첨부된 도면으로부터 당업자에게 명백해질 것이라는 것이 충분히 고려된다. 따라서, 이러한 다른 실시형태, 수정 및 응용은 다음의 첨부된 청구범위 내에 속하도록 의도된다. 또한, 당업자는 본원에 설명된 실시형태, 수정 및 응용이 특정 환경의 맥락에 있고, 본원에 제시된 요지가 이에 제한되지 않고 임의의 수의 다른 방식, 환경 및 목적에 유리하게 적용될 수 있음을 인식할 것이다. 따라서, 후술하는 청구범위는 본원에 개시된 신규한 특징 및 기법의 전체 범위와 사상을 고려하여 해석되어야 한다.

Claims (24)

  1. 사용자의 안구 운동 기능을 관찰하는 시스템으로서,
    상기 사용자가 관찰 가능한 입체 효과를 생성하도록 구성되는 머리 착용 디스플레이;
    상기 머리 착용 디스플레이와 통신하는 전산 시스템으로서,
    상기 머리 착용 디스플레이로 시각적 자극을 제공하고,
    상기 시각적 자극을 조정하여 상기 사용자의 시각계로부터 응답을 유도하고,
    상기 응답을 기초로 상기 사용자의 복수의 안구 운동 특성을 객관적으로 측정하고,
    상기 복수의 안구 운동 특성 각각에 가중치 값을 할당하고, 여기서 상기 가중치 값은 적어도 하나의 양안 장애에 부분적으로 기초하여 상기 복수의 안구 운동 특성 각각에 가중치를 부여하고,
    (i) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 특정 기간에 걸쳐 측정된 변화 크기 및 (ii) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 가중치 값에 적어도 부분적으로 기초하여 상기 복수의 안구 운동 특성들 각각에 대한 객관적인 값(objective value)을 생성하고;
    상기 복수의 안구 운동 특성의 각각에 대한 객관적인 값을 결합하여 안구 운동 기능 평가를 생성하도록, 상기 머리 착용 디스플레이와 상호 작용하는 전산 시스템을 포함하는 사용자의 안구 운동 기능을 관찰하는 시스템.
  2. 제1항에 있어서,
    상기 머리 착용 디스플레이는 상기 사용자의 안구의 이동을 측정하고 상기 전산 시스템으로 상기 이동의 측정을 전송하도록 구성되는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  3. 제2항에 있어서,
    상기 전산 시스템은 상기 안구 이동의 측정을 기초로 상기 시각적 자극을 조정하는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  4. 제2항에 있어서,
    상기 전산 시스템은 상기 안구 이동의 측정을 기초로 상기 복수의 안구 운동 특성을 객관적으로 측정하는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  5. 제1항에 있어서,
    상기 복수의 안구 운동 특성은, 가까운 수렴 지점, 해리 사위 및 연합 사위, 주시 시차 신속 안구 운동, 원활한 추적, 양안 지구력, 안구 이동 적응, 융합 범위, 또는 버전스 설비 중 적어도 하나를 포함하는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  6. 제1항에 있어서,
    상기 복수의 안구 운동 특성은, 버전스 피크 속도, 정확도, 응답 진폭, 지연, 피크 속도에 대한 시간, 시간 상수, 오차, 변동, 좌안 및 우안 이동 간의 비대칭, 램프 응답 속도, 융합 개시 구성 요소의 크기 높이 및 폭을 평가하기 위한 안구 이동의 해부, 또는 상이한 초기 버전스 각도에서 발산 피크 속도에 대한 수렴의 비율의 측정 중 적어도 하나를 포함하는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  7. 삭제
  8. 제1항에 있어서,
    상기 전산 시스템은 신경망 또는 기계 학습 모델을 사용하여 상기 머리 착용 디스플레이로 상기 시각적 자극을 제공하거나 상기 시각적 자극을 조절하여 상기 사용자의 상기 시각계로부터 상기 응답을 유도하는, 사용자의 안구 운동 기능을 관찰하는 시스템.
  9. 사용자의 안구 운동 기능을 관찰하는 방법으로서,
    전산 시스템에 의해, 입체 효과를 사용하여 머리 착용 디스플레이로 시각적 자극을 제공하는 단계;
    상기 전산 시스템에 의해, 상기 시각적 자극을 조정하여 상기 머리 착용 디스플레이를 착용하는 사용자의 시각계로부터 응답을 유도하는 단계;
    상기 전산 시스템에 의해, 상기 머리 착용 디스플레이 및 상기 전산 시스템 사이의 상호 작용 및 상기 응답을 기초로 상기 사용자의 복수의 안구 운동 특성을 객관적으로 측정하는 단계;
    상기 전산 시스템에 의해, 상기 복수의 안구 운동 특성 각각에 가중치 값을 할당하고, 여기서 상기 가중치 값은 적어도 하나의 양안 장애에 부분적으로 기초하여 상기 복수의 안구 운동 특성 각각에 가중치를 부여하는 단계;
    (i) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 특정 기간에 걸쳐 측정된 변화 크기 및 (ii) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 가중치 값에 적어도 부분적으로 기초하여 상기 복수의 안구 운동 특성들 각각에 대한 객관적인 값(objective value)을 생성하는 단계; 및
    상기 전산 시스템에 의해, 상기 복수의 안구 운동 특성의 각각에 대한 객관적인 값을 결합하여 안구 운동 기능 평가를 생성하는 단계를 포함하는 사용자의 안구 운동 기능을 관찰하는 방법.
  10. 제9항에 있어서,
    상기 머리 착용 디스플레이를 통하여 상기 사용자의 안구의 이동을 측정하는 단계; 및 상기 머리 착용 디스플레이에 의해, 상기 사용자의 안구의 이동의 측정을 상기 전산 시스템으로 전송하는 단계를 더 포함하는 사용자의 안구 운동 기능을 관찰하는 방법.
  11. 제10항에 있어서,
    상기 이동의 측정을 기초로 상기 전산 시스템에 의해 상기 시각적 자극을 조정하는 단계를 더 포함하는 사용자의 안구 운동 기능을 관찰하는 방법.
  12. 제10항에 있어서,
    상기 이동의 측정을 기초로 상기 전산 시스템에 의해 상기 복수의 안구 운동 특성을 객관적으로 측정하는 단계를 더 포함하는 사용자의 안구 운동 기능을 관찰하는 방법.
  13. 제9항에 있어서,
    상기 복수의 안구 운동 특성은, 가까운 수렴 지점, 해리 사위 및 연합 사위, 주시 시차, 신속 안구 운동, 원활한 추적, 양안 지구력, 안구 이동 적응, 융합 범위, 또는 버전스 설비 중 적어도 하나를 포함하는, 사용자의 안구 운동 기능을 관찰하는 방법.
  14. 제9항에 있어서,
    상기 복수의 안구 운동 특성은, 버전스 피크 속도, 정확도, 응답 진폭, 지연, 피크 속도에 대한 시간, 시간 상수, 오차, 변동, 좌안 및 우안 이동 간의 비대칭, 램프 응답 속도, 융합 개시 구성 요소의 크기 높이 및 폭을 평가하기 위한 이동의 해부, 또는 상이한 초기 버전스 각도에서 발산 피크 속도에 대한 수렴의 비율의 측정 중 적어도 하나를 포함하는, 사용자의 안구 운동 기능을 관찰하는 방법.
  15. 삭제
  16. 제9항에 있어서,
    상기 전산 시스템은 신경망 또는 기계 학습 모델을 사용하여 상기 머리 착용 디스플레이로 상기 시각적 자극을 제공하거나 상기 시각적 자극을 조절하여 상기 사용자의 상기 시각계로부터 상기 응답을 유도하는, 사용자의 안구 운동 기능을 관찰하는 방법.
  17. 처리 장치에 의해 실행될 때 상기 처리 장치가 방법을 구현하도록 하는 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체로서,
    상기 방법은,
    입체 효과를 사용하여 머리 착용 디스플레이로 시각적 자극을 제공하는 단계;
    상기 시각적 자극을 조정하여 상기 머리 착용 디스플레이를 착용하는 사용자의 시각계로부터 응답을 유도하는 단계;
    상기 머리 착용 디스플레이 및 전산 시스템 사이의 상호 작용 및 상기 응답을 기초로 상기 사용자의 복수의 안구 운동 특성을 객관적으로 측정하는 단계;
    전산 시스템에 의해, 상기 복수의 안구 운동 특성 각각에 가중치 값을 할당하고, 여기서 상기 가중치 값은 적어도 하나의 양안 장애에 부분적으로 기초하여 상기 복수의 안구 운동 특성 각각에 가중치를 부여하는 단계;
    (i) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 특정 기간에 걸쳐 측정된 변화 크기 및 (ii) 상기 복수의 안구 운동 특성의 각각의 안구 운동 특성의 가중치 값에 적어도 부분적으로 기초하여 상기 복수의 안구 운동 특성들 각각에 대한 객관적인 값(objective value)을 생성하는 단계; 및
    상기 복수의 안구 운동 특성의 각각에 대한 객관적인 값을 결합하여 안구 운동 기능 평가를 생성하는 단계를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
  18. 제17항에 있어서,
    상기 처리 장치에 의한 상기 명령의 실행은 상기 처리 장치가, 상기 머리 착용 디스플레이를 통하여 상기 사용자의 안구의 이동을 측정하도록 하고, 상기 사용자의 안구의 이동의 측정을 상기 전산 시스템으로 전송하도록 하는, 비일시적 컴퓨터 판독 가능 매체.
  19. 제18항에 있어서,
    상기 처리 장치에 의한 상기 명령의 실행은 상기 처리 장치가, 상기 이동의 측정을 기초로 상기 전산 시스템에 의해 상기 시각적 자극을 조정하도록 하는, 비일시적 컴퓨터 판독 가능 매체.
  20. 제18항에 있어서,
    상기 처리 장치에 의한 상기 명령의 실행은 상기 처리 장치가, 상기 이동의 측정을 기초로 상기 전산 시스템에 의해 상기 복수의 안구 운동 특성을 객관적으로 측정하도록 하는, 비일시적 컴퓨터 판독 가능 매체.
  21. 제17항에 있어서,
    상기 복수의 안구 운동 특성은, 가까운 수렴 지점, 해리 사위 및 연합 사위, 주시 시차, 신속 안구 운동, 원활한 추적, 양안 지구력, 융합 범위, 또는 버전스 설비 중 적어도 하나를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
  22. 제17항에 있어서,
    상기 복수의 안구 운동 특성은, 버전스 피크 속도, 정확도, 응답 진폭, 지연, 피크 속도에 대한 시간, 시간 상수, 오차, 변동, 좌안 및 우안 이동 간의 비대칭, 램프 응답 속도, 융합 개시 구성 요소의 크기 높이 및 폭을 평가하기 위한 이동의 해부, 또는 상이한 초기 버전스 각도에서 발산 피크 속도에 대한 수렴의 비율의 측정 중 적어도 하나를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
  23. 삭제
  24. 제17항에 있어서,
    신경망 또는 기계 학습 모델을 사용하여 상기 머리 착용 디스플레이로 상기 시각적 자극을 제공하거나 상기 시각적 자극을 조절하여 상기 사용자의 상기 시각계로부터 상기 응답을 유도하는, 비일시적 컴퓨터 판독 가능 매체.
KR1020217001349A 2018-06-18 2019-06-18 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치 KR102616391B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862686406P 2018-06-18 2018-06-18
US62/686,406 2018-06-18
PCT/US2019/037732 WO2019246098A1 (en) 2018-06-18 2019-06-18 Method, system and apparatus for diagnostic assessment and screening of binocular dysfunctions

Publications (2)

Publication Number Publication Date
KR20210020133A KR20210020133A (ko) 2021-02-23
KR102616391B1 true KR102616391B1 (ko) 2023-12-20

Family

ID=68983970

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217001349A KR102616391B1 (ko) 2018-06-18 2019-06-18 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치

Country Status (5)

Country Link
US (1) US20210275013A1 (ko)
EP (1) EP3806710A4 (ko)
KR (1) KR102616391B1 (ko)
CA (1) CA3103877A1 (ko)
WO (1) WO2019246098A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928632B2 (en) * 2019-12-19 2024-03-12 Senseye, Inc. Ocular system for deception detection
US11793403B2 (en) * 2020-03-16 2023-10-24 Vivid Vision, Inc. Apparatus, systems, and methods for vision assessment and treatment
CN111640090B (zh) * 2020-05-12 2022-05-31 宁波蓝明信息科技有限公司 一种用于评估眼底图像质量的方法
US11747617B2 (en) * 2020-07-24 2023-09-05 Padula Rehabilitation Technologies, Llc Systems and methods for a parallactic ambient visual-field enhancer
KR20240063280A (ko) * 2022-10-31 2024-05-10 ㈜아이씨유코퍼레이션 Vr을 이용한 사시 및 사위 트레이닝 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160432A1 (en) * 2012-12-11 2014-06-12 Elwha Llc Self-Aligning Unobtrusive Active Eye Interrogation
US20150338915A1 (en) * 2014-05-09 2015-11-26 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
WO2017015603A1 (en) * 2015-07-23 2017-01-26 New Jersey Institute Of Technology Method, system, and apparatus for treatment of binocular dysfunctions

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5670079B2 (ja) * 2009-09-30 2015-02-18 富士フイルム株式会社 医用画像表示装置および方法、並びにプログラム
JP6024159B2 (ja) * 2012-03-30 2016-11-09 株式会社ニコン 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム
US9101312B2 (en) * 2012-04-18 2015-08-11 TBI Diagnostics LLC System for the physiological evaluation of brain function
WO2015095737A2 (en) * 2013-12-19 2015-06-25 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
US20150317956A1 (en) * 2014-04-30 2015-11-05 International Business Machines Corporation Head mounted display utilizing compressed imagery in the visual periphery
CN109690384A (zh) * 2016-04-08 2019-04-26 维扎瑞尔股份公司 用于基于视觉性能数据获得、分析和生成视觉性能数据和修改媒体的方法和系统
WO2017222997A1 (en) * 2016-06-20 2017-12-28 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
US20180090229A1 (en) * 2016-06-28 2018-03-29 Alodeep Sanyal Automated Continuous and Adaptive Health Monitoring
CN107272904B (zh) * 2017-06-28 2021-05-18 联想(北京)有限公司 一种图像显示方法及电子设备
JP7185331B2 (ja) * 2018-03-22 2022-12-07 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160432A1 (en) * 2012-12-11 2014-06-12 Elwha Llc Self-Aligning Unobtrusive Active Eye Interrogation
US9039180B2 (en) * 2012-12-11 2015-05-26 Elwah LLC Self-aligning unobtrusive active eye interrogation
US20150338915A1 (en) * 2014-05-09 2015-11-26 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
WO2017015603A1 (en) * 2015-07-23 2017-01-26 New Jersey Institute Of Technology Method, system, and apparatus for treatment of binocular dysfunctions

Also Published As

Publication number Publication date
WO2019246098A1 (en) 2019-12-26
KR20210020133A (ko) 2021-02-23
CA3103877A1 (en) 2019-12-26
US20210275013A1 (en) 2021-09-09
EP3806710A1 (en) 2021-04-21
EP3806710A4 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
KR102616391B1 (ko) 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치
Garbin et al. Openeds: Open eye dataset
US11733542B2 (en) Light field processor system
US20240099575A1 (en) Systems and methods for vision assessment
US20230195222A1 (en) Methods and Systems for Obtaining, Aggregating, and Analyzing Vision Data to Assess a Person's Vision Performance
US20220301669A1 (en) Systems and methods for a web platform hosting one or more assessments of human visual performance
JP6952713B2 (ja) 反射を利用する拡張現実システムおよび方法
EP3488283B1 (en) Head-mounted display system
Islam et al. Cybersickness prediction from integrated hmd’s sensors: A multimodal deep fusion approach using eye-tracking and head-tracking data
David et al. What are the visuo-motor tendencies of omnidirectional scene free-viewing in virtual reality?
Mazzeo et al. Deep learning based eye gaze estimation and prediction
US20220179205A1 (en) System and method of use including patterned balls for training
US20240119594A1 (en) Determining Digital Markers Indicative of a Neurological Condition Using Eye Movement Parameters
US20240037987A1 (en) Determining Digital Markers Indicative of a Neurological Condition
von Grünau et al. Velocity discrimination thresholds for flowfield motions with moving observers
Hvass et al. A preliminary exploration in the correlation of cybersickness and gaze direction in VR
US20230337911A1 (en) Systems and methods to measure and improve eye movements and fixation
KR102669685B1 (ko) 광 필드 프로세서 시스템
Shal et al. A Review on different techniques for human-computer Communication using eye movement
Kothari Towards Robust Gaze Estimation and Classification in Naturalistic Conditions
Munn Three-dimensional head motion, point-of-regard and encoded gaze fixations in real scenes: Next-Generation portable video-based monocular eye tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant