RU2754195C2 - Система для измерения совокупности клинических параметров функции зрения - Google Patents
Система для измерения совокупности клинических параметров функции зрения Download PDFInfo
- Publication number
- RU2754195C2 RU2754195C2 RU2019116179A RU2019116179A RU2754195C2 RU 2754195 C2 RU2754195 C2 RU 2754195C2 RU 2019116179 A RU2019116179 A RU 2019116179A RU 2019116179 A RU2019116179 A RU 2019116179A RU 2754195 C2 RU2754195 C2 RU 2754195C2
- Authority
- RU
- Russia
- Prior art keywords
- user
- display unit
- visual
- scene
- interface
- Prior art date
Links
- 230000004382 visual function Effects 0.000 title claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims abstract description 24
- 230000000007 visual effect Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 11
- 230000004064 dysfunction Effects 0.000 claims abstract description 10
- 210000001747 pupil Anatomy 0.000 claims abstract description 8
- 230000004044 response Effects 0.000 claims abstract description 8
- 230000004308 accommodation Effects 0.000 claims abstract description 5
- 210000003128 head Anatomy 0.000 claims abstract description 5
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 3
- 230000016776 visual perception Effects 0.000 claims abstract description 3
- 238000005259 measurement Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 6
- 239000011521 glass Substances 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 238000007654 immersion Methods 0.000 abstract description 3
- 239000003814 drug Substances 0.000 abstract 2
- 239000000126 substance Substances 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 20
- 210000001508 eye Anatomy 0.000 description 13
- 230000004438 eyesight Effects 0.000 description 5
- 238000002560 therapeutic procedure Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000003945 visual behavior Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 206010053694 Saccadic eye movement Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 230000004598 abnormal eye movement Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/18—Arrangement of plural eye-testing or -examining apparatus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/005—Constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/024—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/06—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/06—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
- A61B3/066—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/09—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Заявленное изобретение относится к медицине, а именно к методам, использующим для измерения параметров этого типа погружение в виртуальную реальность. Предложенная система для измерения совокупности клинических параметров функции зрения содержит: дисплейный блок для отображения сцены с 3D-объектом, имеющим изменяемые характеристики, такие как виртуальное положение и виртуальный объем 3D-объекта в указанной сцене; датчики движения для детектирования положения головы пользователя и расстояния от дисплейного блока; следящие датчики для детектирования положения зрачков пользователя и межзрачкового расстояния; интерфейс для обеспечения пользователю возможности взаимодействовать со сценой; процессорные средства для анализа отклика пользователя на основе данных, поступивших от датчиков и интерфейса совместно с изменениями характеристик 3D-объекта, а также для выдачи оценок группы клинических параметров функции зрения, включая бинокулярность, аккомодацию, подвижность глазного яблока и зрительное восприятие. Изобретение обеспечивает идентификацию дисфункций, а также тренировку физической и технической активности здоровых пользователей посредством визуальных стимулов и задач. 11 з.п. ф-лы, 6 ил.
Description
Область техники
Изобретение относится к системам и способам для измерения клинических параметров функции зрения. Более конкретно, оно относится к методам, использующим для измерения параметров этого типа погружение в виртуальную реальность.
Уровень техники
В настоящее время измерение клинических параметров функции зрения требует проведения специалистом в клинических условиях сеанса, в процессе которого пациент исследуется с использованием нескольких тестов и оптотипов. Как правило, участие персонала в процессе измерений и наличие процедур, осуществляемых вручную, делает результаты субъективными, плохо воспроизводимыми и только качественными.
При этом измерения, связанные с функцией зрения, подлежащей тестированию, проводятся независимо одно от другого. Это иногда приводит к недостоверным результатам из-за того, что при этом не учитывается влияние других факторов. Например, известно, что пациенты обычно компенсируют определенную аномалию или дефект функции зрения совместным использованием других факторов функции зрения.
Вкратце, в настоящее время адаптивные возможности пациента не принимаются во внимание; как следствие, действия, направленные на коррекцию конкретной аномалии, могут на практике привести к общему ухудшению зрения пациента. Кроме того, на измерения и тестирование пациента влияет субъективность проводящего их специалиста, что существенно ограничивает воспроизводимость и согласованность получаемых экспериментальных результатов.
Раскрытие изобретения
Изобретение относится к системе для измерения, предпочтительно в реальном времени, совокупности офтальмологических и окуломоторных параметров, а также параметров функции зрения и для разработки методов терапии и тренировки с целью улучшения данной функции.
С этой целью в системе используются следящие датчики, которые детектируют положение зрачков пользователя, и дисплейный блок для трехмерного (3D) воспроизведения пользователю определенных сцен с 3D-объектами, имеющими заданные свойства, относящиеся к размеру, форме, цвету, скорости и т.д. Значения этих свойств выбираются в зависимости от типа теста, который должен быть проведен как часть соответствующего сеанса. Датчики движения детектируют движения пользователя, так что дисплейный блок может адаптировать сцену и придать ей характер, облегчающий погружение в нее.
Система содержит также интерфейс, с которым может взаимодействовать пользователь. Более конкретно, интерфейс принимает от пользователя команды по взаимодействию с дисплейной системой. Эти команды могут вводиться многими различными способами (посредством управляющих кнопок, голосовых команд, перчаток и т.д.).
Система использует, кроме того, процессорные средства, координированным образом управляющие дисплейным блоком, датчиком и интерфейсом. Таким образом, отклики пользователя на визуальные стимулы, сгенерированные дисплейным блоком, детектируются датчиками и передаются процессорным средствам для измерения клинических параметров. Полученные значения клинических параметров могут сравниваться с хранящимся в памяти интервалом референтных значений.
Важная особенность изобретения заключается в использовании технологии, основанной на виртуальной реальности, что делает возможным создание различных сред для взаимодействия с пользователем. Более конкретно, задача заключается в обеспечении возможности погружения в виртуальную среду. Это представляет особый интерес для создания условий, которые для пользователя представляются близкими к реальности и которые поэтому могут неоднократно воспроизводиться, если это представляется желательным. С этой целью дисплейный блок необходимо связать с датчиками движения, закрепленными на пользователе. В некоторых вариантах осуществления в качестве этого блока можно использовать очки виртуальной реальности, а в других - 3D-экран и поляризационные очки. В любом случае подключение датчиков движения к дисплейному блоку позволяет адаптировать 3D-изображение к движению или положению человека, создавая у пользователя ощущение перемещения в отображаемой виртуальной среде, т.е. ощущение погружения в эту среду предпочтительно при поле зрения не менее 60°. Это делает возможным эффективно проводить оценивание, терапию и тренировку функции зрения. Чтобы решить рассмотренные задачи, важна точная координация между компонентами, используемыми при проведении сеанса. Так, пользователь сначала знакомится с 3D-средой виртуальной реальности, рассчитанной на погружение в нее пользователя. В этой 3D-среде будут воспроизводиться, в качестве "оптотипов", некоторые 3D-объекты, предназначенные служить стимулами, на которые пользователь должен фокусировать свое зрение и которые выбираются в зависимости от проводимого теста.
Краткое описание чертежей
На фиг.1 представлена упрощенная блок-схема возможного варианта осуществления изобретения.
На фиг.2А, 2В представлен пример измерения применительно к здоровому пользователю, глядящему на сцену с движущимся 3D-объектом.
На фиг.3А, 3В представлен пример измерения применительно к пользователю с дисфункцией, глядящему на сцену с движущимся 3D-объектом.
На фиг.4 представлена блок-схема, иллюстрирующая основные этапы варианта осуществления способа.
Осуществление изобретения
Далее, со ссылками на чертежи, будет подробно описан неограничивающий вариант изобретения.
Фиг. 1 иллюстрирует систему для измерения совокупности клинических параметров функции зрения в реальном времени. Система содержит несколько компонентов, в том числе следящий датчик 10, который используется для периодического детектирования положения зрачков пользователя. В результате могут быть измерены не только изменения направления, но также их скорость. В общем случае следящий датчик 10 делает возможным измерять группу параметров в процессе проведения конкретного теста в рамках сеанса. Фиг. 2 и 3 подробно иллюстрируют этот аспект изобретения. Более конкретно, следящий датчик 10 может определять значения для положений правого глаза и левого глаза, для положения объекта, на который смотрит пользователь (обоими глазами и одним глазом), расстояние глаз-датчик, размер зрачка, межзрачковое расстояние, скорость движения глаза и т.д. В общем случае, чтобы осуществлять измерения, следящий датчик 10 содержит пару камер, которые должны быть сфокусированы на глаза пользователя и отслеживать их движение и положения. Это требует использования частоты семплирования, достаточно высокой для отслеживания быстрых движений глаз. Датчик может также рассчитывать позицию (точку) в генерированной виртуальной среде, на которую смотрит пользователь. Следящий датчик 10 является важным условием для правильного проведения оптометрических измерений. Большое количество дисфункций может детектироваться посредством аномальных движений глаз под воздействием нескольких стимулов. Для большей ясности на фиг.2 и 3 представлены примеры того, как измерения, выполняемые датчиками 10, 60, ассоциированы с состоянием зрения пользователя с возможной дисфункцией или без нее.
Дисплейный блок 20, позволяющий осуществить погружение в 3D-среду, воспроизводит или проецирует для пользователя сцены, обладающие глубиной и содержащие 3D-объекты, имеющие заданные свойства, относящиеся к размеру, форме, цвету, локализации в пределах сцены, расстоянию от пользователя, стоящего или находящегося в движении, и т.д. Эти сцены, включающие 3D-объекты, выполняющие функцию оптотипов, могут выбираться в системе в соответствии с типом теста, который должен быть проведен, и позволяют создавать для пользователя определенные визуальные стимулы. Таким образом, для пользователя может быть воспроизведено множество сцен, создающих различные визуальные задачи и стимулы либо для оценки, либо для терапии или тренировки функции зрения.
Система содержит также интерфейс 30 для взаимодействия с пользователем. Более конкретно, интерфейс принимает от пользователя команды по управлению дисплейным блоком 20 и другими элементами системы. В свою очередь, интерфейс 30 может также передавать пользователю инструкции по тестированию. В результате система может измерять отклик на действия пользователя (движение, положение в трехмерной среде, нажатие кнопок и т.д.).
Система содержит также процессорные средства 40, предпочтительно реализованные в виде сервера 42 и терминала 44, которые координируют управление дисплейным блоком 20, датчиком 10 и интерфейсом 30, так что визуальные отклики (реакции) пользователя могут детектироваться датчиком 10 и передаваться серверу 42 для измерения клинических параметров функции зрения. Кроме того, дисплейный блок 20 обеспечивает возможность адаптации отображаемого 3D-изображения в соответствии с движением пользователя. Дисплейный блок 20 может быть снабжен диссоциирующей (dissociating) системой (например в виде поляризационных очков). Система может быть выполнена с возможностью проведения сравнения с интервалом референтных значений, основываясь на профиле пользователя, включающем, по меньшей мере, информацию о возрасте.
Тест предпочтительно запускается через 3D-интерфейс. При визуализации конкретной сцены визуальные стимулы пользователя, которые были детектированы датчиком 10 в определенный момент, ассоциируют с 3D-объектами, отображаемыми в данный момент дисплейным блоком 20. При этом изменения положения зрачков пользователя детектируются и комбинируются с движениями его головы, которые детектируются посредством датчика 60 движения. Наличие связи между датчиком 60 движения и дисплейным блоком 20 позволяет демонстрировать 3D-изображение, адаптированное к движению или положению человека. В результате пользователь может ощущать себя реально движущимся через указанную визуализируемую виртуальную среду, т.е. погруженным в нее.
Данные обрабатывают, и свойства 3D-объектов ассоциируют со сгенерированными стимулами, которые детектированы датчиками 10, 60. Это делает возможным измерять клинические параметры функции зрения в воспроизводимых и контролируемых условиях. Таким образом, посредством соответствующей обработки принимаемых данных можно получить сведения о визуальном поведении пользователя, движении глаз, конвергенции и т.д. Кроме того, клинические параметры функции зрения можно будет сравнить с ожидаемым интервалом этих параметров, чтобы оценить, не существует ли какой-нибудь проблемы.
Как было отмечено, одновременно с визуализацией 3D-объектов в дисплейном блоке 20, следящий датчик 10 отслеживает параметры взгляда пользователя в указанной среде виртуальной реальности. Следящий датчик 10 регистрирует:
- положение глаз (левого и правого);
- место, на которое смотрит каждый глаз (по отдельности);
- место, на которое пользователь смотрит в трехмерной среде, используя оба глаза.
Одновременно могут выводиться инструкции, чтобы направлять пользователей, объясняя, что они должны делать в каждый момент. Эти инструкции, выдаваемые через интерфейс 30, могут быть в форме текстовом или аудио формате. Интерфейс 30 также дает пользователю возможность взаимодействовать с 3D-объектами сцены, отображенной дисплейным блоком 20. Когда начинается взаимодействие с пользователем, детектированные отклики на стимулы, т.е. результаты измерений, должны быть зарегистрированы.
Эти отклики пользователя могут осуществляться, например, посредством следующих действий:
- перемещение устройства (в любом направлении в пространстве);
- позиционирование устройства в среде виртуальной реальности;
- нажатия кнопок устройства;
- голосовые команды.
В рассмотренной ситуации процесс выполнения описанных задач предпочтительно осуществляется на клиентском терминале 44, хотя эти задачи были загружены с внешнего сервера 42. Распределенная конфигурация позволяет снизить технические требования к терминалу 44, обеспечить централизованное управление тестами, проводимыми в отношении различных пользователей, доступ к статистическим данным и т.д. Например, самые трудные операции и вычисления можно производить на сервере 42, снимая нагрузку по обработке с терминала 44. Аналогично, сервером 42 могут быть определены следующие характеристики, задаваемые для тестирования:
- среда виртуальной реальности, которая может быть использована;
- 3D-объекты и их характеристики (размер, расстояния, цвета, движения и т.д.);
- какие инструкции нужно выдать пользователю;
- когда получать информацию от следящего датчика 10;
- когда получать информацию с пользовательского интерфейса 30;
- какие данные нужно зарегистрировать и вывести как результат выполнения задания.
Характеристики являются изменяемыми как функция времени в соответствии с заданной программой.
Данные, которые должны быть зарегистрированы, включают данные, поступающие от датчиков 10, 60, а также результаты взаимодействия с пользователем через интерфейс 30.
После того как локальная обработка данных будет завершена, их группируют и посылают на сервер 42 для хранения и последующего анализа. По его результатам могут быть проведены статистическая обработка, новые тесты, выдача рекомендаций, курсы лечения и т.д.
Например, можно проверить, находятся ли значения, полученные для определенных параметров, в допустимых пределах, определенных в результате научных исследований и хранящихся на сервере 42. С другой стороны, в соответствии с рекомендациями может быть сконструирована новая сцена, служащая в качестве средства терапии или тренировки для улучшения некоторых функциональностей, для которых тесты дали плохие результаты.
Фиг. 2А и 2В иллюстрируют пример, в котором пользователь взаимодействует с системой в два момента времени. В начальный момент t=ti система отображает на дисплейном блоке 20, 3D-модель, соответствующую поезду, идущему по рельсам.
Пользователь несет на себе датчик 60 движения для регистрации, в оба указанных момента, движения головы (Xic, Yic), (Xfc, Yfc) и расстояния Dio, Dfo до дисплейного блока 20. Аналогично, следящий датчик 10 регистрирует движения зрачков пользователя в оба указанных момента, дополнительно обеспечивая информацию о положении обоих зрачков: правого (xi1, yi1, zi1), (xf1, yf1, zf1) и левого (xi2, yi2, zi2), (xf2, yf2, zf2).
В каждый из этих моментов дисплейный блок 20 отображает 3D-объект в одном из двух различных виртуальных положений (xio, yio, zio), (xfo, yfo, zfo) и с одним из двух различных объемов Vio, Vfo. Другие свойства, например цвет 3D-объекта, могут варьироваться в зависимости от теста, подлежащего выполнению в данном сеансе.
В процессе обработки указанных значений производится проверка того, правильно ли скоординированы глаза пользователя с движением 3D-объекта в отображаемой сцене. Правильная координация свойственна здоровому человеку.
Фиг. 3А и 3В схематично иллюстрируют аналогичный случай, но в котором визуальное поведение пользователя не соответствует стимулам должным образом. Как можно видеть из фиг.3А, пользователь не направляет правильным образом зрительную (визуальную) ось своего левого глаза (xi2, yi2, zi2) на интересующий объект (Vio), что указывает на дефект его бинокулярного зрения (страбизм). В этом случае угол отклонения удерживается движущимся интересующим объектом (Vfo) на постоянном уровне (см. фиг.3В). Это указывает на выполнение комитантного условия (англ. comitant condition), т.е. на постоянный угол отклонения при различных направлениях взгляда. Данная информация является критичной для определения серьезности состояния, а также для типа рекомендации по глазной терапии с целью восстановить бинокулярность зрения данного человека.
Разумеется, проиллюстрированная сцена выбрана просто в качестве примера. Другими примерами могут быть: аквариум с рыбками, которые имеют различные формы, цвета и размеры и которые появляются и исчезают; дорога с автомобилем, приближающимся к пользователю; норы с кротами, выходящими случайным образом, и т.д. В этих сценах все параметры могут быть измерены объективно и одновременно (без недооценки существующего их влияния друг на друга).
На фиг.4 схематично иллюстрируется возможная последовательность действий в процессе функционирования системы при проведении теста. На первом этапе 50 регистрируется релевантная персональная информация пользователя. Вводимые данные предпочтительно включают: пол, возраст, привычки и т.д. Для этой цели может быть использован интерфейс 30. Пользователь направляет, через терминал 44, в качестве клиента, запрос на сервер 42, после чего устанавливается приложение, ассоциированное с типом выбранного теста.
Пользователь располагается перед дисплейным блоком 20, и ему через интерфейс 30 или дисплейный блок 20 выдаются инструкции, как правильно расположить следящий датчик 10 или как занять соответствующее положение относительно дисплейного блока с учетом датчика 60 движения. Затем, на этапе 51 отображается сцена, релевантная выбранному тесту и содержащая один или несколько 3D-объектов, свойства которых изменяются во времени или в результате взаимодействия с пользователем.
На этапе 52 пользователь и дисплейный блок взаимодействуют через интерфейс 30. В типичном случае пользователю могут в процессе тестов выдаваться инструкции с использованием как графики, так и аудио. Например, интерфейс 30 может содержать любой компонент, облегчающий пользователю взаимодействие с 3D-объектами сцены 30, отображаемой дисплейным блоком 20.
На этапе 53 датчики 10, 60 детектируют значения, пока отображается сцена. Эти данные должны посылаться, с минимальной задержкой, терминалу 44.
Терминал 44 принимает собранные данные и, проведя их предварительную обработку, посылает их серверу 42, чтобы получить, на этапе 54, значения клинических параметров функции зрения.
По завершении теста или сеанса, включающего различные тесты, терминал 44 посылает полученные данные серверу 42 для их хранения и дальнейшей обработки. Более конкретно, на этапе 55 параметры сравниваются с ожидаемым интервалом значений в соответствии с профилем пользователя.
Сервер 42 может быть выполнен с возможностью проведения сравнения значений с информацией из базы данных, содержащей референтные значения.
После того как сервер 42 завершит обработку данных, он ассоциирует их, на этапе 56, с возможной дисфункцией.
В завершение, сервер, на этапе 57, генерирует возможные рекомендации по ослаблению или устранению дисфункции и передает их терминалу 44, чтобы они были показаны пользователю вместе с полученными результатами.
Благодаря применяемой технологии тесты проводятся объективно и интегрально (а также кастомизированным образом) и позволяют идентифицировать различные визуальные дисфункции. Более конкретно, идентифицируются: дисфункции, ограничивающие подвижность глазного яблока, способности наведения глаза на интересующий объект (недостаточная конвергенция, избыточная дивергенция, негибкость вергентных движений) или способность фокусировки (недостаточная аккомодация, чрезмерная аккомодация, негибкость аккомодации), или ограничения при переводе взгляда с одного объекта на другой (саккадные движения глаз), при слежении за объектом (плавное сопровождающее движение), или ограничения возможностей зрительного восприятия, требующихся для идентификации и использования информации об окружающей обстановке. Все эти ограничения можно оценить и воздействовать на них кастомизированным образом (с учетом не только условий, при которых был проведен тест, но также и результатов каждого рабочего сеанса). При этом для выполнения одного и того же задания можно использовать широкое разнообразие визуализаций, что позволяет лучше адаптироваться к ежедневным визуальным потребностям и поддерживать интерес и внимание при выполнении заданий.
Следует отметить, что изобретение полезно не только для идентификации дисфункций, но также для тренировки физической и технической активности здоровых пользователей посредством визуальных стимулов и задач. Это может непосредственно относиться к спортсменам и детям, а также может быть расширено на определенные профессии (например, на водителей и пилотов) и на визуальные потребности любителей (в связи с работой с миниатюрами, различными играми и т.д.).
Следует отметить также, что одно из преимуществ, обеспечиваемых изобретением, состоит в том, что для размещения необходимых устройств требуется ограниченное пространство. Например, для варианта, использующего экран, сконфигурированный как дисплейный блок 20, все устройства могут быть размещены на столе, предпочтительно на расстоянии от 50 см до 1 м от сидящего пользователя. В число процессорных средств 40 входит компьютер. Остальные элементы (цифровые ручки, управляющие устройства, перчатки и др.) находятся на голове и руках пользователя. Количество компонентов будет еще меньше в варианте, в котором дисплейный блок 20 представляет собой очки виртуальной реальности.
Claims (21)
1. Система для измерения совокупности клинических параметров функции зрения, отличающаяся тем, что содержит:
- дисплейный блок (20), выполненный с возможностью отображения сцены, в которой по меньшей мере один 3D-объект имеет изменяемые характеристики для стимуляции визуального отклика пользователя, при этом указанные изменяемые характеристики включают по меньшей мере виртуальное положение (Xo, Yo, Zo) и виртуальный объем (Vo) 3D-объекта в указанной сцене;
- группу датчиков (60) движения, выполненных с возможностью детектирования положения (Xc, Yc) головы пользователя и расстояния (Do) от дисплейного блока (20);
- группу следящих датчиков (10), выполненных с возможностью детектирования положения (хр, ур, zp) и диаметра (dp) зрачков пользователя;
- интерфейс (30), выполненный с возможностью варьирования по меньшей мере виртуального положения и виртуального объема 3D-объекта в указанной сцене и сконфигурированный для обеспечения пользователю возможности взаимодействовать с указанной сценой;
- процессорные средства (42, 44), выполненные с возможностью анализа отклика пользователя на основе:
ассоциирования поступающих от датчиков (60, 10) измерительных данных о пользователе и команд пользователя по взаимодействию со сценой, введенных через интерфейс (30), с изменениями характеристик 3D-объекта, отображаемого дисплейным блоком;
получения оценок группы клинических параметров функции зрения пользователя;
сравнивания клинических параметров с хранящимся в памяти интервалом референтных значений; и
выявления по результатам сравнения возможной визуальной дисфункции.
2. Система по п. 1, в которой характеристики являются изменяемыми как функция времени в соответствии с заданной программой.
3. Система по п. 1 или 2, в которой изменяемые характеристики также включают цвет 3D-объекта.
4. Система по любому из предыдущих пунктов, в которой характеристики являются изменяемыми как функция взаимодействия пользователя через интерфейс (30).
5. Система по п. 4, в которой интерфейс (30) содержит по меньшей мере одно из следующих устройств: цифровую ручку, перчатку, управляющее устройство или аналогичный компонент.
6. Система по любому из предыдущих пунктов, в которой дисплейный блок (20) содержит 3D-экран.
7. Система по любому из предыдущих пунктов, в которой дисплейный блок (20) содержит очки виртуальной реальности.
8. Система по любому из предыдущих пунктов, в которой дисплейный блок (20) содержит диссоциирующую систему.
9. Система по п. 8, которая выполнена с возможностью проведения сравнения с интервалом референтных значений, основываясь на профиле пользователя, включающем по меньшей мере информацию о возрасте.
10. Система по любому из предыдущих пунктов, в которой процессорные средства содержат сервер (42) и клиентский терминал (44), выполненный с возможностью приема и обработки данных измерений от датчиков (10, 60) и отправки их серверу (42).
11. Система по п. 10, в которой сервер (42) выполнен с возможностью проведения сравнения значений с информацией из базы данных, содержащей референтные значения.
12. Система по любому из предыдущих пунктов, в которой клинические параметры функции зрения включают по меньшей мере один из следующих параметров: бинокулярность, аккомодацию, подвижность глазного яблока или зрительное восприятие.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16382521.9 | 2016-11-10 | ||
EP16382521.9A EP3320829A1 (en) | 2016-11-10 | 2016-11-10 | System for integrally measuring clinical parameters of visual function |
PCT/ES2017/070721 WO2018087408A1 (es) | 2016-11-10 | 2017-10-27 | Sistema para medición integral de parámetros clínicos de la función visual |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2019116179A RU2019116179A (ru) | 2020-12-10 |
RU2019116179A3 RU2019116179A3 (ru) | 2021-02-09 |
RU2754195C2 true RU2754195C2 (ru) | 2021-08-30 |
Family
ID=57708479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019116179A RU2754195C2 (ru) | 2016-11-10 | 2017-10-27 | Система для измерения совокупности клинических параметров функции зрения |
Country Status (11)
Country | Link |
---|---|
US (1) | US11559202B2 (ru) |
EP (1) | EP3320829A1 (ru) |
JP (1) | JP7344795B2 (ru) |
KR (1) | KR102489677B1 (ru) |
CN (1) | CN110167421B (ru) |
AU (1) | AU2017359293B2 (ru) |
BR (1) | BR112019009614A8 (ru) |
CA (1) | CA3043276C (ru) |
IL (1) | IL266461B2 (ru) |
RU (1) | RU2754195C2 (ru) |
WO (1) | WO2018087408A1 (ru) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
CN106569339B (zh) * | 2016-11-08 | 2019-11-15 | 歌尔科技有限公司 | Vr头戴设备以及vr头戴设备的控制方法 |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4300160A3 (en) | 2016-12-30 | 2024-05-29 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
JP7282090B2 (ja) | 2017-12-10 | 2023-05-26 | マジック リープ, インコーポレイテッド | 光学導波管上の反射防止性コーティング |
KR20200100720A (ko) | 2017-12-20 | 2020-08-26 | 매직 립, 인코포레이티드 | 증강 현실 뷰잉 디바이스용 인서트 |
US10755676B2 (en) | 2018-03-15 | 2020-08-25 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
CN112236713B (zh) | 2018-05-30 | 2023-01-24 | 奇跃公司 | 紧凑的可变聚焦配置 |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
EP3804306B1 (en) | 2018-06-05 | 2023-12-27 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
JP7421505B2 (ja) | 2018-06-08 | 2024-01-24 | マジック リープ, インコーポレイテッド | 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US11510027B2 (en) | 2018-07-03 | 2022-11-22 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
WO2020023543A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Viewing device with dust seal integration |
EP4270016A3 (en) | 2018-07-24 | 2024-02-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
US11112862B2 (en) | 2018-08-02 | 2021-09-07 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
US10795458B2 (en) | 2018-08-03 | 2020-10-06 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
JP7487176B2 (ja) | 2018-08-22 | 2024-05-20 | マジック リープ, インコーポレイテッド | 患者視認システム |
JP7472127B2 (ja) | 2018-11-16 | 2024-04-22 | マジック リープ, インコーポレイテッド | 画像鮮明度を維持するための画像サイズによってトリガされる明確化 |
CN113454507B (zh) | 2018-12-21 | 2024-05-07 | 奇跃公司 | 用于促进波导内的全内反射的气穴结构 |
KR102184972B1 (ko) * | 2019-02-01 | 2020-12-01 | 주식회사 룩시드랩스 | 동공 중심간 거리를 측정하는 장치 및 방법 |
US11425189B2 (en) | 2019-02-06 | 2022-08-23 | Magic Leap, Inc. | Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
CN114127837A (zh) | 2019-05-01 | 2022-03-01 | 奇跃公司 | 内容提供系统和方法 |
US20220240775A1 (en) | 2019-05-29 | 2022-08-04 | E-Health Technical Solutions, S.L. | System for Measuring Clinical Parameters of Visual Function |
US11514673B2 (en) | 2019-07-26 | 2022-11-29 | Magic Leap, Inc. | Systems and methods for augmented reality |
US12033081B2 (en) | 2019-11-14 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4058979A4 (en) | 2019-11-15 | 2023-01-11 | Magic Leap, Inc. | VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT |
CN112866679B (zh) * | 2021-04-23 | 2021-08-10 | 广东视明科技发展有限公司 | 在运动状态下的多位点立体视检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060005846A1 (en) * | 2004-07-07 | 2006-01-12 | Krueger Wesley W | Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation |
US20060206175A1 (en) * | 2003-11-14 | 2006-09-14 | Treno Corporation | Vestibular rehabilitation unit |
US9149222B1 (en) * | 2008-08-29 | 2015-10-06 | Engineering Acoustics, Inc | Enhanced system and method for assessment of disequilibrium, balance and motion disorders |
US20160262608A1 (en) * | 2014-07-08 | 2016-09-15 | Krueger Wesley W O | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL159700A0 (en) * | 2001-07-06 | 2004-06-20 | Palantyr Res Llc | Imaging system and methodology employing reciprocal space optical design |
US7809160B2 (en) * | 2003-11-14 | 2010-10-05 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections |
JP4890060B2 (ja) * | 2005-03-31 | 2012-03-07 | 株式会社トプコン | 眼科装置 |
CN105212890B (zh) * | 2006-01-26 | 2017-04-26 | 诺基亚公司 | 眼睛跟踪器设备 |
JP2008012223A (ja) * | 2006-07-10 | 2008-01-24 | Nippon Telegr & Teleph Corp <Ntt> | 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法 |
TW200913957A (en) * | 2007-09-17 | 2009-04-01 | Liao Li Shi | System for detecting and compensating vision defect and method thereof |
CN101727531A (zh) * | 2008-10-16 | 2010-06-09 | 国际商业机器公司 | 用于在虚拟环境中进行交互的方法和系统 |
WO2012125172A1 (en) * | 2011-03-15 | 2012-09-20 | Kona Medical, Inc. | Energetic modulation of nerves |
US9345957B2 (en) * | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
FR2987920B1 (fr) * | 2012-03-08 | 2018-03-02 | Essilor International | Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes |
EP2775898B1 (en) * | 2012-10-22 | 2017-04-05 | Realvision S.r.l. | Network of devices for performing optical/optometric/ophthalmological tests, and method for controlling said network of devices |
CN105208917B (zh) * | 2012-11-26 | 2017-07-14 | 澳大利亚国立大学 | 聚类齐发方法和装置 |
CN105578954B (zh) * | 2013-09-25 | 2019-03-29 | 迈恩德玛泽控股股份有限公司 | 生理参数测量和反馈系统 |
US9706910B1 (en) * | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
CN104382552B (zh) * | 2014-11-27 | 2016-04-27 | 毕宏生 | 一种综合视觉功能检测设备 |
CN104545787B (zh) * | 2014-12-12 | 2017-02-01 | 许昌红 | 一种穿戴式瞳孔对光反射测量设备 |
EP3240468B1 (en) * | 2015-03-01 | 2023-10-25 | Novasight Ltd. | A system and method for measuring ocular motility |
NZ773826A (en) * | 2015-03-16 | 2022-07-29 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
CN105832502B (zh) * | 2016-03-15 | 2018-01-02 | 广东卫明眼视光研究院 | 智能视觉功能训练方法及训练仪 |
-
2016
- 2016-11-10 EP EP16382521.9A patent/EP3320829A1/en active Pending
-
2017
- 2017-10-27 BR BR112019009614A patent/BR112019009614A8/pt unknown
- 2017-10-27 JP JP2019525815A patent/JP7344795B2/ja active Active
- 2017-10-27 IL IL266461A patent/IL266461B2/en unknown
- 2017-10-27 RU RU2019116179A patent/RU2754195C2/ru active
- 2017-10-27 US US16/348,853 patent/US11559202B2/en active Active
- 2017-10-27 AU AU2017359293A patent/AU2017359293B2/en active Active
- 2017-10-27 KR KR1020197015653A patent/KR102489677B1/ko active IP Right Grant
- 2017-10-27 CA CA3043276A patent/CA3043276C/en active Active
- 2017-10-27 CN CN201780082894.5A patent/CN110167421B/zh active Active
- 2017-10-27 WO PCT/ES2017/070721 patent/WO2018087408A1/es active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060206175A1 (en) * | 2003-11-14 | 2006-09-14 | Treno Corporation | Vestibular rehabilitation unit |
US20060005846A1 (en) * | 2004-07-07 | 2006-01-12 | Krueger Wesley W | Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation |
US9149222B1 (en) * | 2008-08-29 | 2015-10-06 | Engineering Acoustics, Inc | Enhanced system and method for assessment of disequilibrium, balance and motion disorders |
US20160262608A1 (en) * | 2014-07-08 | 2016-09-15 | Krueger Wesley W O | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
Also Published As
Publication number | Publication date |
---|---|
EP3320829A8 (en) | 2018-07-18 |
JP7344795B2 (ja) | 2023-09-14 |
IL266461B1 (en) | 2023-05-01 |
IL266461B2 (en) | 2023-09-01 |
WO2018087408A1 (es) | 2018-05-17 |
KR102489677B1 (ko) | 2023-01-16 |
BR112019009614A8 (pt) | 2023-03-21 |
CA3043276A1 (en) | 2018-05-17 |
RU2019116179A (ru) | 2020-12-10 |
RU2019116179A3 (ru) | 2021-02-09 |
CA3043276C (en) | 2023-10-10 |
BR112019009614A2 (pt) | 2019-08-13 |
CN110167421A (zh) | 2019-08-23 |
EP3320829A1 (en) | 2018-05-16 |
AU2017359293A1 (en) | 2019-06-06 |
US20190254519A1 (en) | 2019-08-22 |
US11559202B2 (en) | 2023-01-24 |
JP2019535401A (ja) | 2019-12-12 |
CN110167421B (zh) | 2022-03-04 |
KR20190104137A (ko) | 2019-09-06 |
AU2017359293B2 (en) | 2022-11-17 |
IL266461A (en) | 2019-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2754195C2 (ru) | Система для измерения совокупности клинических параметров функции зрения | |
US11881294B2 (en) | Systems and methods for a web platform hosting one or more assessments of human visual performance | |
WO2015089629A1 (en) | System and method for assessing visual and neuro-cognitive processing | |
CA3115994A1 (en) | Cognitive platform for deriving effort metric for optimizing cognitive treatment | |
US9504380B1 (en) | System and method for assessing human visual processing | |
US20190343447A1 (en) | Platform for identification of biomarkers using navigation tasks and treatments using navigation tasks | |
WO2022114143A1 (ja) | 物体認知能力を評価するための評価装置、方法、及びプログラム | |
US20240081636A1 (en) | Method for Visual Function Assessment Using Multistable Rivalry Paradigms | |
CN111542256A (zh) | 分析个体视野的方法以及相应的眼科镜片 | |
Bartram et al. | Diagnostic post-concussion eye-tracking design | |
US20220240775A1 (en) | System for Measuring Clinical Parameters of Visual Function | |
WO2024055032A1 (en) | Rapid and precise assessment and training of occular, vestibular, and motor behavior in stroke patients | |
JP2023043071A (ja) | 空間認知機能の評価分析システム、評価分析装置、及びそのプログラム | |
JP2023136726A (ja) | 視線分析装置、視線分析方法、視線分析プログラム及びトレーニング方法 | |
Parit et al. | Eye tracking based human computer interaction | |
JP2006167276A (ja) | 固視微動量推定方法、装置、及びプログラム並びに該プログラムを記録した記録媒体 |