RU2705432C2 - Отслеживание взгляда через очковую оптику - Google Patents

Отслеживание взгляда через очковую оптику Download PDF

Info

Publication number
RU2705432C2
RU2705432C2 RU2017111831A RU2017111831A RU2705432C2 RU 2705432 C2 RU2705432 C2 RU 2705432C2 RU 2017111831 A RU2017111831 A RU 2017111831A RU 2017111831 A RU2017111831 A RU 2017111831A RU 2705432 C2 RU2705432 C2 RU 2705432C2
Authority
RU
Russia
Prior art keywords
eye
reflection
images
image
camera
Prior art date
Application number
RU2017111831A
Other languages
English (en)
Other versions
RU2017111831A (ru
RU2017111831A3 (ru
Inventor
Хойминь ГО
Ибрахим ЭДЕН
Ваибхав ТУКРАЛ
Дэвид Закрис НИСТЕР
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017111831A publication Critical patent/RU2017111831A/ru
Publication of RU2017111831A3 publication Critical patent/RU2017111831A3/ru
Application granted granted Critical
Publication of RU2705432C2 publication Critical patent/RU2705432C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Eyeglasses (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к различению отражений от глаза и отражений от очковой оптики в системе отслеживания глаза. Технический результат заключается в повышении точности обнаружения взгляда для пользователей, носящих очковую оптику. Такой результат достигается тем, что получают с камеры системы визуального распознавания пользовательского ввода первое изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на первом уровне мощности, получают с камеры системы визуального распознавания пользовательского ввода второе изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на втором отличающемся уровне мощности, сравнивают яркость соответствующих пикселей первого и второго изображений, чтобы отличить отражение освещения от глаза от отражения освещения от очковой оптики, при этом первое и второе изображения выбираются из трех или более изображений глаза, полученных камерой при взаимно отличающихся уровнях мощности излучателя, с тем чтобы выявить световозвращающую реакцию от глаза в виде яркого зрачка с ненасыщенным отражением, и предоставляют ввод на основе отражения освещения от глаза. 3 н. и 15 з.п. ф-лы, 9 ил.

Description

УРОВЕНЬ ТЕХНИКИ
[0001] Последние достижения аппаратных и программных средств сделали возможными новые режимы естественного пользовательского ввода (NUI) для компьютерных систем. Распознавание жестов, распознавание голоса, и отслеживание взгляда являются примерами режимов NUI, которые дают возможность пользователю интуитивно взаимодействовать с компьютерными системами в различных целях и в различных средах.
РАСКРЫТИЕ ИЗОБРТЕНИЯ
[0002] Раскрыты варианты осуществления, которые относятся к различению отражений от глаза и отражений от очковой оптики в системе отслеживания глаза. Один раскрытый вариант осуществления предлагает способ предоставления входных данных, отвечающих за направление взгляда в компьютерной системе, функционально соединенной со системой визуального распознавания пользовательского ввода. В этом варианте осуществления, первое изображение глаза на первом уровне освещенности получают при помощи камеры системы визуального распознавания пользовательского ввода. Первое изображение получают от камеры, и второе изображение глаза, соответствующее второму, другому уровню освещенности также получают. Яркость соответствующих пикселей первого и второго изображений сравнивают, для того, чтобы различить отражение освещения глазом от отражения освещения очковой оптикой. Входные данные затем предоставляют, на основании отражения освещения глазом.
[0003] Это «Раскрытие изобретения» дано для того, чтобы в упрощенной форме представить выбор концепций, которые далее описаны в подробном описании. Это описание не предназначено для выявления ключевых признаков или существенных признаков заявленного изобретения, а также не предназначено для использования в ограничении объема заявленного изобретения. Более того, заявленное изобретение не ограничивается реализациями, которые решают любые или все недостатки, упомянутые в любой части этого описания изобретения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0004] Фиг. 1 показывает аспекты примерной среды, в которой отслеживают взгляд пользователя и используют в качестве входных данных в компьютерной системе.
[0005] Фиг. 2 показывает аспекты примерной компьютерной системы с системой NUI, функционально соединенной со системой визуального распознавания пользовательского ввода.
[0006] Фиг. 3 показывает аспекты примерной системы визуального распознавания пользовательского ввода, выполненной с возможностью обнаруживать взгляд.
[0007] Фиг. 4A показывает примерное изображение глаз пользователя, полученное на высоком уровне освещенности.
[0008] Фиг. 4B показывает примерное изображение глаз пользователя, полученное на низком уровне освещенности.
[0009] Фиг. 4C показывает примерный результат исключения, из изображения на Фиг. 4A, отражений от очковой оптики пользователя.
[0010] Фиг. 5 показывает аспекты дополнительных примерных сред, в которых отслеживают взгляд пользователя и используют в качестве входных данных в компьютерной системе.
[0011] Фиг. 6 показывает аспекты другой примерной системы визуального распознавания пользовательского ввода, выполненной с возможностью обнаруживать взгляд.
[0012] Фиг. 7 иллюстрирует примерный способ предоставления входных данных, отвечающих за направление взгляда в компьютерной системе.
ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯ
[0013] Отслеживание взгляда является видом NUI, основанным на направлении взгляда пользователя. В этом подходе изображение глаза пользователя получают при помощи камеры. Глазные черты, такие как зрачок или лимб, расположены в полученном изображении, и направление взгляда вычисляют на основании местоположения таких черт. Направление взгляда, вычисленное таким способом, может быть использовано для перемещения по графическому пользовательскому интерфейсу, чтобы запускать программы, делать выбор, передвигать персонажа в игре, и тому подобное. Хотя желаемые глазные черты могут быть идентифицированы на изображениях невооруженного глаза, паразитные отражения от очковой оптики могут быть источником помех. Подобные помехи могут снизить точность входных данных отслеживания взгляда для пользователей с очковой оптикой. В контексте данного документа термин "очковая оптика" включает в себя любой вид устройства, носимого так, что оно помещает прозрачную структуру между глазом и, по меньшей мере, частью поля зрения глаза. Примеры включают в себя, но не ограничиваются ими, очки, солнцезащитные очки, лицевые щитки, маски, защитные очки, системы контактных линз и другие наглазные устройства, системы отображения рядом с глазом, которые проектируют виртуальную визуальную информацию в после зрения владельца, и так далее.
[0014] В настоящем документе описаны примеры, которые могут помочь отличить отражения света от невооруженного глаза и отражения света от очковой оптики, и по этой причине может содействовать отслеживанию глаз. Фиг. 1 показывает аспекты примерной среды 10, в которой отслеживают взгляд пользователя и используют в качестве входных данных в компьютерной системе. Показанная среда является жилой комнатой или общей комнатой личного жилья. Тем не менее, системы и способы, описанные в настоящем документе в равной степени применимы в других средах, таких как производственная, розничная и рабочая среды. Среда 10 содержит домашнюю систему 12 мультимедийных развлечений для использования пользователем 14. Домашняя система мультимедийных развлечений включает в себя широкоформатное устройство 16 отображения и громкоговорители 18, каждое из которых функционально соединено с компьютерной системой 20. Природа компьютерной системы 20 может отличаться в различных реализациях. В некоторых примерах, компьютерная система может быть видеоигровой системой, или мультимедийной системой, выполненной с возможностью проигрывать музыку и/или видео. В других примерах эта компьютерная система может быть компьютерной системой общего назначения для доступа к сети Интернет и офисных приложений. Компьютерная система 20 может быть приспособлена для любой или всех вышеприведенных целей, и/или любых других подходящих целей, не выходя за объем этого раскрытия.
[0015] Компьютерная система 20 может быть выполнена с возможность принимать различные виды входных данных от одного или более пользователей 14. По этой причине устройства ввода данных пользователем, такие как клавиатура, мышь, сенсорный экран, игровая приставка, или контроллер джойстика могут быть функционально соединены с компьютерной системой 20. Компьютерная система 20 может также быть выполнена с возможностью принимать естественный пользовательский ввод (NUI) от одного или более пользователей. Для преобразования NUI, показанная компьютерная система включает в себя систему 22 NUI. Система NUI выполнена с возможностью захватывать различные аспекты NUI и предоставлять соответствующие выполнимые входные данные другим конструкциям в компьютерной системе. С этой целью система NUI принимает входные данные нижнего уровня от различных сенсорных компонентов этой компьютерной системы, которые включают в себя систему 24 визуального распознавания пользовательского ввода и необязательную систему 26 прослушивания.
[0016] Система 26 прослушивания, если содержится, может содержать один или более микрофонов, чтобы ловить звукообразование и другой слышимый ввод от пользователя 14. Система визуального распознавания пользовательского ввода 24 может быть выполнена с возможностью обнаруживать различные виды пользовательского ввода, такого как векторы V взгляда и фокальная точка P, а также и жесты рук и тела, черты лица, и так далее. В показанном примере система визуального распознавания пользовательского ввода и система прослушивания имеют общий корпус; в других примерах, они могут быть раздельными. В других примерах система визуального распознавания пользовательского ввода, прослушивающая система и NUI система могут быть интегрированы в компьютерную систему 20. Компьютерная система и ее периферийные компоненты могут быть соединены проводной линией связи, как показано на рисунке, или любым другим подходящим способом.
[0017] Фиг. 2 является схематическим представлением высокого уровня, показывающим аспекты примера компьютерной системы 20, системы 22 NUI, системы визуального распознавания пользовательского ввода 24, и системы 26 прослушивания. Показанная компьютерная система включает в себя операционную систему (OS) 28, которая может быть реализована в программном обеспечении и/или программно-аппаратном обеспечении. Компьютерная система также включает в себя одно или более приложений 30, таких как видеоигровое приложение, цифровой медиапроигрыватель, интернет-обозреватель, фоторедактор, текстовый процессор, и/или приложение для работы с электронными таблицами, к примеру. Компьютерная система 20, NUI система 22, система визуального распознавания пользовательского ввода 24, и система 26 прослушивания могут включать в себя подходящее хранилище данных, хранилище команд, и логическое аппаратное обеспечение согласно потребности для поддержки их соответствующих функций, как, дополнительно описано ниже.
[0018] В примере на Фиг. 2 система визуального распознавания пользовательского ввода 24 включает в себя одну или более камер 32 плоского изображения, и может также включать в себя одну или более камер 34 глубины. Каждая камера глубины, при наличии, может быть выполнена с возможностью получать последовательность с разрешением по времени карты глубины пользователя 14 и другие аспекты среды 10. Система визуального распознавания пользовательского ввода также включает в себя осевые и внеосевые лампы 36A и 36B, которые освещают пользователя 14 и среду 10, для поддержки образования изображения камерами плоского изображения и/или глубины. Каждая лампа и камера системы визуального распознавания пользовательского ввода являются функционально соединенными с микроконтроллером 38. Этот микроконтроллер может быть выполнен с возможностью управлять и запускать получение изображений камерами, и управлять выходным освещением каждой лампы системы визуального распознавания пользовательского ввода.
[0019] Камера 32 плоского изображения обнаруживает свет в диапазоне углов поля и проецирует такие углы на прямоугольную пиксельную матрицу. В одном примере, камера плоского изображения может обнаруживать свет во множестве каналов длин волн - например, красном, зеленом, голубом, и так далее - ассоциированных с поднабором пикселей матрицы. В ином случае, монохромная камера плоского изображения может быть использована, для создания изображения видимого, ближнего инфракрасного (NIR), инфракрасного (IR), и/или ультрафиолетового (UV) света в оттенках серого. Значения цвета или яркости для всех пикселей , экспонированных в камере плоского изображения, составляют в совокупности цифровое изображение. В некоторых примерах, пиксели камеры плоского изображения могут быть совпадающими с пикселями камеры глубины.
[0020] Как отмечалось выше, система 22 NUI обрабатывает входные данные низкого уровня (то есть, сигнал) от системы визуального распознавания пользовательского ввода 24 и необязательной системы 26 прослушивания, чтобы обеспечить требующий действия, высокоуровневый ввод в компьютерную систему 20. К примеру, система NUI может выполнять распознавание звука или голоса на звуковом сигнале от системы 26 прослушивания. Распознавание голоса может генерировать соответствующие текстовые или другие высокоуровневые команды, подлежащие приему в OS 28 компьютерной системы. В примере, показанном на Фиг. 2, задача формулирования конкретного вида NUI из сенсорных данных назначена конкретным подсистемам NUI: подсистеме 40 распознавания речи, подсистеме 42 распознавания жестов, подсистеме 44 распознавания лиц, и подсистеме 46 обнаружения взгляда. Каждая из этих подсистем может быть выполнена с возможностью предоставлять свой соответствующий вид входных данных в OS и/или приложения компьютерной системы.
[0021] Теперь, обращаясь к Фиг. 3, каждая лампа 36 системы визуального распознавания пользовательского ввода 24 может содержать светоизлучающий диод (LED), полупроводниковый лазер, газоразрядную лампу, и/или другой подходящий источник света. В среде 10 лампа 36A обеспечивает осевое освещение глаза 48, а лампа 36B обеспечивает внеосевое освещение. Термины "осевое" и "внеосевое" относятся к направлению освещения в отношении оптической оси A камеры 32 плоского изображения.
[0022] Осевое и внеосевое освещение может служить разным целям в отношении отслеживания взгляда в среде 10. Как показано на Фиг. 3, внеосевое освещение может создавать зеркальную вспышку 50, которая отражается от роговицы 52 глаза пользователя. Внеосевое освещение может также быть использовано, чтобы освещать глаз для эффекта "темного зрачка", когда зрачок 54 выглядит темнее, чем окружающая радужная оболочка 56. В противоположность этому, осевое освещение от IR и NIR источника может быть использовано, чтобы создавать эффект "яркого зрачка", когда зрачок выглядит ярче, чем окружающая радужная оболочка. Конкретнее, IR или NIR освещение от осевой лампы 36A может освещать световозвращающую ткань сетчатки 58 глаза, которая отражает это освещение обратно через зрачок, образуя яркое изображение 60 зрачка, как запечатлено камерой 32 плоского изображения. В некоторых примерах, камера плоского изображения может включать в себя светофильтр, блокирующий передачу за пределами IR или NIR полосы осевой лампы 36A, чтобы улучшить контраст яркого зрачка в присутствии сильного окружающего света. Хотя Фиг. 3 показывает осевые и внеосевые лампы схематически как точечные источники, будет понятно, что эти лампы могут принимать любой подходящий вид. К примеру, в некоторых примерах, осевая лампа 36A может быть выполнена в виде "LED кольца" окружающего отверстие объектива камеры 32 плоского изображения. Другими словами, осевая лампа может включать в себя множество светодиодов, опоясывающих оптическую ось камеры плоского изображения.
[0023] Подсистема 46 обнаружения взгляда может быть выполнена с возможностью обрабатывать данные изображения от камеры плоского изображения, чтобы обнаруживать местоположение таких признаков как центр зрачка, внешний контур зрачка, и/или роговичные блики. Местоположение таких признаков в данных изображения может быть использовано как входные параметры в модели, например, полиномиальной модели - которая устанавливать связь положения признака с вектором V взгляда глаза. В примерах, где взгляд обнаруживают одновременно и для левого и для правого глаза, точка пересечения правого и левого векторов взгляда может определить фокальную точку P пользователя в трех измерениях.
[0024] Возвращаясь кратко к Фиг. 1, рисунок иллюстрирует сценарий, в котором пользователь 14 перемещается по UI, представленном на устройстве 16 отображения, основываясь на направлении взгляда. В этом сценарии, подсистема 46 обнаружения взгляда вычисляет экранные координаты устройства отображения (X, Y), соответствующие точке P, на которую пользователь смотрит. Посредством перемещения своего взгляда на другие точки на экране устройства отображения, пользователь может перемещаться между различными элементами 62 UI приложения или OS, исполняемой на компьютерной системе 20.
[0025] Подход обнаружения взгляда, представленный выше, может быть дополнительно усовершенствован, чтобы улучшить точность, в случаях, когда пользователь 14 может быть носящим очковую оптику, такую как солнцезащитные очки, корректирующие линзы, бифокальные очки, солнцезащитные очки, смотровые щитки, контактные линзы, системы отображения рядом с глазом, и/или другая очковая оптика. Расположенная близко к глазу, такая очковая оптика может отражать освещение от ламп 36A и 36B системы визуального распознавания пользовательского ввода 24. Такие отражения создают шум в данных изображения, полученных системой визуального распознавания пользовательского ввода. Повышенный шум может делать более трудным для подсистемы 46 обнаружения взгляда однозначное определение местонахождение зрачка и/или роговичный блеск, что может повышать ошибку в определенном направлении взгляда. Более конкретно, отражение от очковой оптики может выглядеть схоже с изображениями яркого зрачка, создаваемыми с осевым освещением, в результате чего подсистема обнаружения взгляда ошибочно принимает их за яркие зрачки. Этот эффект показан на Фиг. 4A, где яркие зрачки 54 показываются вместе с многочисленными отражениями от очковой оптики. Схожий эффект может происходить когда высокоугловое освещение от внеосевой лампы 36B отражается очками и ошибочно принимается за роговичный блик. Как правило, когда отражение от очков пользователя относительно мало в диаметре и яркое, оно может выглядеть схоже с роговичным бликом для подсистемы обнаружения взгляда.
[0026] Один подход чтобы устранить неоднозначность между глазными отражениями и отражениями от очков состоит в удалении последних с помощью постобработки полученных изображений. Вероятные критерии установления различия включают в себя интенсивность, размер, или геометрию (форму) потенциально подходящих отражений. Тем не менее, любой подход постобработки может быть чувствительным к качеству изображения и другим шумовым факторам, и может требовать чрезмерное время вычисления. Более того, устранение шумов, основанное на геометрическом установлении различия шумовых отражений, может оказаться неспособным сделать общие выводы среди ожидаемого диапазона сценариев использования - например, разных стилей очков, носимых пользователем, которые могут включать в себя разные кривизны линз, формы оправ, и т.д.
[0027] По этой причине раскрываемые примеры могут устранить неоднозначность между желаемыми глазными отражениями и отражениями от очков, используя серии изображений глаз пользователя, полученные при разных уровнях освещенности (то есть, интенсивности, мощности). Для этого, одна, несколько, или все лампы 36 системы визуального распознавания пользовательского ввода 24 могут быть выполнены с возможностью перехода от обеспечения первого уровня освещенности к обеспечению второго, другого уровня освещенности за относительно короткий промежуток времени, как дополнительно описано ниже.
[0028] В одном примере микроконтроллер 38 системы визуального распознавания пользовательского ввода 24 может быть выполнен с возможностью стробировать осевую лампу 36A и/или внеосевую лампу 36B с помощью широтно-импульсной модуляции (PWM). Два или более кадра изображения получают на разных уровнях яркости, назначая разные значения PWM каждому кадру. В других примерах, этот микроконтроллер может изменять напряжение или ток, подаваемый на лампы, изменять количество элементов лампы (например, светодиодов), получающих энергию, или модулировать электронно-оптический аттенюатор, чтобы изменить уровень освещенности. Изображения глаза на множестве уровней яркости (высоком + низком, высоком + промежуточном + низком и т.д.) захватывают за очень короткий интервал времени - например, 60 миллисекунд (мс) или меньше, или 30 мс или меньше в некоторых примерах. Этот интервал может быть выбран, к примеру, чтобы ограничить степень размытия движения, вызываемого возможным движением глаз между получением первого и последнего изображений. Во время этого интервала отражения от интересующих глазных черт, таких как зрачки и блики, могут снижаться пропорционально интенсивности из-за снижения освещенности. Тем не менее, зеркальные или почти-зеркальные отражения от очков пользователя могут насыщать принимаемые пиксели камеры 32 плоского изображения, даже на низких и промежуточных уровнях яркости. Соответственно, пропорциональное снижение в яркости может не наблюдаться для отражений от очков при переходе от высокой к промежуточной или низкой яркости. Пиксели, которые не становятся темнее пропорционально, могут быть удалены из рассмотрения любым подходящим способом, чтобы ограничить их влияние на последующие вычисления отслеживания взгляда.
[0029] Параллельное сравнение Фиг. 4A и 4B дополнительно иллюстрирует вышеприведенный подход. Фиг. 4A показывает изображение, полученное на высокой яркости, а Фиг. 4B показывает изображение, полученное на низкой яркости. Видно, что отражение от ярких зрачков 54 пользователя слабее на Фиг. 4B, чем на Фиг. 4A, но отражение от очков пользователя имеет такую же интенсивность.
[0030] Подсистема 46 обнаружения взгляда может быть выполнена с возможностью управлять буфером из двух или более изображений на разных уровнях яркости, захваченных за достаточно короткий промежуток времени, как например 60 мс или меньше в некоторых примерах. Подсистема обнаружения взгляда проверяет яркость первого (более яркого) и второго (более темного) изображения, измеряя каждый пиксель. Если пиксель имеет схожую насыщенную яркость - например, отличается на величину меньше порогового значения - или остается насыщенным и на том и на другом изображениях - этот пиксель тогда может, в некоторых примерах, быть заменен средним значением яркости по всему изображению (на Фиг. 4A и 4B, соответственно) в то время как все оставшиеся пиксели (те, что не затронуты отражениями от очков) могут сохранять свои исходные значения. В других примерах, пиксели могут быть не заменены, а могут быть отслежены или компенсированы другим способом.
[0031] Следует отметить, что, поскольку изображения на Фиг. 4A является более ярким, зрачки имеют лучший контраст относительно радужной оболочки и являются более легко обнаруживаемыми. Напротив, поскольку Фиг. 4B темнее, блики имеют лучший контраст относительно зрачков и являются более легко обнаруживаемыми. Получившиеся обработанные изображения на Фиг. 4A и Фиг. 4B, после компенсирования отражений от очков, используют как входные данные для обнаружения зрачка и обнаружения блика соответственно. Фиг. 4C показывает результат этой процедуры, примененной к изображениям с высокой и низкой интенсивностью на Фиг. 4A и 4B, где белые круги обозначают обнаруженные контуры зрачков 54.
[0032] Вышеприведенные чертежи и описание не должны интерпретироваться в ограничительном смысле, многочисленные другие примеры и сценарии использования так же предусмотрены. В частности, многочисленные другие среды и форм-факторы, помимо показанных на Фиг. 1, лежат в пределах сущности и объема этого раскрытия. К примеру, как показано на Фиг. 5, аналогичное отслеживание взгляда может быть осуществлено в смартфоне 66 или настольном компьютере 68 с подходящей системой визуального распознавания пользовательского ввода 24A, смонтированной на лицевой панели устройства отображения. В других примерах, аналогичное отслеживание взгляда может быть осуществлено в планшете или переносном компьютере со встроенной системой визуального распознавания пользовательского ввода.
[0033] В других примерах, система визуального распознавания пользовательского ввода может быть встроена в активный головной убор или очковую оптику, носимую пользователем (который также может носить обычные очки). Подобный головной убор или очковая оптика могут дополнительно поддерживать стереоскопическую систему отображения рядом с глазом. Фиг. 6 показывает оптическую систему 70 системы отображения рядом с глазом со встроенным отслеживанием взгляда. В этом примере, пользователь носит дополнительные корректирующие линзы 71. Камера 32 плоского изображения создает изображение света от осевой IR или NIR лампы 36A, отражающегося от глаза владельца. Внеосевая лампа 36B обеспечивает относительно высокоугловое освещение глаза, чтобы создать зеркальная вспышку на роговице глаза, стимулируя эффект темного зрачка, и так далее. Оптика с регулировкой пучка, интегрированная с оптической системой 70, позволяет камере и осевой лампе иметь общую оптическую ось A, несмотря на их расположение на периферии оптической системы.
[0034] Подходы, описанные в настоящем документе, могут быть распространены, чтобы включать в себя другие виды зеркального отражения, чем отражение от очковой оптики. В большинстве случаев, практически любая поверхность, расположенная между пользователем и системой визуального распознавания пользовательского ввода, может вызывать яркое, зеркальное отражение, которое является различимым способом, описанным в настоящем документе. К примеру, зеркальное отражение освещения системы визуального распознавания пользовательского ввода от защитного окна (стекло, лист акрилового полимера или поликарбоната, защитный экран, и т.д.) может быть отличено от глазного отражения, к примеру, основываясь на обнаруженной неизменной яркости при двух или более уровнях освещенности.
[0035] Конфигурации, описанные выше, делают возможными различные способы осуществления обнаружения взгляда в компьютерной системе, функционально соединенной со системой визуального распознавания пользовательского ввода. Некоторые такие способы будут теперь описаны, по-прежнему ссылаясь на примерные конфигурации, описанные выше. Тем не менее, следует понимать, что способы, описанные в настоящем документе, и другие, находящиеся в объеме этого раскрытия, также могут быть возможны при помощи других конфигураций.
[0036] Фиг. 7 показывает примерный способ 74 предоставления входных данных, соответствующих направлению взгляда в компьютерной системе, функционально соединенной со системой визуального распознавания пользовательского ввода. На этапе 76 способа 74 выходной поток осевой лампы системы визуального распознавания пользовательского ввода регулируют, чтобы обеспечить первый уровень освещенности глаза пользователя перед получением первого изображения глаза, к примеру, используя один или более способов, описанных выше. Этот первый уровень освещенности может быть относительно высоким уровнем освещенности, в одном примере.
[0037] На этапе 78 первое изображение глаза получают от камеры системы визуального распознавания пользовательского ввода. Это первое изображение получают камерой во время интервала, в котором обеспечен первый уровень освещенности глаза. На этапе 80 получают второе изображение глаза, соответствующее второму, другому уровню освещенности. Этот второй уровень освещенности может быть ниже или выше, чем первый уровень освещенности, и это второе изображение может быть получено разными способами в различных примерах.
[0038] В одном примере выходной поток осевой лампы может быть снова отрегулирован, чтобы обеспечить второй уровень освещенности для получения второго изображения камерой. Второе изображение затем получают от камеры. В другом примере второе изображение глаза получают посредством умножения яркости каждого ненасыщенного пикселя первого изображения на коэффициент умножения, чтобы получить соответствующий пиксель второго изображения.
[0039] Этот коэффициент умножения может быть больше чем единица, чтобы создать в целом более яркое второе изображение, или меньше чем единица, чтобы создать в целом более темное второе изображение. В одном варианте, умноженные значения яркости второго изображения могут быть обрезаны до максимальной яркости, допустимой для вида кодирования изображения, используемого камерой. Дополнительно, уже насыщенные пиксели в первом изображении могут быть умножены на другой коэффициент (например, на коэффициент, равный единице), или иначе скрыты. Таким образом, насыщенные пиксели (которые могут соответствовать зеркальному отражению от очков пользователя) исключаются из последующего вычисления, чтобы определить направление взгляда.
[0040] Эти первое и второе изображения могут быть выполнены с возможностью показывать глазные отражения (например, яркие зрачки) на разных, ненасыщенных уровнях яркости. Этот признак используется, чтобы отличить глазные черты от отражений очками (и, в некоторых сценариях, от роговичных бликов из-за внеосевого освещения, которые обычно остаются насыщенными, даже при относительно низких уровнях освещенности). Тем не менее, не всегда возможно предсказать подходящие первый и второй уровни освещения в преддверии неизвестного сценария использования. К примеру, разные виды очковой оптики демонстрируют отражения с разной отражающей способностью. Дополнительно, глаза разных людей могут требовать разных уровней осевого освещения, чтобы давать реакцию в виде яркого зрачка. Вместо того чтобы применять одни и те же два уровня освещенности для каждого пользователя, подсистема 46 обнаружения взгляда может быть выполнена с возможностью анализировать серию из трех или более изображений, полученных на разных уровнях освещенности, и затем выбирать подходящие первое и второе изображения, чтобы выделить эти первый и второй уровни освещенности, как показано на этапе 82 на Фиг. 7. Выбранные изображения могут быть теми, к примеру, которые демонстрируют насыщенные отражения от очков, и сильные, но ненасыщенные (например, > 30% насыщенной интенсивности, >50%, в качестве примеров) отражения яркого зрачка. Таким образом, первый и второй уровни освещенности, в способе 74, могут быть выбраны, основываясь на способности вызывать и различать эффект яркого зрачка в изображенном глазе, при этом, такие уровни отличаются для глаз разных пользователей.
[0041] Другой причиной, чтобы обеспечить диапазон уровней освещенности среди трех или более получаемых изображений, может быть разрешение системе реагировать на изменение уровней окружающего света в диапазоне длин волн осевой лампы. Таким образом, первый и второй уровни освещенности могут быть выбраны, основываясь на состояние окружающего света. Обеспечение диапазона уровней освещенности также может помочь в отличии реакции в виде яркого зрачка от роговичного блика, происходящего от внеосевого освещения. Любое подходящее число полученных изображений глаза и соответствующих уровней освещенности может быть получено, например, два, три, четыре, и так далее. Это число может быть зависящим от таких факторов, как используемая частота кадров. Другими словами, более быстрое получение изображений может позволить получение большего числа изображений, не испытывая отрицательного эффекта размытости изображения из-за движения глаз.
[0042] Альтернативные режимы выбора изображений/уровня освещенности могут также быть использованы на этом этапе способа, чтобы решить проблемы, отмеченные выше. К примеру, после того как подходящие уровни освещенности выявлены посредством анализа полученных изображений, эта информация может быть возвращена на более ранние этапы этого способа, чтобы управлять тем, какие уровни освещенности фактически использовать при получении первого изображения, и получении второго изображения (не важно, при повторном получении изображения или при обработке первого изображения). Этот вид обратной связи может быть использован, чтобы снизить количество излишних изображений, получаемых при каждом проходе через этот способ, что может снизить запаздывание отслеживания взгляда. Даже в случаях, когда получают два изображения, обратная связь, основанная на анализе полученных изображений, может быть использована, чтобы уточнить высокий и низкий уровни освещенности, используемые для последующих первых и вторых изображений.
[0043] Продолжая на Фиг. 7, на этапе 84 способа 74, отражение освещения глазом пользователя отличается от отражения освещения очковой оптикой пользователя. Как отмечалось выше, желаемое отражение освещения глазом может образовывать реакцию в виде яркого зрачка - то есть, обратное отражение сетчаткой глаза пользователя, которое проходит обратно через зрачок и заставляет зрачок выглядеть ярко относительно окружающей радужной оболочки. В ином случае, и не менее важно, отражение глазом может включать в себя отражение самой радужной оболочкой, что заставляет зрачок выглядеть темным, относительно радужной оболочки.
[0044] В одном примерном варианте осуществления различение отражения глазом и очковой оптикой может включать в себя сравнение яркости соответствующих пикселей первого и второго изображений. В одном примере соответствующие пиксели первого и второго изображений могут быть ассоциированы с отражением освещения глазом, если яркость таких пикселей отличается более чем на пороговое значение (например, более чем на 5%, более чем на 10%, более чем на 10% насыщенности, более чем на 10% максимальной яркости, и т.д.). В то же время, соответствующие пиксели могут быть ассоциированы с отражением освещения очковой оптикой, если их яркость отличается менее чем на пороговое значение (например, менее чем на 5%, менее чем на 1%, и т.д.). Такие пиксели могут быть скрыты от дальнейшего вычисления. В другом примере соответствующие пиксели первого и второго изображений могут быть ассоциированы с отражением очковой оптикой, если оба пикселя являются насыщенными. В еще одном примере алгоритм машинного обучения может быть использован, чтобы различить отражение освещения глазом от отражения освещения очковой оптикой.
[0045] На этапе 86 входные данные направления взгляда вычисляют, основываясь на местоположении, на первом или втором изображении, отражения освещения глазом, в то же время, исключая те пиксели , которые ассоциированы с отражением освещения очковой оптикой. В одном примере вычисленные входные данные включают в себя азимутальный угол AA (на Фиг. 3) и угол возвышения EA, определяющие направление взгляда сквозь глаз. Любая подходящая система координат может быть использована для определения подобных углов. В одном примере эта система координат имеет своим основанием вход зрачка камеры 34 плоского изображения, а одна ось совпадает с оптической осью A. Само собой, вышеприведенные этапы способа 74 могут быть осуществлены и на одном и на другом глазу пользователя, в выполненной подходящим образом системе визуального распознавания пользовательского ввода. Когда векторы взгляда доступны и для того и для другого глаза, координаты фокальной точки P пользователя могут также быть определены и входить в состав входных данных.
[0046] В некоторых случаях осевое или внеосевое освещение очковой оптики пользователя будет создавать отражение, которое перекрывает желаемый глазной признак на первом или втором изображении. Когда это происходит, исключение пикселей, ассоциированных с отражением от очковой оптики, может скрывать этот глазной признак, или некоторый его участок, возможно вызывая прерывание в обнаружении взгляда для затронутого глаза. Следует понимать, тем не менее, что даже длительное прерывание в доступности ввода взглядом может быть менее разрушительным для взаимодействия с пользователем, чем доставка неточного ввода взглядом. Это может быть особенно справедливо в примерах, где взгляд обнаруживают независимо для каждого глаза.
[0047] На необязательном этапе 88 вычисленное направление взгляда корректируют, основываясь на кинематическую модель, чтобы учесть размытие вследствие движения - а именно, движение глаза во время короткого интервала времени между получением первого и второго изображений. Эта кинематическая модель может быть моделью оптического потока, к примеру.
[0048] На этапе 90 входные данные, включающие в себя обнаруженное направление взгляда (и определенную фокальную точку, если она доступна) предоставляют в соответствующую пользовательскую структуру в компьютерной системе - например, OS или приложение компьютерной системы - основываясь на отражении освещения системы визуального распознавания пользовательского ввода глазом. В силу эффекта установления различия отражений раскрываемого способа, предоставляемые входные данные могут быть в значительной мере независимыми от отражения освещения очковой оптикой пользователя. Будет понятно, что примеры, описанные в настоящем документе, могут быть реализованы многими различными способами. К примеру, изображение глаза пользователя может быть захвачено через множество экспозиций, например, используя технологии построения изображений с расширенным динамическим диапазоном (HDR), чтобы достичь большего динамического диапазона яркости в каждом изображении, чем с не-HDR технологиями.
[0049] Дополнительно, некоторые реализации могут использовать систему считывания изображения, выполненную с возможностью получать два или более последовательных кадра с некоторым интервалом кадров (например, каждые 30 мс) что помогает избежать воздействия на желаемую частоту кадров. В качестве неограничивающего примера, система подсветки, содержащая один или более лазеров, может быть использована для освещения так, чтобы это освещение обеспечивалось на первой интенсивности на период времени (например, 2 мс), за которым следует вторая, более высокая интенсивность на другой период времени (например, другие 2 мс). Во время этого процесса освещения, первый кадр может быть получен в первый период времени, а второй кадр может быть получен во время второго периода времени так, чтобы оба изображения глаза были получены перед чтением данных изображения. Любые дополнительные последующие кадры могут быть получены подобным образом. После процесса освещения эти два или более полученных кадра изображения могут быть прочитаны за оставшуюся продолжительность длительности кадра. Любая подходящая аппаратная конфигурация может быть использована, чтобы получить изображения таким способом. К примеру, система может принимать вид двух расположенных рядом камер, которые могут или не могут быть внутренне сконструированы, чтобы делить одну и ту же матрицу.
[0050] Как видно из предшествующего описания, способы и процессы, описанные в настоящем документе, могут быть привязаны к компьютерной системе из одной или более вычислительных машин. Такие способы и процессы могут быть реализованы как прикладная компьютерная программа или служба, прикладной программный интерфейс (API), библиотека, и/или другой компьютерный программный продукт. Читатель снова отсылается к Фиг. 2, которая показывает неограничивающий пример компьютерной системы 20, используемой для поддержки способов и процессов, описанных в настоящем документе. Эта компьютерная система включает в себя логическую машину 92 и машину 94 хранения команд. Эта компьютерная система также включает в себя устройство 16 отображения, систему 96 передачи информации, и различные компоненты, не показанные на чертеже.
[0051] Каждая логическая машина 92 включает в себя одно или более физических логических устройств, выполненных с возможностью исполнять команды. Логическая машина может быть выполнена с возможностью исполнять команды, которые являются частью одного или более приложений, служб, программ, подпрограмм, библиотек, объектов, компонентов, структур данных, или других логических структур. Такие команды могут быть реализованы, чтобы выполнять задачу, реализовывать тип данных, изменять состояние одного или более компонентов, достигать технического эффекта, или иным образом достигать желаемого результата.
[0052] Каждая логическая машина 92 может включать в себя один или более процессоров, выполненных с возможностью исполнять программные команды. Дополнительно или в качестве альтернативы, логическая машина может включать в себя одну или более аппаратных или программно-аппаратных логических машин, выполненных с возможностью исполнять аппаратные или программно-аппаратные команды. Процессоры логической машины могут быть одноядерными или многоядерными, а команды, исполняемые на них, могут быть выполнены с возможностью последовательной, параллельной, и/или распределенной обработки. Отдельные компоненты логической машины, при необходимости могут быть распределены по двум или более отдельным устройствам, которые могут быть удаленно расположены и/или выполнены с возможностью координировать обработку. Аспекты логической машины могут быть виртуализированы и исполняться за счет удаленно доступных, сетевых вычислительных устройств, выполненных в конфигурации облачных вычислений.
[0053] Каждая машина 94 хранения данных включает в себя одно или более физических устройств компьютерной памяти, выполненных с возможностью хранить команды, исполняемые ассоциированной логической машиной 92, чтобы реализовать способы и процессы, описанные в настоящем документе. Когда такие способы и процессы реализуются, состояние машины хранения данных может быть изменено - например, чтобы хранить разные данные. Машина хранения данных может включать в себя съемные и/или встроенные устройства; она может включать в себя оптическую память (например, CD, DVD, HD-DVD, диск Blu-Ray, и т.д.), полупроводниковую память (например, RAM, EPROM, EEPROM, и т.д.), и/или магнитную память (например, накопитель на жестких магнитных дисках, накопитель на гибких магнитных дисках, накопитель на магнитной ленте, MRAM, и т.д.), среди прочих. Машина хранения данных может включать в себя энергозависимые, энергонезависимые, динамические, статические, с возможностью чтения/записи, доступные только для чтения, с произвольным доступом, с последовательным доступом, с физической адресацией, с файловой адресацией, и/или с адресацией по содержимому устройства.
[0054] Следует понимать, что каждая машина 94 хранения данных включает в себя одно или более физических устройств. Тем не менее, аспекты команд, описанных в настоящем документе, в качестве альтернативы могут быть распространены при помощи среды передачи данных (например, электромагнитного сигнала, оптического сигнала, и так далее), в противоположность сохранению с помощью носителя информации.
[0055] Аспекты логической машины (машин) и машины (машин) хранения данных могут быть объединены совместно в одном или более компоненте аппаратной логики. Такие компоненты аппаратной логики могут включать в себя программируемые логические матрицы (FPGA), специализированных интегральных микросхем (PASIC/ASIC), стандартные продукты, ориентированные на программу или приложение (PSSP/ASSP), однокристальные системы (SOC), и сложные устройства с программируемой логикой (CPLD), к примеру.
[0056] Термин "подсистема" может быть использован, чтобы описать аспект компьютерной системы, реализованный с возможностью выполнять отдельно взятую функцию. В некоторых случаях, подсистема может быть реализована с помощью логической машины, исполняющей команды, хранящиеся на машине хранения данных. Будет понятно, что разные подсистемы могут быть реализованы из одного и того же приложения, службы, блока кода, объекта, библиотеки, подпрограммы, API, функции, и так далее. Подобным образом, одна и та же подсистема может быть реализована разными приложениями, службами, блоками кода, объектами, подпрограммами, API, функциями, и так далее. Термин "подсистема" может охватывать отдельные или группы исполняемых файлов, файлов данных, библиотек, драйверов, скриптов, записей в базе данных, и так далее.
[0057] Система 96 передачи информации может быть выполнена с возможностью соединять с возможностью связи компьютерную систему с одной или более другими машинами. Эта коммуникационная система может включать в себя проводные и/или беспроводные устройства связи, совместимые с одним или более разными протоколами связи. В качестве неограничивающего примера, коммуникационная система может быть выполнена с возможностью осуществлять связь через беспроводную телефонную сеть, или проводную или беспроводную локальную или глобальную вычислительную сеть. В некоторых примерах, коммуникационная система может позволять вычислительной машине посылать и/или принимать сообщения к другим устройствам и/или от других устройств через такую сеть связи как сеть Интернет.
[0058] Будет понятно, что конфигурации и/или подходы, описанные в настоящем документе, являются примерными по своей природе, и что эти конкретные примеры или образцы не должны рассматриваться в ограничивающем смысле, поскольку многочисленные вариации являются возможными. Конкретные подпрограммы или методы, описанные в настоящем документе, могут представлять одно или более из любого числа стратегий обработки. Таким образом, различные показанные и/или описанные действия могут быть выполнены в последовательности показанной и/или описанной, в других последовательностях, параллельно, или опущены. Кроме того, порядок вышеописанных процессов может быть изменен.
[0059] Изобретение по настоящему раскрытию включает в себя все новые и неочевидные комбинации и подкомбинации различных процессов, систем, и конфигураций, и других признаков, функций, действий, и/или свойств, описанных в настоящем документе, а так же любые и все их эквиваленты.

Claims (40)

1. Выполняемый в вычислительной системе, подключенной к системе визуального распознавания пользовательского ввода, способ предоставления ввода, представляющего направление взгляда, содержащий этапы, на которых
получают с камеры системы визуального распознавания пользовательского ввода первое изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на первом уровне мощности;
получают с камеры системы визуального распознавания пользовательского ввода второе изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на втором, отличающемся уровне мощности;
сравнивают яркость соответствующих пикселей первого и второго изображений, чтобы отличить отражение освещения от глаза от отражения освещения от очковой оптики, при этом первое и второе изображения выбираются из трех или более изображений глаза, полученных камерой при взаимно отличающихся уровнях мощности излучателя, с тем чтобы выявить световозвращающую реакцию от глаза в виде яркого зрачка с ненасыщенным отражением; и
предоставляют ввод на основе отражения освещения от глаза.
2. Способ по п. 1, в котором отражение освещения от глаза включает в себя отражение от сетчатки глаза, причем данное отражение проходит в обратном направлении через зрачок глаза и обеспечивает то, что зрачок выглядит ярче по отношению к окружающей радужной оболочке в первом изображении.
3. Способ по п. 1, в котором отражение от глаза включает в себя отражение от радужной оболочки глаза, обеспечивающее то, что зрачок выглядит темнее по отношению к радужной оболочке в первом изображении.
4. Способ по п. 1, дополнительно содержащий этап, на котором вычисляют ввод на основе местоположения, на первом изображении, отражения освещения от глаза, исключая при этом те пиксели, которые связаны с отражением освещения от очковой оптики.
5. Способ по п. 4, дополнительно содержащий этап, на котором корректируют ввод на основе кинематической модели для учета движения глаза между получением первого и второго изображений.
6. Способ по п. 1, в котором предоставляемый ввод включает в себя азимутальный угол и угол возвышения, определяющие направление взгляда сквозь глаз.
7. Способ по п. 1, дополнительно содержащий этапы, на которых
связывают соответствующие пиксели первого и второго изображений с отражением освещения от глаза, если яркость этих пикселей отличается более, чем на пороговую величину; и
связывают соответствующие пиксели первого и второго изображений с отражением освещения от очковой оптики, если яркость этих пикселей отличается меньше, чем на пороговую величину.
8. Способ по п. 1, дополнительно содержащий этап, на котором связывают соответствующие пиксели первого и второго изображений с отражением освещения от очковой оптики, если соответствующие пиксели первого и второго изображений оба являются насыщенными.
9. Способ по п. 1, в котором первый уровень мощности выбирается на основе способности стимулировать и различать реакцию в виде яркого зрачка от глаза.
10. Способ по п. 1, в котором первый уровень мощности выбирается на основе условий окружающего света.
11. Способ по п. 1, в котором сравнение яркости соответствующих пикселей включает в себя использование алгоритма машинного обучения, чтобы отличать отражение освещения от глаза от отражения освещения от очковой оптики.
12. Способ по п. 1, в котором глаз является первым из двух глаз, причем первое и второе изображения являются изображениями первого глаза, при этом способ дополнительно содержит этапы, на которых
получают с камеры системы визуального распознавания пользовательского ввода первое изображение второго глаза, полученное при освещении глаза излучателем, эксплуатируемым на первом уровне мощности;
получают с камеры системы визуального распознавания пользовательского ввода второе изображение второго глаза, полученное при освещении глаза излучателем, эксплуатируемым на втором уровне мощности;
сравнивают яркость соответствующих пикселей первого и второго изображений второго глаза, чтобы отличить отражение освещения от второго глаза от отражения освещения от очковой оптики; и
предоставляют ввод на основе отражения освещения от второго глаза и независимо от отражения освещения от очковой оптики, каковой ввод включает в себя определенную фокальную точку первого и второго глаз.
13. Вычислительная система, выполненная с возможностью предоставления ввода, представляющего направление взгляда, причем вычислительная система подключена к системе визуального распознавания пользовательского ввода, содержащей систему подсветки, включающую в себя излучатель, приспособленный освещать глаз, и камеру, выполненную с возможностью получать одно или более изображений глаза, при этом вычислительная система содержит:
процессор, соединенный с камерой и системой подсветки; и
компьютерную память, связанную с процессором, причем в компьютерной памяти хранятся команды, исполняемые процессором, чтобы
получать с камеры системы визуального распознавания пользовательского ввода первое изображение глаза, полученное при освещении глаза излучателем на первом уровне мощности;
получать с камеры системы визуального распознавания пользовательского ввода второе изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на втором, отличающемся уровне мощности;
сравнивать яркость соответствующих пикселей первого и второго изображений, чтобы отличить отражение освещения от глаза от отражения освещения от очковой оптики, при этом первое и второе изображения выбираются из трех или более изображений глаза, полученных камерой при взаимно отличающихся уровнях мощности излучателя, с тем чтобы выявить световозвращающую реакцию от глаза в виде яркого зрачка с ненасыщенным отражением; и
предоставлять ввод в вычислительную систему на основе отражения освещения от глаза и независимо от отражения от очковой оптики.
14. Система по п. 13, в которой в компьютерной памяти дополнительно хранятся команды, исполняемые чтобы захватывать одно или более из первого изображения глаза и второго изображения глаза при множестве экспозиций.
15. Система по п. 14, в которой команды являются исполняемыми, чтобы получать первое изображение глаза и второе изображение глаза последовательно перед считыванием первого изображения глаза и второго изображения глаза с камеры.
16. Система по п. 14, при этом система подсветки выполнена с возможностью перехода от обеспечения первого уровня мощности излучателя к обеспечению второго уровня мощности излучателя за тридцать миллисекунд или менее.
17. Машиночитаемый носитель информации, на котором сохранены команды, которые при их исполнении процессором вычислительной системы, подключенной к системе визуального распознавания пользовательского ввода, предписывают вычислительной системе выполнять способ предоставления ввода, представляющего направление взгляда, содержащий этапы, на которых
получают с камеры системы визуального распознавания пользовательского ввода первое изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на первом уровне мощности;
получают с камеры системы визуального распознавания пользовательского ввода второе изображение глаза, полученное при освещении глаза излучателем, эксплуатируемым на втором, отличающемся уровне мощности;
сравнивают яркость соответствующих пикселей первого и второго изображений, чтобы отличить отражение освещения от глаза от отражения освещения от очковой оптики, при этом первое и второе изображения выбираются из трех или более изображений глаза, полученных камерой при взаимно отличающихся уровнях мощности излучателя, с тем чтобы выявить световозвращающую реакцию от глаза в виде яркого зрачка с ненасыщенным отражением; и
предоставляют ввод на основе отражения освещения от глаза и независимо от отражения от очковой оптики.
18. Машиночитаемый носитель информации по п. 17, при этом излучатель представляет собой дискретный светоизлучающий диод системы визуального распознавания пользовательского ввода, причем способ дополнительно содержит этапы, на которых
регулируют дискретный светоизлучающий диод для обеспечения первого уровня мощности перед получением первого изображения; и
регулируют дискретный светоизлучающий диод для обеспечения второго уровня мощности перед получением второго изображения.
RU2017111831A 2014-10-08 2015-10-06 Отслеживание взгляда через очковую оптику RU2705432C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/509,976 US9946339B2 (en) 2014-10-08 2014-10-08 Gaze tracking through eyewear
US14/509,976 2014-10-08
PCT/US2015/054102 WO2016057435A1 (en) 2014-10-08 2015-10-06 Gaze tracking through eyewear

Publications (3)

Publication Number Publication Date
RU2017111831A RU2017111831A (ru) 2018-10-09
RU2017111831A3 RU2017111831A3 (ru) 2019-04-25
RU2705432C2 true RU2705432C2 (ru) 2019-11-07

Family

ID=54360538

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017111831A RU2705432C2 (ru) 2014-10-08 2015-10-06 Отслеживание взгляда через очковую оптику

Country Status (11)

Country Link
US (1) US9946339B2 (ru)
EP (1) EP3204891B1 (ru)
JP (1) JP6560748B2 (ru)
KR (1) KR102455734B1 (ru)
CN (1) CN107209551B (ru)
AU (1) AU2015328317B2 (ru)
BR (1) BR112017005648A2 (ru)
CA (1) CA2964099C (ru)
MX (1) MX2017004450A (ru)
RU (1) RU2705432C2 (ru)
WO (1) WO2016057435A1 (ru)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016093750A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget Lm Ericsson (Publ) Device for and method of corneal imaging
US20160300108A1 (en) * 2015-04-08 2016-10-13 Motorola Mobility Llc Iris acquisition using visible light imaging
US11543487B2 (en) * 2015-06-09 2023-01-03 Nokia Technologies Oy Causing performance of an active scan
US9785234B2 (en) * 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
WO2019040665A1 (en) 2017-08-23 2019-02-28 Neurable Inc. BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS
KR102410834B1 (ko) 2017-10-27 2022-06-20 삼성전자주식회사 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치
CN111542800B (zh) 2017-11-13 2024-09-17 神经股份有限公司 具有对于高速、精确和直观的用户交互的适配的大脑-计算机接口
CN111712192B (zh) 2018-01-18 2024-07-02 神经股份有限公司 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口
US10725292B2 (en) * 2018-02-01 2020-07-28 Varjo Technologies Oy Gaze-tracking system and aperture device
CN112165894B (zh) * 2018-05-31 2024-07-19 托比股份公司 用于闪光/反射识别的方法和系统
US10288879B1 (en) 2018-05-31 2019-05-14 Tobii Ab Method and system for glint/reflection identification
US10324529B1 (en) 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
EP3627194A1 (en) * 2018-09-20 2020-03-25 Essilor International An optical device with reduced reflection in deep red, near infrared and visible ranges
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
KR102608471B1 (ko) 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
KR102349087B1 (ko) * 2019-10-10 2022-01-12 한국과학기술연구원 뇌-컴퓨터 인터페이스에 기반하여 로봇을 제어하는 방법 및 그에 따른 식사 보조 로봇의 제어 장치
CN113132643B (zh) * 2019-12-30 2023-02-07 Oppo广东移动通信有限公司 图像处理方法及相关产品
US11205069B1 (en) * 2020-02-20 2021-12-21 Facebook Technologies, Llc Hybrid cornea and pupil tracking
US20230324587A1 (en) * 2020-09-22 2023-10-12 Apple Inc. Glint analysis using multi-zone lens
GB2618078A (en) * 2022-04-25 2023-11-01 Continental Automotive Tech Gmbh An image processing method for removal of glare spots and system for the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
RU2395228C2 (ru) * 2004-04-01 2010-07-27 Уилльям С. ТОРЧ Биосенсоры, коммуникаторы и контроллеры для мониторинга движения глаз и способы их применения
US20110019874A1 (en) * 2008-02-14 2011-01-27 Nokia Corporation Device and method for determining gaze direction
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US20130178287A1 (en) * 2010-12-13 2013-07-11 Microsoft Corporation Human-computer interface system having a 3d gaze tracker

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
JP3465336B2 (ja) * 1994-02-04 2003-11-10 三菱電機株式会社 顔画像撮影装置
AUPP048097A0 (en) 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
SE0004741D0 (sv) 2000-12-21 2000-12-21 Smart Eye Ab Image capturing device with reflex reduction
US7809160B2 (en) 2003-11-14 2010-10-05 Queen's University At Kingston Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
US7773111B2 (en) 2005-03-16 2010-08-10 Lc Technologies, Inc. System and method for perceived image processing in a gaze tracking system
EP2150170B1 (en) 2007-05-23 2016-05-11 Mirametrix Inc. Methods and apparatus for estimating point-of-gaze in three dimensions
US10178290B2 (en) 2010-02-17 2019-01-08 Sri International Method and apparatus for automatically acquiring facial, ocular, and iris images from moving subjects at long-range
FR2970576B1 (fr) * 2011-01-19 2013-02-08 Matchic Labs Procede de determination de la direction du regard et dispositif pour sa mise en oeuvre
WO2013036621A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
KR20130121303A (ko) * 2012-04-27 2013-11-06 한국전자통신연구원 원거리 시선 추적 시스템 및 방법
JP6011173B2 (ja) * 2012-09-06 2016-10-19 株式会社Jvcケンウッド 瞳孔検出装置および瞳孔検出方法
WO2014181775A1 (ja) * 2013-05-08 2014-11-13 国立大学法人静岡大学 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
KR20140147748A (ko) * 2013-06-19 2014-12-30 한국전자통신연구원 시력 보조 기구 착용시에도 안정적인 시선 추적 방법
EP3048949B1 (en) * 2013-09-24 2019-11-20 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
US9552064B2 (en) * 2013-11-27 2017-01-24 Shenzhen Huiding Technology Co., Ltd. Eye tracking and user reaction detection
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
RU2395228C2 (ru) * 2004-04-01 2010-07-27 Уилльям С. ТОРЧ Биосенсоры, коммуникаторы и контроллеры для мониторинга движения глаз и способы их применения
US20110019874A1 (en) * 2008-02-14 2011-01-27 Nokia Corporation Device and method for determining gaze direction
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker
US20130178287A1 (en) * 2010-12-13 2013-07-11 Microsoft Corporation Human-computer interface system having a 3d gaze tracker
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления

Also Published As

Publication number Publication date
MX2017004450A (es) 2017-11-16
AU2015328317B2 (en) 2020-07-02
KR20170070110A (ko) 2017-06-21
JP6560748B2 (ja) 2019-08-14
RU2017111831A (ru) 2018-10-09
US9946339B2 (en) 2018-04-17
BR112017005648A2 (pt) 2017-12-12
CA2964099A1 (en) 2016-04-14
CA2964099C (en) 2023-01-24
KR102455734B1 (ko) 2022-10-17
EP3204891A1 (en) 2017-08-16
RU2017111831A3 (ru) 2019-04-25
JP2017537366A (ja) 2017-12-14
EP3204891B1 (en) 2021-08-18
CN107209551B (zh) 2020-08-25
CN107209551A (zh) 2017-09-26
AU2015328317A1 (en) 2017-04-13
WO2016057435A1 (en) 2016-04-14
US20160103484A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
RU2705432C2 (ru) Отслеживание взгляда через очковую оптику
KR102366110B1 (ko) 번쩍임의 광원에의 매핑
KR102231910B1 (ko) 초점 이동에 반응하는 입체적 디스플레이
US9213405B2 (en) Comprehension and intent-based content for augmented reality displays
US9480397B2 (en) Gaze tracking variations using visible lights or dots
EP3048949B1 (en) Gaze tracking variations using dynamic lighting position
TW201533613A (zh) 偏極化凝視追蹤
US9934583B2 (en) Expectation maximization to determine position of ambient glints
CN116583885A (zh) 生物识别认证系统中的姿态优化
CN116529787A (zh) 多波长生物识别成像系统
CN116569221A (zh) 用于成像系统的灵活照明
US20210405851A1 (en) Visual interface for a computer system
US9746915B1 (en) Methods and systems for calibrating a device
US20230315201A1 (en) Stray light mitigation in optical systems
CN116472564A (zh) 基于所获取图像的质量自动选择生物识别
CN116529786A (zh) 多相机生物识别成像系统
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
WO2022066478A1 (en) Glint analysis using multi-zone lens
WO2022066817A1 (en) Automatic selection of biometric based on quality of acquired image
CN117316390A (zh) 光学感测系统的处方透镜登记和切换