RU2408162C2 - Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей - Google Patents

Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей Download PDF

Info

Publication number
RU2408162C2
RU2408162C2 RU2008110044/09A RU2008110044A RU2408162C2 RU 2408162 C2 RU2408162 C2 RU 2408162C2 RU 2008110044/09 A RU2008110044/09 A RU 2008110044/09A RU 2008110044 A RU2008110044 A RU 2008110044A RU 2408162 C2 RU2408162 C2 RU 2408162C2
Authority
RU
Russia
Prior art keywords
eye
instance
face
tracking
target area
Prior art date
Application number
RU2008110044/09A
Other languages
English (en)
Other versions
RU2008110044A (ru
Inventor
Александер ШВЕРДТНЕР (DE)
Александер ШВЕРДТНЕР
Original Assignee
Сириал Текнолоджиз Гмбх
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сириал Текнолоджиз Гмбх filed Critical Сириал Текнолоджиз Гмбх
Publication of RU2008110044A publication Critical patent/RU2008110044A/ru
Application granted granted Critical
Publication of RU2408162C2 publication Critical patent/RU2408162C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/05Means for tracking the observer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

Изобретение относится к способу бесконтактного обнаружения и отслеживания положений глаз или зрачков нескольких наблюдателей в режиме реального времени. Техническим результатом является минимизация числа ошибок и времени запаздывания между приемом изображения, которым является считывание видеокадра, и выдачей данных о положении глаз. Указанный технический результат достигается тем, что отслеживание положений опорных точек глаз наблюдателей в видеокадрах, осуществляют путем инстанции определителя лица для обнаружения положений лица в видеокадрах, причем указанная инстанция выделяет значительно меньшую подобласть из полного видеокадра в качестве целевой области лица для каждого лица с целью передачи данных указанной целевой области лица в, по меньшей мере, одну последующую инстанцию определителя глаза для обнаружения положений глаза, причем выделяют значительно меньшую подобласть из каждой целевой области лица в качестве целевой области глаза с целью передачи данных указанной целевой области глаза, по меньшей мере, в один последующую инстанцию отслеживания глаза для отслеживания положений глаза, при этом обнаруживают положения опорных точек в целевой области глаза в текущем видеокадре и в последующих видеокадрах и формируют данные для следящего устройства, при этом каждую из инстанций выполняют в вычислительном блоке параллельно друг другу, а положениями опорных точек глаза являются положения зрачков и/или уголков глаз. 2 н. и 13 з.п. ф-лы, 3 ил.

Description

Область техники, к которой относится изобретение
Настоящее изобретение относится к способу и устройству для бесконтактного обнаружения и отслеживания положений глаз или зрачков нескольких наблюдателей в режиме реального времени.
Входные данные содержат изображение в виде последовательности цифровых видеокадров, которые собираются одним или несколькими датчиками изображения.
Определение опорных точек глаз нескольких наблюдателей не требует использования дополнительных вспомогательных средств, таких как очки, наушники или световые указатели.
В отличие от применения в стационарном состоянии, например при контроле водителей или пилотов, где диапазон телодвижений, в частности диапазон по глубине, весьма ограничен и поэтому может считаться практически стационарным, настоящее изобретение служит для определения положения глаз в широком «прицельном» диапазоне, справляется с быстрым передвижением наблюдателя и определяет координату по глубине в относительно большом диапазоне, например от 0,5 до 3,5 м.
Эффективная и точная реализация обнаружения положения глаз в реальном времени - это основное средство сопряжения в системе «человек-машина». Основной областью применения изобретения является устройство обнаружения и отслеживания положения глаз пользователя автостереоскопических дисплеев. Такие дисплеи предоставляют наблюдателям впечатление стереоскопического изображения без использования каких-либо вспомогательных средств, таких как, например, поляризационные очки. Также изобретение применяется, например, в видеоголографии, в области обнаружения людей, лиц или направлений наблюдения.
Автостереоскопические дисплеи, в которых изображение отслеживается посредством так называемых следящих устройств, обеспечивают многочисленных наблюдателей высокой степенью мобильности в широкой области видимости.
Безошибочное обнаружение и отслеживание глаз, положения глаз или зрачков также является важным звеном системы «человек-машина» в этих видах представления изображения.
Следящие устройства, которые работают надежно и безошибочно, обычно незаметны для наблюдателей. Однако во многих случаях, при применении, ошибки системы отслеживания вызывают нежелательные побочные эффекты, которые, например, в области трехмерных приложений вызывают ошибочное восстановление изображения или перекрестные искажения. К следящему устройству предъявляются высокие требования в отношении точности, надежности и безошибочности.
Также система должна быть в достаточной мере эффективной и точной, чтобы правильно отслеживать все основные перемещения и, следовательно, позволять наблюдателю свободно перемещаться во всех трех направлениях.
Уровень техники
Известно несколько типов коммерчески доступных бесконтактных следящих систем. Простые модели обычно характеризуются базовым программным обеспечением для стандартных операционных систем и имеют стандартизованные аппаратные и программные интерфейсы.
Документ WO 03/079 902 А1 «Обнаружение и отслеживание положений глаз при различных условиях освещенности в реальном времени», Zhiuei Zhu Qiang Ji, описывает способ бесконтактного обнаружения положения глаз в реальном времени, который содержит в основном этап обнаружения положения глаз и этап отслеживания глаз. Этап обнаружения положения глаза включает в себя сочетание способа активного освещения и распознавания образов. После того как были в первый раз обнаружены глаза наблюдателя, выполняется отслеживание глаз, при этом последний этап содержит сочетание и синтез различных алгоритмов и технических средств. Несмотря на сочетание и синтез нескольких средств все же существует проблема, состоящая в том, что значительные и резкие перемещения головы во всех трех направлениях не смогут быть отслежены в реальном времени, а обработке данных в реальном времени может препятствовать задержка по времени между предоставлением данных о положении и получением изображения. В частности, это относится к обнаружению положения глаза в направлении глубины при неблагоприятных условиях окружающей среды.
В автомобиле, например, лицо водителя всегда расположено в пределах предсказуемого расстояния относительно приборной панели. Более того, в вертикальном и горизонтальном направлении имеются лишь небольшие изменения положения. В частности, очень мал диапазон движения в направлении глубины, так что обычно положение по глубине может быть экстраполировано с достаточной точностью, даже если используется только одна камера.
Цель настоящего изобретения - обеспечить широкий диапазон перемещения по всем трем измерениям наблюдаемого пространства при малом времени вычислений. В отличие от упомянутого аналога определение положения глаз производится в трех измерениях, включая глубину. Предпочтительно, диапазон по глубине является широким и составляет от 0,5 до по меньшей мере 3,5 м. Для определения глубины, с одной стороны, требуется большое количество независимо расположенных камер для осуществления возможности захвата изображений целевой области с различных перспектив. Более того, для определения положения глаз на расстоянии вплоть до нескольких метров требуются камеры, имеющие высокую разрешающую способность, что приводит к большому числу данных в расчете на одну камеру и на один видеокадр.
Проблема обработки большого количества данных в реальном времени становится особенно важной, когда имеется несколько наблюдателей, подлежащих обнаружению. Особенно большие объемы вычислений требуют этапы процесса обработки при обнаружении наблюдателей, которых трудно различить из-за влияния освещения, отражения или очковых линз. Практика показывает, что обнаружение третьего или четвертого человека, который частично скрыт или который стоит несколько в стороне, часто может быть достигнуто только с помощью обширной, требующей больших затрат времени вычислительной работы. Однако необходимая вычислительная работа для обнаруживаемого в настоящий момент с большим трудом наблюдателя не должна негативно сказываться на слежении в реальном времени за остальными наблюдателями.
Проблемы, возникающие при обнаружении положения глаз, заключаются в том, что входные видеокадры не могут больше непрерывно обрабатываться в режиме реального времени. Максимально допустимое время вычислений в расчете на человека и в расчете на кадр может быть превышено, если, например, глаза закрыты очковыми линзами или наушниками или если наблюдатель резко отворачивается от камер хотя бы только на мгновение.
Учитывая недостатки аналога, целью настоящего изобретения является создание способа, позволяющего определять положения глаз большого количества наблюдателей в реальном времени, даже если наблюдатель(и) производит энергичные резкие движения головы во всех трех измерениях.
Способ позволяет обнаруживать положения глаз в широкой целевой области, компенсировать резкие движения наблюдателей и определять координату по глубине в широком диапазоне.
Более того, при минимизации числа ошибок время запаздывания между приемом изображения, которым является считывание видеокадра, и выдачей результата, которой является предоставление данных о положении глаз, должно резко сокращаться. Кроме того, способ позволит достигнуть безошибочных результатов в режиме реального времени, даже если используются камеры с высокой разрешающей способностью.
Раскрытие изобретения
Способ применяется для обнаружения и отслеживания опорных точек глаз множества наблюдателей в режиме реального времени. Входные данные содержат данные изображения в виде последовательности цифровых видеокадров, которые получают одним или несколькими датчиками изображения, например камерой. Опорными точками глаз являются положения зрачков и/или уголков глаз.
Способ содержит совместное действие инстанций определителя лиц для обнаружения лиц, за которым следует иерархически зависимая инстанция определителя глаз для обнаружения области глаз, и инстанция отслеживания глаз для обнаружения и отслеживания опорных точек глаз. Инстанция отслеживания глаз является иерархически зависимой от инстанции определителя глаз. «Инстанцией» обозначается подпрограмма, реализующая конкретную задачу - обнаружение лица, обнаружение положения глаза наблюдателя в видеокадре и др. Соответствующая инстанция является конкретной реализацией определенного программного образца (объекта).
Изобретение основывается на идее, что поиск положения глаза реализовывается в пределах иерархически организованной стандартной программы, которая предназначается для постепенного сокращения области поиска, начиная с полного видеоизображения. Режим реального времени достигается вследствие иерархического постепенного уменьшения и разделения области поиска, начиная с полного видеокадра для инстанции определителя лица к уменьшенной целевой области лица для инстанции определителя глаза или инстанции отслеживания глаза. Кроме того, инстанция или группа инстанций в каждом случае выполняется в специализированном вычислительном блоке, причем отдельные операции выполняются параллельно.
Инстанция определителя лица осуществляет поиск положения головы или лица каждого наблюдателя в области полного видеоизображения. Инстанция, таким образом, определяет из данных полного видеоизображения, которое представляет соответствующую целевую область лица, намного меньшее количество данных для каждого лица, и предоставляет эту ограниченную область инстанции определителя глаза.
Инстанция определителя глаз является иерархически зависимой по отношению к инстанции определителя лица. Из данных целевой области лица инстанция определителя глаза должно обрабатываться только значительно сокращенное количество данных. Используя эти данные, инстанция обнаруживает положение глаза или глаз и выделяет целевую область глаз с намного меньшим количеством данных по сравнению с целевой областью лица. И только эта ограниченная область поиска предоставляется следующей иерархически зависимой инстанции отслеживания глаза.
Затем инстанция отслеживания глаза с высокой скоростью определяет в значительно уменьшенном количестве данных области поиска глаза требуемые опорные точки глаза. Иерархически сокращая области поиска и объем данных, инстанция отслеживания глаза работает очень эффективно и быстро.
В соответствии с настоящим изобретением для сокращения общего времени задержки процесса инстанция определителя лица и инстанция определителя/отслеживания глаза должны выполняться независимо друг от друга в отдельных параллельных процессах. Параллельный принцип, осуществляющийся посредством предоставления инстанции или группы инстанций в специализированный вычислительный блок, может быть осуществлен в нескольких вариантах реализации.
В наиболее предпочтительном варианте реализации изобретения одна инстанция определителя лица для каждой камеры выполняется в специализированном вычислительном блоке. Затем каждому наблюдателю, который обнаружен инстанцией определителя лица, назначается специализированный вычислительный блок для реализации инстанции определителя глаза и, затем, инстанции отслеживания глаза. Если инстанция определителя лица обнаруживает новое лицо, то инстанция определителя глаза и инстанция отслеживания глаза получают команду или инициализируются немедленно, и эти инстанции будут выполняться в специализированном, специально назначенном вычислительном блоке. Немедленное отслеживание после обнаружения лица также осуществляется для лиц, которые были потеряны в течение короткого периода, но были обнаружены вновь.
Главное преимущество этого изобретения состоит в том, что инстанция определителя лица никоим образом не блокируется или задерживается, поскольку зависимые инстанции теперь выполняются в специализированных вычислительных блоках. Инстанция определителя лица продолжает искать лица в данных текущего видеокадра, при этом сохраняются все другие компьютерные ресурсы. Промежуточные и частичные результаты поиска, которые были определены, передаются в инстанцию управления для дальнейшей обработки/распределения или частичные результаты, предоставленные инстанциями отслеживания/определителя глаза, принимаются инстанций управления, чтобы обеспечить возможность экстраполировать целевые области в положительном цикле управления.
Обеспечиваемое настоящим способом немедленное выполнение инстанций существенно сокращает время ответной реакции и формирует первое основание для работы в реальном времени.
Также работа в реальном времени обеспечивается за счет постепенного иерархического сокращения и деления области поиска, начиная с полного видеоизображения для инстанции определителя лица до сокращенной целевой области лица для инстанции определителя глаза или инстанции отслеживания глаза.
И, наконец, в соответствии с изобретением работа в реальном времени также обеспечивается и гарантируется посредством выполнения инстанции или группы инстанций параллельно в отдельных процессах в специализированных вычислительных блоках. Также возможны другие варианты в отношении параллельности инстанций. Как указывалось выше, инстанция определителя лица и инстанция определителя/отслеживания глаза может быть выполнена в специализированных вычислительных блоках. Кроме того, инстанция определителя лица/определителя глаза может быть выполнена в специализированных компьютерных блоках. Очевидно также, что возможно также выполнять инстанцию определителя глаза в специализированном компьютерном блоке. Однако это - инстанция, для выполнения которой требуется относительно мало вычислительного времени, поэтому предпочтительно для нее использовать один из вычислительных блоков, используемых для инстанций определителя лица или отслеживания глаза, требующих большого объема вычислений.
Управление и контроль инстанций и обмена данными между инстанциями предпочтительно осуществляют с помощью инстанции управления. В частности, эта инстанция управляет предоставлением обнаруженных лиц или целевых областей лица в инстанции определителя глаза/отслеживания глаза в специализированых вычислительных блоках. Обмен данными включает, в основном, повторную инициализацию инстанций путем предоставления областей поиска, обмен промежуточными и окончательными результатами инстанций и передачу в итоге опорных точек глаз на внешний интерфейс.
Например, инстанция управления обновляет и повторно инициализирует инстанции определителя глаза и отслеживания глаза, соответствующие уже отслеженному лицу. Инстанция управления выбирает, проверяет и оценивает достоверность найденных целевых областей лица и целевых областей глаза. Соответствующие оценочные параметры определяются инстанциями в ходе процесса и используются инстанцией управления для осуществления оптимального управления процессом выполнения инстанций, а также распределения имеющихся вычислительных блоков.
Предлагаемый способ позволяет обнаружить положение глаза множества наблюдателей в реальном времени, даже если наблюдатели совершают сильные и резкие движения головой по всем трем измерениям. Проверено, что с помощью способа можно добиться работы в режиме реального времени с данными камер с высокой разрешающей способностью.
Краткое описание чертежей
Следующие чертежи иллюстрируют варианты реализации способа согласно изобретению при использовании в сочетании со следящим устройством для автостереоскопичекого дисплея.
Фиг.1 - схематическое представление разделенных, уменьшенных областей поиска инстанций определителя лица, определителя глаз и отслеживания глаз.
Фиг.2 - блок-схема параллелизации иерархически структурированных инстанций способа в соответствии с изобретением.
Фиг.3 - расположение компонентов устройства согласно изобретению и блок-схема параллелизации иерархически структурированных инстанций способа в соответствии с изобретением.
Осуществление изобретения
Фиг.1 представляет разделенные уменьшенные области поиска инстанций согласно настоящему способу. Изображения в виде последовательности цифровых видеокадров VF множества датчиков изображения, например инфракрасной стереокамеры, получают в качестве входных данных. Фиг.1 схематически показывает часть полного видеокадра VF, определяемого системой координат.
Первая инстанция определителя лица анализирует данные полного видеокадра VF и обнаруживает в полном видеокадре лица наблюдателей. На фиг.1 показаны данные двух лиц. Очевидно, первое лицо (левое) расположено около камеры, в то время как второе лицо (правое) находится на большем расстоянии от камеры.
Инстанция определителя лица выбирает из данных полного видеокадра VF для каждого обнаруженного лица уменьшенную область данных, которая соответствует целевой области GZ лица. Индексы относятся к первому лицу, показанному на фигуре слева. Выбранная целевая область GZ лица формирует уменьшенную область поиска для последующей инстанции определителя глаза. Инстанция определителя глаза выбирает в этой области поиска положение глаза и в результате еще больше сокращает количество данных целевой области GZ лица для получения существенно меньшего количества данных, соответствующих целевой области AZ глаза.
Данные целевой области AZ глаза, содержащие положения глаз, являются входными данными для последующей инстанции ЕТ отслеживания глаза, которая определяет в качестве результата вычислений опорные точки глаза в целевой области AZ глаза в текущем видеокадре, а также в отслеженной целевой области AZ глаза в последующих видеокадрах в соответствии с уже определенной последовательностью движения.
Информация об опорных точках предыдущих видеокадров в соответствии с движением наблюдателя используется для отслеживания и актуализации целевой области AZ глаза и экстраполяции областей в текущем и последующем видеокадрах. Если наблюдатель передвигается в направлении глубины, содержание изображения дополнительно может быть изменено в размере.
Как показано на фиг.1, целевая область глаза может содержать несколько раздельных частей. Как показано на фиг.1, эти целевые области имеют неправильную, но предпочтительно выпуклую форму, в зависимости от положения головы наблюдателя и его направления наблюдения. В простом варианте реализации эти области представляются списком параметризованных геометрических поверхностей, таких как эллипсы, круги или прямоугольники.
Фиг.2 основывается на последнем варианте и показывает блок-схему параллелизации инстанций. Фиг.2 показывает иерархическую структуру инстанции FF определителя лица, инстанции EF определителя глаза и инстанции ЕТ отслеживания глаза и распределение по специализированным вычислительным блокам R1-R2.
В этом варианте использованы три вычислительных блока R1-R3. Первый вычислительный блок R1 предназначен для инстанции FF определителя лица. Эта инстанция обнаруживает лицо первого наблюдателя в данных видеокадра и определяет целевую область GZ лица. Далее специализированному вычислительному блоку R1 мгновенно предоставляется целевая область лица с целью выполнения инстанции определителя глаза и, после этого, инстанции отслеживания глаза.
На фиг.2 показан поток данных уменьшенных целевых областей, т.е. целевой области GZ лица и целевой области AZ глаз для последующих инстанций соответственно. Инстанция ЕТ отслеживания глаза предоставляет данные опорных точек глаза в инстанцию управления с более высоким уровнем (не показан) или на внешний интерфейс. В это же самое время информация об опорных точках, обнаруженных в предшествующих видеокадрах, используется для отслеживания целевой области AZ глаз и для экстраполяции ее для последующих кадров при передвижении наблюдателя. Данные текущей целевой области глаз и областей предшествующих кадров, таким образом, используются снова в инстанции ЕТ отслеживания глаза, как показано на фиг.2.
Второй наблюдатель обнаруживается и отслеживается таким же образом. Если имеется больше наблюдателей, чем вычислительных блоков, то инстанция определителя/отслеживания глаза предпочтительно выполняется для каждого наблюдателя (или, другими словами, для каждой целевой области лица), в виде независимого, обрабатываемого параллельно процесса, причем, естественно, множество процессов выполняется в общем вычислительном блоке.
На фиг.3 представлены схема расположения элементов и логическая блок-схема параллелизации иерархически структуированных инстанций на примере видеоданных с множества камер в разных позициях. Для обнаружения и отслеживания глаза работа каждой камеры основывается на способе согласно вышеописанным вариантам его реализации. Таким образом, каждая камера ставится в соответствие со способом параллелизации инстанций, как показано на фиг.1 и фиг.2.
Левая система обнаруживает на основании видеоданных VFL с левой стороны (видеоданные левые) целевую область GZ1-L лица первого наблюдателя с помощью инстанции FF определителя лица, выполняемой в первом вычислительном блоке R1. Соответствующая инстанция EF определителя глаза и инстанция ЕТ отслеживания глаза выполняются в вычислительном блоке R2. Что касается рассматриваемого устройства, то эти вычислительные блоки обычно конфигурированы в виде центральных процессоров (CPUs) или цифровых сигнальных процессоров (DSPs).
Вторая группа инстанций, выполняемых в вычислительном блоке R3, относится ко второму наблюдателю. Другие инстанции и вычислительные блоки, показанные на фиг.3, которые обозначены как VFR (видеокадр правый) и содержащие индекс R, относятся к правостороннему изображению и соответствующим инстанциям или элементам устройства.
Блок управления, не показан, осуществляет управление отдельными процессами и организацию обмена данными во время процесса. Обмен данными происходит, в частности, между вычислительными блоками, которые относятся к одному наблюдателю. Например, уже имеющаяся в распоряжении информация левого изображения используется для определения и экстраполирования положения в правом изображении, информационное наполнение которого несущественно отличается от левого изображения в пределах допускаемых отклонений. Трансформация частичных результатов может основываться на х-у пиксельном положении глаза в левом изображении, расстоянии до наблюдателя, которое определено при предыдущем вычислении глубины, и параметров камеры. Например, данные целевой области AZ1-L глаза, обнаруженной в левой половине изображения, служат входным параметром для правой половины изображения AZ1-R и трансформируются, если необходимо. Тогда имеется возможность использовать другие алгоритмы или другие управляющие параметры, чем те, что использовались для процесса с левой стороны.
Информация, требуемая для этого вычисления, содержит, главным образом, такие параметры, как разрешающая способность и шаг элемента изображения камер, фокусное расстояние линзы объектива, расстояние между изображением, сформированным линзой объектива, и камерой, а также расстояние и ориентация камер.
Устройство содержит, в основном, коммуникационные компоненты, программируемые логические модули, процессоры, постоянные запоминающие устройства (ROM) и оперативные запоминающие устройства (RAM). Вычислительные блоки предпочтительно оптимизированы и конфигурированы для заданных целей, в частности для вышеупомянутых инстанций. Также в предпочтительном варианте устройство дополнительно содержит специализированные вычислительные блоки для выполнения вспомогательных процессов, таких как изменение размера, коррекция градации тонов на изображении и т.п.

Claims (15)

1. Способ обнаружения и отслеживания положений (ЕР1, …, ЕРn) опорных точек глаз множества наблюдателей в данных изображения видеокадров (VF), которые получают, по меньшей мере, одним датчиком изображения, характеризующийся тем, что выполняют инстанцию (FF) определителя лица для обнаружения положений лица в видеокадрах (VF), причем указанная инстанция выделяет значительно меньшую подобласть из полного видеокадра в качестве целевой области (GZ) лица для каждого лица с целью передачи данных указанной целевой области (GZ) лица в, по меньшей мере, одну последующую инстанцию (EF) определителя глаза для обнаружения положений глаза, причем указанная инстанция выделяет значительно меньшую подобласть из каждой целевой области (GZ) лица в качестве целевой области (AZ) глаза с целью передачи данных указанной целевой области (AZ) глаза в, по меньшей мере, одну последующую инстанцию (ЕТ) отслеживания глаза для отслеживания положений глаза, причем указанная инстанция обнаруживает положения (ЕР1, …, ЕРn) опорных точек в целевой области (AZ) глаза в текущем видеокадре и в последующих видеокадрах и формирует данные для следящего устройства, при этом каждую из инстанций или группу инстанций выполняют параллельно друг другу в специализированном вычислительном блоке, причем положениями опорных точек глаза являются положения зрачков и/или уголков глаз.
2. Способ по п.1, в котором координатами положений (ЕР1, …, ЕРn) опорной точки являются горизонтальная и вертикальная координаты.
3. Способ по п.2, в котором координаты глубины глаз определяют на основании двумерных положений (ЕР1, …, ЕРn) опорных точек множества датчиков изображения.
4. Способ по п.3, в котором инстанцию определителя лица и комбинацию инстанции определителя глаза и инстанции отслеживания глаза или комбинацию инстанции определителя лица и инстанции определителя глаза и инстанции отслеживания глаза выполняют в соответствующих специализированных вычислительных блоках.
5. Способ по п.3, в котором для каждого обнаруженного лица инстанцию определителя глаза и инстанцию отслеживания глаза инициализируют и выполняют, по меньшей мере, в одном специализированном вычислительном блоке.
6. Способ по п.3, в котором наблюдателям и/или полученным целевым положениям глаз присваивают порядок оценки, причем указанный порядок используют при распределении соответствующих инстанций по вычислительным блокам.
7. Способ по п.3, в котором одну или несколько инстанций определителя лица выполняют непрерывно, и они инициализируют соответствующие инстанции определителя глаза/отслеживания глаза.
8. Способ по п.1, характеризующийся тем, что содержит инстанцию управления, которая определяет, относится ли целевая область лица, обнаруженная при помощи инстанции определителя лица, к уже отслеженному лицу или к вновь обнаруженному лицу; предоставляет инстанцию отслеживания глаза или комбинацию инстанции определителя глаза и инстанции отслеживания глаза в имеющиеся вычислительные блоки, инициализирует их и синхронизирует выполнение всех инстанций.
9. Способ по одному из пп.1-8, в котором данные изображения получают несколькими датчиками изображения, при этом инстанцию определителя глаза, инстанцию отслеживания глаза или комбинацию инстанции определителя глаза и инстанции отслеживания глаза выполняют в расчете на одного наблюдателя и один датчик изображения в специализированных вычислительных блоках, причем производят обмен промежуточными и/или конечными результатами между инстанциями и их обработку инстанциями, которые соответственно относятся к наблюдателю.
10. Способ по п.9, в котором исходя из положений датчиков изображения и наблюдателей, а также параметров датчиков изображения промежуточные и/или конечные результаты инстанций, относящихся к одному датчику изображения, преобразуют для инстанций, относящихся к другому датчику изображения, и адаптируют к его углу наблюдения.
11. Способ по п.1, в котором положениями опорных точек (ЕР1, …, ЕРn) глаз являются положения зрачков и/или уголков глаз.
12. Устройство для обнаружения и отслеживания положений (ЕР1, …, ЕРn) опорных точек глаз множества наблюдателей в данных изображения видеокадров (VF), характеризующееся тем, что содержит множество коммуникационных вычислительных блоков с инстанцией (FF) определителя лица, инстанцией (EF) определителя глаза и инстанцией (ЕТ) отслеживания глаза, при этом инстанция (FF) определителя лица служит для обнаружения положений лица в видеокадрах (VF) и выделения значительно уменьшенной подобласти из полного видеокадра в качестве целевой области (GZ) лица для каждого лица с целью передачи данных указанной целевой области (GZ) лица в, по меньшей мере, одну последующую инстанцию (EF) определителя глаза для обнаружения положения глаза, причем указанная инстанция выделяет значительно уменьшенную подобласть из каждой целевой области (GZ) лица в качестве целевой области (AZ) глаза с целью передачи данных указанной целевой области (AZ) глаза в, по меньшей мере, одну последующую инстанцию (ЕТ) отслеживания глаза для отслеживания положений глаза, причем указанная инстанция определяет положения (ЕТ1…, ЕТn) опорной точки глаза в целевой области (AZ) глаза в текущем видеокадре и в последующих видеокадрах и формирует данные для следящего устройства, причем каждая из инстанций или группа инстанций выполняются параллельно друг другу в специализированном вычислительном блоке.
13. Устройство по п.12, содержащее отдельные вычислительные средства для масштабирования или коррекции данных изображения в видеокадрах (VF) в отношении масштабирования, коррекции градации тонов на изображении, регулирования яркости.
14. Устройство по п.12, содержащее вычислительные средства, которые вычисляют координаты глубины исходя из опорных точек (ЕР1, …, ЕРn), определенных, по меньшей мере, по двум датчикам изображения.
15. Устройство по п.11, в котором вычислительный блок выполнен в виде центрального процессора (CPU), цифрового сигнального процессора (DSP).
RU2008110044/09A 2005-08-17 2006-08-16 Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей RU2408162C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005040598 2005-08-17
DE102005040598.3 2005-08-17

Publications (2)

Publication Number Publication Date
RU2008110044A RU2008110044A (ru) 2009-09-27
RU2408162C2 true RU2408162C2 (ru) 2010-12-27

Family

ID=37654754

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008110044/09A RU2408162C2 (ru) 2005-08-17 2006-08-16 Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей

Country Status (10)

Country Link
US (1) US7950802B2 (ru)
EP (1) EP1915874A2 (ru)
JP (1) JP5054008B2 (ru)
KR (1) KR101278430B1 (ru)
CN (1) CN101243693B (ru)
BR (1) BRPI0616547A2 (ru)
CA (1) CA2619155A1 (ru)
DE (1) DE112006002752A5 (ru)
RU (1) RU2408162C2 (ru)
WO (1) WO2007019842A2 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2541922C2 (ru) * 2013-05-14 2015-02-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ и устройство определения направленности взгляда
RU2546327C1 (ru) * 2011-03-28 2015-04-10 Нек Корпорейшн Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека
RU2616175C2 (ru) * 2011-09-28 2017-04-12 Конинклейке Филипс Н.В. Определение расстояния до объекта по изображению

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420056B2 (ja) * 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
DE102007025069B4 (de) * 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographisches Rekonstruktionssystem
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
USD603445S1 (en) 2009-03-13 2009-11-03 X6D Limited 3D glasses
USD624952S1 (en) 2008-10-20 2010-10-05 X6D Ltd. 3D glasses
USD666663S1 (en) 2008-10-20 2012-09-04 X6D Limited 3D glasses
CA2684513A1 (en) 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
USD646451S1 (en) 2009-03-30 2011-10-04 X6D Limited Cart for 3D glasses
US8314832B2 (en) 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
USD672804S1 (en) 2009-05-13 2012-12-18 X6D Limited 3D glasses
USD650956S1 (en) 2009-05-13 2011-12-20 X6D Limited Cart for 3D glasses
EP3338621B1 (en) * 2009-07-16 2019-08-07 Tobii AB Eye detection unit using parallel data flow
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
USD669522S1 (en) 2010-08-27 2012-10-23 X6D Limited 3D glasses
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
USD671590S1 (en) 2010-09-10 2012-11-27 X6D Limited 3D glasses
USD662965S1 (en) 2010-02-04 2012-07-03 X6D Limited 3D glasses
USD664183S1 (en) 2010-08-27 2012-07-24 X6D Limited 3D glasses
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
KR102175853B1 (ko) * 2013-02-22 2020-11-06 삼성전자주식회사 동작 제어 방법 및 그 전자 장치
RU2530660C1 (ru) * 2013-02-26 2014-10-10 Владимир Николаевич Антипов Способ выявления диапазона условий восприятия глубины образов плоскостных изображений
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
KR102093455B1 (ko) * 2013-10-04 2020-03-25 한국전자통신연구원 하이브리드 카메라에 기초한 동공 추적을 이용한 홀로그램 표시 장치 및 방법
TWI522257B (zh) * 2014-07-09 2016-02-21 原相科技股份有限公司 車用安全系統及其運作方法
CN104661012B (zh) * 2014-11-28 2017-12-01 深圳市魔眼科技有限公司 个人全息三维显示方法及设备
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
CN107837089B (zh) * 2017-12-05 2018-11-23 清华大学 一种基于脑电波的视频卡顿极限值测量方法
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
US10930183B2 (en) 2018-11-22 2021-02-23 Electronics And Telecommunications Research Institute Hologram content generation apparatus, integrated hologram content control system having the same, and method for operating the hologram content generation apparatus
US11619825B2 (en) 2019-04-10 2023-04-04 Electronics And Telecommunications Research Institute Method and apparatus for displaying binocular hologram image
WO2021087450A1 (en) 2019-11-01 2021-05-06 Raxium, Inc. Light field displays incorporating eye trackers and methods for generating views for a light field display using eye tracking information
US11699242B2 (en) 2020-02-25 2023-07-11 Electronics And Telecommunications Research Institute System and method for digital hologram synthesis and process using deep learning
US11532122B2 (en) 2020-03-05 2022-12-20 Electronics And Telecommunications Research Institute Method and apparatus for processing holographic image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147477A (ja) * 1994-09-20 1996-06-07 Fujitsu Ltd 局所領域画像追跡装置
DE69524204T2 (de) * 1995-03-31 2002-08-22 Hitachi Europ Ltd Gesichtsbildverarbeitung
DE69507594T2 (de) * 1995-03-31 1999-09-02 Hitachi Europ Ltd Bildverarbeitungsverfahren zur Ermittlung von Gesichtsmerkmalen
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
US5867587A (en) * 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
GB2363273A (en) 2000-06-09 2001-12-12 Secr Defence Computation time reduction for three dimensional displays
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
CN1225375C (zh) * 2003-07-02 2005-11-02 北京交通大学 基于多特征融合的困倦驾驶检测方法
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TETSUTANI N. et al. A STUDY ON A STEREOSCOPIC DISPLAY SYSTEM EMPLOYING EYE-POSITION TRACKING FOR MULTI-VIEWERS, PROCEEDINGS OF THE SPIE, BELLINGHAM, Bd. 2177, 08.02.1994, c.c 135-142. SIEGMUND PASTOOR et al. An Experimental Multimedia System Allowing 3-D Visualization and Eye-Controlled Interaction Without User-Worn Devices, IEEE TRANSACTIONS ON MULTIMEDIA, IEEE SERVICE CENTER, PISCATAWAY, Bd.1, Nr.1, March 1999. POLLARD S.B. et al. A 3D vision system for robotics, DESIGN AND APPLICATION OF PARALLEL DIGITAL PROCESSORS, 1988. INTERNATIONAL SPECIALIST SEMINAR ON THE LISBON, PORTUGAL, LONDON, 1988, c.c.43-47. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2546327C1 (ru) * 2011-03-28 2015-04-10 Нек Корпорейшн Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека
US9235754B2 (en) 2011-03-28 2016-01-12 Nec Corporation Person tracking device, person tracking method, and non-transitory computer readable medium storing person tracking program
RU2616175C2 (ru) * 2011-09-28 2017-04-12 Конинклейке Филипс Н.В. Определение расстояния до объекта по изображению
RU2541922C2 (ru) * 2013-05-14 2015-02-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ и устройство определения направленности взгляда

Also Published As

Publication number Publication date
KR101278430B1 (ko) 2013-06-24
JP5054008B2 (ja) 2012-10-24
US7950802B2 (en) 2011-05-31
KR20080047392A (ko) 2008-05-28
EP1915874A2 (de) 2008-04-30
WO2007019842A2 (de) 2007-02-22
US20080231805A1 (en) 2008-09-25
BRPI0616547A2 (pt) 2011-06-21
WO2007019842A3 (de) 2007-11-29
CA2619155A1 (en) 2007-02-22
RU2008110044A (ru) 2009-09-27
CN101243693B (zh) 2013-07-31
JP2009505247A (ja) 2009-02-05
DE112006002752A5 (de) 2008-08-28
CN101243693A (zh) 2008-08-13

Similar Documents

Publication Publication Date Title
RU2408162C2 (ru) Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей
US11676421B2 (en) Method and apparatus for tracking object
KR101865655B1 (ko) 증강현실 상호 작용 서비스 제공 장치 및 방법
Jin et al. FPGA design and implementation of a real-time stereo vision system
Shafie et al. Motion detection techniques using optical flow
CN107635129B (zh) 一种三维三目摄像装置及深度融合方法
CN104317391A (zh) 一种基于立体视觉的三维手掌姿态识别交互方法和系统
Bär et al. Driver head pose and gaze estimation based on multi-template icp 3-d point cloud alignment
KR20200067641A (ko) 3차원 증강 현실을 위한 캘리브레이션 방법 및 그 장치
US11043004B2 (en) Resolving region-of-interest (ROI) overlaps for distributed simultaneous localization and mapping (SLAM) in edge cloud architectures
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
US10937192B2 (en) Resolving incorrect distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
JP2019099142A (ja) 仮想スクリーンのパラメータ推定方法及び装置
WO2020221443A1 (en) Scale-aware monocular localization and mapping
Ghobadi et al. Hand segmentation using 2d/3d images
EP3769035B1 (en) Replicated dot maps for simplified depth computation using machine learning
CN113255779B (zh) 多源感知数据融合识别方法、系统及计算机可读存储介质
US10843068B2 (en) 6DoF inside-out tracking game controller
CN115496923B (zh) 一种基于不确定性感知的多模态融合目标检测方法及装置
JP2002318344A (ja) 光学機器のオートフォーカシング方法および装置
Meers et al. Head-pose tracking with a time-of-flight camera
CN117809380B (zh) 手势追踪方法、装置、设备、可读存储介质及程序产品
KR101373982B1 (ko) 스테레오 비전에서 탐색 영역 예측을 통한 빠른 스테레오 정합 방법 및 장치와 이를 이용한 스테레오 비전 시스템
Sahili et al. A Survey of Visual SLAM Methods
WO2023069164A1 (en) Determining relative position and orientation of cameras using hardware

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20130817