RU2541922C2 - Method and device to determine look direction - Google Patents

Method and device to determine look direction Download PDF

Info

Publication number
RU2541922C2
RU2541922C2 RU2013121977/08A RU2013121977A RU2541922C2 RU 2541922 C2 RU2541922 C2 RU 2541922C2 RU 2013121977/08 A RU2013121977/08 A RU 2013121977/08A RU 2013121977 A RU2013121977 A RU 2013121977A RU 2541922 C2 RU2541922 C2 RU 2541922C2
Authority
RU
Russia
Prior art keywords
range
images
remote control
image
segments
Prior art date
Application number
RU2013121977/08A
Other languages
Russian (ru)
Other versions
RU2013121977A (en
Inventor
Артемий Александрович Котов
Борис Митрофанович Величковский
Сергей Александрович Шевчик
Андрей Александрович Тремба
Александр Викторович Пчелинцев
Original Assignee
Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" filed Critical Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт"
Priority to RU2013121977/08A priority Critical patent/RU2541922C2/en
Publication of RU2013121977A publication Critical patent/RU2013121977A/en
Application granted granted Critical
Publication of RU2541922C2 publication Critical patent/RU2541922C2/en

Links

Images

Abstract

FIELD: measurement equipment.
SUBSTANCE: invention relates to the field of I&C. The method consists in setting mutual location of devices that detect images of the object of interest, which perform consecutive or synchronous detection of the object of interest in different spectral ranges. They produce an image of a whole object with a certain background with the help of one detecting device having sensitivity in the remote infrared range, on this image they separate the object itself from the background, and also separate individual segments of the object and localise them on this image. Similar segments of the object are localised on images produced from other detecting devices, which are sensitive in ordinary visible and/or near infrared rage, or regardless of the first detecting device they align these detecting devices in space relative to the first detecting device so that they detect images of object segments localised on images from the first detecting device. They calculate orientation of object segments and direction of the look line.
EFFECT: reduction of noise introduced by external sources, at the stage of image registration.
17 cl, 3 dwg

Description

Изобретение относится к контрольно-измерительной технике и может быть использовано для измерения динамики движения глаз в процессе выполнения человеком когнитивных задач, а также для реализации интерфейсов, чувствительных к вниманию, интерфейсах глаз - мозг - компьютер, в системах, осуществляющих коммуникацию между людьми с нарушениями моторных функций.The invention relates to a control and measuring technique and can be used to measure the dynamics of eye movement in the process of performing cognitive tasks by a person, as well as to implement attention-sensitive interfaces, eye-brain-computer interfaces, in systems that communicate between people with motor impairments functions.

Уровень техникиState of the art

Техника относится к системам регистрации движений глаз. Механизмы восприятия и активной обработки визуальной информации широко изучаются в рамках прикладных когнитивных наук уже более пятидесяти лет [5, 4]. В процессе этих исследований были описаны устойчивые связи между динамикой движений глаз и параметрами восприятия зрительной информации человеком (так называемая глубина внимания) [4, 5, 6]. Данные закономерности позволили реализовать методы измерения зрительного внимания, а также распознавания намерений пользователя на основе анализа глазодвигательной активности [4, 5, 8, 14]. Это открывает перспективу создания ряда уникальных устройств, обеспечивающих интерфейс взаимодействия человека с техническими системами посредством взгляда. Областью применения таких систем является, например, дистанционное управление автономными робототехническими системами и технологическими процессами. Измерение зрительного внимания дает возможность прогнозировать способность пользователя своевременно реагировать на изменения в окружающем его пространстве [4]. Назначением подобных систем является учет человеческого фактора (например, оценка состояния оператора, вовлеченного в сложные технологические процессы, водителя транспортного средства и т.д.). Внедрение подобных систем в транспортные средства является особенно актуальной задачей в связи с большим количеством жертв автомобильных аварий в России [7].The technique relates to eye movement recording systems. The mechanisms of perception and active processing of visual information have been widely studied in the framework of applied cognitive sciences for more than fifty years [5, 4]. In the course of these studies, stable relationships between the dynamics of eye movements and the parameters of perception of visual information by a person (the so-called depth of attention) were described [4, 5, 6]. These patterns made it possible to implement methods for measuring visual attention, as well as recognizing user intentions based on an analysis of oculomotor activity [4, 5, 8, 14]. This opens up the prospect of creating a number of unique devices that provide an interface for human interaction with technical systems through gaze. The scope of such systems is, for example, remote control of autonomous robotic systems and technological processes. Measurement of visual attention makes it possible to predict the ability of the user to respond in a timely manner to changes in the space surrounding him [4]. The purpose of such systems is to take into account the human factor (for example, assessing the state of an operator involved in complex technological processes, a driver of a vehicle, etc.). The introduction of such systems in vehicles is a particularly urgent task due to the large number of victims of car accidents in Russia [7].

Несмотря на значительное количество накопленных знаний в области когнитивных наук, создание устройств, которые бы в полной мере реализовали описанные выше возможности, представляет сложную техническую задачу. Традиционные методы регистрации движений глаз являются контактными, что ограничивает их применение в широком круге прикладных задач. Крепление датчиков в таких системах осуществляется непосредственно на лице испытуемого (например, в методе электроокулографии) [22]. Многолетний опыт использования традиционных методов позволил сформулировать основные требования к подобным системам в целом:Despite the considerable amount of accumulated knowledge in the field of cognitive sciences, the creation of devices that would fully realize the above possibilities presents a difficult technical problem. Traditional methods of recording eye movements are contact, which limits their use in a wide range of applied problems. The sensors are mounted in such systems directly on the subject’s face (for example, in the electrooculography method) [22]. Many years of experience using traditional methods allowed us to formulate the basic requirements for such systems in general:

1. Возможность бесконтактной, дистанционной регистрации движения зрачка;1. The possibility of non-contact, remote registration of the movement of the pupil;

2. Максимальная свобода на естественные движения пользователя;2. Maximum freedom for the user's natural movements;

3. Использование пассивных методов регистрации (без задействования специальной подсветки или обучения пользователя).3. The use of passive registration methods (without involving special highlighting or user training).

Последнее требование обусловлено необходимостью в ряде случаев проводить длительные наблюдения за человеком, в то время как наличие засветки накладывает значительные временные ограничения на подобные измерения (вследствие накопления дозы излучения). Частичное достижение вышеперечисленных требований стало возможным только с появлением детектирующих устройств на базе матричных фотодетекторов (ПЗС, КМОП), где основной упор делается на обработку изображений. В их состав входит непосредственно само детектирующее устройство (одно или несколько), а также персональный компьютер, обеспечивающий обработку полученных изображений в режиме реального времени. Алгоритмы обработки изображений при этом реализуют сложные многоэтапные математические методы, среди которых обычно последовательно производится поиск лица и глаз пользователей на изображении, поиск зрачка, его оконтуривание, вычисление пространственного положения пользователя и вычисление линии взгляда. На сегодняшний день доступны несколько коммерческих систем, имеющих описанную выше архитектуру [9, 10]. Несмотря на значительные преимущества по сравнению с традиционными контактными методами, они по прежнему обладают рядом значительных недостатков. Точность измерений в реальных условиях зависит от изменений градиента и уровня внешней освещенности. Технические возможности ряда детектирующих устройств позволяют частично компенсировать данные условия. В процессе регистрации изображений производится адаптивная подстройка времени экспозиции в зависимости от засветки фоточувствительной матрицы (шатерный механизм -англ. shutter). Это позволяет избегать насыщения элементов матричного фотодетектора и при изменении уровня освещенности поддерживать контраст изображения. Однако полностью компенсировать внешние факторы и выдерживать постоянный контраст с помощью шатерного механизма не всегда возможно. Это в значительной степени влияет на работу алгоритмов обработки изображений, которые крайне чувствительны к контрасту изображений. На сегодняшний день это является основным фактором, влияющим на работу систем. Пример - регистрация лица и глаз водителя в условиях ночного движения, где фары встречных автомобилей создают неравномерные перепады освещенности. Интенсивность встречного движения может привести к невозможности проводить указанные измерения. Повышение контраста изображений, содержащих лицо и глаза пользователя, в условиях плохой освещенности или при ее резких перепадах в некоторых системах достигается путем подсветки лица низкоинтенсивным излучением ближнего ИК диапазона (700-950 нм). Данный диапазон не воспринимается глазом человека, но соответствует спектральному диапазону чувствительности устройств на базе ПЗС. Однако в полевых условиях соответствующая компонента внешних мощных световых источников (например, фар встречных автомобилей, солнечный свет) также содержит соответствующую компоненту, что влияет на зашумленность видеоданных.The latter requirement is due to the need in some cases to conduct long-term observations of a person, while the presence of illumination imposes significant time limitations on such measurements (due to the accumulation of radiation dose). Partial achievement of the above requirements became possible only with the advent of detection devices based on matrix photodetectors (CCD, CMOS), where the main emphasis is on image processing. They include the detecting device itself (one or more), as well as a personal computer that provides real-time processing of the received images. Image processing algorithms at the same time implement complex multi-stage mathematical methods, among which the face and eyes of users in the image are usually sequentially searched, the pupil is searched, its outline, the user's spatial position is calculated and the line of sight is calculated. To date, several commercial systems are available that have the architecture described above [9, 10]. Despite significant advantages over traditional contact methods, they still have a number of significant disadvantages. The accuracy of measurements in real conditions depends on changes in the gradient and the level of external illumination. The technical capabilities of a number of detecting devices make it possible to partially compensate for these conditions. In the process of registering images, adaptive adjustment of the exposure time is performed depending on the exposure of the photosensitive matrix (tent mechanism-English shutter). This avoids saturation of the elements of the matrix photodetector and maintains the image contrast when changing the level of illumination. However, it is not always possible to fully compensate for external factors and maintain constant contrast with the help of a tent mechanism. This greatly affects the operation of image processing algorithms, which are extremely sensitive to image contrast. Today, this is the main factor affecting the operation of systems. An example is the registration of the face and eyes of the driver in night traffic conditions, where the headlights of oncoming cars create uneven differences in illumination. The intensity of oncoming traffic can lead to the inability to carry out these measurements. An increase in the contrast of images containing the user's face and eyes in low light conditions or during sharp changes in some systems is achieved by illuminating the face with low-intensity radiation in the near infrared range (700-950 nm). This range is not perceived by the human eye, but corresponds to the spectral sensitivity range of CCD-based devices. However, in the field, the corresponding component of external powerful light sources (for example, headlights of oncoming cars, sunlight) also contains the corresponding component, which affects the noise of the video data.

Решение, предложенное в рамках настоящей заявки, обеспечивает значительное снижение влияния внешней засветки и градиента освещенности от внешних источников на этапе регистрации изображений. Это достигается путем расширения спектрального диапазона регистрации изображений пользователя. Предлагается осуществлять регистрацию в видимом (спектральный диапазон <1000 нм) и дальнем ИК диапазоне (длина волны ≥3000 нм). Низкий уровень шума в изображениях дальнего ИК диапазона объясняется отсутствием соответствующей спектральной составляющей в большинстве внешних источников освещения, окружающих человека в повседневной жизни (в тех же источниках, где она присутствует, ее влияние на качество изображений пренебрежительно мало). Изображения в указанных диапазонах регистрируются последовательно или одновременно. Сопоставление данных изображений позволяет точно определить область лица и глаз пользователя независимо от положения и интенсивности внешних источников. Техническая реализация подобного рода систем до недавнего времени была нецелесообразна в связи с несовершенством матричных фотодетекторов дальнего ИК диапазона. В основном это были устройства, обеспечивающие приемлемый уровень сигнал/шум при низкой температуре. В качестве охладителя использовались жидкий азот или гелий. В связи с этим обвязка данных устройств состояла из системы охлаждения (микроболометр с циркулирующим внутри газом) и не позволяла миниатюризировать устройство. Однако последние достижения в развитии этих технологий и появление неохлаждаемых миниатюрных матриц для данного диапазона [19] позволило задействовать их в широком круге задач. Отсутствие в необходимости дополнительных охлаждающих устройств позволило создавать миниатюрные портативные приборы визуализации в дальнем ИК диапазоне. Совмещение изображений дальнего ИК диапазона и обычного видимого диапазона на этапе регистрации и обработки в системах айтрекинга может значительно снизить влияние внешнего шума и, как следствие, повысить точность измерений.The solution proposed in the framework of this application provides a significant reduction in the influence of external illumination and the gradient of illumination from external sources at the stage of image registration. This is achieved by expanding the spectral range of registration of user images. It is proposed to register in the visible (spectral range <1000 nm) and far infrared (wavelength ≥3000 nm). The low noise level in far-infrared images is explained by the absence of a corresponding spectral component in most external lighting sources surrounding a person in everyday life (in the same sources where it is present, its effect on image quality is negligible). Images in the indicated ranges are recorded sequentially or simultaneously. Comparison of image data allows you to accurately determine the area of the face and eyes of the user, regardless of the position and intensity of external sources. Until recently, the technical implementation of such systems was impractical due to the imperfection of matrix infrared photodetectors. Basically, these were devices providing an acceptable level of signal / noise at low temperature. As a cooler, liquid nitrogen or helium was used. In this regard, the binding of these devices consisted of a cooling system (a microbolometer with gas circulating inside) and did not allow miniaturization of the device. However, recent advances in the development of these technologies and the emergence of uncooled miniature matrices for this range [19] made it possible to use them in a wide range of problems. The absence of the need for additional cooling devices allowed the creation of miniature portable imaging devices in the far infrared range. The combination of far-infrared images and the usual visible range at the registration and processing stage in aitracking systems can significantly reduce the influence of external noise and, as a result, increase the measurement accuracy.

Обзор аналоговOverview of analogues

Известно техническое решение [20], в котором осуществляется подсветка объекта несколькими источниками излучения, которые формируют световой паттерн на поверхности объекта. В качестве объекта рассматривается глаз пользователя. Производят регистрацию изображений объекта, детектируя также отражение светового паттерна. Производят обнаружение объекта путем обработки полученных изображений, содержащих световой паттерн и образ объекта. По положению паттерна определяют пространственное положение объекта. Основным недостатком системы является наличие активной засветки, а также детектирование изображений в спектральном диапазоне излучателя. Регистрация производится в видимом и ближнем ИК диапазоне (в случае излучателя дальнего ИК диапазона может быть нанесено тепловое повреждение самого объекта, в связи с чем применительно к описываемой задаче использование такого рода источников излучения не имеет практического смысла). Помимо этого наличие внешней засветки в указанном диапазоне может привести к зашумлению сигнала и значительному снижению точности измерений. Основным отличием предлагаемого решения описанного выше является отсутствие каких-либо дополнительных источников излучения. Регистрация изображений производится не только в видимом, но также и в дальнем ИК диапазоне. Отсутствие внешних источников шумов в дальнем ИК диапазоне в большинстве случаев обеспечивает приемлемое соответствие в уровне сигнал/шум в получаемых изображениях. Это приводит к более высокому контрасту изображений и более устойчивой работе алгоритмов обработки.A technical solution is known [20], in which the object is illuminated by several radiation sources that form a light pattern on the surface of the object. As an object, the user's eye is considered. The images of the object are recorded, also detecting the reflection of the light pattern. The object is detected by processing the obtained images containing the light pattern and the image of the object. The position of the pattern determines the spatial position of the object. The main disadvantage of the system is the presence of active illumination, as well as the detection of images in the spectral range of the emitter. Registration is performed in the visible and near-IR range (in the case of a far-IR emitter, thermal damage to the object itself can be caused, and therefore, with regard to the described problem, the use of such radiation sources does not make sense). In addition, the presence of external illumination in the indicated range can lead to noise of the signal and a significant decrease in the accuracy of measurements. The main difference of the proposed solution described above is the absence of any additional radiation sources. Image registration is performed not only in the visible, but also in the far infrared range. The absence of external sources of noise in the far infrared range in most cases provides an acceptable match in the signal / noise level in the resulting images. This leads to higher image contrast and more stable processing algorithms.

Известно решение [21], в котором производится регистрация объекта детектирующими устройствами. Производится подсветка объекта, в качестве которого рассматривается лицо пользователя несколькими низкоинтенсивными источниками ближнего ИК диапазона. Производится детектирование изображений объекта с помощью детектирующих устройств. Полученные изображения бинаризуются и анализируются путем одновременного сканирования изображения в вертикальном и горизонтальном направлении. Производится поиск светлых пикселей на изображении, что соответствует области объекта. На основании светлых областей на изображении производится локализация объекта. Авторами не указывается спектральный диапазон источника облучения, однако, как отмечалось выше, практическое значение имеет только видимый и ближний ИК диапазоны (≤1000 нм). Регистрация изображений также осуществляется в спектральном диапазоне излучателя (для получения контраста светлых пикселей на фоне темных). Недостатком системы по-прежнему являются возможные зашумления изображений внешними источниками, которые могут снизить контраст отраженного от объекта сигнала. В предлагаемом решении отсутствуют какие-либо дополнительные излучатели. Регистрация изображений производится в нескольких спектральных диапазонах, в частности, в дальнем ИК. Контраст объекта в данном случае обеспечивается собственным излучением объекта, не зависит от внешних источников излучений и является постоянной величиной.A solution is known [21], in which the object is registered by detecting devices. The object is highlighted, which is considered the user's face by several low-intensity sources of the near infrared range. Object images are detected using detection devices. The resulting images are binarized and analyzed by simultaneously scanning the image in the vertical and horizontal directions. A search is made for bright pixels in the image, which corresponds to the area of the object. Based on the bright areas in the image, the object is localized. The authors do not indicate the spectral range of the radiation source, however, as noted above, only the visible and near infrared ranges (≤1000 nm) are of practical importance. Image registration is also carried out in the spectral range of the emitter (to obtain the contrast of bright pixels against dark ones). The disadvantage of the system is still the possible noise of images by external sources, which can reduce the contrast of the signal reflected from the object. The proposed solution does not have any additional emitters. Image registration is performed in several spectral ranges, in particular, in the far IR. In this case, the contrast of the object is ensured by the object's own radiation, does not depend on external sources of radiation, and is a constant value.

Известно решение [11], в котором производится детектирование изображений объекта и расчет его ориентации. Предлагается повышение точности вычислений путем устранения запаздывания на этапе передачи зарегистрированного изображения объекта в устройство обработки. Данное решение может повысить устойчивость работы систем, в частности при переключении шатерного механизма детектирующего устройства. Однако предложенное решение не позволяет отфильтровать шум и локализовать непосредственно сам объект по его изображениям. Таким образом, сутью данного изобретения является устранение описанной выше задержки передачи видеосигнала, в то время как в настоящем изобретении приводится решение для уменьшения шумов на этапе регистрации изображений при одновременном упрощении обработки видеоданных. Такая комбинация возможна за счет смещения части регистрации изображений в дальний ИК диапазон.A solution is known [11], in which the images of the object are detected and its orientation is calculated. It is proposed to increase the accuracy of calculations by eliminating the delay at the stage of transmitting the registered image of the object to the processing device. This solution can increase the stability of the systems, in particular when switching the tent mechanism of the detecting device. However, the proposed solution does not allow filtering out the noise and localizing the object itself directly from its images. Thus, the essence of the present invention is to eliminate the video transmission delay described above, while the present invention provides a solution to reduce noise in the step of registering images while simplifying the processing of video data. Such a combination is possible due to the shift of the image registration part to the far infrared range.

Также известно решение [12], в котором производится регистрация изображений объекта, обработка этих изображений с последующей локализацией объекта на изображениях. К основному недостатку этого решения относится то, что детектирование производится в видимом диапазоне. Это приводит к зашумлению полученных изображений от внешней засветки. Предлагаемое решение в рамках данной заявки смещает часть измерений в дальний ИК диапазон, где количество источников шумов значительно меньше, чем в видимом диапазоне. Это позволяет добиться относительно низкого уровня шумов на этапе регистрации изображений.Also known is the solution [12], in which the registration of images of the object is carried out, the processing of these images with the subsequent localization of the object in the images. The main disadvantage of this solution is that the detection is in the visible range. This leads to the noise of the received images from external exposure. The proposed solution within the framework of this application shifts part of the measurements to the far infrared range, where the number of noise sources is much smaller than in the visible range. This allows you to achieve a relatively low noise level at the stage of image registration.

Также известно решение [13], в котором производится засветка объекта источниками излучения. Излучение сформировано в паттерн. Производится детектирование объекта детектирующими устройствами с последующей обработкой данных изображений. Производится локализация объекта на изображениях с последующей установкой пространственного положения объекта. Основным недостатком системы является детектирование изображений в видимом диапазоне, а также наличие дополнительной засветки, также производящейся в видимом спектральном диапазоне. При наличии внешней шумовой засветки, спектральный диапазон которой совпадает со спектральным диапазоном дополнительного источника облучения, контраст паттерна будет низким. Аналогично контраст объекта также будет низок для устойчивой работы алгоритмов обработки. Основным отличием данной системы от предлагаемого решения является активная засветка лица и глаз пользователя. В предлагаемом изобретении регистрация производится в пассивном режиме. В дальнем ИК диапазоне лицо пользователя само представляет собой источник теплового излучения.Also known is the solution [13], in which the object is illuminated by radiation sources. The radiation is formed into a pattern. The object is detected by detecting devices, followed by image data processing. The object is localized on the images with the subsequent installation of the spatial position of the object. The main disadvantage of the system is the detection of images in the visible range, as well as the presence of additional illumination, also produced in the visible spectral range. In the presence of external noise illumination, the spectral range of which coincides with the spectral range of the additional radiation source, the contrast of the pattern will be low. Similarly, the contrast of the object will also be low for stable processing algorithms. The main difference between this system and the proposed solution is the active exposure of the face and eyes of the user. In the present invention, registration is performed in a passive mode. In the far infrared range, the user's face itself is a source of thermal radiation.

Наиболее близким к предлагаемому способу регистрации лица и глаз пользователя является изобретение [1]. В работе описывается способ определения пространственного положения головы, а также ее ориентация. Способ основан на методах восстановления пространственной структуры объекта по серии обычных двухмерных изображений, снятых с различных ракурсов (методами эпиполярной геометрии) [2]. Метод заключается в установке нескольких детектирующих устройств, ориентированных под разными углами по отношению к некоторой области пространства. Производится регистрация головы пользователя внутри данного пространства. Далее для каждого изображения производится последовательное нахождение анатомических особенностей головы (features extraction), поиск присутствующих на всех изображениях особенностей, расчет конфигурации детектирующих устройств с использованием эпиполярной геометрии и пространственная реконструкция головы с вычислением ее пространственного положения [2]. Основным отличием данной работы от предлагаемого изобретения является регистрация всех изображений в видимом диапазоне. Как отмечалось выше, подобные системы являются максимально чувствительными к внешней засветке. В предлагаемом изобретении регистрация изображений спектрально разнесена на видимый и дальний ИК диапазоны с различными алгоритмами обработки. В предлагаемом решении регистрация производится одновременно как в дальнем ИК, так и в видимом спектральном диапазоне. Определение положения объекта исследования и его отдельных сегментов производится по ИК изображению с использованием обычных пороговых методов (бинаризация изображения с фиксированным или плавающим порогом).Closest to the proposed method for registering the face and eyes of the user is the invention [1]. The paper describes a method for determining the spatial position of the head, as well as its orientation. The method is based on methods for reconstructing the spatial structure of an object from a series of ordinary two-dimensional images taken from various angles (using methods of epipolar geometry) [2]. The method consists in installing several detecting devices oriented at different angles with respect to a certain area of space. The registration of the user's head inside this space is performed. Then, for each image, a sequential determination of the anatomical features of the head is performed (features extraction), the features present on all images are searched, the configuration of the detection devices using epipolar geometry is calculated, and the head is reconstructed spatially with its spatial position calculated [2]. The main difference between this work and the present invention is the registration of all images in the visible range. As noted above, such systems are most sensitive to external exposure. In the present invention, the registration of images is spectrally spaced into the visible and far infrared ranges with various processing algorithms. In the proposed solution, registration is performed both in the far IR and in the visible spectral range. The position of the object of study and its individual segments is determined by the IR image using conventional threshold methods (binarization of the image with a fixed or floating threshold).

Наиболее близким к предлагаемому решению является [3]. В работе предлагается система, где объект находится на изображениях, полученных с детектирующего устройства, имеющего чувствительность в видимом диапазоне, путем пороговой обработки. Отличие предложенного в данном изобретении решения заключается в регистрации изображения в дальнем ИК диапазоне. Это обеспечивает низкий уровень шумов при определении лица и глаз пользователя в условиях изменяющейся засветки. Помимо этого в связи с низкими уровнями шумов (чувствительность детектирующих устройств дальнего ИК диапазона имеет порядка 0.1 градуса) предлагаемый метод позволяет использовать более простые процедуры обработки. В качестве таких процедур предлагается простая бинаризация изображения.Closest to the proposed solution is [3]. The work proposes a system where the object is located on images obtained from a detecting device having sensitivity in the visible range by threshold processing. The difference proposed in this invention, the solution is to register the image in the far infrared range. This ensures a low level of noise when determining the face and eyes of the user in conditions of changing illumination. In addition, due to low noise levels (the sensitivity of detecting devices in the far IR range is about 0.1 degrees), the proposed method allows the use of simpler processing procedures. As such procedures, a simple image binarization is proposed.

Таким образом, во всех приведенных решениях основной проблемой остается чувствительность систем к внешней шумовой засветке. Наличие такой засветки значительно снижает контраст изображений (как в случае активных систем, так и пассивных), что не позволяет проводить измерения направленности взгляда и динамики движений глаз.Thus, in all the above solutions, the main problem remains the sensitivity of the systems to external noise exposure. The presence of such a flare significantly reduces the contrast of images (both in the case of active systems and passive), which does not allow measurements of the directivity of the eye and the dynamics of eye movements.

Таким образом, решаемая техническая задача состоит в том, чтобы обеспечить снижение шумов, вносимых внешними источниками, на этапе регистрации изображений. Существует возможность эффективного решения этой задачи на этапе регистрации изображений объекта. Этого можно достигнуть путем регистрации части изображений в спектральном диапазоне, в котором практически не имеется внешних источников излучения, вносящих шумовую засветку в изображения (а также резких кратковременных перепадов освещенности, наличия градиента освещенности или интенсивной засветки, приводящей к работе фотодетектора вблизи зоны насыщения). Разделение регистрации сигнала по различным спектральным диапазонам позволяет значительно упростить алгоритмы обработки для отделения объекта от фона и улучшить локализации отдельных сегментов объекта.Thus, the technical problem to be solved is to ensure the reduction of noise introduced by external sources at the stage of image registration. There is an opportunity to effectively solve this problem at the stage of registration of images of the object. This can be achieved by recording part of the images in the spectral range, in which there are practically no external sources of radiation that introduce noise illumination into the images (as well as sharp short-term differences in illumination, the presence of a gradient of illumination, or intense illumination leading to the operation of the photodetector near the saturation zone). Separation of the signal registration by different spectral ranges allows to significantly simplify the processing algorithms for separating the object from the background and improve the localization of individual segments of the object.

Техническая задача решается предложенной совокупностью существенных признаков.The technical problem is solved by the proposed set of essential features.

Способ определения направленности взгляда, состоящий в том, что устанавливают не менее двух предварительно калиброванных детектирующих устройств изображения объекта в пространстве (ДУ), по крайней мере, одно из которых регистрирует изображения в дальнем ИК диапазоне со спектральным диапазоном чувствительности >=3000 нм, а остальные регистрируют изображения в видимом диапазоне 400-1000 нм, при этом ДУ, регистрирующее изображения в ИК диапазоне, установлено неподвижно, все ДУ регистрируют изображения области пространства, соответствующей образу объекта, результаты регистрации обрабатывают с помощью БСОИ, при этом вначале регистрируют изображения части пространства ДУ, обладающим чувствительностью в дальнем ИК диапазоне с длиной волны >3000 нм и получают ИК изображения объекта и некоторого фона за ним, после чего производят обработку полученного ИК изображения, отделяя объект от фона и локализуя области на изображении, соответствующие образу объекта, на локализованной части изображения выделяют отдельные сегменты объекта, также локализуя их на изображении, после чего определяют координаты этих сегментов в координатной системе, привязанной к изображению, регистрируют изображения части пространства ДУ, обладающего чувствительностью в видимом диапазоне 400-1000 нм, производят перерасчет координат сегментов, полученных при регистрации в ИК диапазоне, в координаты, привязанные изображениям с ДУ, имеющих чувствительность в видимой области, после чего локализуют соответствующие сегменты объекта на изображениях видимого диапазона, и рассчитывают направленность линии взгляда для случая, если ДУ ИК диапазона и видимого диапазона фиксированы друг относительно друга, или производят перерасчет координат сегментов, полученных при регистрации в ИК диапазоне, в координаты ориентации ДУ видимого диапазона, после чего ориентируют ДУ видимого диапазона и регистрируют часть пространства, содержащую образы выделенных сегментов объекта на ИК изображениях, и на основании полученных изображений рассчитывают направленность линии взгляда для случая, если ДУ ИК диапазона и видимого диапазона подвижны друг относительно друга.A method for determining the directivity of the gaze, which consists in installing at least two pre-calibrated detecting devices for imaging an object in space (DU), at least one of which registers images in the far infrared with a spectral sensitivity range> = 3000 nm, and the rest images are recorded in the visible range of 400-1000 nm, while the remote control that records images in the IR range is fixed, all the remote control images are recorded in the region of space corresponding to the image for the object, the registration results are processed using BSOI, while first recording images of part of the remote control space with sensitivity in the far infrared range with a wavelength> 3000 nm and obtaining IR images of the object and some background behind it, after which the resulting IR image is processed, separating the object from the background and localizing the areas on the image corresponding to the image of the object, separate segments of the object are distinguished on the localized part of the image, also localizing them on the image, after which it is determined the coordinates of these segments are determined in the coordinate system attached to the image, the images of a part of the remote control space with sensitivity in the visible range of 400-1000 nm are recorded, the coordinates of the segments obtained during registration in the IR range are recalculated into the coordinates attached to images with remote control having sensitivity in the visible region, after which the corresponding segments of the object are localized in the images of the visible range, and the directivity of the line of sight is calculated for the case if the IR range is visible of the range are fixed relative to each other, or the coordinates of the segments obtained during registration in the IR range are recalculated into the orientation coordinates of the visible range remote control, after which the visible range remote control is oriented and the part of the space containing the images of the selected object segments in the IR images is recorded and based on the resulting images calculate the directivity of the line of sight for the case if the remote control of the IR range and the visible range are movable relative to each other.

При этом:Wherein:

- ДУ калибруют, преобразуя координаты положения объекта и/или его сегментов на изображениях, получаемых с ДУ ИК диапазона в координаты положения объекта на изображениях, получаемых с ДУ видимого диапазона, для случая, если все ДУ фиксированы друг относительно друга.- The remote control is calibrated by converting the coordinates of the position of the object and / or its segments in the images received from the remote control of the IR range into the coordinates of the position of the object on the images obtained from the remote control of the visible range, in case all the remote control are fixed relative to each other.

- ДУ калибруют, преобразуя координаты положения объекта и/или его сегментов на изображениях, получаемых с ДУ ИК диапазона в координаты ориентации ДУ видимого диапазона относительно ДУ ИК диапазона для регистрации сегментов объекта, локализованных на ИК изображениях в случае, если ДУ видимого диапазона подвижны относительно ДУ ИК диапазона.- The remote control is calibrated by converting the coordinates of the position of the object and / or its segments in the images received from the IR range into the orientation coordinates of the visible range relative to the IR range to register object segments localized on IR images if the visible range are mobile relative to the remote control IR range.

- регистрацию изображения части пространства в инфракрасном и видимом диапазоне проводят одновременно.- image registration of part of the space in the infrared and visible range is carried out simultaneously.

- регистрацию изображения части пространства в ИК и видимом диапазоне проводят последовательно.- image registration of part of the space in the IR and visible range is carried out sequentially.

- производят обработку сначала ИК изображения, отделяя изображения от фона с помощью анализа градиентов тепловых полей.- first they process the IR image, separating the image from the background by analyzing the gradients of the thermal fields.

- после отделения объекта от фона производят определение положения отдельных сегментов объекта на изображении, используя анализ градиентов тепловых полей.- after separating the object from the background, the position of the individual segments of the object in the image is determined using an analysis of the gradients of the thermal fields.

- после определения положения сегментов на ИК изображении, находят данные сегменты на изображениях видимого диапазона с использованием данных калибровки, для случая, если все ДУ фиксированы друг относительно друга.- after determining the position of the segments in the IR image, these segments are found in the visible range images using calibration data, for the case if all the remote controls are fixed relative to each other.

- после определения положения сегментов на ИК изображении на основании калибровки ориентируют ДУ видимого диапазона таким образом, что они производят регистрацию области пространства, содержащую образы сегментов объекта, локализованных на ИК изображениях, для случая, если ДУ видимого диапазона подвижны относительно ДУ ИК диапазона;- after determining the position of the segments in the IR image, based on the calibration, the visible range remote control is oriented in such a way that they register a space region containing the images of the object segments localized on the infrared images, in case the visible range remote control is movable relative to the IR range;

- рассчитывают направленность линии взгляда на основании изображений, полученных с ДУ видимого диапазона, выводя результаты обработки на визуально воспринимаемый носитель.- calculate the directivity of the line of sight based on images obtained from the visible range remote control, displaying the processing results on a visually perceptible medium.

- в качестве объекта определяют лицо пользователя, а в качестве сегментов - глаза пользователя.- the face of the user is determined as an object, and the eyes of the user as segments.

Технический результат достигается также совокупностью признаков, изложенных ниже.The technical result is also achieved by a combination of features set forth below.

Устройство определения направленности взгляда, включающее не менее двух размещенных в пространстве детектирующих изображения объекта средств (ДУ), по крайней мере, одно из которых регистрирует изображения в дальнем ИК диапазоне (спектральным диапазон чувствительности >=3000 нм), а остальные регистрируют изображения в видимом диапазоне (спектральный диапазон чувствительности 400-1000 нм), при этом ДУ, регистрирующее изображения в ИК диапазоне, установлено неподвижно и все ДУ соединены с блоком сбора и обработки информации БСОИ.A device for determining the directivity of the gaze, including at least two means (DU) located in the space detecting images of an object, at least one of which registers images in the far IR range (spectral sensitivity range> = 3000 nm), and the rest record images in the visible range (spectral sensitivity range 400-1000 nm), while the remote control that records images in the IR range is fixed and all the remote control connected to the unit for collecting and processing information BSOI.

При этом:Wherein:

- ДУ видимого диапазона установлены неподвижно.- The visible range remote controls are fixed.

- ДУ видимого диапазона установлены подвижно, при этом исполнительный механизм, обеспечивающий подвижность, соединен с блоком сбора и обработки информации.- Remote controls of the visible range are mounted movably, while the actuator providing mobility is connected to the information collection and processing unit.

- ДУ установлены так, что их поля зрения совпадают в плоскости перемещения объекта.- Remote controls are set so that their fields of view coincide in the plane of movement of the object.

- ДУ установлены так, что их поля зрения не совпадают плоскости перемещения объекта, при этом поле зрения ДУ ИК диапазона больше поля зрения ДУ видимого диапазона.- The remote controls are set so that their field of view does not match the plane of movement of the object, while the field of view of the remote control of the IR range is greater than the field of view of the remote control of the visible range.

- БСОИ производит сбор изображений со всех ДУ одновременно или последовательно, производит обработку изображений, производит выработку управляющего сигнала для пространственной ориентации ДУ видимого диапазона, производит расчет направленности линии взгляда.- BSOI collects images from all remote control simultaneously or sequentially, performs image processing, produces a control signal for the spatial orientation of the visible range remote control, calculates the directivity of the line of sight.

При расчете направленности взгляда человека производят оконтуривание области зрачка и радужки глаз методами [17] и с использованием анализа проекции данного контура производят расчет направленности линии взгляда, например, аналогично [18].When calculating the direction of a person’s gaze, the pupil area and the iris of the eyes are contoured by methods [17] and, using the analysis of the projection of this contour, the direction of the line of sight is calculated, for example, similarly to [18].

Способ и устройство, реализующие данный способ, раскрыты в подробном описании, приведенном ниже, со ссылкой на сопроводительные фигуры:The method and apparatus implementing this method are disclosed in the detailed description below, with reference to the accompanying figures:

Фигура 1 - Взаимное расположение ДУ, где: 1 и 3 - ДУ видимого диапазона, 2 - ДУ дальнего ИК диапазона, 4 - исполнительные устройства изменения ориентации ДУ, 5 - поле зрения 1 (П31), 6 - поле зрения 2 (П32), 7 - плоскость перемещения объекта;Figure 1 - Relative location of the remote control, where: 1 and 3 - remote control of the visible range, 2 - remote control of the far IR range, 4 - actuators changing the orientation of the remote control, 5 - field of view 1 (P31), 6 - field of view 2 (P32), 7 - plane of movement of the object;

Фигура 2 - Этапы обработки изображения, полученного с телевизионного ДУ для идентификации области глаз: a) изображение лица, зарегистрированного с ДУ, имеющего чувствительность в дальнем ИК диапазоне, с более холодным фоном, b) результат пороговой обработки изображения с динамическим порогом, c) точки, принадлежащие границе объекта (отмечены перекрестными маркерами) и эллипс, вписанный в данные точки, d) найденные области глаз по температурному градиенту (вынесен вне изображения лица);Figure 2 - Stages of processing an image obtained from a television remote control to identify the eye area: a) image of a person registered with a remote control having sensitivity in the far infrared range, with a cooler background, b) the result of threshold image processing with a dynamic threshold, c) points belonging to the boundary of the object (marked by cross markers) and an ellipse inscribed in the given points; d) the found eye areas according to the temperature gradient (taken out of the face image);

Фигура 3 - Коммутация ДУ с блоком сбора и обработки информации (БСОИ), где: 8 - блок сбора и обработки изображений, 9 - канал коммутации ДУ с БСОИ, 1 и 3 - ДУ видимого диапазона, 2 - ДУ дальнего ИК диапазона.Figure 3 - Switching the remote control with a data acquisition and processing unit (BSOI), where: 8 - an image collection and processing unit, 9 - a remote control switching channel with a BSOI, 1 and 3 - visible range remote control, 2 - far infrared remote control.

На Фиг.1-Фиг.3 и в тексте использованы следующие обозначения:Figure 1-Figure 3 and in the text used the following notation:

ДУ - детектирующее устройство;DU - detecting device;

БСОИ - блок сбора и обработки информации;BSOI - information collection and processing unit;

ИК - инфракрасный.IR - infrared.

Описание способаMethod Description

1. Устанавливается ДУ изображений, имеющее диапазон чувствительности в дальнем ИК диапазоне (спектральный диапазон чувствительности >3000 нм). Положение ДУ фиксировано в пространстве. В качестве данных устройств, например, могут быть использованы тепловизионные камеры FLIR (Швеция), CEDIP (Франция) и проч.;1. An image remote control is installed that has a sensitivity range in the far IR range (spectral sensitivity range> 3000 nm). The position of the remote control is fixed in space. As these devices, for example, thermal imaging cameras FLIR (Sweden), CEDIP (France), etc. can be used;

2. Дополнительно устанавливается два или более ДУ, имеющих чувствительность в обычном видимом диапазоне (400-1000 нм). При этом технически обеспечиваются условия, при котором ориентация ДУ видимого диапазона относительно ДУ ИК диапазона всегда известна. В качестве таких ДУ могут использоваться телевизионные камеры на базе ПЗС или КМОП кремниевой технологии, например компании Videoscan (Россия);2. Additionally, two or more remote controls are installed that have sensitivity in the usual visible range (400-1000 nm). In this case, conditions are provided technically under which the orientation of the visible range remote control relative to the infrared remote control is always known. As such remote control, television cameras based on CCD or CMOS silicon technology can be used, for example, Videoscan (Russia);

3. ДУ видимого диапазона могут устанавливаться неподвижно относительно ДУ ИК диапазона, при этом их ориентация производится таким образом, что поле зрения ДУ ИК диапазона и поле зрения ДУ видимого диапазона максимально совпадают в плоскости перемещения объекта, как показано на Фигуре 1, позиция 5;3. The remote control of the visible range can be fixedly installed relative to the remote control of the IR range, while their orientation is such that the field of view of the remote control of the infrared range and the field of view of the remote control of the visible range match the maximum in the plane of movement of the object, as shown in FIG.

3.1. Производят предварительную калибровку всех ДУ. Для случая неподвижного расположения всех ДУ друг относительно друга целью калибровки является получение преобразования координат положения элемента изображения, получаемого с ДУ ИК диапазона, в координаты положения аналогичного элемента изображения, получаемого с ДУ видимого диапазона.3.1. Pre-calibrate all remote controls. For the case of a fixed arrangement of all the remote control units relative to each other, the purpose of calibration is to obtain a transformation of the coordinates of the position of the image element obtained from the remote control of the IR range into the position coordinates of a similar image element obtained from the remote control of the visible range.

3.2. Описанную калибровку могут производить путем размещения экрана, перпендикулярного к оптической оси ДУ ИК диапазона, с нанесенными на него маркерами, воспринимаемыми всеми ДУ одновременно. При этом известно расстояние от экрана до всех ДУ, а также взаимное расположение всех ДУ. Производят регистрацию изображения экрана с нанесенными маркерами всеми ДУ.3.2. The described calibration can be performed by placing a screen perpendicular to the optical axis of the infrared remote control, with markers printed on it, perceived by all the remote control simultaneously. In this case, the distance from the screen to all the remote controls, as well as the relative position of all the remote controls, is known. A screen image with markers applied by all the remote controllers is recorded.

3.3. Путем сравнения полученных изображений получают проекционную матрицу:3.3. By comparing the obtained images, a projection matrix is obtained:

β=А*γ, где β - вектор координат точки на изображении дальнего ИК диапазона, γ - вектор координат на изображении видимого диапазона или в случае подвижных ДУ видимого диапазона вектор ориентирования ДУ из пп.2 относительно ДУ из пп.1. А - матрица отображений координат β в координаты γ. Такая процедура, например, может быть проведена путем решения системы уравнений β=А*γ для каждого маркера по методу, описанному в [2].β = A * γ, where β is the coordinate vector of the point in the image of the far infrared range, γ is the coordinate vector in the image of the visible range or, in the case of movable remote controls of the visible range, the orientation vector of the remote control from paragraph 2 relative to the remote control from paragraph 1. A is a matrix of mappings of coordinates β to coordinates γ. Such a procedure, for example, can be carried out by solving the system of equations β = A * γ for each marker according to the method described in [2].

3.4. После калибровки производится регистрация изображений области пространства с помощью ДУ ИК диапазона и ДУ видимого диапазона одновременно.3.4. After calibration, the images of the region of space are recorded using the IR remote control and the visible range remote control at the same time.

3.5. Производится операция отделения объекта от фона с использованием изображения, полученного с ДУ ИК диапазона. На данном этапе используется свойство объекта испускать тепловое излучение. При этом фон рассматривается на изображении как менее яркая область. За счет этого поиск объекта может осуществляться путем анализа градиентов тепловых полей на изображении. Анализ может заключаться в поиске наиболее теплых участков изображения и выделения этих участков из общего, более холодного фона.3.5. An operation is performed to separate the object from the background using an image obtained from the IR range. At this stage, the property of the object to emit thermal radiation is used. In this case, the background is considered on the image as a less bright area. Due to this, the search for an object can be carried out by analyzing the gradients of thermal fields in the image. The analysis may consist in finding the warmest areas of the image and extracting these areas from the general, colder background.

3.6. Например, подобная обработка может происходить путем последовательного перебора всех пикселей изображения, полученного с ДУ ИК диапазона. Пикселы с интенсивностью, превышающей некоторый порог, отбираются как кандидаты на область объекта. Пикселы с интенсивностью ниже пороговой, запоминаются как принадлежащие фону изображения.3.6. For example, such processing can occur by sequentially sorting through all the pixels of the image obtained from the IR range. Pixels with an intensity exceeding a certain threshold are selected as candidates for the area of the object. Pixels with an intensity below the threshold are remembered as belonging to the background image.

3.7. Пороговое значение может выбираться динамически в зависимости от предварительных знаний о температуре поверхности тела человека. Например, известно, что обычно температура поверхности объекта (e.g. кожи) варьирует в диапазоне 18-26 градусов.3.7. The threshold value can be selected dynamically depending on preliminary knowledge of the surface temperature of the human body. For example, it is known that usually the surface temperature of an object (e.g. skin) varies in the range of 18-26 degrees.

3.8. Порог может выбираться динамически в зависимости от гистограммы изображения. Методы, которые могут задействоваться на этом этапе, приведены, например, в [15].3.8. The threshold can be selected dynamically depending on the histogram of the image. The methods that can be used at this stage are given, for example, in [15].

3.9. Далее может производиться объединение пикселей с высоким значением интенсивности. Такое объединение в области может выполняться, например, с помощью метода взаимосвязей [16]. На этом этапе может отсекаться импульсный шум (отдельные пикселы с высокой интенсивностью, окруженные пикселами с низкой интенсивностью).3.9. Further, a combination of pixels with a high intensity value can be performed. Such a union in the field can be performed, for example, using the method of relationships [16]. At this point, pulsed noise can be cut off (individual high-intensity pixels surrounded by low-intensity pixels).

3.10. Далее может быть произведено оконтуривание областей, включающих в себя пикселы с высокой интенсивностью. Анализ формы этих областей, например, может быть произведен путем корреляционного анализа относительно эталонного изображения лица. Области, имеющие низкую степень корреляции, могут быть отнесены к фону изображения, в то время как области, имеющие высокую корреляцию с эталоном, могут рассматриваться как сам объект (в нашем случае лицо/лица пользователя) (Фигура 2, изображение б)).3.10. Further, the contouring of areas including pixels with high intensity can be performed. An analysis of the shape of these areas, for example, can be done by correlation analysis relative to the reference image of the face. Areas with a low degree of correlation can be attributed to the background of the image, while areas with a high correlation with the standard can be considered as the object itself (in our case, the user's face / faces) (Figure 2, image b)).

3.11. В качестве эталонной формы для анализа полученных участков изображения также могут выбираться геометрические фигуры. Например, если известно, что объект (например, лицо) имеет в большинстве случаев овальную форму, то оконтуривание объекта может производиться путем вписывания овала в контур области, содержащей пикселы с высокой интенсивностью (Фигура 2, изображение с)).3.11. Geometrical figures can also be selected as a reference form for the analysis of the obtained image areas. For example, if it is known that an object (for example, a face) has an oval shape in most cases, then the object can be outlined by inscribing an oval into the outline of the area containing pixels with high intensity (Figure 2, image c)).

3.12. Далее вычисляется ориентация объекта в плоскости изображения (в нашем случае ориентация головы). Такое вычисление может, например, производиться путем нахождения максимальной длины между противоположными сторонами внутри области и соответствующей минимальной длины (что соответствует расстоянию от подбородка до лба и между скулами соответственно). Ориентация и положение в координатах изображения запоминается.3.12. Next, the orientation of the object in the image plane is calculated (in our case, the orientation of the head). Such a calculation can, for example, be done by finding the maximum length between opposite sides within the area and the corresponding minimum length (which corresponds to the distance from the chin to the forehead and between the cheekbones, respectively). The orientation and position in the image coordinates is remembered.

3.13. Далее определяются отдельные сегменты объекта. В качестве сегментов рассматриваются глаза пользователя. Локализация сегментов на изображении может, например, осуществляться путем разделения области изображения, занимаемого объектом, на две подобласти. В нашем случае область глаз ищется в верхней подобласти.3.13. Next, the individual segments of the object are determined. Segments are considered the user's eyes. Localization of segments in the image can, for example, be carried out by dividing the area of the image occupied by the object into two subregions. In our case, the eye area is sought in the upper subregion.

3.14. Сегменты также могут находится путем анализа температурного градиента. Так может использоваться априорно известная информация о градиентах сегментов. В нашем случае сегменты (например, глаза) имеют наиболее низкую температуру по сравнению с прилегающими областями, что объясняется наличием слизистой поверхности склеры, экранирующей тепловое излучение (Фигура 2, изображение d).3.14. Segments can also be found by analyzing the temperature gradient. Thus, a priori known information about segment gradients can be used. In our case, the segments (for example, the eyes) have the lowest temperature in comparison with the adjacent areas, which is explained by the presence of the mucous surface of the sclera that shields the thermal radiation (Figure 2, image d).

3.15. Полученные таким образом сегменты локализуются на изображении, полученном с ДУ ИК диапазона.3.15. The segments thus obtained are localized in the image obtained with the IR range.

3.16. Производится определение координат обнаруженных сегментов на изображении, полученном с ДУ ИК диапазона. Координаты привязаны к самому изображению. Данные координаты запоминаются.3.16. The coordinates of the detected segments are determined on the image obtained with the IR range. Coordinates are attached to the image itself. These coordinates are remembered.

3.17. Производится перерасчет координат сегментов, обнаруженных на изображении с ДУ из пп.1, в координаты изображений, полученных с ДУ видимого диапазона. Перерасчет производится с помощью матрицы, определенной на этапе калибровки, описанной в пп.3.1-3.3. В результате получают координаты сегментов в координатах, привязанных к ДУ видимого диапазона.3.17. The coordinates of the segments detected in the image with the remote control from paragraph 1 are recalculated into the coordinates of the images obtained from the visible range remote control. Recalculation is performed using the matrix determined at the calibration stage described in clauses 3.1-3.3. The result is the coordinates of the segments in the coordinates attached to the remote control of the visible range.

3.18. Используя полученные координаты на изображении, полученном с ДУ видимого диапазона, локализуют участки изображений, соответствующие сегментам, определенным с помощью изображения с ДУ ИК диапазона.3.18. Using the obtained coordinates on the image obtained from the visible range remote control, localize the image sections corresponding to the segments determined using the image with the infrared remote control.

3.19. Далее по изображениям, полученным с ДУ видимого диапазона, производится дальнейший расчет направленности взгляда. Процедура может выполняться, например, в соответствии с [18].3.19. Further on the images obtained with the visible range remote control, a further calculation of the directivity of the gaze is performed. The procedure can be performed, for example, in accordance with [18].

4. ДУ видимого диапазона могут устанавливаться подвижно относительно ДУ ИК диапазона, при этом их ориентация производится таким образом, что поле зрения ДУ ИК диапазона и поле зрения ДУ видимого диапазона перекрываются, но не совпадают. При этом поле зрения ДУ видимого диапазона меньше, чем поле зрения ДУ ИК диапазона.4. The remote control of the visible range can be set movably relative to the remote control of the infrared range, while their orientation is such that the field of view of the remote control of the infrared range and the field of view of the remote control of the visible range overlap, but do not match. In this case, the visual field of the remote control of the visible range is less than the field of view of the remote control of the infrared range.

Соответствующая конфигурация показана на Фигуре 1, позиция 5 для ДУ ИК диапазона, Фигура 1, позиция 6 для ДУ видимого диапазона;The corresponding configuration is shown in Figure 1, position 5 for the IR range, Figure 1, position 6 for the visible range;

4.1. Аналогично п.3 производят калибровку. Целью калибровки для случая подвижной ориентации ДУ видимого диапазона относительно ДУ ИК диапазона является получение преобразования координат положения элемента изображения области пространства, получаемых с ДУ ИК диапазона, в координаты поворота ДУ видимого диапазона относительно ДУ ИК диапазона, при котором область пространства, изображаемая на данном пикселе, попадает в центр изображения, получаемого с ДУ видимого диапазона;4.1. Similarly, item 3 calibrate. The purpose of calibration for the case of the movable orientation of the remote control of the visible range relative to the remote control of the infrared range is to obtain a transformation of the coordinates of the position of the image element of the space region obtained from the remote control of the infrared range, into the coordinates of rotation of the remote control of the visible range relative to the remote control of the infrared range, in which the region of space displayed on this pixel falls into the center of the image obtained from the visible range remote control;

4.2. Калибровку производят, например, следующим образом. Перпендикулярно к оптической оси ДУ ИК диапазона устанавливают экран. Определяют точки, попадающие в поле зрения ДУ ИК диапазона (соответствующее поле зрения указано на Фигуре 1, позиция 5), но лежащие на границе поля зрения ДУ ИК диапазона (в горизонтальном и вертикальном азимутах). На данные точки наводят ДУ видимого диапазона таким образом, чтобы установленные точки были в центре поля зрения этих ДУ. Запоминают углы поворота для каждого ДУ видимого диапазона относительно ДУ ИК диапазона. Аналогично определяют углы поворота для ДУ видимого диапазона для точки пересечения оптической оси ДУ ИК диапазона с плоскостью перемещения объекта (Фигура 1, позиция 7).4.2. Calibration is carried out, for example, as follows. A screen is mounted perpendicular to the optical axis of the IR remote control. The points that fall into the field of view of the IR range are determined (the corresponding field of view is shown in Figure 1, position 5), but lying on the border of the field of view of the IR range (in horizontal and vertical azimuths). The visible range remote control is pointed at these points so that the set points are in the center of the field of view of these remote control. Remember the rotation angles for each remote control of the visible range relative to the remote control of the IR range. Similarly, the rotation angles for the visible range remote control are determined for the point of intersection of the optical axis of the remote control of the infrared range with the plane of object movement (Figure 1, position 7).

4.3. Определяют все промежуточные положения углов поворота для ДУ видимого диапазона относительно ДУ ИК диапазона с учетом позиций, определенных в п.4.2.4.3. All intermediate positions of the rotation angles for the visible range remote control relative to the infrared remote control are determined taking into account the positions defined in clause 4.2.

4.4. Производят регистрацию изображения с помощью ДУ ИК диапазона.4.4. Image is recorded using the IR remote control.

4.5. Производят операции обработки аналогично пунктам 3.4.-3.16.4.5. Perform processing operations similarly to paragraphs 3.4.-3.16.

4.6. Производят перерасчет координат сегментов объекта в углы поворота ДУ видимого диапазона относительно ДУ ИК диапазона с учетом калибровочных данных, полученных в п.4.2.4.6. The coordinates of the object segments are recalculated into the angles of rotation of the remote control of the visible range relative to the remote control of the infrared range, taking into account the calibration data obtained in clause 4.2.

4.7. Производят ориентацию ДУ видимого диапазона с использованием данных, полученных на этапе 4.7. Производят регистрацию изображений.4.7. The visible range remote control is oriented using the data obtained in step 4.7. Register images.

4.8. Производят обработку изображений и вычисление линии взгляда аналогично 3.19.4.8. Perform image processing and calculation of the line of sight similar to 3.19.

Описание устройстваDevice description

1. Устройство, реализующее описанный метод, состоит из ДУ, регистрирующего изображения некоторой области пространства в дальнем ИК диапазоне (>3000 нм) (Фигура 1, 2, позиция 2).1. A device that implements the described method consists of a remote control registering images of a certain region of space in the far infrared range (> 3000 nm) (Figure 1, 2, position 2).

2. Устройство включает дополнительно одно или более ДУ, регистрирующих изображения в видимом спектральном диапазоне (400-1000 нм) (Фигура 1, 2, позиции 1 и 3),2. The device further includes one or more remote control devices that register images in the visible spectral range (400-1000 nm) (Figure 1, 2, positions 1 and 3),

3. Все ДУ подключены к блоку сбора и обработки информации, БСОИ (Фигура 3, позиция 8). БСОИ обеспечивает обработку изображений, получаемых со всех ДУ, и вырабатывает управляющий сигнал для исполнительных устройств ориентации ДУ видимого диапазона, в случае если они подвижны относительно ДУ ИК диапазона (Фигура 1, позиция 4). Управляющий сигнал, а также видеосигнал со всех ДУ передается в БСОИ по каналу связи (Фигура 3, позиция 9).3. All the remote control are connected to the unit for collecting and processing information, BSOI (Figure 3, position 8). BSOI provides processing of images received from all the remote control, and generates a control signal for actuators orienting the remote control of the visible range, if they are movable relative to the remote control of the IR range (Figure 1, position 4). The control signal, as well as the video signal from all the remote controls, is transmitted to the BSOI via the communication channel (Figure 3, position 9).

4. ДУ ИК диапазона, как и ДУ видимого диапазона устанавливаются стационарно друг относительно друга. Поля зрения ДУ ИК диапазона и ДУ видимого диапазона совпадают (Фигура 1, позиция 5).4. Remote control IR range, as well as remote control of the visible range are installed stationary relative to each other. The fields of view of the IR range and the visible range are the same (Figure 1, position 5).

4.1. Производится регистрация изображений со всех ДУ одновременно. В этом случае все изображения синхронно передаются в БСОИ (Фигура 3, позиция 8) посредством каналов связи (Фигура 3, позиция 9).4.1. Images from all remote control are registered simultaneously. In this case, all images are synchronously transmitted to the BSOI (Figure 3, position 8) via communication channels (Figure 3, position 9).

4.2. Прежде всего производится обработка изображения, полученного с ДУ ИК диапазона (Фигура 1, позиция 2). Обработка может, в частности, осуществляться методами, описанными в способе настоящего изобретения. В процессе обработки осуществляется отделение объекта от фона с последующим определением специфических сегментов на этом объекте.4.2. First of all, the processing of the image obtained from the remote control IR range (Figure 1, position 2). The treatment may, in particular, be carried out by the methods described in the method of the present invention. In the process of processing, the object is separated from the background with the subsequent determination of specific segments on this object.

4.3. Положение обнаруженных сегментов локализуется на изображениях, получаемых с ДУ ИК диапазона. Определяются координаты данных объектов в системе координат, привязанной к изображению с ДУ ИК диапазона.4.3. The position of the detected segments is localized in the images obtained from the IR range. The coordinates of these objects are determined in the coordinate system attached to the image with the IR range.

4.4. Производится перерасчет координат обнаруженных сегментов из системы координат, привязанной к изображению с ДУ ИК диапазона, в координаты, привязанные к изображению с ДУ видимого диапазона. Операция производится в соответствии с данными калибровки, полученными на этапе 3-5 способа.4.4. The coordinates of the detected segments are recalculated from the coordinate system tied to the image from the remote control of the infrared range, to the coordinates tied to the image from the remote control of the visible range. The operation is performed in accordance with the calibration data obtained in step 3-5 of the method.

4.5. Производится локализация сегментов изображения, привязанных к координатам изображения, полученных с ДУ видимого диапазона.4.5. Localization of image segments linked to the coordinates of the image obtained from the visible range remote control is performed.

4.6. Вычисляется направление взгляда аналогично описанному в способе настоящего устройства и аналогично [21]. Результат выводится на визуально воспринимаемый носитель.4.6. The direction of view is calculated similarly to that described in the method of the present device and similarly to [21]. The result is displayed on a visually perceptible medium.

5. ДУ видимого диапазона устанавливаются подвижно относительно ДУ ИК диапазона. В последнем случае исполнительные устройства ориентируют ДУ видимого диапазона относительно ДУ ИК диапазона по управляющему сигналу (Фигура 1, позиция 4).5. Remote control of the visible range are set movably relative to the remote control of the IR range. In the latter case, the actuators orient the remote control of the visible range relative to the remote control of the IR range according to the control signal (Figure 1, position 4).

5.1. Поле зрения ДУ видимого диапазона меньше поля зрения ДУ ИК диапазона (полю зрения ДУ видимого диапазона соответствует Фигура 1, позиция 6, в то время как полю зрения ДУ ИК диапазона соответствует Фигура 1, позиция 5).5.1. The field of view of the remote control of the visible range is smaller than the field of view of the remote control of the IR range (the field of view of the remote control of the visible range corresponds to Figure 1, position 6, while the field of view of the remote control of the infrared range corresponds to Figure 1, position 5).

5.2. Производят регистрацию изображений ДУ ИК диапазона, данные передают в БСОИ (Фигура 3, позиция 8).5.2. The IR remote control images are recorded, the data is transmitted to the BSOI (Figure 3, position 8).

5.3. Производят обработку изображения в БСОИ аналогично 4.2.-4.4.5.3. Perform image processing in BSOI similarly 4.2.-4.4.

5.4. Производят перерасчет координат сегментов изображения, полученных с ДУ ИК диапазона в ориентацию ДУ видимого диапазона относительно ДУ ИК диапазона.5.4. Recalculate the coordinates of the image segments obtained from the remote control of the IR range in the orientation of the remote control of the visible range relative to the remote control of the IR range.

5.5. Вырабатывается управляющий сигнал и передается из БСОИ (Фигура 3, позиция 8) в исполнительные устройства (Фигура 1, позиция 4). Производится ориентация ДУ видимого диапазона.5.5. A control signal is generated and transmitted from the BSOI (Figure 3, position 8) to the actuators (Figure 1, position 4). The remote control is visible in the visible range.

5.6. Производится регистрация изображений сегментов объекта ДУ видимого диапазона.5.6. The registration of images of segments of the remote control object of the visible range.

5.7. Вычисляется направление взгляда аналогично описанному в способе настоящего устройства и аналогично [21]. Результат выводится на визуально воспринимаемый носитель.5.7. The direction of view is calculated similarly to that described in the method of the present device and similarly to [21]. The result is displayed on a visually perceptible medium.

Источники информацииInformation sources

1. Патент US 8339459. Zhang Z., Sankaranarayanan A., Zhang Q., Liu Z., Cai Q., Multi camera head pose tracking, Microsoft Corporation (Redmond, WA).1. Patent US 8339459. Zhang Z., Sankaranarayanan A., Zhang Q., Liu Z., Cai Q., Multi camera head pose tracking, Microsoft Corporation (Redmond, WA).

2. Hartley R.I., Zisserman A. Multiple View Geometry in Computer Vision [Текст].- Cambridge University Press, 2004.2. Hartley R.I., Zisserman A. Multiple View Geometry in Computer Vision [Text] .- Cambridge University Press, 2004.

3. Патент US 8224108. Steinberg E., Prilutsky Y., Corcoran P., Bigioi P. Digital Image Processing Using Face Detection Information, Digital Optics Corporation.3. Patent US 8224108. Steinberg E., Prilutsky Y., Corcoran P., Bigioi P. Digital Image Processing Using Face Detection Information, Digital Optics Corporation.

4. Velichkovsky B.M., Comelissen F., Geusebroek J.-M., Graupner S.-Th., Hari R., Marsman J.В., ShevchikS. A., PannaschS. Measurement-related issues in investigation of active vision [Текст]// Measurement with persons: Theory and methods / B. Berglund, G. B. Rossi, J. Townsend, L. Pendrill (Eds.). - London-New York: Taylor and Francis, 2011. - Pp.281-300.4. Velichkovsky B.M., Comelissen F., Geusebroek J.-M., Graupner S.-Th., Hari R., Marsman J. B., Shevchik S. A., PannaschS. Measurement-related issues in investigation of active vision [Text] // Measurement with persons: Theory and methods / B. Berglund, G. B. Rossi, J. Townsend, L. Pendrill (Eds.). - London-New York: Taylor and Francis, 2011 .-- Pp. 281-300.

5. Pannasch S., Velichkovsky B.M. Distractor Effect and Saccade Amplitudes: Further Evidence on Different Modes of Processing in Free Exploration of Visual Images [Текст] // Visual Cognition. -2009. - 17 (6/7). - Pp.1109-1131.5. Pannasch S., Velichkovsky B.M. Distractor Effect and Saccade Amplitudes: Further Evidence on Different Modes of Processing in Free Exploration of Visual Images [Text] // Visual Cognition. -2009. - 17 (6/7). - Pp. 1109-1131.

6. Di Stasi L.L., Renner R., Staehr P., Helmert J.R., Velichkovsky B.M., Canas J.J., Catena A., Pannasch S. Saccadic peak velocity is sensitive to variations in mental workload in complex environments [Текст] // Aviation, Space, and Environmental Medicine,2010. - 81(4). - pp.413-417.6. Di Stasi LL, Renner R., Staehr P., Helmert JR, Velichkovsky BM, Canas JJ, Catena A., Pannasch S. Saccadic peak velocity is sensitive to variations in mental workload in complex environments [Text] // Aviation, Space, and Environmental Medicine, 2010. - 81 (4). - pp. 413-417.

7. Сведения о показателях состояния безопасности дорожного движения [Электронный ресурс] / ГУОБДД МВД России. - Электрон, дан. - 2012 - Режим доступа: www.gibdd.ru/, свободный. - Загл. с экрана. - Яз. рус.7. Information on indicators of the state of road safety [Electronic resource] / State Traffic Safety Inspectorate of the Ministry of Internal Affairs of Russia. - Electron, given. - 2012 - Access mode: www.gibdd.ru/, free. - Zagl. from the screen. - Yaz. Russian

8. Majaranta P., Raiha K.-J. Twenty Years of Eye Typing: Systems and Design Issues[TeKCT] // Proceedings of ETRA 2002, Eye Tracking Research and Applications Symposium, 25-27, 2002.8. Majaranta P., Raiha K.-J. Twenty Years of Eye Typing: Systems and Design Issues [TeKCT] // Proceedings of ETRA 2002, Eye Tracking Research and Applications Symposium, 25-27, 2002.

9. SR Research Complete Eye Tracking Solutions [Электронный ресурс] / SR Research. - Электрон. дан. - Ontario, Canada, 2012. - Режим доступа: http://www.sr-research.com/свободный. - Загл. с экрана. - Яз. англ.9. SR Research Complete Eye Tracking Solutions [Electronic resource] / SR Research. - The electron. Dan. - Ontario, Canada, 2012. - Access mode: http://www.sr-research.com/free. - Zagl. from the screen. - Yaz. English

10. SMI SensoMotoric Instruments [Электронный ресурс] / SMI SensoMotoric Instruments. - Электрон. дан. - Teltow, Germany, 2013. - Режим доступа: http://www.smivision.com свободный. - Загл. с экрана. - Яз. англ.10. SMI SensoMotoric Instruments [Electronic resource] / SMI SensoMotoric Instruments. - The electron. Dan. - Teltow, Germany, 2013. - Access mode: http://www.smivision.com free. - Zagl. from the screen. - Yaz. English

11. Устройство для регистрации движения глаз. А.с. СССР №1009418, кл. A61B 3/00 / Курочкин С.Л., Фомин Б.M., Шиф M.И. - опубл. 1981.11. Device for recording eye movement. A.S. USSR No. 1009418, class A61B 3/00 / Kurochkin S.L., Fomin B.M., Shif M.I. - publ. 1981.

12. Устройство для регистрации и анализа зрительной деятельности оператора. А.с. СССР №1438690. Курочкин С.Л., Молодцов В.А., Спецаков А.И., Тетерин Н.В. - заявл. 17.10.1986.12. A device for recording and analyzing the visual activity of the operator. A.S. USSR No. 1438690. Kurochkin S.L., Molodtsov V.A., Spetsakov A.I., Teterin N.V. - declared. 10/17/1986.

13. Способ определения координат точек фиксации взгляда на объекте наблюдения. А.с. СССР №1430027. Курочкин С.Л., Сидоров А.С., Фомин Б.М., Шиф М.И. - заявл. 05.08.1986.13. The method of determining the coordinates of the points of fixation of the gaze on the object of observation. A.S. USSR No. 1430027. Kurochkin S.L., Sidorov A.S., Fomin B.M., Shif M.I. - declared. 08/05/1986.

14. Velichkovsky B.M., Sprenger A., Pomplu, М., Unema P. Eye movements and encoding manipulations in two visual memory tasks[TeKCT] // Proceedings of the Psychonomic Society 38th Annual Meeting. November 20th-23rd - Philadelphia, USA, 1997. - P.73.14. Velichkovsky B.M., Sprenger A., Pomplu, M., Unema P. Eye movements and encoding manipulations in two visual memory tasks [TeKCT] // Proceedings of the Psychonomic Society 38th Annual Meeting. November 20th-23rd - Philadelphia, USA, 1997 .-- P.73.

15. Kapur J.N., Sahoo P.K., Wong A.K. A new method for gray-level picture thresholding using the entropy of the histogram [Текст] // Computer vision, graphics, and image processing. - 1985. -29(3) - Pp.273-285, 1, 2.5, 2.6.15. Kapur J.N., Sahoo P.K., Wong A.K. A new method for gray-level picture thresholding using the entropy of the histogram [Text] // Computer vision, graphics, and image processing. - 1985. -29 (3) - Pp. 273-285, 1, 2.5, 2.6.

16. Davies E. Machine Vision: Theory, Algorithms and Practicalities [Текст]: - Academic Press, 1990 - Chap.6.16. Davies E. Machine Vision: Theory, Algorithms and Practicalities [Text]: - Academic Press, 1990 - Chap. 6.

17. Li D., Winfield D., Parkhurst D.J. Starburst: A hybrid algorithm for video-based eye tracking combining feature-based and model-based approaches [Текст] // Computer Vision and Pattern Recognition - Workshops, 2005. CVPR Workshops, IEEE Computer Society Conference on, 25-25 June 2005. - pp.79. - doi: 10.1109/CVPR.2005.531.17. Li D., Winfield D., Parkhurst D.J. Starburst: A hybrid algorithm for video-based eye tracking combining feature-based and model-based approaches [Text] // Computer Vision and Pattern Recognition - Workshops, 2005. CVPR Workshops, IEEE Computer Society Conference on, 25-25 June 2005. - pp. 79. - doi: 10.1109 / CVPR.2005.531.

18. Способ и устройство для определения пространственного положения глаз для вычисления линии взгляда [Текст]: патент РФ №2444275 / Шевчик С.А., Величковский Б.М., Величковский Б.Б., Вартанов А.В. - Опубл. 10.09.10.18. Method and device for determining the spatial position of the eyes for calculating the line of sight [Text]: RF patent No. 2444275 / Shevchik SA, Velichkovsky BM, Velichkovsky BB, Vartanov AV - Publ. 09/10/10.

19. http://www.ulis-ir.com/19. http://www.ulis-ir.com/

20. Method and installation for detecting and following an eye and the gaze direction therefore [Текст]: патент US 7572008.20. Method and installation for detecting and following an eye and the gaze direction therefore [Text]: patent US 7572008.

21. Eye position detecting apparatus [Текст]: патент US 5218387.21. Eye position detecting apparatus [Text]: US patent 5218387.

22. Jin S., Lee K., and Hong K. "An Implementation of Multimodal Gaze Direction Recognition System using Image and EOG", 6th International Conference on Digital Content, Multimedia Technology and its Applications (IDC), pp.229-235, 978-1-4244-7607-7, 2010.22. Jin S., Lee K., and Hong K. "An Implementation of Multimodal Gaze Direction Recognition System using Image and EOG", 6th International Conference on Digital Content, Multimedia Technology and its Applications (IDC), pp.229-235 978-1-4244-7607-7, 2010.

Claims (17)

1. Способ определения направленности взгляда, состоящий в том, что устанавливают не менее двух предварительно калиброванных детектирующих устройств изображения объекта в пространстве (ДУ), по крайней мере, одно из которых регистрирует изображения в дальнем ИК диапазоне со спектральным диапазоном чувствительности >=3000 нм, а остальные регистрируют изображения в видимом диапазоне 400-1000 нм, при этом ДУ, регистрирующее изображения в ИК диапазоне, установлено неподвижно, все ДУ регистрируют изображения области пространства, соответствующей образу объекта, результаты регистрации обрабатывают с помощью блока сбора и обработки информации БСОИ, при этом вначале регистрируют изображения части пространства ДУ, обладающим чувствительностью в дальнем ИК диапазоне с длиной волны >3000 нм, и получают ИК изображения объекта и некоторого фона за ним, после чего производят обработку полученного ИК изображения, отделяя объект от фона и локализуя области на изображении, соответствующие образу объекта, на локализованной части изображения выделяют отдельные сегменты объекта, также локализуя их на изображении, после чего определяют координаты этих сегментов в координатной системе, привязанной к изображению, регистрируют изображения части пространства ДУ, обладающего чувствительностью в видимом диапазоне 400-1000 нм, производят перерасчет координат сегментов, полученных при регистрации в ИК диапазоне, в координаты, привязанные изображениям с ДУ, имеющими чувствительность в видимой области, после чего локализуют соответствующие сегменты объекта на изображениях видимого диапазона и рассчитывают направленность линии взгляда для случая, если ДУ ИК диапазона и видимого диапазона фиксированы друг относительно друга, или производят перерасчет координат сегментов, полученных при регистрации в ИК диапазоне, в координаты ориентации ДУ видимого диапазона, после чего ориентируют ДУ видимого диапазона и регистрируют часть пространства, содержащую образы выделенных сегментов объекта на ИК изображениях, и на основании полученных изображений рассчитывают направленность линии взгляда для случая, если ДУ ИК диапазона и видимого диапазона подвижны друг относительно друга.1. A method for determining the directivity of the gaze, consisting in the fact that at least two pre-calibrated detecting devices for detecting an object image in space (DU) are installed, at least one of which registers images in the far infrared range with a spectral sensitivity range> = 3000 nm, and the rest record the images in the visible range of 400-1000 nm, while the remote control that records images in the IR range is fixed, all the remote control records the image of the area of space corresponding to once an object, the registration results are processed using the BSOI information collection and processing unit, while first the images of a part of the remote control space with sensitivity in the far IR range with a wavelength> 3000 nm are first recorded and IR images of the object and some background behind it are obtained, after which they process the obtained IR image, separating the object from the background and localizing areas on the image corresponding to the image of the object, separate segments of the object are isolated on the localized part of the image, also localizing them in the image, after which the coordinates of these segments are determined in the coordinate system attached to the image, the images of part of the remote control space with sensitivity in the visible range of 400-1000 nm are recorded, the coordinates of the segments obtained during registration in the IR range are recalculated into the coordinates attached images with remote control having sensitivity in the visible region, after which the corresponding segments of the object are localized in the images of the visible range and the directivity of the line of sight is calculated For the case if the remote control of the IR range and the visible range are fixed relative to each other, or the coordinates of the segments obtained during registration in the IR range are recalculated into the orientation coordinates of the visible range remote control, then the visible range remote control is oriented and the part of the space containing the images of the selected segments is registered object on IR images, and on the basis of the obtained images calculate the directivity of the line of sight for the case if the remote control of the IR range and the visible range are movable relative to each other a. 2. Способ по п.1, отличающийся тем, что ДУ калибруют, преобразуя координаты положения объекта и/или его сегментов на изображениях, получаемых с ДУ ИК диапазона, в координаты положения объекта на изображениях, получаемых с ДУ видимого диапазона, для случая, если все ДУ фиксированы друг относительно друга.2. The method according to claim 1, characterized in that the remote control is calibrated by converting the coordinates of the position of the object and / or its segments on the images obtained from the IR range, into the coordinates of the position of the object on the images obtained from the visible range, if all remote controls are fixed relative to each other. 3. Способ по п.1, отличающийся тем, что ДУ калибруют, преобразуя координаты положения объекта и/или его сегментов на изображениях, получаемых с ДУ ИК диапазона, в координаты ориентации ДУ видимого диапазона относительно ДУ ИК диапазона для регистрации сегментов объекта, локализованных на ИК изображениях в случае, если ДУ видимого диапазона подвижны относительно ДУ ИК диапазона.3. The method according to claim 1, characterized in that the remote control is calibrated by converting the coordinates of the position of the object and / or its segments in the images obtained from the remote control of the IR range, into the orientation coordinates of the remote control of the visible range relative to the remote control of the IR range for recording segments of the object localized on IR images in the case that the visible range remote controls are movable relative to the IR range. 4. Способ по п.2, отличающийся тем, что регистрацию изображения части пространства в инфракрасном и видимом диапазоне проводят одновременно.4. The method according to claim 2, characterized in that the image registration of part of the space in the infrared and visible range is carried out simultaneously. 5. Способ по п.3, отличающийся тем, что регистрацию изображения части пространства в ИК и видимом диапазоне проводят последовательно.5. The method according to claim 3, characterized in that the image registration of part of the space in the IR and visible range is carried out sequentially. 6. Способ по любому из пп.1-5, отличающийся тем, что производят обработку сначала ИК изображения, отделяя изображения от фона с помощью анализа градиентов тепловых полей.6. The method according to any one of claims 1 to 5, characterized in that the IR image is first processed, separating the image from the background by analyzing the gradients of the thermal fields. 7. Способ по п.6, отличающийся тем, что после отделения объекта от фона производят определение положения отдельных сегментов объекта на изображении, используя анализ градиентов тепловых полей.7. The method according to claim 6, characterized in that after separating the object from the background, the position of individual segments of the object in the image is determined using an analysis of the gradients of the thermal fields. 8. Способ по п.7, отличающийся тем, что после определения положения сегментов на ИК изображении находят данные сегменты на изображениях видимого диапазона с использованием данных калибровки для случая, если все ДУ фиксированы друг относительно друга.8. The method according to claim 7, characterized in that after determining the position of the segments in the IR image, these segments are found in the visible range images using calibration data for the case if all the remote controls are fixed relative to each other. 9. Способ по п.7, отличающийся тем, что после определения положения сегментов на ИК изображении на основании калибровки ориентируют ДУ видимого диапазона таким образом, что они производят регистрацию области пространства, содержащую образы сегментов объекта, локализованных на ИК изображениях, для случая, если ДУ видимого диапазона подвижны относительно ДУ ИК диапазона.9. The method according to claim 7, characterized in that after determining the position of the segments in the IR image, based on the calibration, the visible range remote control is oriented in such a way that they register a space region containing images of object segments localized in IR images, in case The visible range remote controls are movable relative to the IR range. 10. Способ по любому из пп.7, 8, отличающийся тем, что рассчитывают направленность линии взгляда на основании изображений, полученных с ДУ видимого диапазона, выводя результаты обработки на визуально воспринимаемый носитель.10. The method according to any one of claims 7, 8, characterized in that the directivity of the line of sight is calculated based on images obtained from the visible range remote control, displaying the processing results on a visually perceptible medium. 11. Способ по п.3, отличающийся тем, что в качестве объекта определяют лицо пользователя, а в качестве сегментов - глаза пользователя.11. The method according to claim 3, characterized in that the face of the user is determined as the object, and the eyes of the user as segments. 12. Устройство определения направленности взгляда, включающее не менее двух размещенных в пространстве детектирующих изображения объекта средств (ДУ), по крайней мере, одно из которых регистрирует изображения в дальнем ИК диапазоне (спектральный диапазон чувствительности >=3000 нм), а остальные регистрируют изображения в видимом диапазоне (спектральный диапазон чувствительности 400-1000 нм), при этом ДУ, регистрирующее изображения в ИК диапазоне, установлено неподвижно, и все ДУ соединены с блоком сбора и обработки информации БСОИ.12. A device for determining the directivity of the gaze, which includes at least two means (DU) located in the space detecting images of an object, at least one of which registers images in the far infrared range (spectral sensitivity range> = 3000 nm), and the rest register images in visible range (spectral sensitivity range 400-1000 nm), while the remote control that records images in the IR range is fixed, and all remote control are connected to the BSOI information collection and processing unit. 13. Устройство по п.12, отличающееся тем, что ДУ видимого диапазона установлены неподвижно.13. The device according to p. 12, characterized in that the visible range remote controls are fixed. 14. Устройство по п.12, отличающееся тем, что ДУ видимого диапазона установлены подвижно, при этом исполнительный механизм, обеспечивающий подвижность, соединен с блоком сбора и обработки информации.14. The device according to p. 12, characterized in that the visible range remote controls are mounted movably, while the actuator providing mobility is connected to the information collection and processing unit. 15. Устройство по п.13, отличающееся тем, что ДУ установлены так, что их поля зрения совпадают в плоскости перемещения объекта.15. The device according to item 13, wherein the remote controls are installed so that their fields of view coincide in the plane of movement of the object. 16. Устройство по п.14, отличающееся тем, что ДУ установлены так, что их поля зрения не совпадают в плоскости перемещения объекта, при этом поле зрения ДУ ИК диапазона больше поля зрения ДУ видимого диапазона.16. The device according to 14, characterized in that the remote control is set so that their fields of view do not coincide in the plane of movement of the object, while the field of view of the remote control of the IR range is greater than the field of view of the remote control of the visible range. 17. Устройство по п.12, отличающееся тем, что БСОИ производит сбор изображений со всех ДУ одновременно или последовательно, обработку изображений, производит выработку управляющего сигнала для пространственной ориентации ДУ видимого диапазона, производит расчет направленности линии взгляда. 17. The device according to p. 12, characterized in that the BSOI collects images from all the remote control simultaneously or sequentially, processes the images, produces a control signal for the spatial orientation of the visible range remote control, calculates the directivity of the line of sight.
RU2013121977/08A 2013-05-14 2013-05-14 Method and device to determine look direction RU2541922C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013121977/08A RU2541922C2 (en) 2013-05-14 2013-05-14 Method and device to determine look direction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013121977/08A RU2541922C2 (en) 2013-05-14 2013-05-14 Method and device to determine look direction

Publications (2)

Publication Number Publication Date
RU2013121977A RU2013121977A (en) 2015-01-10
RU2541922C2 true RU2541922C2 (en) 2015-02-20

Family

ID=53278727

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013121977/08A RU2541922C2 (en) 2013-05-14 2013-05-14 Method and device to determine look direction

Country Status (1)

Country Link
RU (1) RU2541922C2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2408162C2 (en) * 2005-08-17 2010-12-27 Сириал Текнолоджиз Гмбх Method and apparatus for real-time detecting and tracking eyes of several viewers
RU2444275C1 (en) * 2010-09-30 2012-03-10 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Method and apparatus for determining spatial position of eyes for calculating line of sight
US8224108B2 (en) * 2003-06-26 2012-07-17 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8339459B2 (en) * 2009-09-16 2012-12-25 Microsoft Corporation Multi-camera head pose tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224108B2 (en) * 2003-06-26 2012-07-17 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
RU2408162C2 (en) * 2005-08-17 2010-12-27 Сириал Текнолоджиз Гмбх Method and apparatus for real-time detecting and tracking eyes of several viewers
US8339459B2 (en) * 2009-09-16 2012-12-25 Microsoft Corporation Multi-camera head pose tracking
RU2444275C1 (en) * 2010-09-30 2012-03-10 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Method and apparatus for determining spatial position of eyes for calculating line of sight

Also Published As

Publication number Publication date
RU2013121977A (en) 2015-01-10

Similar Documents

Publication Publication Date Title
US20200318953A1 (en) Generation of one or more edges of luminosity to form three-dimensional models of objects
CN106959759B (en) Data processing method and device
KR100949743B1 (en) Apparatus and method for wearable eye tracking having goggle typed
KR101471488B1 (en) Device and Method for Tracking Sight Line
CN109259749A (en) A kind of contactless method for measuring heart rate of view-based access control model camera
CN104809424B (en) Method for realizing sight tracking based on iris characteristics
CA2939637A1 (en) On-the-go touchless fingerprint scanner
CN103761519A (en) Non-contact sight-line tracking method based on self-adaptive calibration
CN107270818B (en) A method of utilizing monitoring CCD the real time measure laser probe and plane of illumination spacing walk-off angle degree
KR20110038568A (en) Apparatus and mehtod for tracking eye
US20220148218A1 (en) System and method for eye tracking
CN104089606A (en) Free space eye tracking measurement method
AU2017247617A1 (en) Non-contact apparatus and method for capturing skin surface image data
CN109427065A (en) Guan pulse identifying system based on thermal imaging
CN111443804A (en) Method and system for describing fixation point track based on video analysis
CN103006332A (en) Scalpel tracking method and device and digital stereoscopic microscope system
KR101564967B1 (en) System and method to identify user interest using eye tracking
RU2541922C2 (en) Method and device to determine look direction
Hoshino et al. High-accuracy measurement of rotational eye movement by tracking of blood vessel images
CN112651270A (en) Gaze information determination method and apparatus, terminal device and display object
RU2352244C2 (en) Method of measurement of fast movements of eyes and deviations of solid vision and device for its realisation
Ebisawa Realtime 3D position detection of human pupil
CN115311405A (en) Three-dimensional reconstruction method of binocular endoscope
CN112711982A (en) Visual detection method, equipment, system and storage device
KR100651104B1 (en) Gaze-based computer interface apparatus and method of using the same