WO2021125993A1 - Способ определения направления взгляда - Google Patents

Способ определения направления взгляда Download PDF

Info

Publication number
WO2021125993A1
WO2021125993A1 PCT/RU2019/000951 RU2019000951W WO2021125993A1 WO 2021125993 A1 WO2021125993 A1 WO 2021125993A1 RU 2019000951 W RU2019000951 W RU 2019000951W WO 2021125993 A1 WO2021125993 A1 WO 2021125993A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
pupil
gaze
determining
image
Prior art date
Application number
PCT/RU2019/000951
Other languages
English (en)
French (fr)
Inventor
Андрей Владимирович НОВИКОВ
Владимир Николаевич ГЕРАСИМОВ
Роман Александрович ГОРБАЧЕВ
Никита Евгеньевич ШВИНДТ
Владимир Иванович НОВИКОВ
Андрей Евгеньевич ЕФРЕМЕНКО
Дмитрий Леонидович ШИШКОВ
Михаил Нилович ЗАРИПОВ
Филипп Александрович КОЗИН
Алексей Михайлович СТАРОСТЕНКО
Original Assignee
Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Инстиут (Национальный Исследовательский Университет)"
Общество С Ограниченной Ответственностью "Нейроассистивные Технологии"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Инстиут (Национальный Исследовательский Университет)", Общество С Ограниченной Ответственностью "Нейроассистивные Технологии" filed Critical Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Инстиут (Национальный Исследовательский Университет)"
Priority to PCT/RU2019/000951 priority Critical patent/WO2021125993A1/ru
Publication of WO2021125993A1 publication Critical patent/WO2021125993A1/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to devices and methods for determining the direction of gaze and can be used in various fields of technology, including robotics.
  • RF patent RU2696042 describes the invention related to technologies used to determine the areas of gaze fixation during eye movement, and can be used for an objective assessment of the processes of visual attention, control of computer interfaces through the direction of gaze, in operator activity, marketing, etc.
  • the respondent with a fixed head position is provided with at least one stimulator image during presentation of the stimulating image.
  • the eye area is covered with infrared radiation, the reflected signal is recorded and the resulting video sequence is processed with the determination of the coordinates of the center of the pupil in each video frame.
  • the coordinates are converted into a stimulating image coordinate system, forming a two-dimensional array of values of the coordinates of the center of the pupil in a chronological sequence corresponding to frames of the video sequence, and then segment analysis is used to select at least three points considered by the gaze fixation area.
  • the disadvantage of this technical solution is that the fixation of the gaze when moving the eyes is carried out with a fixed position of the respondent's head relative to the presented image.
  • the accuracy of determining the direction of gaze is not high enough, which is especially important when it is necessary to determine the direction to a specific object located among many other objects.
  • US patent US10234940 describes a gaze tracking method comprising the following steps: recording video images of a human eye in such a way that the pupil of the eye and the glare on the eyeball caused by a light source; processing video images to calculate an offset between a position of a predetermined spatial feature and a predetermined position with respect to the flare; and by a light source such as a display, emitting light from the light pattern at a location selected from a plurality of pre-configured light pattern locations to the human eye.
  • the location is controlled by a feedback signal; controlling the location of the light pattern among the predetermined locations of the light patterns in response to the displacement, so that the predetermined position relative to the flare caused by the light source tracks the spatial feature of human eyes.
  • the gaze tracker is configured to filter video images to identify one or more highlights that may arise from the light pattern, wherein a predetermined position relative to the highlight is computed relative to the identified one or more points.
  • This device allows to improve the accuracy of recognition of the position of the gaze and the formation of the resulting image, but imposes increased requirements on the hardware.
  • US patent US9830512 describes a method of eye tracking, which includes the following steps: determining the position of the center point of the cornea using at least two points of light reflection detected in the eyeball area of the first image of the user's face; calculating the first vector with respect to at least two fixed feature points detected from the first face image and the position of the center point of the cornea; calculating the position of the center point of the cornea relative to the eyeball region of the second face image using the position of the feature point detected from the second face image and the first vector when at least two light reflection points are not detected from the eyeball area of the second face image of the user; calculating the second vector with using the calculated position of the center point of the cornea and the position of the center point of the pupil detected from the eyeball region of the second face image; and tracking the user's gaze using the second vector.
  • This known method and system for eye tracking can improve the accuracy of recognition of the position of the gaze and the formation of the resulting image, but are quite complex and demanding on computational resources.
  • a gaze tracking method based on adaptive tomographic matching can be selected.
  • the tracking method includes the steps of assessing the gaze, in which an adaptive tomographic mapping transform is used to correct the displacement, while the adaptive tomographic mapping transform is trained by minimizing an objective function based on data corresponding to a plurality of head positions and gaze directions to compensate for spatially varying errors.
  • gaze or head posture-dependent errors relative to calibration position; capture current glare data and pupil-related data in an image using a plurality of light sources and a camera; provide current glare data and pupil-related data processed from the image as features to obtain head posture-dependent data based on the recognized adaptive tomographic mapping transformation, which are used to determine the current gaze information.
  • the known gaze tracking method based on adaptive tomographic matching also improves the accuracy of gaze position recognition and the formation of the resulting image, but it is quite complex and demanding on computational resources, and, in addition, requires additional actions from the user.
  • the technical result of the claimed invention is to improve the accuracy of determining the direction of gaze, high speed of data processing, which means low hardware requirements, which leads to a decrease in the weight of the wearable device, and the possibility of using high-performance high-resolution cameras to further improve the accuracy of determining the direction of gaze.
  • a method for determining the direction of the user's gaze which includes the steps of obtaining an image of the left eye and an image of the right eye containing glare from light sources of the left eye and right eye, determining the position of the pupil of the eye, determining the position and numbering of highlights on the cornea eyes, determining the optical axis of the direction of gaze of each eye and determining the direction of gaze.
  • a preliminary search for the pupil is performed, a preliminary ellipse of the pupil is constructed, and an ellipse of the pupil is constructed from its nodal points.
  • flares are searched for, the size of the iris is calculated, excluding flares outside the iris, and the flares are enumerated to determine the gaze direction vector.
  • the nodal point of the eye, the refractive point for the center of the pupil, and the position of the center of the pupil in the coordinate system of the scene camera are determined.
  • the determination of the gaze direction is performed based on the determined optical gaze direction and the gaze direction calibration.
  • a preliminary position of the center of the pupil is determined, as well as the number of pixels in the region of the pupil, which is preliminary characterizing its size.
  • a binarization threshold is found and binarization is performed to determine the pupil boundary to construct the preliminary pupil ellipse.
  • the search for highlights on the cornea of the eye can be performed, for example, by thresholding the eye image with the selection of clusters and filtering the clusters by brightness, size and the parameter of deviation from roundness.
  • information about the average size of the human iris and information about the distance from the corresponding camera of the left eye or the camera of the right eye to the pupil are preferably used, which improves the accuracy of determining the direction of gaze.
  • Flare numbering can be performed from one flare from the upper pair closest to the bridge of the nose, in a circle, away from the bridge of the nose, i.e. clockwise for the right eye and counterclockwise for the left eye.
  • the nodal point of the eye, the refractive point for the center of the pupil, and the position of the center of the pupil in the coordinate system of the scene camera are determined.
  • the claimed method for determining the gaze direction may also include the step of calibrating the gaze direction, which is performed either at one of the specified steps or in advance. In this case, it is enough to calibrate once for a specific user, and re-calibration is no longer required. In particular, when calibrating the direction of gaze, the individual characteristics of the user and the relative position of the cameras of the left and right eyes and the scene camera are taken into account.
  • FIG. 1 shows a general view of a variant of the device for implementing the claimed method
  • in fig. 2 schematically shows a front view of a variant of a device for implementing the claimed method
  • in fig. 3 schematically shows a rear view of a variant of a device for implementing the inventive method
  • in fig. 4 schematically shows the relative position of the left or right eye, the camera of the left or right eye and one light source of the left or right eye, as well as a diagram of the path of the rays
  • in fig. 5a shows the stage of finding the center of the pupil
  • in fig. 1 shows a general view of a variant of the device for implementing the claimed method
  • in fig. 2 schematically shows a front view of a variant of a device for implementing the claimed method
  • in fig. 3 schematically shows a rear view of a variant of a device for implementing the inventive method
  • in fig. 4 schematically shows the relative position of the left or right eye, the camera of the left
  • 5b shows the stage of approximating the position of the pupil with an ellipse
  • in fig. 5c shows the step of determining the position of the highlights
  • in fig. 5d shows an example of highlight numbering
  • in fig. 5e shows the step of determining the direction of the optical axis of the eye.
  • P is the center of the pupil
  • R is the point of refraction
  • Qi is the point of reflection i-ro of the light source 8
  • V the image of the center of the pupil
  • 1L image of the flare i-ro of the light source 8.
  • the claimed method for determining the direction of gaze can be implemented using a device, the preferred embodiment of which is described in detail below.
  • the device 1 for determining the direction of the user's gaze comprises a body 2, which is essentially made in the form of glasses having a left rim 3.1 and a right rim 3.2, a nose 4 and two lateral pressure bars 5.1, 5.2.
  • the body 2 is preferably made of a durable and lightweight material suitable for permanent or long-term wearing of the device 1, taking into account the anthropometric data of the user's head.
  • replaceable nozzles 4 can be used, which regulate the position of the body 2 in height and fit under the bridge of the nose to prevent its pinching. Correct selection of the distance from the eye to the rims 3.1, 3.2 contributes to the correct operation of the eye image recognition system.
  • the camera 6.1 of the left eye and the camera 6.2 of the right eye are installed, hereinafter also referred to as cameras 6.1, 6.2 of the eye.
  • Cameras 6.1, 6.2 eyes are designed to register and record a video sequence that reflects the process of eye movement, and to obtain images of the corresponding eye. At the same time, the movement of both the left and right eyes of the user is recorded, which is necessary to accurately determine the direction of gaze and eliminate false alarms.
  • Cameras 6.1, 6.2 eyes contain light-sensitive matrices and corresponding optical systems (lenses) for the formation of an enlarged focused image of the eyes on light-sensitive matrices.
  • the images of the pupil and flares are recorded (described below) and the subsequent determination of the coordinates of the center of the pupil and each of the flares in the camera coordinate system 6.1, 6.2 of the eye (local coordinates).
  • the light-sensitive matrix of the eye cameras 6.1, 6.2 is located in a plane at an angle to the main planes of the optical system of the eye 11, as schematically shown in FIG. 4. This arrangement will not create obstacles and block the user's view.
  • one eye camera 6.1, 6.2 is used to register the image of each eye 11 from one angle - from below (Fig. 4).
  • the chosen angle is determined by the fact that the lower eyelashes are significantly shorter than the upper ones and do not create obstacles for image registration.
  • the angle between the optical axis of the lens and the axis of the direction of view is chosen based on considerations of a compromise between the best image registration angle (corresponds to 0 ° angle) and the angle at which the camera is guaranteed not to fall into the user's field of view (corresponds to 90 ° angle).
  • the most preferred is the value of the specified angle from 45 ° to 60 °.
  • the photosensitive matrix it is preferable to use a color photosensitive matrix. This is due to the fact that the display of an eye in a color palette allows the use of the procedure for binarization of a color image by the levels of each color component, which, in turn, makes it possible to reliably highlight the detected objects due to their achromatic colors (pupil - sharply black, glare - bright white) on stage of eye image processing. This approach simplifies the recognition algorithm for detected objects by eliminating additional particle filtering procedures that lead to the loss of important image details.
  • the optical system of cameras 6.1, 6.2 eyes (not shown in the figures) is designed to form an image in the plane of the photosensitive matrix.
  • the optical system contains several lenses and a light filter. The distance from the exit pupil of the lens to the eye changes insignificantly and can be considered fixed.
  • the optical scheme of a compact four-component lens with an output aspherical lens can be used to compensate for distortion.
  • a scene camera 7 is installed on the nose 4 (Fig. 2), which is used to obtain an image of the surrounding scene and to ensure the fixation of the surrounding situation, to which the gaze vector is subsequently linked.
  • the scene camera 7 is preferably located on the top of the glasses body 2.
  • Light sources 8 are installed, which form glare on the corresponding eye (Fig. 3).
  • Light sources 8 are designed to create the minimum required level of illumination and the formation of point glare due to reflections from the cornea of the eye.
  • an IR radiation source in particular, an IR LED, can be used.
  • Off-axis IR illumination of the eye creates a dark pupil effect and forms images of light sources 8 by reflecting radiation from the cornea of the eye.
  • the images of light sources 8 formed by reflection from the cornea are called the first Purkinje images, or flares.
  • the dark pupil and glare are then visualized by the optical system of cameras 6.1, 6.2 eyes and captured by light-sensitive matrices with sufficient sensitivity in the near infrared spectrum.
  • the images of the pupil and highlights move in proportion to the rotation of the eyeball, but in different trajectories.
  • the difference vector between these two features is used to determine the gaze vector.
  • the central wavelength of radiation of the light sources 8 is preferably selected from the wavelength range from 860 to 990 nm, which in the best embodiment of the claimed device 1 corresponds to the operating range of cameras 6.1, 6.2 eyes (near infrared).
  • the choice of near-infrared radiation for light sources 8 is due to several reasons, in particular:
  • the image of the pupil has a high contrast due to reflection from the retina (illumination scheme with a dark pupil);
  • the number of light sources 8 determines the number of highlights on the cornea, relative to which the distance to the center of the pupil will be measured.
  • a method of measuring six highlights for each eye is used. This approach improves not only the accuracy, but also the reliability of the device.
  • the use of six flares makes it possible to increase the working range of the angles of the device 1 due to the reliable restoration of information about the direction of the gaze vector at large angles of rotation of the eyeball. At such angles, part of the glare falls on the sclera of the eye and is not detected by cameras 6.1, 6.2 of the eye, but due to the use of six flares, at least four of them fall on the pupil or iris 12 (Fig. 4), and their coordinates are determined with a sufficiently high reliability.
  • Light sources 8 are installed in rims 3.1, 3.2 in the area of the left and right light openings and are located relative to the light opening so that six highlights on the cornea of each eye form a control pattern (patern) in the form of a hexagon (five flare, and the sixth flare, located next to the fifth flare, is dim).
  • Light sources 8 can be installed on platforms located in special grooves on rims 3.1, 3.2. The angles of the pads are calculated to ensure uniform illumination of the eye area.
  • the irradiation is performed with non-collimated divergent beams for uniform illumination of the entire analyzed area.
  • the angle between the optical axis of the lens of cameras 6.1, 6.2 eyes and the normal to the light-emitting area of light sources 8 lies in the range from 0 to 90 ° and is much greater than zero (cm Fig. 4).
  • This arrangement allows the use of six separate light sources 8 for each light opening and simplifies the process of assembling the device 1. It is preferable to place the light sources 8 symmetrically relative to the horizontal and vertical axes of the light opening, at equal distances from the optical axes of the camera lenses 6.1, 6.2 eyes.
  • the light sources 8 operate in a modulation mode according to a periodic law to increase the efficiency of the process of extracting useful information against the background of external illumination, extend the service life, reduce power consumption and reduce the irradiation of the cornea and retina of the human eye.
  • the intensity control of the light sources 8 is carried out by modulating the supply current.
  • the device 1 also contains a computing module 9, a control module 10, and a power supply unit (not shown in the figures).
  • the location of the computing module 9 and the control module 10 can be any, for example, on the clamping bars 5.1, 5.2, as shown in FIG. 13.
  • Computing module 9 is designed to implement an algorithm for determining the direction of gaze and performs the following functions:
  • the computing module 9 contains a detector of the position and size of the pupil (not shown in the figures; hereinafter also DPS) or is associated with it as with an external device.
  • DPS is designed to process the eye image in real time with a frame rate of at least 50 Hz in order to build an ellipse that coincides with the contour of the pupil, and then determine the coordinates of its center (Fig. 5a-5e). Also DPRZ calculates the position of the glare.
  • the control module 10 provides two functions:
  • Data from cameras 6.1, 6.2 eyes are fed through the control module 10 to the DPRZ.
  • the parameters of the ellipse and flare, determined by the DSP from the image of the pupil, are transferred to the computational module 9, where they are used to calculate the direction of gaze.
  • the power supply can be any suitable power source, rechargeable (battery) or non-rechargeable.
  • the device 1 may further comprise an information storage unit (not shown in the figures), in particular for storing the results of the gaze direction calibration, which will be discussed below.
  • an information storage unit (not shown in the figures), in particular for storing the results of the gaze direction calibration, which will be discussed below.
  • the device 1 continuously tracks the user's gaze direction and transmits the coordinates of the intersection of the gaze vector with the plane of the image obtained from the scene camera 7, provided that the gaze vector is in the field of view of the scene camera 7. Fixation of a point (area) of attention can be carried out by volitional blinking, keeping attention on this point (area) for a fixed time, or by another method.
  • the digital infrared method is used. video oculography with subsequent binding of the found gaze direction vector to the image of the surrounding environment.
  • the eye is illuminated with light, in particular infrared light, which is reflected from the cornea and lens of the eye 11, and then recorded using cameras 6.1, 6.2 of the eye.
  • the position of the pupil is calculated as the center of an area of sharp contrast within the iris, which is observed when illuminated by light sources 8. Corneal flare caused by corneal reflection is used as a reference point to measure the direction of gaze.
  • the vector of the difference between the coordinates of the center of the pupil and the glare changes with a change in the direction of gaze and is connected by geometric relationships with the vector of the direction of gaze.
  • the binding of the vector of the direction of gaze to the environment is carried out by superimposing the found coordinates of the vector on the image of the surrounding scene, which can be obtained using the camera 7 of the scene.
  • Image processing is performed in real time.
  • Device 1 can operate in two modes: calibration mode and operating mode.
  • An example of a calibration option includes the following steps:
  • the conversion factors are calculated from the local coordinate system to the global coordinate system. It is enough to carry out the calibration procedure once for a specific user.
  • the eyes determine the gaze direction vector in the local coordinate system (i.e., in the camera coordinates 6.1, 6.2 eyes), recalculate the local coordinates of the gaze direction vector into global coordinates of the gaze vector (ie, in the coordinate system of the camera 7 of the scene) and get the corresponding fixation point of the gaze on the scene image.
  • the following describes the main steps in determining the position of the pupil of the eye.
  • First stage Obtaining images of the left and right eyes from cameras 6.1, 6.2 eyes.
  • the image of the eye comes from cameras 6.1, 6.2 of the eye with a frequency of at least 50 Hz.
  • the field of view of cameras 6.1, 6.2 eyes is chosen so that the eye always remains in the frame, regardless of variations in the position of the device 1 on the user's head.
  • the position of the eye in the frame of the eye image can change, it is not always located in the center of the frame.
  • the pupil is the largest coherent dark area in the eye image. Determine the preliminary position of the center of the pupil, as well as the number of pixels in the area of the pupil, which preliminarily characterizes its size. Due to the not entirely uniform illumination of the dark area of the pupil, part of the pupil may not be included in the area of the pupil, so that the center and size of the pupil are not determined quite accurately at this stage (Fig. 5a).
  • Stage three By analyzing the histogram of pixel brightness values in the area selected at the second stage, the binarization threshold is found for accurately constructing the pupil ellipse. Next, binarization is used to determine the pupil boundary, and a preliminary pupil ellipse is constructed based on the pupil boundary.
  • Stage four Exact construction of the pupil ellipse.
  • the exact construction of the ellipse of the pupil is carried out according to the nodal points of the pupil border, determined in the third stage, filtered so that the anchor points form a convex shape.
  • the ellipse of the icon is constructed using the least squares method.
  • Cluster thresholding is used to find the position of highlights on the cornea (see, for example, Suzuki, S. and Abe, K., "Topological Structural Analysis of Digitized Binary Images by Border Following”. Computer Vision, Graphics, and Image Processing 30 1, pp 32-46, 1985) and filtering them by brightness, size and roundness deviation parameter.
  • the size of the iris is calculated from the average size of the human iris and the distance from chambers 6.1, 6.2 of the eye to the pupil (Fig. 5c). Glare outside the iris is filtered out.
  • Glare is numbered to determine the direction vector of the gaze in the global coordinate system, for example, in the following order: from one of the top pair closest to the bridge of the nose, in a circle, away from the bridge of the nose (clockwise for the right eye and counterclockwise for the left), as shown in fig. 5d.
  • the glare of one image frame is preliminarily numbered for each eye.
  • the obtained coordinates of the flares in the camera coordinate system 6.1, 6.2 are saved by the eyes as test numbering of the flares.
  • the highlights are numbered in several passes.
  • In the first pass two upper flares are selected, on their basis, a transition matrix from the test numbering to the current array of flares is built and the quality of superposition on the test coordinates by the distance from the flare to the nearest test coordinate of the flare, as well as the slope of the transformation matrix are checked.
  • the glare farthest from the bridge of the nose is selected and the procedure is repeated.
  • the angles of the direction of the gaze vector in the local coordinate system are determined. Then they are recalculated into the global coordinate system. In this case, the individual characteristics of the user (angles of deviation of the area of best vision from the vector of the eye direction) and the design features of the device for determining the direction of the user's gaze (in particular, the relative position of cameras 6.1, 6.2 and camera 7 of the scene) are taken into account, which are determined at the calibration stage.
  • Calibration stage Calibrating the user's gaze direction consists of two steps. In the first step, the actual calibration is carried out, in the second step, the calibration is checked. Calibration is carried out using, for example, a monitor screen or a tablet on which the ArUco tag moves.
  • the moving mark gives approximately three times more accurate results than the stationary mark, and also better retains the user's attention.
  • the present invention makes it possible to achieve high accuracy in determining the direction of gaze even with small changes in position systems on the user, while remaining compact and low power consumption.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Изобретение относится к устройствам и способам определения направления взгляда и может быть использовано в различных областях техники, в том числе робототехнике. Способ определения направления взгляда пользователя включает получение изображения левого глаза и изображения правого глаза, содержащих блики, созданные соответственно источниками света левого глаза и источниками света правого глаза, определение положения зрачка глаза, определение положения и нумерацию бликов на роговице глаза, определение оптической оси глаза, и определение направления взгляда на основании определенной оптической оси глаза и информации об окружающей сцене. Технический результат - повышение точности определения направления взгляда, высокая скорость обработки данных, низкие аппаратные требования, снижение веса носимого устройства.

Description

СПОСОБ ОПРЕДЕЛЕНИЯ НАПРАВЛЕНИЯ ВЗГЛЯДА
Настоящее изобретение относится к устройствам и способам определения направления взгляда и может быть использовано в различных областях техники, в том числе робототехнике.
Патент РФ RU2696042 описьюает изобретение, относящееся к технологиям, используемым для определения областей фиксаций взгляда при движении глаз, и может быть использовано для объективной оценки процессов зрительного внимания, управления интерфейсами компьютера посредством направления взгляда, в операторской деятельности, маркетинге и пр. Согласно заявленному способу определения областей фиксации взгляда во время движения глаза, респонденту с фиксированным положением головы предоставляют по меньшей мере одно изображение стимулятора во время представления стимулирующего изображения. При этом покрывают область глаза инфракрасным излучением, записывают отраженный сигнал и обрабатывают результирующую видеопоследовательность с определением координат центра зрачка в каждом кадре видео. Далее координаты преобразуют в систему координат стимулирующего изображения, формируя двумерный массив значений координат центра зрачка в хронологической последовательности, соответствующей кадрам видеопоследовательности, а потом используют сегментный анализ для выбора по меньшей мере трех точек, рассматриваемых областью фиксации взгляда.
Недостатком данного технического решения является то, что фиксацию взгляда при движении глаз осуществляют при фиксированном положении головы респондента относительно предъявляемого изображения. Кроме того, точность определения направления взгляда является недостаточно высокой, что особенно важно при необходимости определения направления на конкретный объект, находящийся среди множества других объектов.
Патент США US 10234940 описывает способ отслеживания взгляда, включающий следующие этапы: запись видеоизображений глаза человека таким образом, что записываются зрачок глаза и блик на глазном яблоке, вызванный источником света; обработку видеоизображений для вычисления смещения между положением заранее определенного пространственного элемента и заранее заданным положением относительно блика; и посредством источника света, такого как дисплей, испускание света от светового рисунка в местоположении, выбранном из множества предварительно сконфигурированных местоположений световых рисунков, к глазу человека. Местоположение контролируют сигналом обратной связи; управляют местоположением светового рисунка среди предварительно определенных местоположений световых рисунков в ответ на смещение, так что предварительно определенное положение относительно блика, вызванного источником света, отслеживает пространственную особенность человеческих глаз. При этом вышеописанные этапы повторяют для установления контура управления с расположением светового рисунка, управляемого с помощью сигнала обратной связи. Трекер взгляда сконфигурирован для фильтрации видеоизображений, чтобы идентифицировать один или несколько бликов, которые могут возникать из светового шаблона, причем предварительно определенное положение относительно блика вычисляется относительно идентифицированного одного или нескольких пунктов.
Данное устройство позволяет повысить точность распознавания положения взгляда и формирования полученного изображения, однако предъявляет повышенные требования к аппаратной части.
Патент США US9830512 описывает способ отслеживания взгляда, который включает следующие этапы: определение положения центральной точки роговицы с использованием по меньшей мере двух точек отражения света, обнаруженных в области глазного яблока первого изображения лица пользователя; вычисление первого вектора относительно по меньшей мере двух фиксированных характерных точек, обнаруженных по первому изображению лица и положению центральной точки роговицы; вычисление положения центральной точки роговицы относительно области глазного яблока второго изображения лица с использованием положения характерной точки, обнаруженной по второму изображению лица, и первого вектора, когда по меньшей мере две точки отражения света не обнаружены от глазного яблока области второго изображения лица пользователя; вычисление второго вектора с использованием вычисленного положения центральной точки роговицы и положения центральной точки зрачка, обнаруженного по области глазного яблока второго изображения лица; и отслеживание взгляда пользователя с использованием второго вектора.
Данные известные способ и система для отслеживания взгляда позволяют повысить точность распознавания положения взгляда и формирования полученного изображения, но являются достаточно сложными и требовательными к вычислительным ресурсам.
В качестве ближайшего аналога настоящего изобретения может быть выбран способ слежения за взглядом на основе адаптивного томографического сопоставления согласно патенту США US9684827. Способ слежения включает этапы, на которых оценивают взгляд, при котором используют адаптивное преобразование томографического сопоставления для коррекции смещения, при этом адаптивное преобразование томографического сопоставления обучается за счет минимизации целевой функции на основе данных, соответствующих множеству положений головы и направлений взгляда, чтобы компенсировать пространственно варьирующиеся ошибки взгляда или зависимые от позы головы ошибки относительно позиции калибровки; захватывают текущие данные бликов и связанные со зрачком данные в изображении с использованием множества источников света и камеры; предоставляют текущие данные бликов и связанные со зрачком данные, обработанные из изображения, в качестве признаков, чтобы получать зависимые от позы головы данные, на основе распознаваемого адаптивного преобразования томографического сопоставления, которые используются, чтобы определять текущую информацию взгляда.
Известный способ слежения за взглядом на основе адаптивного томографического сопоставления также позволяет повысить точность распознавания положения взгляда и формирования полученного изображения, но является достаточно сложным и требовательным к вычислительным ресурсам, а кроме того, требует дополнительных действий от пользователя.
Таким образом, существует задача по созданию такого способа определения направления взгляда, при применении которого достаточно разовой калибровки для одного пользователя, что упрощает многократное использование системы, который повышает точность определения направления взгляда даже при небольших изменениях положения системы на пользователе.
Техническим результатом заявленного изобретения является повышение точности определения направления взгляда, высокая скорость обработки данных, а значит, низкие аппаратные требования, что приводит к снижению веса носимого устройства, и возможность использования высокопроизводительных камер высокого разрешения для еще большего повышения точности определения направления взгляда.
Поставленная задача решается, а технический результат достигается в способе определения направления взгляда пользователя, который включает этапы получения изображения левого глаза и изображения правого глаза, содержащих блики от источников света левого глаза и правого глаза, определения положения зрачка глаза, определения положения и нумерации бликов на роговице глаза, определения оптической оси направления взгляда каждого глаза и определения направления взгляда.
При определении положения зрачка каждого глаза на изображении каждого глаза выполняют предварительный поиск зрачка, выполняют построение предварительного эллипса зрачка и по его узловым точкам строят эллипс зрачка.
При определении положения и нумерации бликов на роговице каждого глаза на изображении глаза выполняют поиск бликов, вычисляют размер радужки исключают блики, находящиеся за пределами радужки, и выполняют нумерацию бликов для определения вектора направления взгляда.
При определении оптической оси направления взгляда каждого глаза определяют нодальную точку глаза, точку рефракции для центра зрачка, положение центра зрачка в системе координат камеры сцены.
Определение направления взгляда выполняют на основании определенной оптической оси направления взгляда и калибровки направления взгляда.
В предпочтительном варианте реализации заявленного способа для предварительного поиска зрачка определяют предварительное положение центра зрачка, а также количество пикселей в области зрачка, предварительно характеризующее его размер. При построении предварительного эллипса зрачка, предпочтительно, в предварительной области зрачка находят порог бинаризации и выполняют бинаризацию для определения границы зрачка для построения предварительного эллипса зрачка. Для построения эллипса зрачка по узловым точкам границы предварительного эллипса зрачка можно использовать метод наименьших квадратов. При этом предпочтительно отфильтровывать узловые точки таким образом, чтобы они образовывали выпуклую фигуру.
Поиск бликов на роговице глаза можно выполнять, например, пороговой обработкой изображения глаза с выделением кластеров и фильтрацией кластеров по яркости, размеру и параметру отклонения от круглости.
При вычислении размера радужки предпочтительно используется информация о среднем размере человеческой радужки и информация о расстояния от соответствующей камеры левого глаза или камеры правого глаза до зрачка, что повышает точность определения направления взгляда.
Нумерация бликов может выполняться от одного блика из верхней пары, ближайшего к переносице, по кругу, в сторону от переносицы, т.е. по часовой стрелке для правого глаза и против часовой стрелки для левого глаза.
При определении оптической оси направления взгляда каждого глаза определяют нодальную точку глаза, точку рефракции для центра зрачка, положение центра зрачка в системе координат камеры сцены.
Заявленный способ определения направления взгляда также может включать этап калибровки направления взгляда, который выполняется либо на одном из указанных этапов, либо заранее. При этом достаточно единожды выполнить калибровку для конкретного пользователя, и повторной калибровки уже не потребуется. В частности, при калибровке направления взгляда учитывают индивидуальные особенности пользователя и взаимное положение камер левого и правого глаза и камеры сцены.
Далее изобретение, а также некоторые возможные варианты его осуществления подробно поясняются со ссылкой на фигуры, на которых показано: на фиг. 1 приведен общий вид варианта устройства для реализации заявленного способа; на фиг. 2 схематично показан вид спереди варианта устройства для реализации заявленного способа; на фиг. 3 схематично показан вид сзади варианта устройства для реализации заявленного способа; на фиг. 4 схематично показано взаимное расположение левого или правого глаза, камеры левого или правого глаза и одного источника света левого или правого глаза, а также схема хода лучей; на фиг. 5а показан этап нахождения центра зрачка; на фиг. 5Ь показан этап аппроксимации положения зрачка эллипсом; на фиг. 5с показан этап определения позиции бликов; на фиг. 5d показан пример нумерации бликов; на фиг. 5е показан этап определения направления оптической оси глаза.
На фигурах ссылочными позициями отмечены:
1 - устройство определения направления взгляда;
2 - корпус;
3.1 - левый ободок;
3.2 - правый ободок;
4 - носовик;
5.1, 5.2 - боковые прижимные планки;
6.1 - камера левого глаза;
6.2 - камера правого глаза;
7 - камера сцены;
8 - источник света;
8i - i-ый источник 8 света;
9 - вычислительный модуль;
10 - модуль управления;
11 - глаз;
12 - радужка глаза;
С - нодальная точка глаза;
Р — центр зрачка; R - точка преломления;
Qi - точка отражения i-ro источника 8 света;
О - нодальная точка камеры;
V - изображение центра зрачка; 1Л - изображение блика i-ro источника 8 света.
Заявленный способ определения направления взгляда может быть реализован с использованием устройства, предпочтительный вариант исполнения которого подробно описан далее.
Устройство 1 определения направления взгляда пользователя содержит корпус 2, который по существу выполнен в форме очков, имеющих левый ободок 3.1 и правый ободок 3.2, носовик 4 и две боковые прижимные планки 5.1, 5.2.
Корпус 2 выполняется, предпочтительно, из прочного и легкого материала, пригодного для постоянного или длительного ношения устройства 1 с учетом антропометрических данных головы пользователя. Для большего удобства пользователя и обеспечения возможности корректировки положения устройства 1 с целью правильной работы всех систем могут использоваться сменные носовики 4, регулирующие положение корпуса 2 по высоте и подбираемые под переносицу для предотвращения ее зажатости. Правильность подбора расстояния от глаза до ободков 3.1, 3.2 способствует правильности работы системы распознавания изображений глаза. В нижних частях ободков 3.1, 3.2, предпочтительно в областях световых проемов в плоскостях, проходящих через вертикальные оси световых проемов, установлены соответственно камера 6.1 левого глаза и камера 6.2 правого глаза, далее для краткости также называемые камерами 6.1, 6.2 глаза.
Камеры 6.1, 6.2 глаза предназначены для регистрации и записи видеопоследовательности, отображающей процесс движения глаз, и получения изображений соответствующего глаза. Одновременно регистрируется движение как левого, так и правого глаза пользователя, что является необходимым для точного определения направления взгляда и исключения ложных срабатываний. Камеры 6.1 , 6.2 глаза содержат светочувствительные матрицы и соответствующие оптические системы (объективы) для формирования увеличенного сфокусированного изображения глаз на светочувствительных матрицах.
Для корректного определения направления взгляда осуществляется регистрация изображений зрачка и бликов (описано далее) и последующее определение координат центра зрачка и каждого из бликов в системе координат камер 6.1, 6.2 глаза (локальных координат).
Для улучшения эргономических характеристик изделия светочувствительная матрица камер 6.1, 6.2 глаза располагается в плоскости, находящейся под углом к главным плоскостям оптической системы глаза 11, как схематично показано на фиг. 4. Такое расположение не будет создавать препятствий и закрывать пользователю обзор.
Для определения направления взгляда при любых положениях зрачка используется одна камера 6.1, 6.2 глаза для регистрации изображения каждого глаза 11 с одного ракурса - снизу (фиг. 4). Выбранный ракурс обуславливается тем, что нижние ресницы существенно короче, чем верхние, и не создают препятствий для регистрации изображений. Угол между оптической осью объектива и осью направления взгляда выбирается исходя из соображений компромисса между наилучшим углом регистрации изображения (соответствует углу 0°) и углом, при котором камера гарантированно не попадает в поле зрения пользователя (соответствует углу 90°). Наиболее предпочтительным является значение указанного угла от 45° до 60°.
В качестве светочувствительных матриц предпочтительно использовать цветную светочувствительную матрицу. Это обусловлено тем, что отображение глаза в цветной палитре позволяет использовать процедуру бинаризации цветного изображения по уровням каждой цветовой компоненты, что, в свою очередь, позволяет гарантированно выделить детектируемые объекты за счет их ахроматических цветов (зрачок — резко черный, блики — ярко белые) на этапе обработки изображений глаза. Данный подход упрощает алгоритм распознавания детектируемых объектов за счет исключения дополнительных процедур фильтрации частиц, которые приводят к потерям важных деталей изображения.
Оптическая система камер 6.1, 6.2 глаза (на фигурах не показана) предназначена для формирования изображения в плоскости светочувствительной матрицы. Оптическая система содержит несколько линз и светофильтр. Расстояние от выходного зрачка объектива до глаза изменяется незначительно и может считаться фиксированным. Для формирования неискаженного изображения в плоскости матрицы может быть использована оптическая схема компактного четырехкомпонентного объектива с выходной асферической линзой для компенсации дисторсии.
На носовике 4 установлена камера 7 сцены (фиг. 2), которая используется для получения изображения окружающей сцены и обеспечения фиксации окружающей обстановки, к которой в дальнейшем выполняется привязка вектора направления взгляда. Камера 7 сцены расположена, предпочтительно, на верхней части корпуса 2 очков.
На каждом из ободков 3.1, 3.2 вокруг световых проемов установлены источники 8 света, формирующие блики на соответствующем глазу (фиг. 3). Источники 8 света предназначены для создания минимально необходимого уровня освещения и формирования точечных бликов за счет отражений от роговицы глаза.
В качестве источника 8 света может быть использован источник ИК излучения, в частности, ИК светодиод.
Внеосевое ИК освещение глаза создает эффект темного зрачка и формирует изображения источников 8 света за счет отражения излучения от роговицы глаза. Изображения источников 8 света, формируемые при отражении от роговицы, называются первыми изображениями Пуркинье, или бликами. Темный зрачок и блики затем визуализируются оптической систему камер 6.1, 6.2 глаза и захватываются светочувствительными матрицами, обладающими достаточной чувствительностью в ближней области ИК спектра. Изображения зрачка и бликов движутся пропорционально вращению глазного яблока, но по отличающимся траекториям. Разностный вектор между этими двумя особенностями используется для определения вектора направления взгляда.
Центральная длина волны излучения источников 8 света выбирается, предпочтительно, из диапазона длин волн от 860 до 990 нм, что в наилучшем варианте исполнения заявленного устройства 1 соответствует рабочему диапазону камер 6.1, 6.2 глаза (ближний инфракрасный диапазон). Выбор ближнего ИК излучения для источников 8 света обусловлен несколькими причинами, в частности:
- ближнее ИК излучение невидимо для глаза человека, не отвлекает внимание пользователя и не вызывает расширение зрачка;
- ближнее ИК излучение не вызывает деградации и разрушения рецепторного аппарата глаза человека;
- ближнее ИК излучение регистрируется теми же средствами, что и видимое излучение;
- при использовании ИК излучения изображение зрачка отличается высоким контрастом за счет отражения от сетчатки (схема освещения с темным зрачком);
- применение ИК излучения позволяет отделить полезную информацию от внешних засветок, приходящихся на видимую часть спектра.
Количество источников 8 света определяет количество бликов на роговице, относительно которых будет измеряться расстояние до центра зрачка. В устройстве 1 определения направления взгляда использован метод измерения по шести бликам на каждый глаз. Такой подход позволяет повысить не только точность, но и надежность устройства. Кроме этого, применение шести бликов позволяет увеличить рабочий диапазон углов устройства 1 за счет надежного восстановления информации о направлении вектора взгляда при больших углах поворота глазного яблока. При таких углах часть бликов приходится на склеру глаза и не детектируется камерами 6.1, 6.2 глаза, но за счет применения шести бликов не менее четырех из них приходятся на зрачок или радужку 12 (фиг. 4), и их координаты определяются с достаточно высокой надежностью.
Источники 8 света устанавливаются в ободках 3.1 , 3.2 в области левого и правого световых проемов и располагаются относительно светового проема таким образом, чтобы шесть бликов на роговице каждого глаза формировали контрольный рисунок (patern) в виде шестиугольника (на фиг. 5а-5е четко видны пять бликов, а шестой блик, расположенный рядом с пятым бликов, тусклый). И
Источники 8 света могут быть установлены на площадки, расположенные в специальных пазах на ободках 3.1, 3.2. Углы площадок рассчитываются так, чтобы обеспечить равномерную засветку области глаза.
Предпочтительно, облучение производится неколлимированными расходящимися пучками для равномерного освещения всей анализируемой области. Так как выбрана внеосевая (относительно оптической оси объективов камер 6.1, 6.2 глаза) схема освещения, угол между оптической осью объектива камер 6.1, 6.2 глаза и нормалью к светоизлучающей площадке источников 8 света лежит в диапазоне от 0 до 90° и много больше нуля (см. фиг. 4). Такая схема позволяет использовать шесть раздельных источников 8 света на каждый световой проем и упрощает процесс компоновки устройства 1. При этом является предпочтительным размещение источников 8 света симметрично относительно горизонтальной и вертикальной осей светового проема, на равных расстояниях от оптических осей объективов камер 6.1, 6.2 глаза.
Кроме того, также предпочтительно, если источники 8 света работают в режиме модуляции по периодическому закону для увеличения эффективности процесса выделения полезной информации на фоне внешних засветок, продления срока службы, уменьшения энергопотребления и снижения облучения роговицы и сетчатки глаза человека. Управление интенсивностью свечения источников 8 света осуществляется путем модуляции тока питания.
Устройство 1 также содержит вычислительный модуль 9, модуль 10 управления и блок питания (на фигурах не показан). Размещение вычислительного модуля 9 и модуля 10 управления может быть любым, например, на прижимных планках 5.1, 5.2, как показано на фиг. 1, 3.
Вычислительный модуль 9 предназначен для реализации алгоритма определения направления взгляда и выполняет следующие функции:
- определение координат вектора направления взгляда в системе координат камер 6.1, 6.2 глаза;
- преобразование координат вектора направления взгляда из системы координат камер 6.1, 6.2 глаза в систему координат камеры 7 сцены, - осуществление калибровки направления взгляда;
- при необходимости - передача информации о глобальных координатах вектора направления взгляда на внешнее устройство.
Для выполнения своих функций вычислительный модуль 9 содержит детектор положения и размера зрачка (на фигурах не показан; далее также ДПРЗ) или связан с ним как с внешним устройством. ДПРЗ предназначен для обработки изображения глаза в режиме реального времени с частотой кадров не менее 50 Гц с целью построения эллипса, совпадающего с контуром зрачка, и последующего определения координат его центра (фиг. 5а-5е). Также ДПРЗ вычисляет положения бликов.
Модуль 10 управления обеспечивает выполнение двух функций:
- согласование интерфейса камер 6.1, 6.2 глаза с интерфейсом вычислительного модуля 9;
- управление яркостью источников 8 света, как было указано выше, например, с использованием широтно-импульсного регулирования.
Данные от камер 6.1, 6.2 глаза поступают через модуль 10 управления в ДПРЗ. Параметры эллипса и бликов, определенные ДПРЗ по изображению зрачка, передаются в вычислительный модуль 9, где используются для расчета направления взгляда.
В качестве блока питания может использоваться любой подходящий источник питания, перезаряжаемый (аккумуляторная батарея) или не перезаряжаемый.
Кроме того, устройство 1 может дополнительно содержать блок хранения информации (на фигурах не показан), в частности, для хранения результатов калибровки направления взгляда, о чем сказано ниже.
Устройство 1 непрерывно отслеживает направление взгляда пользователя и передает координаты пересечения вектора направления взгляда с плоскостью изображения, получаемого с камеры 7 сцены при условии нахождении вектора направления взгляда в поле зрения камеры 7 сцены. Фиксация точки (области) внимания может осуществляться волевым морганием, удержанием внимания на этой точке (области) в течение фиксированного времени или другим методом.
Согласно настоящему изобретению, в способе определения направления взгляда, или вектора направления взгляда, использован метод цифровой инфракрасной видеоокулографии с последующей привязкой найденного вектора направления взгляда к изображению окружающей обстановки. В данном методе глаз освещается светом, в частности инфракрасным светом, который отражается от роговицы и хрусталика глаза 11, а затем регистрируется при помощи камер 6.1, 6.2 глаза. Положение зрачка вычисляется как центр области с резким контрастом внутри радужной оболочки глаза, которая наблюдается при подсветке источниками 8 света. Блик на роговице глаза, вызываемый роговичным отражением, используется как опорная точка для измерения направления взгляда. Вектор разности координат центра зрачка и бликов изменяется при изменении направления взгляда и связан геометрическими соотношениями с вектором направления взгляда. Привязка вектора направления взгляда к окружающей обстановке осуществляется наложением найденных координат вектора на изображение окружающей сцены, которая может быть получена с помощью камеры 7 сцены. Повышение точности определения вектора направления взгляда достигается, в том числе, за счет калибровки устройства, которая может выполняться как в процессе осуществления способа, так и заранее, единожды для данного пользователя.
Обработка изображений выполняется в режиме реального времени.
Устройство 1 может работать в двух режимах: режиме калибровки и рабочем режиме.
Пример варианта проведения калибровки включает следующие действия:
- формируют калибровочную метку, например, выводя ее на экране монитора компьютера;
- получают изображения с камеры 7 сцены, тем самым также определяя систему координат камеры 7 сцены (далее также - глобальная система координат);
- определяют координаты центра калибровочной метки в системе координат камеры 7 сцены;
- определяют вектор направления взгляда в системе координат камер 6.1, 6.2 глаза (далее также - локальная система координат);
- рассчитывают коэффициенты перевода из локальной системы координат в глобальную систему координат. Достаточно однократно провести калибровочную процедуру для конкретного пользователя.
После калибровочной процедуры можно использовать устройство 1 в рабочем режиме, при котором посредством камер 6.1, 6.2 глаза определяют вектор направления взгляда в локальной системе координат (т.е. в системе координат камер 6.1, 6.2 глаза), производят пересчет локальных координат вектора направления взгляда в глобальные координаты вектора направления взгляда (т.е. в систему координат камеры 7 сцены) и получают соответствующую точку фиксации взгляда на изображении сцены.
Далее описаны основные этапы определения положения зрачка глаза.
Первый этап. Получение изображений левого и правого глаза с камер 6.1, 6.2 глаза. Изображение глаза поступает с камер 6.1, 6.2 глаза с частотой не менее 50 Гц. Поле зрения камер 6.1, 6.2 глаза выбрано так, чтобы глаз всегда оставался в кадре независимо от вариаций положения устройства 1 на голове пользователя. Положение глаза в кадре изображения глаза может меняться, он не всегда расположен по центру кадра.
Второй этап. Предварительный поиск зрачка. Зрачок является наибольшей по размеру связной темной областью в изображении глаза. Определяют предварительное положение центра зрачка, а также количество пикселей в области зрачка, предварительно характеризующее его размер. Ввиду не совсем равномерного освещения темной области зрачка часть зрачка может оказаться не включенной в область зрачка, так что центр и размер зрачка определяются не вполне точно на данном этапе (фиг. 5а).
Третий этап. С помощью анализа гистограммы значений яркости пикселей в области, выделенной на втором этапе, находят порог бинаризации для точного построения эллипса зрачка. Далее используют бинаризацию для определения границы зрачка, и на основании границы зрачка выполняют построение предварительного эллипса зрачка.
Четвертый этап. Точное построение эллипса зрачка. Точное построение эллипса зрачка производят по узловым точкам границы зрачка, определенной на третьем этапе, отфильтрованным таким образом, чтобы узловые точки образовывали выпуклую фигуру. Построение эллипса значка осуществляют методом наименьших квадратов.
Проведенное авторами моделирование этих методов согласно третьему и четвертому этапам показывает высокую вероятность визуального совпадения точно построенного эллипса зрачка с границей зрачка, видимой на изображениях глаза, полученных с камер 6.1, 6.2 глаза на первом этапе (фиг. 5Ь).
Пятый этап. Определение положения бликов и нумерация бликов.
При нахождении положения бликов на роговице глаза используют пороговую обработку с выделением кластеров (см., например, Suzuki, S. and Abe, К., "Topological Structural Analysis of Digitized Binary Images by Border Following". Computer Vision, Graphics, and Image Processing 30 1, pp 32-46, 1985) и их фильтрацией по яркости, размеру и параметру отклонения от круглости.
Размер радужки вычисляют из среднего размера человеческой радужки и расстоянию от камер 6.1, 6.2 глаза до зрачка (фиг. 5с). Блики, находящиеся за пределами радужки, отфильтровывают.
Блики нумеруют для определения вектора направления взгляда в глобальной системе координат, например, в следующем порядке: от одного из верхней пары, ближайшего к переносице, по кругу, в сторону от переносицы (по часовой для правого глаза и против часовой для левого), как показано на фиг. 5d.
Предварительно для каждого глаза проводят нумерацию бликов одного кадра изображения. Полученные координаты бликов в системе координат камер 6.1, 6.2 глаза сохраняют как тестовую нумерацию бликов. Далее нумерацию бликов производят в несколько проходов. На первом проходе выбирают два верхних блика, на их основе строят матрицу перехода от тестовой нумерации к текущему массиву бликов и проверяют качество наложения на тестовые координаты расстоянием от блика до ближайшей тестовой координаты блика, а также наклон матрицы преобразования. На втором проходе выбирают дальние от переносицы блики и повторяют процедуру. Если успешен только один из проходов, выбирают нумерацию по нему, а если оба, то берут среднюю матрицу перехода и проводят еще одну нумерацию по ней. Шестой этап. Определение направления оптической оси глаза (фиг. 5е). Решают известную систему уравнений (см., например, Guestrin, Elias & Eizenman, Moshe. (2006). "General Theory of Remote Gaze Estimation Using the Pupil Center and Corneal Reflections". Biomedical Engineering, IEEE Transactions on. 53. 1124 - 1133. 10.1109/TBME.2005.863952), в частности, с помощью алгоритма Левенберга- Марквардта, для чего, в частности, определяют нодальную точку С глаза, точку R преломления для центра зрачка, положение центра Р зрачка в локальной системе координат, нодальную точку О камеры, положение изображения V центра зрачка, а также точку Qi отражения и положение изображения блика от i-oro источника 8 света, обозначенного на фиг. 4 позицией 8i (см. фиг. 4).
Седьмой этап. Определение направления взгляда. Сначала определяют углы направления вектора направления взгляда в локальной системе координат. Далее пересчитывают их в глобальную систему координат. При этом учитывают индивидуальные особенности пользователя (углы отклонения области наилучшего зрения от вектора направления глаза) и конструктивные особенности устройства определения направления взгляда пользователя (в частности, взаимное расположение камер 6.1, 6.2 и камеры 7 сцены), которые определяются на этапе калибровки.
Этап калибровки. Калибровка направления взгляда пользователя состоит из двух шагов. На первом шаге производят собственно калибровку, на втором шаге осуществляют проверку калибровки. Калибровку проводят с помощью, например, экрана монитора или планшета, по которому движется метка ArUco. Нахождение указанной метки происходит при помощи алгоритма из широко распространенной библиотеки ArUco ( S. Garrido-Jurado, R. Muhoz-Salinas, F. J. Madrid-Cuevas, and M. J. Marin-Jiminez. 2014. "Automatic generation and detection of highly reliable fiducial markers under occlusion". Pattern Recogn. 47, 6, 2280-2292. D01=10.1016/j.patcog.2014.01.005). В ходе разработки процедуры калибровки было установлено, что движущаяся метка дает примерно в три раза более точные результаты по сравнению со стационарной меткой, а также лучше удерживает внимание пользователя.
Таким образом, настоящее изобретение позволяет достичь высокую точность определения направления взгляда даже при небольших изменениях положения системы на пользователе, при этом оставаясь компактным и потребляющим малую мощность.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ
1. Способ определения направления взгляда пользователя с использованием устройства определения направления взгляда пользователя, содержащего камеру левого глаза и камеру правого глаза для получения изображения соответственно левого глаза и правого глаза в системе координат камер глаза, камеру сцены для получения изображения окружающей сцены в системе координат камеры сцены, и шесть источников света левого глаза и шесть источников света правого глаза для формирования бликов соответственно на левом глазу и правом глазу, при этом способ включает следующие этапы: a) получение изображения левого глаза и изображения правого глаза, содержащих блики, созданные соответственно источниками света левого глаза и источниками света правого глаза,
B) определение положения зрачка каждого глаза, при котором: b 1 ) на изображении глаза выполняют предварительный поиск зрачка,
Ь2) выполняют построение предварительного эллипса зрачка, и
ЬЗ) по узловым точкам границы предварительного эллипса зрачка строят эллипс зрачка, c) определение положения и нумерация бликов на роговице каждого глаза, при котором: cl) выполняют поиск бликов на роговице глаза, с2) вычисляют размер радужки, сЗ) отфильтровывают блики, находящиеся за пределами радужки, и с4) выполняют нумерацию бликов для определения вектора направления взгляда в системе координат камеры сцены; d) определение направления вектора направления взгляда каждого глаза, при котором определяют нодальную точку глаза, точку рефракции для центра зрачка, положение центра зрачка в системе координат камеры сцены; и e) определение направления взгляда, при котором: el) определяют углы направления вектора направления взгляда в системе координат камер глаза, и е2) пересчитывают указанные углы направления оптической оси в систему координат камеры сцены с учетом калибровки направления взгляда.
2. Способ по п. 1, в котором на этапе Ы определяют предварительное положение центра зрачка, а также количество пикселей в области зрачка, предварительно характеризующее его размер, и формируют предварительную область зрачка.
3. Способ по п. 1, в котором на этапе Ь2 в предварительной области зрачка находят порог бинаризации и выполняют бинаризацию для определения границы зрачка для построения предварительного эллипса зрачка.
4. Способ по п. 1 , в котором этап ЬЗ выполняют методом наименьших квадратов.
5. Способ по п. 1 или 10, в котором на этапе ЬЗ узловые точки отфильтровывают таким образом, чтобы они образовывали выпуклую фигуру.
6. Способ по п. 1, в котором этап cl выполняют пороговой обработкой изображения глаза с выделением кластеров и фильтрацией кластеров по яркости, размеру и параметру отклонения от круглости.
7. Способ по п. 1 , в котором этап с2 выполняют с использованием информации о среднем размере человеческой радужки и информации о расстояния от соответствующей камеры левого глаза или камеры правого глаза до зрачка.
8. Способ по п. 1, в котором этап с4 выполняют от одного блика из верхней пары, ближайшего к переносице, по кругу, в сторону от переносицы, по часовой стрелке для правого глаза и против часовой стрелки для левого глаза.
9. Способ по п. 1, в котором калибровку направления взгляда осуществляют на одном из указанных этапов.
10. Способ по п. 1, в котором калибровку направления взгляда осуществляют заранее.
11. Способ по любому из пп. 1 , 10 и 11 , в котором при калибровке направления взгляда учитывают индивидуальные особенности пользователя и взаимное положение камер левого и правого глаза и камеры сцены.
PCT/RU2019/000951 2019-12-16 2019-12-16 Способ определения направления взгляда WO2021125993A1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/000951 WO2021125993A1 (ru) 2019-12-16 2019-12-16 Способ определения направления взгляда

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/000951 WO2021125993A1 (ru) 2019-12-16 2019-12-16 Способ определения направления взгляда

Publications (1)

Publication Number Publication Date
WO2021125993A1 true WO2021125993A1 (ru) 2021-06-24

Family

ID=76477667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2019/000951 WO2021125993A1 (ru) 2019-12-16 2019-12-16 Способ определения направления взгляда

Country Status (1)

Country Link
WO (1) WO2021125993A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114795650A (zh) * 2022-04-28 2022-07-29 艾视雅健康科技(苏州)有限公司 一种眼科医疗装置自动合像方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180184958A1 (en) * 2011-05-20 2018-07-05 Google Llc Systems and methods for measuring reactions of head, eyes, eyelids and pupils
RU2678478C2 (ru) * 2014-04-29 2019-01-29 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Обращение с бликами в среде отслеживания движения глаз

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180184958A1 (en) * 2011-05-20 2018-07-05 Google Llc Systems and methods for measuring reactions of head, eyes, eyelids and pupils
RU2678478C2 (ru) * 2014-04-29 2019-01-29 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Обращение с бликами в среде отслеживания движения глаз

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114795650A (zh) * 2022-04-28 2022-07-29 艾视雅健康科技(苏州)有限公司 一种眼科医疗装置自动合像方法及装置

Similar Documents

Publication Publication Date Title
CA2685976C (en) Methods and apparatus for estimating point-of-gaze in three dimensions
JP6159263B2 (ja) 照射特性を調整可能にして少なくとも1つの眼における少なくとも1つのパラメータを捕捉する光学的測定装置及び方法
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
JP6308940B2 (ja) 視線追跡シーン参照位置を識別するシステム及び方法
US8708490B2 (en) Method and a device for automatically measuring at least one refractive characteristic of both eyes of an individual
US20220039645A1 (en) Determining a refractive error of an eye
WO2019028152A1 (en) OCULAR TRACKING USING TEMPORAL MULTIPLEXING
US12056274B2 (en) Eye tracking device and a method thereof
KR20150036147A (ko) 대물렌즈 안굴절도와 개인의 적어도 하나의 기하학적-형태 파라미터를 측정하기 위한 장치와 방법
CN109684915A (zh) 瞳孔跟踪图像处理方法
Stoffregen et al. Event-based kilohertz eye tracking using coded differential lighting
US20220354436A1 (en) Technique for determining a risk indicator for myopia
CN109634431B (zh) 无介质浮空投影视觉追踪互动系统
JP6957048B2 (ja) 眼部画像処理装置
US12033432B2 (en) Determining digital markers indicative of a neurological condition
US20210093192A1 (en) Instant eye gaze calibration systems and methods
Tatler et al. Eye movement recordings in natural settings
CN109964230A (zh) 用于眼睛度量采集的方法和设备
CN114973392A (zh) 一种人眼运动追踪系统及方法
US20220076417A1 (en) Vision screening systems and methods
Arar et al. Towards convenient calibration for cross-ratio based gaze estimation
WO2021125993A1 (ru) Способ определения направления взгляда
KR20220039769A (ko) 원근조절 및 이접의 공동 결정
WO2021125992A1 (ru) Устройство определения направления взгляда
RU2815470C1 (ru) Способ определения направления взгляда

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19956613

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19956613

Country of ref document: EP

Kind code of ref document: A1