EP2828794A1 - Method and apparatus for evaluating results of gaze detection - Google Patents

Method and apparatus for evaluating results of gaze detection

Info

Publication number
EP2828794A1
EP2828794A1 EP13710873.4A EP13710873A EP2828794A1 EP 2828794 A1 EP2828794 A1 EP 2828794A1 EP 13710873 A EP13710873 A EP 13710873A EP 2828794 A1 EP2828794 A1 EP 2828794A1
Authority
EP
European Patent Office
Prior art keywords
events
time
scene
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP13710873.4A
Other languages
German (de)
French (fr)
Other versions
EP2828794B1 (en
Inventor
Denis Williams
Jan Hoffmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Original Assignee
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH filed Critical SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority to EP16199536.0A priority Critical patent/EP3168783B1/en
Priority to EP13710873.4A priority patent/EP2828794B1/en
Publication of EP2828794A1 publication Critical patent/EP2828794A1/en
Application granted granted Critical
Publication of EP2828794B1 publication Critical patent/EP2828794B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • the present invention relates to a method and a device for evaluating the results of a gaze detection, that is to say the results of an eye tracking.
  • Eye tracking is known per se and is used, for example, in behavioral research or market research, when it has to be examined, in soft points of view, when or for how long and / or in which sequence or how the look or a line of sight moves between different points of view. This can, for example, give information on where and how a provider should place the goods offered at the lowest price in order to be sure of the attention of the traffic.
  • scene images are recorded which reproduce a scene that is visible to a subject - the word may also refer in the following to both a person and an animal - and for which, for example, a can be used on a head of the subject attached and so moving with the head camera.
  • an eye position and thus a viewing direction of the subject is detected, which can be done for example with the help of targeted to the eyes of the subject cameras using appropriate image analysis.
  • the term point of view - this also applies to the following description of the invention and the embodiments - a point in the scene on which the subject's gaze rests at a time when the scene biid is assigned.
  • results of a gaze detection are typically present as information that defines for each of a multiplicity of successive points in time a viewing direction detected at that time and a viewpoint identified thereby in a scene image assigned to this point in time.
  • results of a gaze detection are typically present as information that defines for each of a multiplicity of successive points in time a viewing direction detected at that time and a viewpoint identified thereby in a scene image assigned to this point in time.
  • a very large amount of information has to be processed because typically more than twenty scene images and pixels are captured per second. Regardless of whether the evaluation is done manually, automatically or interactively, it is therefore associated with a very large time or computational effort.
  • the present invention has for its object to propose measures with which the effort for the evaluation of results of a gaze detection of the described type can be reduced.
  • This method thus serves to evaluate the results of a gaze detection, wherein these results are present or obtained, for example in the manner described above by eye-tracking, as information which for each of a multiplicity of consecutive times respectively detects a viewing direction detected at that time and a thereby defining the viewpoint identified in a scene image assigned to this point in time, whereby the scene brothers are time-dependent, so that different scene images are assigned to the different points in time in the scene.
  • This procedure comprises the following steps:
  • mapping the view point identified in the respective scene point in time that is to say the point of view defined by the results of the gaze detection for that point in time, to a position corresponding to this viewpoint in a reference picture.
  • the dividing of the period into the tiling intervals can take place, for example, by assigning to each of the times or scene images an attribute which indicates to which of the intervals or viewing events this time or the time at which this scene image is associated belongs. Typically, the intervals will be disjoint.
  • the reference picture may be identical for the different scene pictures. But it is also possible that the reference image is one of a sequence of reference images, which may be defined by a reference video, for example. Similar to the scene images in this case, the reference image is time-dependent.
  • viewing events in which information is recorded and viewing events in which no information is recorded are recognized as different types of visual events - namely as visual events with information recording and as visual events without information recording.
  • the above-mentioned gaze events of the at least one selected type of gaze event will then be the gaze events with information capture.
  • the selection of exactly one of the times or of a subset of the zones is then generally effected, in particular, for each of the inverses assigned to a gaze event in which information is acquired.
  • the proposal to drastically reduce the effort for evaluation in this way is based on the following three insights.
  • at least one item of information relevant to the purposes of the proposed procedure does not take place only in certain types of gaze events, in particular fixations or follow-up movements in which the gaze rests for a long time more or less on an object resting or moving relative to the subject
  • fixations or follow-up movements in which the gaze rests for a long time more or less on an object resting or moving relative to the subject
  • saccades which represent a different kind of visual events and in which a too rapid eye movement makes a relevant in this sense information recording virtually impossible.
  • each of the intervals corresponding to a visual event of selected type - e.g. a viewing event with information recording or e.g. a fixation or a follow-up movement are assigned, in each case exactly one of the times or a real subset of the times are selected from this interval and be sure that an evaluation of those times assigned
  • the number of times selected and thus the mappings to be made of viewpoints in the reference image is significantly smaller than the number all times for which information about scene images and viewpoints is available.
  • the mapping of the viewpoints to corresponding positions in the reference image finally makes the systematic evaluation possible only because the positions determined here contain an objective statement as to what the subject's gaze has lain when and for how long, if the subject is to be allowed to do so Therefore, the scene images assigned to the different times are different from each other.
  • a particular advantage arises from the fact that the number of images to be carried out by the proposed approach can be kept within very narrow limits.
  • the method may also provide for analyzing the gaze behavior of several subjects in succession or simultaneously as described.
  • the mapping of the viewpoints into the reference image which is preferably chosen to be the same for all probands, then allows a very objective evaluation of the test results with very little effort.
  • Characteristics in which the different types of visual events For example, they may be a speed of eye movement or a magnitude of an angle swept over a certain period of time.
  • mentioning the visual events with information recording and the visual events without taking up information should not imply that precisely these and only these two types of visual events are distinguished. On the contrary, it is possible to identify a larger number of different types of visual events, which may also be assigned to a larger number of different classes, but which may each be interpreted in the sense mentioned as one of possibly different conceivable visual events. without information.
  • the different viewing events can differ from one another due to different speeds and / or amplitudes of an eye movement. Accordingly, the identification of the various viewing events can take place, for example, by detecting and evaluating a speed and / or amplitudes of an eye movement. In addition, further information can be evaluated for this purpose, eg via an eye acceleration or an image content in an environment of the viewpoints in the scene images, which can be subjected to a Btld evaluation, or via a head movement detectable with a head tracker. In particular, in expedient embodiments of the method, saccades will be recognized as gaze events in which no information is recorded, while fixations and / or subsequent movements can be recognized as gaze events in which information is acquired.
  • the method can be configured such that for each of the intervals that are associated with a visual event of selected type-for example, a gaze event with information recording, for example, a fixation or a follow-up movement-a position in the reference image together with a reference image or "mapping end point" Information about the duration of each view event is stored. If exactly one of the times from this interval is selected, this position can be selected as the position tion that maps the viewpoint defined for the time selected from this interval. If more than one of the times are selected from this interval, that position may be selected as one of the positions or a-not necessarily arithmetic-mean or median of the positions to which the viewpoints defined for the times selected from that interval are mapped.
  • the imaging target may be selected, for example, as the position to which the viewpoint is mapped, defined for the last time selected from this interval, or, in particular in the case of automatic mapping, in dependence on a measure of the quality of the respective image .
  • further attributes with information about the gaze event can also be stored together with the position, eg a start and an end, a consecutive number of the gaze event or a count for multiple occurrence of the same position. All of this information then allows a largely automatable evaluation of the results of the eye tracking.
  • An embodiment in which the method serves not only the evaluation of the gaze detection, but also the gaze detection itself, provides that the scene images are taken at the stated times with a camera, wherein the viewing directions are detected by means of an eye tracker, the Viewpoints in the scene biiders depending on the thus obtained information on the viewing directions determined.
  • the camera can be worn by a head of the subject, the viewing directions are detected by the eye tracker.
  • the eye tracker may e.g. Eye cameras for observation each have one of two eyes of the subject and provide an image analysis. The latter can e.g. determine a pupil position relative to a reflex on a cornea of the respective eye.
  • the two eye cameras may be held together with the former camera for taking the scene images from a spectacle-type carrier.
  • the reference image is an image of a scene visible in the scene images, which corresponds to a fixed perspective and is photographically recorded, for example or sketching character, or an abstract rendering or coding of characteristic features recognizable in the scene creators.
  • Such abstract rendering or coding may be given, for example, for each characteristic feature to be considered by a designation or location definition of that feature.
  • the scene image associated with this point in time is output together with the viewpoint identified therein, e.g. on a screen. This can be done manually, e.g. with a mouse click, or to visually verify the visualization of the viewpoint in the reference image.
  • the reference image is preferably also output for this purpose and may be e.g. next to or above or below the current scene image on the screen.
  • mapping of the pixels from the individually selected scene images into the reference image is performed manually. However, it is at least possible that the mapping of the viewpoints on the positions and thus the determination of said positions is carried out automatically by
  • the transformation can be determined, for example, under the constraint that it is a homography with the desired imaging properties. It can also be determined as a spatial image. In this case, at least some of the features may be located on the same scene object. The last three of the four steps mentioned here are carried out in each case for each of the selected times or each of the scenes assigned to these times.
  • the characteristic features that are identified by the algorithm in the context of an image analysis may be, for example, corners or lines. Corresponding algorithms for feature detection are known per se, for example from the document US
  • the selection of the times can be done both manually and automatically. So z, B. in each case a time is selected, which is defined by the fact that it is centered in the respective interval.
  • the proposed device is suitable for advantageously low-cost evaluation of results of a gaze detection, these results being present or readable or producible as information that for each of a plurality of successive times each detected at that time sight and define a view point identified thereby in a scene image assigned to this point in time, the scene bids being time-dependent, so that different scene images are generally assigned to the different points in time.
  • this device is program-technically set up to carry out the following steps:
  • a position in a reference image as an image of the viewpoint defined for that point in time, and storing information associated with that position as an attribute over the duration of the view event or interval to which that point belongs; possibly together with further attributes with information about this gaze event, eg, about the beginning and end and / or a sequential number of the gaze event.
  • the device can be set up to divide the time period into the intervals by assigning to each time point in each case an attribute which indicates to which of the intervals or viewing events this time belongs.
  • the reference picture may be identical or time-dependent again for the different scene images.
  • the different types mentioned differ from one another in such a way that, in particular, viewing events with and sight events without information recording-as explained above-are distinguished from one another.
  • the device is therefore set up in appropriate embodiments, viewing events in which an information recording takes place, and viewing events in which no information is recorded, to recognize different types of visual events. Accordingly, the mentioned visual events of a selected kind are expediently the visual events with information recording.
  • the device can be set up to view the different visual events as a function of different speeds and / or To identify amplitudes of an eye movement.
  • the device is in particular configured to recognize saccades as gaze events without information recording and / or fixations and / or subsequent movements as gaze events with information recording.
  • Embodiments of the device are possible in which this is set up by programming, the positions defined for the selected times automatically map corresponding positions in the reference image on these points of view and to store the positions thus determined as the images of the viewpoints. For this purpose, it can be set up to automatically perform the following steps in order to map the viewpoints to the corresponding positions in the reference image:
  • the transformation can be a homography. So that the viewpoints are imaged in the desired manner in the reference image, the device can thus be set up to determine the transformation in each case under the constraint that it is a homography with the required imaging properties with respect to the locations of said plurality of characteristic features. It is also conceivable that the device requires a manual input to define the mapping of the viewpoints from the selected scene images or allows correction as an automatically proposed image. In this case, the device can be set up for each of the selected times the corresponding position in the reference image together with the attribute assigned to these positions, depending in each case on an input defining the position and linking it to the time or the scene image assigned to this time to save. This input can be made, for example, for each of the selected times by a mouse click in the reference image shown to it.
  • the device can be set up for an input that defines the selected times as such - eg. For example, by a mouse click on a timeline on which the intervals are shown visibly displayed - or for an automatic selection of these times by applying these times as a function of the intervals defining rule. This requirement may e.g. define that the respective points in the middle of the intervals are selected.
  • the apparatus may also be arranged, if a plurality of times from the same interval associated with a view event with information recording is selected, to serve as an imaging destination associated with that interval one of the positions or an average of the positions to which the points of view belong Scene images are assigned, which are assigned to the selected from this interval times.
  • the term mean here should not only be able to designate an arithmetic mean but also, for example, a median. It may be provided that the device further comprises an eye tracker for
  • Detecting the viewing directions and having a camera for taking the scene images is a device for viewing and evaluating the results of this view capture.
  • the eye-tracker is then preferably provided with a holder for attachment to or on a head of the subject in order to allow a free movement of the subject in order to obtain as realistic information as possible about the subject's vision. habits can be obtained.
  • the camera for capturing the scene images is typically part of the eye tracker and can be worn by the same holder. This facilitates calibration of the eye tracker.
  • the device can also have a camera for recording the reference image.
  • the method described above can be carried out in particular with a device of the type described here.
  • the device described can additionally be set up to carry out any desired embodiment or configuration of the method described at the outset.
  • FIG. 1 is a schematic representation of a device for capturing and evaluating the results of this gaze detection
  • FIG. 2 shows a scene image taken with this device and, to the right of it, a reference image likewise recorded with this device, wherein an arrow illustrates how a viewpoint identified in the scene image is imaged onto a corresponding position in the reference image, FIG.
  • FIG. 3 is a diagrammatic representation of a time profile of a speed of an eye movement detected with the device over an observation period
  • Fig. 4 is a timeline on which this observation period in several
  • the device shown in FIG. 1 is an arrangement which comprises an eye tracker 1 for a gaze detection and is additionally set up, with this eye tracker 1 obtained results of Bficker- Constitution in a particularly appropriate manner with little effort to evaluate.
  • the eye tracker 1 has two eye cameras 2, which are held by a spectacle-like frame 3 and are directed to two eyes of a subject, not shown here, who carries the frame 3.
  • the eye tracker 1 has a camera 4 held by the same frame 3 for taking scene images which is arranged to move with a head of the subject and that a field of view of this camera 4 corresponds to approximately one visual field of the subject .
  • the eye tracker comprises a computing unit 5, which analyzes an output of the eye cameras 2 by means of image evaluation methods and thereby determines a current viewing direction of the test person for a plurality of closely spaced successive times.
  • the arithmetic unit 5 may be e.g.
  • the camera 4 records a scene image assigned to this time at each of the named times. These scene images thus form successive frames of a film recorded with the camera 4.
  • the eye tracker 1 now identifies with the arithmetic unit 5, for each of the times, a viewpoint in the scene image assigned to this point in time, the viewpoint-also referred to as "gaze point” or “focal point” -in each case the point in the scene design, on which the subject looks at the given time.
  • the device also has another camera 6, with which a reference image is taken.
  • the reference image is a photographic image, taken from a defined perspective, of a scene which corresponds to the scene visible to the subject and which is also reproduced by the scene images.
  • These Scene contains in the present case, a shelf 7, which may be, for example, a goods shelf in a supermarket and in which several objects 8, for example, different goods are placed.
  • the camera 6 is given by a video camera and the reference image is time-dependent.
  • the device has an evaluation unit 9 for evaluating the results obtained with the eye tracker 1.
  • These results are information obtained in the manner described, which for each of the stated times defines the viewing direction detected at that time and the viewpoint which was identified in the scene image associated with this time.
  • one of the scene images 10 recorded with the camera 4 is shown on the left as an example, while the reference image 11 taken with the camera 6 is shown on the right next to it.
  • a sketch-like representation of the scene could also serve as a reference image or an abstract reproduction, in which recognizable characteristic features in the scene images - e.g. the items placed on the shelf 7 8 - are simply coded by their name or place.
  • the viewpoint 12 identified in this scene image 10 is also represented in the form of an X.
  • 11 positions are now to be determined in the reference image, which the test person has looked at, and these positions should be stored together with information on when and for how long the test person looked there.
  • an arrow illustrates how the viewpoint 12 is imaged onto a position 13 corresponding to this viewpoint 12. So that for each of the scene images such an image does not have to be performed in order to obtain the desired information, the procedure is now as described below.
  • the evaluation unit 9 which is set up in accordance with the program, detects a temporal change in the viewing direction and / or the viewpoint by comparing the tnforma that is present for the successive times. tions about the direction of vision and the point of view.
  • FIG. 3 shows a time curve of a speed v of an eye movement of the test person within an observation period, with this observation period extending from to to ti.
  • saccades 14 are recognized as a type of gaze event in which no information is captured, while sequential movements 15 and fixations 16 are recognized as two types of gaze events in which information is acquired. For the method described, however, it is not absolutely necessary to distinguish between subsequent movements 15 and fixations 16. These two types of gaze events can also be treated equally in the classification and can be easily classified as events in the gaze event with information gathering category.
  • the preceding paragraph describes only a relatively simple method for identifying the various viewing events.
  • additional measures may be provided, eg an evaluation of a head movement detected simultaneously with a head tracker or an IMU and / or an analysis of Image contents at the viewpoints 12 through an evaluation of scene camera data.
  • an amplitude of eye movements can also be examined by comparing the viewing directions and / or viewpoints 12 at the different successive times and the respective visual event can be identified and classified depending on the detected amplitude ,
  • the amplitude is a maximum viewing angle difference observed during an eye movement within a certain period of time.
  • microsaccades in which despite large Speeds with an information recording is expected to be distinguished from actual saccades, which can be treated as visual events without information recording. It is also conceivable to detect accelerations of the eyes additionally or instead for identifying the visual events.
  • the said observation period is divided into disjoint intervals by the evaluation unit 9, so that an interval corresponding to a duration of the respective gaze event is assigned to each of the identified gaze events.
  • Fig. 4 shows a timeline with the intervals.
  • the intervals which are assigned to a fixation 16 or a following movement 15 are designated there as intervals Ii, l 2 ,,, and h. At least these intervals Ii to le each contain a plurality of said times.
  • the division of the observation period into the intervals is done by assigning to each of the times an attribute indicating which of the intervals or gaze events this time belongs to.
  • a time is selected for each of the intervals Ii to which are associated with a fixation 16 or a follow-up movement 15.
  • the selected times are illustrated in Fig. 4 each by an arrow.
  • these times can either be selected automatically by applying a prescription which defines the selected time points in each case as times centrally located in the respective interval or in some way optimally for the algorithm used, or manually by clicking on the desired times on a this purpose on a screen 17 of the evaluation unit 9 reproduced timeline.
  • the time beam can be reproduced in the manner shown in FIG. 4 in a manner which makes the relevant intervals I * to 16 visible.
  • the evaluation unit 9 is set up such that for each of the selected points in time, the scene image 10 assigned to this time is output together with the viewpoint 12 identified therein on the screen 17, the reference image 11 each being shown in the manner shown in FIG displayed next to or above or below the scene image 10 on the screen 17.
  • the viewpoint 12 which is identified in the scene image 10 assigned to this point in time, is now mapped to the position 13 in the reference image 11 corresponding to this pixel 12.
  • the position 13 in the reference image 11 which corresponds to the viewpoint 12 assigned to this point in time is represented as an image of the viewpoint 12 together with an attribute assigned to this position 13
  • Information about the visual event or about the interval to which this time belongs is stored.
  • the duration of the respective viewing event or interval can be taken from this information.
  • other attributes with information about this gaze event e.g. Information about the beginning and end of the visual event, a continuous
  • the evaluation unit 9 is then set up, for each of the selected times, the corresponding position 13 in the reference image 12 together with the attribute assigned to these positions 13 in each case depending on a position 13 defining the position 13 and associating it with the time or the scene image 10 assigned to that time Save input.
  • the linkage may be e.g. This is done by the input defining the mapping always immediately following the input selecting the time.
  • the evaluation unit 9 can also be set up to automatically map the viewpoints 12 defined for the selected times to the positions 13 corresponding to these viewpoints 12 and to store the positions thus automatically determined as images of the viewpoints 12.
  • the representation of the scene images 10 and the reference image 11 can then serve to visually check the automatic imaging of the viewpoint 12 into the reference image 11, even if the automatically determined position 13 is displayed there visibly.
  • the evaluation unit 9 can be set up, a plurality of characteristic features, such as e.g. To identify corners or edges, and locations of these features in the reference image 11 by means of a feature detection algorithm and in addition to carry out the following steps for each of the selected times:
  • time here always refers only to times from the finite number of times for which information about points of view is available. If a plurality of points in time are selected from an interval for each of which a picture of a described type and thus a respective position 13 in the reference picture 11 is defined, one of these positions 13 or an average or median of these positions 13 can be stored together with the information associated with this position 13 as an attribute over the duration of the interval. The information thus determined and stored with comparatively little effort and therefore relatively quickly contains all the information needed for a further evaluation of the results of the gaze recognition and can be statistically evaluated in a variety of ways both mechanically and manually.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

The invention relates to a method and an apparatus for evaluating results of gaze detection, wherein these results are present or are obtained in the form of information which defines, for each of a multiplicity of successive times, a viewing direction detected at this time and a focal point (12) identified thereby in a scene image (10) assigned to this time. For this purpose, the invention provides for the following steps to be carried out: - a temporal change in the viewing direction and/or the focal point (12) is evaluated in order to identify different viewing events which differ from one another by different speeds (v) of an eye movement, wherein saccades (14) and fixations (16) and/or pursuit movements (15) are detected as different types of viewing events and the identified viewing events are classified according to the type thereof, - a period of time spanned by the times is divided into intervals in such a manner that an interval corresponding to a duration of the particular viewing event is assigned to each of the identified viewing events, wherein at least some of these intervals each contain a sequence of a plurality of times, - precisely one of the times or a true subset of the times is selected in each case from each of the intervals (I1 - I6) assigned to a fixation (16) or a pursuit movement (15), - and, for each of these selected times, the focal point (12) identified in the scene image (10) assigned to the particular time is mapped to a position (13) corresponding to this focal point (12) in a reference image (11).

Description

Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung  Method and device for evaluating the results of a gaze detection
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung, also von Ergebnissen eines Eye-Trackings. The present invention relates to a method and a device for evaluating the results of a gaze detection, that is to say the results of an eye tracking.
Eye-Tracking ist an sich bekannt und findet z.B. in der Verhaltensforschung oder Marktforschung Anwendung, wenn es zu untersuchen gilt, auf weichen Blickpunkten ein Blick einer Person oder auch eines Tieres wann, wie lange und/oder in welcher Reihenfolge ruht oder wie der Blick oder eine Blickrichtung sich zwischen verschiedenen Blickpunkten bewegt. Das kann z.B. darüber Aufschluss geben, wo und wie ein Anbieter angebotene Waren am günstigsten platzieren sollte, um sich der Aufmerksamkeit des Verkehrs sicher zu sein. Bei aus dem Stand der Technik bekannten Verfahren zum Eye-Tracking werden Szenenbilder aufgenommen, die eine für einen Probanden - das Wort kann in der vorliegenden Schrift auch nachfolgend sowohl für eine Person als auch für ein Tier stehen - sichtbare Szene wiedergeben und wofür zum Beispiel eine auf einem Kopf des Probanden befestigte und sich so mit dem Kopf bewegende Kamera verwendet werden kann. Gleichzeitig wird eine Augenstellung und damit eine Blickrichtung des Probanden detektiert, was z.B. mit Hilfe von auf die Augen des Probanden gerichteten Kameras unter Anwendung geeigneter Bildauswerteverfahren geschehen kann. Nach einer Kalibrierung eines derartigen Eye-Trackers kann dann auch bei sich ändernden Augenstellungen und Kopfpositionen jeweils auf einen Blickpunkt in den Szenenbildern geschlossen werden, wobei der Begriff Blickpunkt - auch das gilt auch für die nachfolgende Beschreibung der Erfindung und der Ausführungsbeispiele - einen Punkt im Szenenbild bezeichnet, auf dem der Blick des Probanden zu einem Zeitpunkt ruht, dem das Szenenbiid zugeordnet ist. Eye tracking is known per se and is used, for example, in behavioral research or market research, when it has to be examined, in soft points of view, when or for how long and / or in which sequence or how the look or a line of sight moves between different points of view. This can, for example, give information on where and how a provider should place the goods offered at the lowest price in order to be sure of the attention of the traffic. In methods known from the prior art for eye tracking, scene images are recorded which reproduce a scene that is visible to a subject - the word may also refer in the following to both a person and an animal - and for which, for example, a can be used on a head of the subject attached and so moving with the head camera. At the same time an eye position and thus a viewing direction of the subject is detected, which can be done for example with the help of targeted to the eyes of the subject cameras using appropriate image analysis. After a calibration of such an eye tracker can then be closed even with changing eye positions and head positions each on a viewpoint in the scene images, the term point of view - this also applies to the following description of the invention and the embodiments - a point in the scene on which the subject's gaze rests at a time when the scene biid is assigned.
Ergebnisse einer Blickerfassung liegen also typischerweise als Informationen vor, die für jeden von einer Vielzahl aufeinanderfolgender Zeitpunkte jeweils eine zu diesem Zeitpunkt detektierte Blickrichtung und einen dadurch identifizierten Blickpunkt in einem diesem Zeitpunkt zugeordneten Szenenbild definieren. Um solche Ergebnisse auszuwerten, muss eine ausgesprochen große Informationsmenge verarbeitet werden, weil typischerweise pro Sekunde über zwanzig Szenenbilder und Bildpunkte erfasst werden. Unabhängig davon, ob die Auswertung manuell, automatisch oder interaktiv erfolgt, ist sie daher mit ausgesprochen großem Zeit- oder Rechenaufwand verbunden. Thus, results of a gaze detection are typically present as information that defines for each of a multiplicity of successive points in time a viewing direction detected at that time and a viewpoint identified thereby in a scene image assigned to this point in time. In order to evaluate such results, a very large amount of information has to be processed because typically more than twenty scene images and pixels are captured per second. Regardless of whether the evaluation is done manually, automatically or interactively, it is therefore associated with a very large time or computational effort.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, Maßnahmen vorzuschlagen, mit denen der Aufwand für die Auswertung von Ergebnissen einer Blickerfassung beschriebener Art reduziert werden kann. The present invention has for its object to propose measures with which the effort for the evaluation of results of a gaze detection of the described type can be reduced.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Hauptanspruchs und durch eine Vorrichtung mit den Merkmalen des Nebenanspruchs. Vorteilhafte Ausgestaltungen und Weiterentwicklungen der Erfindung ergeben sich mit den Merkmalen der Unteransprüche. Die erfindungsgemäße Vorrichtung eignet sich für die Durchführung des vorgeschlagenen Verfahrens, das nachfolgend zuerst beschrieben werden soll und mit dem sich eine signifikante Reduzierung des zur Auswertung der Ergebnisse einer Blickerfassung verbundenen Aufwands ergibt. Dieses Verfahren dient also dem Auswerten von Ergebnissen einer Blickerfassung, wobei diese Ergebnisse vorliegen oder - z.B. in der zuvor beschriebenen Weise durch Eye-Tracking - gewonnen werden als Informationen, die für jeden von einer Vielzahl aufeinanderfolgender Zeitpunkte jeweils eine zu diesem Zeitpunkt detektierte Blickrichtung und einen dadurch identifizierten Blickpunkt in einem diesem Zeitpunkt zugeordneten Szenenbild definieren, wobei die Sze- nenbüder zeitabhängig sind, so dass den verschiedenen Zeitpunkten in der Reget verschiedene Szenenbilder zugeordnet sind. Dieses Verfahren umfasst folgende Schritte: This object is achieved by a method having the features of the main claim and by a device with the features of the independent claim. Advantageous embodiments and further developments of the invention will become apparent with the features of the subclaims. The device according to the invention is suitable for carrying out the proposed method, which will be described first below, and which results in a significant reduction in the effort required to evaluate the results of a gaze detection. This method thus serves to evaluate the results of a gaze detection, wherein these results are present or obtained, for example in the manner described above by eye-tracking, as information which for each of a multiplicity of consecutive times respectively detects a viewing direction detected at that time and a thereby defining the viewpoint identified in a scene image assigned to this point in time, whereby the scene brothers are time-dependent, so that different scene images are assigned to the different points in time in the scene. This procedure comprises the following steps:
- Auswerten einer zeitlichen Änderung der Blickrichtung und/oder des Blickpunkts und/oder einer Augenbewegung zum Identifizieren verschiedener Blickereignisse, wobei mindestens zwei verschiedene Arten von Blickereignissen erkannt und die identifizierten Blickereignisse nach ihrer Art klassifiziert werden, Evaluating a temporal change of the viewing direction and / or the viewpoint and / or an eye movement for identifying different visual events, wherein at least two different types of visual events are recognized and the identified visual events are classified according to their type,
- Einteilen eines durch die Zeitpunkte aufgespannten Zeitraums in Intervalle derart, dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht, wobei typischerweise zumindest einige dieser Intervalle jeweils eine Sequenz von mehreren der Zeitpunkte enthalten, Dividing a time period spanned by the times into intervals such that each of the identified gaze events is assigned an interval which corresponds to a duration of the respective gaze event, typically at least some of these intervals each containing a sequence of several of the times,
- Auswählen jeweils genau eines der Zeitpunkte oder einer echten Untermenge der Zeitpunkte aus jedem der Intervalle, die einem Blickereignis zumindest einer ausgewählten Art von Blickereignissen zugeordnet sind, Selecting each of exactly one of the times or a true subset of the times from each of the intervals associated with a gaze event of at least one selected type of gaze event,
- und, für jeden dieser ausgewählten Zeitpunkte, Abbilden des im dem jeweiligen Zeitpunkt zugeordneten Szenenbild identifizierten Blickpunkts, also des durch die Ergebnisse der Blickerfassung für diesen Zeitpunkt definierten Blickpunkts, auf eine diesem Blickpunkt entsprechende Position in einem Referenzbild. Das Einteilen des Zeitraums in die Zettintervalle kann dabei z.B. erfolgen, indem jedem der Zeitpunkte bzw. Szenenbilder ein Attribut zugeordnet wird, das angibt, zu welchem der Intervalle bzw. Blickereignisse dieser Zeitpunkt bzw. der Zeitpunkt, dem dieses Szenenbild zugeordnet ist, gehört. Typischer- weise werden die Intervalle disjunkt sein. Das Referenzbild kann für die verschiedenen Szenenbilder identisch sein. Es ist aber auch möglich, dass das Referenzbild jeweils eines aus einer Sequenz von Referenzbildern ist, die z.B. durch ein Referenzvideo definiert sein können. Ähnlich den Szenenbildern ist in diesem Fall auch das Referenzbild zeitabhängig. and, for each of these selected times, mapping the view point identified in the respective scene point in time, that is to say the point of view defined by the results of the gaze detection for that point in time, to a position corresponding to this viewpoint in a reference picture. The dividing of the period into the tiling intervals can take place, for example, by assigning to each of the times or scene images an attribute which indicates to which of the intervals or viewing events this time or the time at which this scene image is associated belongs. Typically, the intervals will be disjoint. The reference picture may be identical for the different scene pictures. But it is also possible that the reference image is one of a sequence of reference images, which may be defined by a reference video, for example. Similar to the scene images in this case, the reference image is time-dependent.
Besonders zweckmäßig ist es, wenn beim Auswerten insbesondere Blickereignisse, bei denen eine Informationsaufnahme erfolgt, und Blickereignisse, bei denen keine Informationsaufnahme erfolgt, als verschiedene Arten von Blickereignissen - nämlich als Blickereignisse mit Informationsaufnahme und als Blickereignisse ohne Informationsaufnahme - erkannt werden. Die oben genannten Blickereignisse der zumindest einen ausgewählten Art von Blickereignissen werden dann die Blickereignisse mit Informationsaufnahme sein. Das Auswählen jeweils genau eines der Zeitpunkte oder einer Untermenge der Zeinpunkte erfolgt dann also in der Regel insbesondere für jedes der In- tervaile, die einem Blickereignis zugeordnet sind, bei dem eine Informationsaufnahme erfolgt. It is particularly expedient if, in particular, viewing events in which information is recorded and viewing events in which no information is recorded are recognized as different types of visual events - namely as visual events with information recording and as visual events without information recording. The above-mentioned gaze events of the at least one selected type of gaze event will then be the gaze events with information capture. The selection of exactly one of the times or of a subset of the zones is then generally effected, in particular, for each of the inverses assigned to a gaze event in which information is acquired.
Dem Vorschlag, auf diese Weise den Aufwand für die Auswertung drastisch zu reduzieren, liegen folgende drei Einsichten zugrunde. Erstens kommt es für viele Anwendungen von Blickerfassung allein oder in erste Linie darauf an, zu ermitteln, wann ein Proband visuell welche Informationen aufnimmt. Zweitens findet zumindest eine für die Zwecke des vorgeschlagenen Verfahrens relevante informationsaufnahme nur bei bestimmten Arten von Blickereignis- sen statt, insbesondere bei Fixationen oder Folgebewegungen, bei denen der Blick länger mehr oder weniger auf einem relativ zum Probanden ruhenden bzw. sich bewegenden Gegenstand ruht, nicht jedoch z.B. bei Sakkaden, die eine andere Art von Blickereignissen darstellen und bei denen eine zu rasche Augenbewegung eine in diesem Sinne relevante Informationsaufnahme praktisch unmöglich macht. Drittens ruht der Blick während eines Verlaufs einer mit Informationsaufnahme verbundenen Blickereignisses, wie einer Fixation oder einer Folgebewegung, stets mehr oder weniger auf dem gleichen Punkt oder Gegenstand, so dass es genügt, aus jeder Fixation oder Folgebewegung nur für einen Zeitpunkt das diesem Zeitpunkt zugeordnete Szenenbild und den darin identifizierten Blickpunkt zu untersuchen, um alles nötige über die Informationsaufnahme während dieses Blickereignisses zu wissen. Für die vorliegend beschriebene Erfindung ist es übrigens nicht zwingend erforderlich,The proposal to drastically reduce the effort for evaluation in this way is based on the following three insights. First, for many eye tracking applications alone or primarily, it is important to determine when a subject visually picks up what information. Secondly, at least one item of information relevant to the purposes of the proposed procedure does not take place only in certain types of gaze events, in particular fixations or follow-up movements in which the gaze rests for a long time more or less on an object resting or moving relative to the subject However, for example, in saccades, which represent a different kind of visual events and in which a too rapid eye movement makes a relevant in this sense information recording virtually impossible. Third, during the course of an information-related visual event, such as fixation or follow-up, the gaze always rests more or less on the same point or object, so that it suffices to examine from each fixation or sequential movement only for one time the scene image associated with that point in time and the viewpoint identified therein, in order to know everything necessary about the information recording during this viewing event. Incidentally, it is not absolutely necessary for the present invention described
Fixationen und Folgebewegungen voneinander zu unterscheiden. Zweckmäßigerweise werden diese jedoch zumindest von Ereignissen ohne Informationsaufnahme, wie beispielsweise Sakkaden, unterschieden. Auch bei Berücksichtigung dieses Wissens ist es allerdings nicht trivial, unnötigen Aufwand bei der Auswertung der Ergebnisse der Blickerfassung zu vermeiden. Das wird erst dadurch möglich, dass durch die Auswertung der zeitlichen Änderung der Blickrichtung und/oder des Blickpunkts und/oder der Augenbewegung verschiedene Blickereignisse - vorzugsweise Blickereignisse mit Informationsaufnahme und Blickereignisse ohne Informationsaufnahme, also z.B. Sakkaden und Fixationen und/oder Folgebewegungen - als verschiedene Arten von Blickereignissen erkannt werden und der durch die Zeitpunkte aufgespannte Zeitraum derart in Intervalle eingeteilt wird, dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht. Erst dadurch kann aus jedem der Intervalle, die einem Blickereignis ausgewählter Art - z.B. einem Blickereignis mit Informationsaufnahme bzw. z.B. einer Fixation oder einer Folgebewegung - zugeordnet sind, jeweils genau einer der Zeitpunkte oder eine echte Untermenge der Zeitpunkte aus diesem Intervall ausgewählt werden und sicherge- stellt werden, dass eine Auswertung der diesen Zeitpunkten zugeordnetenDistinguish fixations and follow-up movements from each other. Conveniently, however, these are at least distinguished from events without information recording, such as saccades. Even taking into account this knowledge, however, it is not trivial to avoid unnecessary expenditure when evaluating the results of the eye tracking. This is only possible by evaluating the temporal change of the viewing direction and / or the viewpoint and / or the eye movement different visual events - preferably eye events with information recording and visual events without information recording, so for example. Saccades and fixations and / or sequential movements - are recognized as different types of gaze events and the period spanned by the times is divided into intervals such that each of the identified gaze events is assigned an interval corresponding to a duration of the respective gaze event. Only then can each of the intervals corresponding to a visual event of selected type - e.g. a viewing event with information recording or e.g. a fixation or a follow-up movement are assigned, in each case exactly one of the times or a real subset of the times are selected from this interval and be sure that an evaluation of those times assigned
Szenenbilder und Blickpunkte ausreicht, ohne dass ein unerwünschter Informationsverlust riskiert wird. Scenery pictures and points of view are sufficient without risking an unwanted loss of information.
Dabei ist es nicht nötig, mehr als einen Zeitpunkt aus den einzelnen Interval- len auszuwählen. Letzteres kann jedoch vorteilhaft sein, um Fehler oder Un- genauigkeiten auszuschalten bzw. zu reduzieren, die im Hinblick auf die anschließend stattfindende und möglicherweise automatisch durchgeführte Abbildung in das Referenzbild unter Umständen unvermeidbar sind. In jedem Fall ist die Zahl der ausgewählten Zeitpunkte und damit der vorzunehmenden Abbildungen von Blickpunkten in das Referenzbild deutlich kleiner als die Zahl aller Zeitpunkte, für die Informationen über Szenenbilder und Blickpunkte vorliegen. It is not necessary to select more than one time from the individual intervals. However, the latter can be advantageous in order to eliminate or reduce errors or inaccuracies which may be unavoidable in view of the subsequently occurring and possibly automatically performed mapping into the reference image. In any case, the number of times selected and thus the mappings to be made of viewpoints in the reference image is significantly smaller than the number all times for which information about scene images and viewpoints is available.
Die Abbildung der Blickpunkte auf entsprechende Positionen im Referenzbild schließlich macht die systematische Auswertung erst möglich, weil nur die hierin bestimmten Positionen eine objektive Aussage darüber enthalten, worauf der Blick des Probanden wann und wie lange geruht hat, wenn zugelassen werden soll, dass sich der Proband bewegt und die den verschiedenen Zeitpunkten zugeordneten Szenenbilder sich daher voneinander unterschei- den. Ein besonderer Vorteil ergibt sich nun dadurch, dass die Anzahl der durchzuführenden Abbildungen durch das vorgeschlagene Vorgehen in ausgesprochen engen Grenzen gehalten werden kann. Das Verfahren kann auch vorsehen, dass das nacheinander oder gleichzeitig beobachtete Blickverhalten mehrerer Probanden in der beschriebenen Weise analysiert wird. Die Abbil- dung der Blickpunkte in das Referenzbild, das dazu vorzugsweise für alle Probanden jeweils gleich gewählt wird, erlaubt dann mit ausgesprochen geringem Aufwand eine sehr objektive Auswertung der Versuchsergebnisse. The mapping of the viewpoints to corresponding positions in the reference image finally makes the systematic evaluation possible only because the positions determined here contain an objective statement as to what the subject's gaze has lain when and for how long, if the subject is to be allowed to do so Therefore, the scene images assigned to the different times are different from each other. A particular advantage arises from the fact that the number of images to be carried out by the proposed approach can be kept within very narrow limits. The method may also provide for analyzing the gaze behavior of several subjects in succession or simultaneously as described. The mapping of the viewpoints into the reference image, which is preferably chosen to be the same for all probands, then allows a very objective evaluation of the test results with very little effort.
Es sei klargestellt, dass die hier im Zusammenhang mit der Identifizierung und Klassifizierung der Blickereignisse verwendeten Begriffe "Blickereinisse, bei denen eine Informationsaufnahme erfolgt" bzw. "Blickereignisse mit Informationsaufnahme" einerseits und "Blickereinisse, bei denen keine Informationsaufnahme erfolgt" bzw. "Blickereignisse ohne Informationsaufnahme" andererseits nicht implizieren sollen, dass jeweils direkt untersucht wird, ob und in welchem Maß der Proband tatsächlich während des Blickereignisses Information aufnimmt. Gemeint sei damit nur, dass verschiedene Blickereignisse, die in der Regel anhand typischer physiologischer oder motorischer Merkmale erkannt werden können, unterschieden werden und dass diese Blickereignisse aufgrund von Erfahrungswerten oder plausibler Überlegungen eingeteilt wer- den können in solche, bei denen mit einer Informationsaufnahme gerechnet werden kann, und solche, bei denen - z.B. aufgrund einer zu großen Bewegungsgeschwindigkeit - davon auszugehen ist, dass zumindest keine relevante Informationsaufnahme erfolgt. So kann man z.B. in diesem Sinne davon ausgehen, dass bei einer Fixation oder einer Folgebewegung eine Informations- aufnähme erfolgt, bei einer Sakkade dagegen nicht. Typische physiologischeIt should be made clear that the terms used herein in connection with the identification and classification of visual events are "perceptions of a person taking an ingestion" or "visual events with an informational intake" on the one hand and "perceptions of a person in which no information is taken" or "visual events without On the other hand, information recording "on the other hand should not imply that in each case it is directly examined whether and to what extent the subject actually takes up information during the viewing event. What this means is that different visual events, which can usually be identified on the basis of typical physiological or motor features, are distinguished and that these visual events can be classified on the basis of empirical values or plausible considerations into those which are expected to receive information can, and those in which - eg due to excessive movement speed - it can be assumed that at least no relevant information is being collected. So you can, for example In this sense, it is assumed that information is taken during a fixation or a follow-up movement, but not at a saccade. Typical physiological
Merkmale, in denen sich die verschiedenen Arten von Blickereignissen unter- scheiden können und anhand derer sie erkannt werden können, sind z.B. eine Geschwindigkeit der Augenbewegung oder eine Größe eines innerhalb eines bestimmten Zeitraums überstrichenen Winkelbereichs. Die Nennung der Blickereignisse mit Informationsaufnahme und der Blickereignisse ohne In- formationsaufnahme soll schließlich auch nicht implizieren, dass genau diese und nur diese zwei Arten von Blickereignissen unterschieden werden. Es ist vielmehr möglich, dass eine größere Anzahl verschiedener Arten von Blickereignissen identifiziert wird, die unter Umständen auch einer größeren Zahl verschiedener Klassen zugeordnet werden, die jedoch jeweils in dem genann- ten Sinne interpretiert werden können als eines von möglicherweise verschiedenen denkbaren Blickereignissen mit bzw. ohne Informationsaufnahme. Characteristics in which the different types of visual events For example, they may be a speed of eye movement or a magnitude of an angle swept over a certain period of time. Finally, mentioning the visual events with information recording and the visual events without taking up information should not imply that precisely these and only these two types of visual events are distinguished. On the contrary, it is possible to identify a larger number of different types of visual events, which may also be assigned to a larger number of different classes, but which may each be interpreted in the sense mentioned as one of possibly different conceivable visual events. without information.
Wie sich aus dem bereits Gesagten ergibt, können sich die verschiedenen Blickereignisse durch unterschiedliche Geschwindigkeiten und/oder Amplitu- den einer Augenbewegung voneinander unterscheiden. Dementsprechend kann das Identifizieren der verschiedenen Blickereignisse z.B. durch Detektion und Auswerten einer Geschwindigkeit und/oder von Amplituden einer Augenbewegung erfolgen. Zusätzlich können dazu weitere Informationen ausgewertet werden, z.B. über eine Augenbeschleunigung oder einen Bildinhait in einer Umgebung der Blickpunkte in den Szenenbildern, die dazu einer Btld- auswertung unterworfen werden können, oder über eine mit einem Head- Tracker detektierbare Kopfbewegung. insbesondere werden bei zweckmäßigen Ausführungen des Verfahrens Sakkaden als Blickereignisse erkannt werden, bei denen keine Informationsaufnahme erfolgt, während Fixationen und/oder Folgebewegungen als Blickereignisse erkannt werden können, bei denen eine Informationsaufnahme erfolgt. Das Verfahren kann so ausgestaltet sein, dass für jedes der Intervalle, die einem Blickereignis ausgewählter Art - z.B. einem Blickereignis mit Informationsaufnahme, beispielsweise einer Fixation oder einer Folgebewegung - zugeordnet sind, als Abbildungsziel oder "mapping end point" eine Position im Referenzbild zusammen mit einer Information über die Dauer des jeweiligen Blickereignisses gespeichert wird. Sofern genau einer der Zeitpunkte aus diesem Intervall ausgewählt ist, kann diese Position gewählt werden als die Posi- tion, auf die der Blickpunkt abgebildet wird, der für den aus diesem Intervall ausgewählten Zeitpunkt definiert ist. Wenn aus diesem Intervall mehrere der Zeitpunkte ausgewählt sind, kann diese Position als eine der Positionen oder ein - nicht notwendigerweise arithmetischer - Mittelwert oder Median der Positionen gewählt werden, auf weiche die Blickpunkte abgebildet werden, die für die aus diesem Intervall ausgewählten Zeitpunkte definiert sind. Im letztgenannten Fall kann das Abbildungsziel z.B. als die Position, auf die der Blickpunkt abgebildet wird, der für den letzten aus diesem Intervall ausgewählten Zeitpunkt definiert ist, gewählt werden oder, insbesondere bei automatischer Abbildung, in Abhängigkeit von einem Maß für die Güte der jeweiligen Abbildung. Zusätzlich zu der Information über die Dauer des jeweiligen Blickereignisses können auch weitere Attribute mit Informationen über das Blickereignis zusammen mit der Position gespeichert werden, z.B. ein Beginn und ein Ende, ein fortlaufende Nummer des Blickereignisses oder ein Zählerstand bei mehrfachem Auftreten der gleichen Position. Alle diese Informationen erlauben anschließend eine weitgehend automatisierbare Auswertung der Ergebnisse der Blickerfassung. As can be seen from what has already been said, the different viewing events can differ from one another due to different speeds and / or amplitudes of an eye movement. Accordingly, the identification of the various viewing events can take place, for example, by detecting and evaluating a speed and / or amplitudes of an eye movement. In addition, further information can be evaluated for this purpose, eg via an eye acceleration or an image content in an environment of the viewpoints in the scene images, which can be subjected to a Btld evaluation, or via a head movement detectable with a head tracker. In particular, in expedient embodiments of the method, saccades will be recognized as gaze events in which no information is recorded, while fixations and / or subsequent movements can be recognized as gaze events in which information is acquired. The method can be configured such that for each of the intervals that are associated with a visual event of selected type-for example, a gaze event with information recording, for example, a fixation or a follow-up movement-a position in the reference image together with a reference image or "mapping end point" Information about the duration of each view event is stored. If exactly one of the times from this interval is selected, this position can be selected as the position tion that maps the viewpoint defined for the time selected from this interval. If more than one of the times are selected from this interval, that position may be selected as one of the positions or a-not necessarily arithmetic-mean or median of the positions to which the viewpoints defined for the times selected from that interval are mapped. In the latter case, the imaging target may be selected, for example, as the position to which the viewpoint is mapped, defined for the last time selected from this interval, or, in particular in the case of automatic mapping, in dependence on a measure of the quality of the respective image , In addition to the information about the duration of the respective gaze event, further attributes with information about the gaze event can also be stored together with the position, eg a start and an end, a consecutive number of the gaze event or a count for multiple occurrence of the same position. All of this information then allows a largely automatable evaluation of the results of the eye tracking.
Eine Ausführung, bei der das Verfahren nicht nur der Auswertung der Blickerfassung, sondern auch der Blickerfassung selbst dient, sieht vor, dass die Szenenbilder zu den genannten Zeitpunkten mit einer Kamera aufgenommen werden, wobei die Blickrichtungen mittels eines Eye-Trackers detektiert werden, der die Blickpunkte in den Szenenbiidern in Abhängigkeit von den so gewonnenen Informationen über die Blickrichtungen bestimmt. Dabei kann die Kamera von einem Kopf des Probanden getragen werden, dessen Blickrichtungen durch den Eye-Tracker detektiert werden. Der Eye-Tracker kann z.B. Augenkameras zur Beobachtung jeweils eines von zwei Augen des Probanden aufweisen und eine Bildauswertung vorsehen. Letztere kann z.B. eine Pupillenposition relativ zu einem Reflex auf einer Hornhaut des jeweiligen Auges bestimmen. Die zwei Augenkameras können beispielsweise zusammen mit der erstgenannten Kamera zur Aufnahme der Szenenbilder von einem brillen- artigen Träger gehalten werden. An embodiment in which the method serves not only the evaluation of the gaze detection, but also the gaze detection itself, provides that the scene images are taken at the stated times with a camera, wherein the viewing directions are detected by means of an eye tracker, the Viewpoints in the scene biiders depending on the thus obtained information on the viewing directions determined. In this case, the camera can be worn by a head of the subject, the viewing directions are detected by the eye tracker. The eye tracker may e.g. Eye cameras for observation each have one of two eyes of the subject and provide an image analysis. The latter can e.g. determine a pupil position relative to a reflex on a cornea of the respective eye. For example, the two eye cameras may be held together with the former camera for taking the scene images from a spectacle-type carrier.
Das Referenzbild ist bei zweckmäßigen Ausführungen der beschriebenen Auswertung ein Bild einer in den Szenenbildern sichtbaren Szene, das einer festen Perspektive entspricht und z.B. photographisch aufgenommen werden oder Skizzencharakter haben kann, oder eine abstrakte Wiedergabe oder Kodierung von in den Szenenbiidern erkennbaren charakteristischen Merkmalen. Eine solche abstrakte Wiedergabe oder Kodierung kann z.B. für jedes charakteristische Merkmal, das berücksichtigt werden soll, durch eine Benennung oder Ortsdefinition dieses Merkmals gegeben sein. In the case of expedient embodiments of the described evaluation, the reference image is an image of a scene visible in the scene images, which corresponds to a fixed perspective and is photographically recorded, for example or sketching character, or an abstract rendering or coding of characteristic features recognizable in the scene creators. Such abstract rendering or coding may be given, for example, for each characteristic feature to be considered by a designation or location definition of that feature.
Es kann vorgesehen sein, dass für jeden der ausgewählten Zeitpunkte jeweils das diesem Zeitpunkt zugeordnete Szenenbild zusammen mit dem darin identifizierten Blickpunkt ausgegeben wird, z.B. auf einem Bildschirm. Das kann zum manuellen Durchführen, z.B. per Mausklick, oder zum visuellen Überprüfen der Abbildung des Blickpunkts in das Referenzbild hilfreich sein. Das Referenzbild wird dazu vorzugsweise ebenfalls ausgegeben und kann z.B. neben oder über oder unter dem aktuellen Szenenbild auf dem Bildschirm gezeigt werden. It can be provided that, for each of the selected points in time, the scene image associated with this point in time is output together with the viewpoint identified therein, e.g. on a screen. This can be done manually, e.g. with a mouse click, or to visually verify the visualization of the viewpoint in the reference image. The reference image is preferably also output for this purpose and may be e.g. next to or above or below the current scene image on the screen.
Es soll nicht ausgeschlossen werden, dass das Abbilden der Bildpunkte aus den einzelnen ausgewählten Szenenbiidern in das Referenzbild manuell durchgeführt wird. Es ist jedoch zumindest möglich, dass das Abbilden der Blickpunkte auf die Positionen und damit das Bestimmen der genannten Positionen automatisch erfolgt durch It should not be ruled out that the mapping of the pixels from the individually selected scene images into the reference image is performed manually. However, it is at least possible that the mapping of the viewpoints on the positions and thus the determination of said positions is carried out automatically by
- Identifizieren einer Mehrzahl charakteristischer Merkmale und von Orten dieser Merkmale im Referenzbild mittels eines Algorithmus zur Merkmalsde- tektion, Identifying a plurality of characteristic features and locations of these features in the reference image by means of a feature detection algorithm,
- Identifizieren dieser Merkmale und Bestimmen von Orten dieser Merkmale im jeweiligen Szenenbild durch Anwenden des gleichen oder eines entsprechenden Algorithmus auf das Szenenbild, Identifying these features and determining locations of these features in the respective scene image by applying the same or a corresponding algorithm to the scene image,
- Bestimmen einer Transformation, die die Orte der Merkmale in dem Szenenbild auf die entsprechenden Orte im Referenzbild, also auf die Orte der jeweiligen Merkmale im Referenzbild, abbildet, und Determining a transformation that maps the locations of the features in the scene image to the corresponding locations in the reference image, that is to say the locations of the respective features in the reference image, and
- Anwenden dieser Transformation auf den im jeweiligen Szenenbild identifizierten Blickpunkt. Die Transformation kann z.B. unter der Nebenbedingung bestimmt werden, dass sie eine Homographie mit den gewünschten Abbildungseigenschaften ist. Sie kann auch als räumliche Abbildung bestimmt werden. Dabei kann zumindest ein Teil der Merkmale auf demselben Szenenobjekt liegen. Die letzten drei der vier hier genannten Schritte werden dabei jeweils für jeden der ausgewählten Zeitpunkte bzw. jedes der diesen Zeitpunkten zugeordneten Szenenbilder ausgeführt. Bei den charakteristischen Merkmalen, die durch den Algorithmus im Rahmen einer Bildauswertung identifiziert werden, kann es sich z.B. um Ecken oder Linien handeln. Entsprechende Algorithmen zur Merkmalsdetektion sind an sich bekannt, z.B. aus der Druckschrift US - Apply this transformation to the viewpoint identified in the respective scene image. The transformation can be determined, for example, under the constraint that it is a homography with the desired imaging properties. It can also be determined as a spatial image. In this case, at least some of the features may be located on the same scene object. The last three of the four steps mentioned here are carried out in each case for each of the selected times or each of the scenes assigned to these times. The characteristic features that are identified by the algorithm in the context of an image analysis may be, for example, corners or lines. Corresponding algorithms for feature detection are known per se, for example from the document US
6,711,293 Bl. 6,711,293 bl.
Auch das Auswählen der Zeitpunkte kann sowohl manuell als auch automatisch erfolgen. So kann z,B. jeweils ein Zeitpunkt gewählt werden, der dadurch definiert ist, dass er mittig im jeweiligen Intervall liegt. Also, the selection of the times can be done both manually and automatically. So z, B. in each case a time is selected, which is defined by the fact that it is centered in the respective interval.
Wie sich aus dem schon Gesagten ergibt, eignet sich die vorgeschlagene Vorrichtung zum vorteilhaft aufwandsarmen Auswerten von Ergebnissen einer Blickerfassung, wobei diese Ergebnisse vorliegen oder einlesbar oder erzeugbar sind als Informationen, die für jeden von einer Vielzahl aufeinanderfolgender Zeitpunkte jeweils eine zu diesem Zeitpunkt detektierte Blickrichtung und einen dadurch identifizierten Blickpunkt in einem diesem Zeitpunkt zugeordneten Szenenbild definieren, wobei die Szenenbiider zeitabhängig sind, so dass den verschiedenen Zeitpunkten in der Regel verschiedene Szenenbilder zugeordnet sind. Dazu ist diese Vorrichtung programmtechnisch eingerichtet zum Durchführen folgender Schritte: As can be seen from what has already been said, the proposed device is suitable for advantageously low-cost evaluation of results of a gaze detection, these results being present or readable or producible as information that for each of a plurality of successive times each detected at that time sight and define a view point identified thereby in a scene image assigned to this point in time, the scene bids being time-dependent, so that different scene images are generally assigned to the different points in time. For this purpose, this device is program-technically set up to carry out the following steps:
- Auswerten einer zeitlichen Änderung der Blickrichtung und/oder des Blickpunkts und/oder einer Augenbewegung zum Identifizieren verschiedener Blickereignisse und Erkennen von mindestens zwei verschiedenen Arten von Blickereignissen sowie Klassifizieren der identifizierten Blickereignisse nach ihrer Art, Evaluating a temporal change of the viewing direction and / or the viewpoint and / or an eye movement for identifying different visual events and recognizing at least two different types of visual events, and classifying the identified visual events according to their nature,
- Einteilen eines durch die Zeitpunkte aufgespannten Zeitraums in typischerweise disjunkte Intervalle derart, dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht, - dividing a time span spanned by the times into typically disjunctive intervals such that each of the identified gaze events an interval is assigned which corresponds to a duration of the respective gaze event,
- Ausgeben der den Blickpunkt im Szenenbild definierenden Informationen für ausgewählte Zeitpunkte aus den Intervallen, die einem Blickereignis ausgewählter Art zugeordnet sind, Outputting the information defining the viewpoint in the scene image for selected points in time from the intervals associated with a view event of a selected type,
- und, für jeden der ausgewählten Zeitpunkte, Speichern einer Position in einem Referenzbild als Abbild des Blickpunkts, der für diesen Zeitpunkt definiert ist, sowie Speichern einer dieser Position als Attribut zugeordneten Information über die Dauer des Blickereignisses oder Intervalls, zu dem dieser Zeitpunkt gehört, eventuell zusammen mit weiteren Attributen mit Informationen über dieses Blickereignis, z.B, über Beginn und Ende und/oder eine fortlaufende Nummer des Blickereignisses. and, for each of the selected times, storing a position in a reference image as an image of the viewpoint defined for that point in time, and storing information associated with that position as an attribute over the duration of the view event or interval to which that point belongs; possibly together with further attributes with information about this gaze event, eg, about the beginning and end and / or a sequential number of the gaze event.
Die Vorrichtung kann dabei eingerichtet sein, den Zeitraum in die Intervalle einzuteilen, indem jedem der Zeitpunkte jeweils ein Attribut zugeordnet wird, das angibt, zu welchem der Intervalle oder Blickereignisse dieser Zeitpunkt gehört. Auch hier kann das Referenzbild wieder für die verschiedenen Szenenbilder identisch oder zeitabhängig sein. The device can be set up to divide the time period into the intervals by assigning to each time point in each case an attribute which indicates to which of the intervals or viewing events this time belongs. Again, the reference picture may be identical or time-dependent again for the different scene images.
Typischerweise unterscheiden sich die genannten verschiedenen Arten derart voneinander, dass insbesondere Blickereignisse mit und Blickereignisse ohne Informationeaufnahme - im oben erläuterten Sinne - voneinander unterschieden werden. Die Vorrichtung ist also bei zweckmäßigen Ausführungen eingerichtet, Blickereignisse, bei denen einer Informationsaufnahme erfolgt, und Blickereignisse, bei denen keine Informationsaufnahme erfolgt, als verschiedene Arten von Blickereignissen zu erkennen. Dementsprechend handelt es sich bei den genannten Blickereignissen ausgewählter Art zweckmäßigerweise um die Blickereignisse mit Informationsaufnahme. Typically, the different types mentioned differ from one another in such a way that, in particular, viewing events with and sight events without information recording-as explained above-are distinguished from one another. The device is therefore set up in appropriate embodiments, viewing events in which an information recording takes place, and viewing events in which no information is recorded, to recognize different types of visual events. Accordingly, the mentioned visual events of a selected kind are expediently the visual events with information recording.
Um die verschiedenen Blickereignisse unterscheiden und insbesondere als Blickereignisse, bei denen eine Informationsaufnahme erfolgt, und als Blickereignisse, bei denen keine Informationsaufnahme erfolgt, identifizieren zu können, kann die Vorrichtung eingerichtet sein, die verschiedenen Blickereignisse in Abhängigkeit von unterschiedlichen Geschwindigkeiten und/oder Amplituden einer Augenbewegung zu identifizieren. Bei zweckmäßigen Ausgestaltungen ist die Vorrichtung insbesondere eingerichtet, Sakkaden als Blickereignisse ohne Informationsaufnahme und/oder Fixationen und/oder Folgebewegungen als Blickereignisse mit Informationsaufnahme zu erkennen. In order to be able to differentiate between the various visual events and, in particular, as visual events in which information is recorded and as visual events in which no information is recorded, the device can be set up to view the different visual events as a function of different speeds and / or To identify amplitudes of an eye movement. In expedient embodiments, the device is in particular configured to recognize saccades as gaze events without information recording and / or fixations and / or subsequent movements as gaze events with information recording.
Möglich sind Ausführungen der Vorrichtung, bei denen diese programmtechnisch eingerichtet ist, die für die ausgewählten Zeitpunkte definierten Blickpunkte automatisch auf diesen Blickpunkten entsprechende Positionen im Referenzbild abzubilden und die so bestimmten Positionen als die Abbilder der Blickpunkte zu speichern. Dazu kann sie eingerichtet sein, zum Abbilden der Blickpunkte auf die entsprechenden Positionen im Referenzbild automatisch folgende Schritte durchzuführen: Embodiments of the device are possible in which this is set up by programming, the positions defined for the selected times automatically map corresponding positions in the reference image on these points of view and to store the positions thus determined as the images of the viewpoints. For this purpose, it can be set up to automatically perform the following steps in order to map the viewpoints to the corresponding positions in the reference image:
- Identifizieren einer Mehrzahl charakteristischer Merkmale und von Orten dieser Merkmale im Referenzbild mittels eines Algorithmus zur Merkmalsde- tektion, Identifying a plurality of characteristic features and locations of these features in the reference image by means of a feature detection algorithm,
- Identifizieren dieser Merkmale und Bestimmen von Orten dieser Merkmale im jeweiligen Szenenbild durch Anwenden des gleichen oder eines entsprechenden Algorithmus auf das Szenenbild, Identifying these features and determining locations of these features in the respective scene image by applying the same or a corresponding algorithm to the scene image,
- Bestimmen einer Transformation, die die Orte der Merkmale in dem Szenenbild auf die so identifizierten Orte der jeweiligen Merkmaie im Referenzbild abbildet, und Determining a transformation that maps the locations of the features in the scene image onto the thus identified locations of the respective feature in the reference image, and
- Anwenden dieser Transformation auf den im jeweiligen Szenenbild identifizierten Blickpunkt. - Apply this transformation to the viewpoint identified in the respective scene image.
Bei der Transformation kann es sich z.B. um eine Homographie handeln. Damit die Blickpunkte in gewünschter Weise in das Referenzbild abgebildet werden, kann die Vorrichtung also eingerichtet sein, die Transformation dabei jeweils unter der Nebenbedingung zu bestimmen, dass es sich um eine Homographie mit den geforderten Abbildungseigenschaften bezüglich der Orte der genannten Mehrzahl charakteristischer Merkmale handelt. Es ist auch denkbar, dass die Vorrichtung eine manuelle Eingabe zur Definition der Abbildung der Blickpunkte aus den ausgewählten Szenenbildern fordert oder als Korrektur zu einer automatisch vorgeschlagenen Abbildung erlaubt. In diesem Fall kann die Vorrichtung eingerichtet sein, für jeden der ausge- wählten Zeitpunkte die entsprechende Position im Referenzbild zusammen mit dem dieser Positionen zugeordneten Attribut jeweils in Abhängigkeit von einer die Position definierenden und diese mit dem Zeitpunkt oder dem diesem Zeitpunkt zugeordneten Szenenbild verknüpfenden Eingabe zu speichern. Diese Eingabe kann z.B. für jeden der ausgewählten Zeitpunkte durch einen Mausklick in dem dazu dargestellten Referenzbild erfolgen. For example, the transformation can be a homography. So that the viewpoints are imaged in the desired manner in the reference image, the device can thus be set up to determine the transformation in each case under the constraint that it is a homography with the required imaging properties with respect to the locations of said plurality of characteristic features. It is also conceivable that the device requires a manual input to define the mapping of the viewpoints from the selected scene images or allows correction as an automatically proposed image. In this case, the device can be set up for each of the selected times the corresponding position in the reference image together with the attribute assigned to these positions, depending in each case on an input defining the position and linking it to the time or the scene image assigned to this time to save. This input can be made, for example, for each of the selected times by a mouse click in the reference image shown to it.
Auch für die Auswahl der Zeitpunkte sind verschiedene Möglichkeiten denkbar. So kann die Vorrichtung eingerichtet sein für eine die ausgewählten Zeitpunkte als solche definierende Eingabe - z. B. jeweils durch einen Mausklick auf einem Zeitstrahl, auf dem die Intervalle dazu sichtbar dargestellt sind - oder für eine automatische Auswahl dieser Zeitpunkte durch Anwenden einer diese Zeitpunkte in Abhängigkeit von den Intervallen definierenden Vorschrift. Diese Vorschrift kann z.B. definieren, dass die jeweils mittig in den Intervallen liegenden Zeitpunkte ausgewählt werden. Also for the selection of the times different possibilities are conceivable. Thus, the device can be set up for an input that defines the selected times as such - eg. For example, by a mouse click on a timeline on which the intervals are shown visibly displayed - or for an automatic selection of these times by applying these times as a function of the intervals defining rule. This requirement may e.g. define that the respective points in the middle of the intervals are selected.
Die Vorrichtung kann außerdem eingerichtet sein, sofern mehrere Zeitpunkte aus dem selben Intervall, das einem Blickereignis mit Informationsaufnahme zugeordnet ist, ausgewählt werden, als diesem Intervall zugeordnetes Abbildungsziel eine der Positionen oder einen Mittelwert der Positionen zu spei- ehern, auf weiche die Blickpunkte aus den Szenenbildern abgebildet werden, die den aus diesem Intervall ausgewählten Zeitpunkten zugeordnet sind. Der Begriff Mittelwert soll hier nicht nur einen arithmetischer Mittelwert bezeichnen können, sondern auch z.B. einen Median. Es kann vorgesehen sein, dass die Vorrichtung ferner einen Eye-Tracker zumThe apparatus may also be arranged, if a plurality of times from the same interval associated with a view event with information recording is selected, to serve as an imaging destination associated with that interval one of the positions or an average of the positions to which the points of view belong Scene images are assigned, which are assigned to the selected from this interval times. The term mean here should not only be able to designate an arithmetic mean but also, for example, a median. It may be provided that the device further comprises an eye tracker for
Detektieren der Blickrichtungen und eine Kamera zum Aufnehmen der Szenenbilder aufweist, In diesem Fall handelt um eine Vorrichtung zur Blickerfassung und Auswertung der Ergebnisse dieser Blickerfassung. Der Eye-Tracker ist dann vorzugsweise mit einer Halterung zum Befestigen auf oder an einem Kopf des Probanden versehen, um eine freie Bewegung des Probanden zu erlauben, damit möglichst realistische Informationen über dessen Sehge- wohnheiten erhalten werden können. Die Kamera zum Aufnehmen der Szenenbilder ist typischerweise Bestandteil des Eye-Trackers und kann von gleichen Halterung getragen werden. Das erleichtert eine Kalibrierung des Eye- Trackers. Detecting the viewing directions and having a camera for taking the scene images, in this case is a device for viewing and evaluating the results of this view capture. The eye-tracker is then preferably provided with a holder for attachment to or on a head of the subject in order to allow a free movement of the subject in order to obtain as realistic information as possible about the subject's vision. habits can be obtained. The camera for capturing the scene images is typically part of the eye tracker and can be worn by the same holder. This facilitates calibration of the eye tracker.
Schließlich kann die Vorrichtung auch eine Kamera zum Aufnehmen des Refe- renzbildes aufweisen. Finally, the device can also have a camera for recording the reference image.
Das eingangs beschriebene Verfahren kann insbesondere mit einer Vorrichtung hier beschriebener Art durchgeführt werden. Andersherum kann die beschriebene Vorrichtung zusätzlich zu ihren hier erläuterten wesentlichen oder optionalen Merkmalen zusätzlich eingerichtet sein zur Durchführung jeder beliebigen beschriebenen Ausführung oder Ausgestaltung des eingangs beschriebenen Verfahrens. The method described above can be carried out in particular with a device of the type described here. On the other hand, in addition to its essential or optional features explained here, the device described can additionally be set up to carry out any desired embodiment or configuration of the method described at the outset.
Ein Ausführungsbeispiel der Erfindung wird nachfolgend anhand der Figuren 1 bis 6 erläutert. Es zeigt An embodiment of the invention will be explained below with reference to Figures 1 to 6. It shows
Fig. 1 in schematisierter Darstellung eine Vorrichtung zur Blickerfassung und zum Auswertung von Ergebnissen dieser Blickerfassung, 1 is a schematic representation of a device for capturing and evaluating the results of this gaze detection,
Fig. 2 ein mit dieser Vorrichtung aufgenommenes Szenenbild und, rechts daneben, ein ebenfalls mit dieser Vorrichtung aufgenommenes Referenzbild, wobei durch einen Pfeil veranschaulicht ist, wie ein im Szenenbild identifizierter Blickpunkt auf eine entsprechende Position im Referenzbild abgebildet wird, 2 shows a scene image taken with this device and, to the right of it, a reference image likewise recorded with this device, wherein an arrow illustrates how a viewpoint identified in the scene image is imaged onto a corresponding position in the reference image, FIG.
Fig. 3 In diagrammatischer Darstellung einen zeitlichen Verlauf einer Geschwindigkeit einer über einen Beobachtungszeitraum mit der Vorrichtung erfassten Augenbewegung und 3 is a diagrammatic representation of a time profile of a speed of an eye movement detected with the device over an observation period and FIG
Fig. 4 einen Zeitstrahl, auf dem dieser Beobachtungszeitraum in mehrereFig. 4 is a timeline on which this observation period in several
Intervalle aufgeteilt dargestellt ist, wobei die Intervalle verschiedenen mit der Vorrichtung identifizierten Blickereignissen entsprechen. Bei der in Fig. 1 gezeigten Vorrichtung handelt es sich also um eine Anordnung, die einen Eye-Tracker 1 für eine Blickerfassung umfasst und zusätzlich eingerichtet ist, mit diesem Eye-Tracker 1 gewonnene Ergebnisse der Bficker- fassung auf besonders zweckmäßige Weise mit geringem Aufwand auszuwer- ten. Intervals are shown divided, the intervals corresponding to different with the device identified visual events. Thus, the device shown in FIG. 1 is an arrangement which comprises an eye tracker 1 for a gaze detection and is additionally set up, with this eye tracker 1 obtained results of Bficker- Constitution in a particularly appropriate manner with little effort to evaluate.
Der Eye-Tracker 1 weist zwei Augenkameras 2 auf, die von einem brillenartigen Gestell 3 gehalten werden und auf zwei Augen eines hier nicht dargestellten Probanden gerichtet sind, der das Gestell 3 trägt. Außerdem weist der Eye-Tracker 1 eine vom selben Gestell 3 gehaltene Kamera 4 zum Aufnehmen von Szenenbildern auf, die dadurch so angeordnet ist, dass sie sich mit einem Kopf des Probanden mitbewegt und dass ein Gesichtsfeld dieser Kamera 4 jeweils ungefähr einem Gesichtsfeld des Probanden entspricht. Außerdem umfasst der Eye-Tracker eine Recheneinheit 5, die einen Output der Augenkameras 2 mittels Bildauswerteverfahren analysiert und dadurch zu einer Vielzahl von in engem Abstand aufeinanderfolgenden Zeitpunkten jeweils eine aktuelle Blickrichtung des Probanden bestimmt. Dazu kann die Recheneinheit 5 z.B. eingerichtet sein, eine relative Lage von den Pupillen der Augen zu definierten Reflexionen auf der Hornhaut der Augen zu bestimmen, wobei die Reflexionen durch entsprechend gezielte Beleuchtung der Augen erzeugt werden können. Die Kamera 4 nimmt zu jedem der genannten Zeitpunkte jeweils ein diesem Zeitpunkt zugeordnetes Szenenbild auf. Diese Szenenbilder bilden also aufeinanderfolgende Frames eines mit der Kamera 4 aufgezeichneten Films. In Abhängigkeit von den bestimmten Blickrichtungen identifiziert der Eye-Tracker 1 mit der Recheneinheit 5 nun für jeden der Zeitpunkte einen Blickpunkt in dem diesem Zeitpunkt zugeordneten Szenenbild, wobei der Blickpunkt - auch als "gaze point" oder "focal point" bezeichnet - jeweils den Punkt im Szenenbild bezeichnet, auf den der Proband zum gege- benen Zeitpunkt schaut. The eye tracker 1 has two eye cameras 2, which are held by a spectacle-like frame 3 and are directed to two eyes of a subject, not shown here, who carries the frame 3. In addition, the eye tracker 1 has a camera 4 held by the same frame 3 for taking scene images which is arranged to move with a head of the subject and that a field of view of this camera 4 corresponds to approximately one visual field of the subject , In addition, the eye tracker comprises a computing unit 5, which analyzes an output of the eye cameras 2 by means of image evaluation methods and thereby determines a current viewing direction of the test person for a plurality of closely spaced successive times. For this purpose, the arithmetic unit 5 may be e.g. be set up to determine a relative position of the pupils of the eyes to defined reflections on the cornea of the eyes, wherein the reflections can be generated by appropriately targeted illumination of the eyes. The camera 4 records a scene image assigned to this time at each of the named times. These scene images thus form successive frames of a film recorded with the camera 4. Depending on the particular viewing directions, the eye tracker 1 now identifies with the arithmetic unit 5, for each of the times, a viewpoint in the scene image assigned to this point in time, the viewpoint-also referred to as "gaze point" or "focal point" -in each case the point in the scene design, on which the subject looks at the given time.
Neben dem Eye-Tracker 1 weist die Vorrichtung noch eine weitere Kamera 6 auf, mit der ein Referenzbild aufgenommen wird. Bei dem Referenzbild handelt es sich hier um ein aus einer definierten Perspektive aufgenommenes photographisches Bild einer Szene, die der für den Probanden sichtbaren Szene entspricht und die auch durch die Szenenbilder wiedergegeben wird. Diese Szene enthält im vorliegenden Fall ein Regal 7, bei dem es sich z.B. um ein Warenregal in einem Supermarkt handeln kann und in dem mehrere Gegenstände 8, z.B. verschiedene Waren, platziert sind. Es sind auch Ausführungen denkbar, bei denen die Kamera 6 durch eine Videokamera gegeben und das Referenzbild zeitabhängig ist. In addition to the eye tracker 1, the device also has another camera 6, with which a reference image is taken. The reference image is a photographic image, taken from a defined perspective, of a scene which corresponds to the scene visible to the subject and which is also reproduced by the scene images. These Scene contains in the present case, a shelf 7, which may be, for example, a goods shelf in a supermarket and in which several objects 8, for example, different goods are placed. Embodiments are also conceivable in which the camera 6 is given by a video camera and the reference image is time-dependent.
Schließlich weist die Vorrichtung eine Auswerteeinheit 9 zum Auswerten der mit dem Eye-Tracker 1 gewonnenen Ergebnisse auf. Bei diesen Ergebnissen handelt es sich um in beschriebener Weise gewonnene Informationen, die für jeden der genannten Zeitpunkte jeweils die zu diesem Zeitpunkt detektierte Blickrichtung und den Blickpunkt definieren, der in dem diesem Zeitpunkt zugeordneten Szenenbild identifiziert worden ist. Finally, the device has an evaluation unit 9 for evaluating the results obtained with the eye tracker 1. These results are information obtained in the manner described, which for each of the stated times defines the viewing direction detected at that time and the viewpoint which was identified in the scene image associated with this time.
In Fig. 2 ist links beispielhaft eines der mit der Kamera 4 aufgenommenen Szenenbilder 10 dargestellt, während rechts daneben das mit der Kamera 6 aufgenommene Referenzbild 11 gezeigt ist. Statt dieses photographischen Referenzbildes 11 könnte bei einer Abwandlung auch eine skizzenhafte Darstellung der Szene als Referenzbild dienen oder eine abstrakte Wiedergabe, bei der in den Szenenbildern erkennbare charakteristische Merkmale - z.B. die im Regal 7 platzierten Gegenstände 8 - einfach durch deren Bezeichnung oder Ort kodiert sind. In dem Szenenbild 10 ist auch der in diesem Szenenbild 10 identifizierte Blickpunkt 12 in Form eines X dargestellt. In FIG. 2, one of the scene images 10 recorded with the camera 4 is shown on the left as an example, while the reference image 11 taken with the camera 6 is shown on the right next to it. Instead of this photographic reference image 11, in a modification, a sketch-like representation of the scene could also serve as a reference image or an abstract reproduction, in which recognizable characteristic features in the scene images - e.g. the items placed on the shelf 7 8 - are simply coded by their name or place. In the scene image 10, the viewpoint 12 identified in this scene image 10 is also represented in the form of an X.
Für eine systematische Auswertung der Ergebnisse der Blickerfassung sollen nun Im Referenzbild 11 Positionen ermittelt werden, auf die der Proband geschaut hat, wobei diese Positionen zusammen mit Informationen darüber, wann und wie lange der Proband dorthin geschaut hat, gespeichert werden sollen. In Fig. 2 ist durch einen Pfeil veranschaulicht, wie der Blickpunkt 12 dazu auf eine diesem Blickpunkt 12 entsprechende Position 13 abgebildet wird. Damit nicht für jedes der Szenenbilder eine solche Abbildung durchgeführt werden muss, um die gewünschten Informationen zu erhalten, wird nun in der nachfolgend beschriebenen Weise vorgegangen. For a systematic evaluation of the results of the gaze detection, 11 positions are now to be determined in the reference image, which the test person has looked at, and these positions should be stored together with information on when and for how long the test person looked there. In FIG. 2, an arrow illustrates how the viewpoint 12 is imaged onto a position 13 corresponding to this viewpoint 12. So that for each of the scene images such an image does not have to be performed in order to obtain the desired information, the procedure is now as described below.
Die entsprechend programmtechnisch eingerichtete Auswerteeinheit 9 erfasst eine zeitliche Änderung der Blickrichtung und/oder des Blickpunkts durch Vergleich der für die aufeinanderfolgenden Zeitpunkte vorliegenden tnforma- tionen über Blickrichtung und Blickpunkt. In Fig. 3 ist ein so erfasster zeitlicher Verlauf einer Geschwindigkeit v einer Augenbewegung des Probanden innerhalb eines Beobachtungszeitraums dargestellt, wobei sich dieser Beobachtungszeitraum von to bis ti erstreckt. Durch Vergleich der jeweils ermittelten Geschwindigkeiten v mit einem Schwellwert vth werden verschiedene Blickereignisse identifiziert, und zwar Sakkaden 14, bei denen sich die Augen sehr schnell bewegen, so dass v > vth gilt, Folgebewegungen 15, bei denen sich die Augen wesentlich langsamer bewegen, so dass v < vth gilt, und Fixationen 16, bei denen die Augen still stehen. Die so identifizierten Blickereignisse werden nach ihrer Art klassifiziert, im hier gezeigten Beispiel also jeweils als SakkadeThe evaluation unit 9, which is set up in accordance with the program, detects a temporal change in the viewing direction and / or the viewpoint by comparing the tnforma that is present for the successive times. tions about the direction of vision and the point of view. FIG. 3 shows a time curve of a speed v of an eye movement of the test person within an observation period, with this observation period extending from to to ti. By comparing the respectively determined velocities v with a threshold value v th different eye events are identified, ie saccades 14, in which the eyes move very fast, so that v> v th , following movements 15, in which the eyes move much slower , so that v <v th , and fixations 16, where the eyes stand still. The thus identified visual events are classified according to their type, in the example shown here in each case as a saccade
14, Folgebewegung 15 oder Fixation 16. Dabei werden Sakkaden 14 als eine Art von Blickereignissen erkannt, bei der keine Informationsaufnahme erfolgt, während Folgebewegungen 15 und Fixationen 16 als zwei Arten von Blickereignissen erkannt werden, bei denen eine Informationsaufnahme erfolgt. Für das beschriebene Verfahren ist es jedoch nicht unbedingt erforderlich, zwischen Folgebewegungen 15 und Fixationen 16 zu unterscheiden. Diese beiden Arten von Blickereignissen können bei der Klassifizierung auch gleich behandelt werden und einfach als Ereignisse der Kategorie Blickereignis mit Informationsaufnahme klassifiziert werden. 14, sequential movement 15 or fixation 16. Here, saccades 14 are recognized as a type of gaze event in which no information is captured, while sequential movements 15 and fixations 16 are recognized as two types of gaze events in which information is acquired. For the method described, however, it is not absolutely necessary to distinguish between subsequent movements 15 and fixations 16. These two types of gaze events can also be treated equally in the classification and can be easily classified as events in the gaze event with information gathering category.
Der vorhergehende Absatz beschreibt beispielhaft nur eine verhältnismäßig einfache Methode zum Identifizieren der verschiedenen Blickereignisse. Um die Blickereignisse verschiedener Art zu erkennen und insbesondere als Blickereignisse mit informationsaufnahme und Blickereignisse ohne Informations- aufnähme zu unterscheiden, können zusätzlich weitere Maßnahmen vorgesehen sein, z.B. eine Auswertung einer zeitgleich mit einem Head-Tracker oder einer IMU delektierten Kopfbewegung und/oder eine Analyse von Bildinhalten an den Blickpunkten 12 durch eine Auswertung von Szenenkameradaten. Alternativ oder zusätzlich zu der beschriebenen Auswertung der Geschwindig- keit v der Augenbewegung kann auch durch Vergleich der Blickrichtungen und/oder Blickpunkte 12 zu den verschiedenen aufeinander folgenden Zeitpunkten eine Amplitude von Augenbewegungen untersucht werden und das jeweilige Blickereignis abhängig von der erfassten Amplitude identifiziert und klassifiziert werden. Als Amplitude sei dabei ein bei einer Augenbewegung innerhalb eines bestimmten Zeitraums beobachteter größter Blickwinkelunterschied bezeichnet. So können z.B. Mikrosakkaden, bei denen trotz großer Geschwindigkeiten mit einer Informationsaufnahme zu rechnen ist, von eigentlichen Sakkaden, die als Blickereignisse ohne Informationsaufnahme behandelt werden können, unterschieden werden. Auch eine zusätzlich oder stattdessen zum Identifizieren der Blickereignisse dienende Erfassung von Beschleunigungen der Augen ist denkbar. By way of example, the preceding paragraph describes only a relatively simple method for identifying the various viewing events. In order to recognize the visual events of various kinds and to differentiate, in particular, as visual events with information recording and visual events without taking up information, additional measures may be provided, eg an evaluation of a head movement detected simultaneously with a head tracker or an IMU and / or an analysis of Image contents at the viewpoints 12 through an evaluation of scene camera data. As an alternative or in addition to the described evaluation of the speed v of the eye movement, an amplitude of eye movements can also be examined by comparing the viewing directions and / or viewpoints 12 at the different successive times and the respective visual event can be identified and classified depending on the detected amplitude , In this context, the amplitude is a maximum viewing angle difference observed during an eye movement within a certain period of time. For example, microsaccades, in which despite large Speeds with an information recording is expected to be distinguished from actual saccades, which can be treated as visual events without information recording. It is also conceivable to detect accelerations of the eyes additionally or instead for identifying the visual events.
Nach dem Identifizieren und Klassifizieren der Blickereignisse wird der genannte Beobachtungszeitraum durch die Auswerteeinheit 9 in disjunkte Intervalle eingeteilt, so dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht. Das ist in Fig. 4 veranschaulicht, die einen Zeitstrahl mit den Intervallen zeigt. Die Intervalle, die einer Fixation 16 oder einer Folgebewegung 15 zugeordnet sind, sind dort als Intervalle Ii, l2, , , und h bezeichnet. Zumindest diese Intervalle Ii bis le enthalten jeweils eine Mehrzahl der genannten Zeitpunkte. Das Einteilen des Beobachtungszeitraums in die Intervalle geschieht, indem jedem der Zeitpunkte jeweils ein Attribut zugeordnet wird, das angibt, zu welchem der Intervalle oder Blickereignisse dieser Zeitpunkt gehört. After identifying and classifying the gaze events, the said observation period is divided into disjoint intervals by the evaluation unit 9, so that an interval corresponding to a duration of the respective gaze event is assigned to each of the identified gaze events. This is illustrated in Fig. 4, which shows a timeline with the intervals. The intervals which are assigned to a fixation 16 or a following movement 15 are designated there as intervals Ii, l 2 ,,, and h. At least these intervals Ii to le each contain a plurality of said times. The division of the observation period into the intervals is done by assigning to each of the times an attribute indicating which of the intervals or gaze events this time belongs to.
Nun wird für jedes der Intervalle Ii bis , die einer Fixation 16 oder einer Folgebewegung 15 zugeordnet sind, ein Zeitpunkt ausgewählt. Die ausgewählten Zeitpunkte sind in Fig. 4 jeweils durch einen Pfeil veranschaulicht. Das Auswählen dieser Zeitpunkte kann je nach Ausführung entweder automatisch erfolgen durch Anwenden einer Vorschrift, die die ausgewählten Zeitpunkte z.B. jeweils als mittig im jeweiligen Intervall liegende Zeitpunkte oder auf irgendeine Weise optimal für den verwendeten Algorithmus definiert, oder manuell durch Anklicken der gewünschten Zeitpunkte auf einem zu diesem Zweck auf einem Bildschirm 17 der Auswerteeinheit 9 wiedergegebenen Zeitstrahl. Der Zeitstrahl kann dabei in der in Fig. 4 gezeigten Art wiedergegeben werden in einer Weise, die die in Frage kommenden Intervalle I* bis 16 sichtbar macht. Now, a time is selected for each of the intervals Ii to which are associated with a fixation 16 or a follow-up movement 15. The selected times are illustrated in Fig. 4 each by an arrow. Depending on the implementation, these times can either be selected automatically by applying a prescription which defines the selected time points in each case as times centrally located in the respective interval or in some way optimally for the algorithm used, or manually by clicking on the desired times on a this purpose on a screen 17 of the evaluation unit 9 reproduced timeline. In this case, the time beam can be reproduced in the manner shown in FIG. 4 in a manner which makes the relevant intervals I * to 16 visible.
Die Auswerteeinheit 9 ist so eingerichtet, dass für jeden der ausgewählten Zeitpunkte jeweils das diesem Zeitpunkt zugeordnete Szenenbild 10 zusammen mit dem darin identifizierten Blickpunkt 12 auf dem Bildschirm 17 ausgegeben wird, wobei das Referenzbild 11 jeweils in der in Fig. 2 gezeigten Art neben oder über oder unter dem Szenenbild 10 auf dem Bildschirm 17 dargestellt wird. The evaluation unit 9 is set up such that for each of the selected points in time, the scene image 10 assigned to this time is output together with the viewpoint 12 identified therein on the screen 17, the reference image 11 each being shown in the manner shown in FIG displayed next to or above or below the scene image 10 on the screen 17.
Für jeden dieser ausgewählten Zeitpunkte - und nur für diese Zeitpunkte - wird nun jeweils der Blickpunkt 12, der in dem diesem Zeitpunkt zugeordneten Szenenbild 10 identifiziert ist, auf die diesem Bildpunkt 12 entsprechende Position 13 im Referenzbild 11 abgebildet. Dabei wird für jeden der ausgewählten Zeitpunkte jeweils die Position 13 im Referenzbild 11, die dem diesem Zeitpunkt zugeordneten Blickpunkt 12 entspricht, als Abbild des Blick- punkts 12 zusammen mit einer dieser Position 13 als Attribut zugeordnetenFor each of these selected times - and only for these times - the viewpoint 12, which is identified in the scene image 10 assigned to this point in time, is now mapped to the position 13 in the reference image 11 corresponding to this pixel 12. In this case, for each of the selected points in time, the position 13 in the reference image 11 which corresponds to the viewpoint 12 assigned to this point in time is represented as an image of the viewpoint 12 together with an attribute assigned to this position 13
Information über das Blickereignis oder über das Intervall, zu dem dieser Zeitpunkt gehört, gespeichert. Dieser Information wird insbesondere die Dauer des jeweiligen Blickereignisses oder Intervalls entnehmbar sein. Zusätzlich können auch weitere Attribute mit Informationen über dieses Blickereignis, z.B. Angaben über Beginn und Ende des Blickereignisses, eine fortlaufendeInformation about the visual event or about the interval to which this time belongs is stored. In particular, the duration of the respective viewing event or interval can be taken from this information. In addition, other attributes with information about this gaze event, e.g. Information about the beginning and end of the visual event, a continuous
Nummer des Blickereignisses oder ein Zählerstand bei mehrfachem Auftreten der gleichen Position 13, jeweils zusammen mit der Position 13 gespeichert werden. Es kann vorgesehen sein, dass das Abbilden der Blickpunkte 12 aus den ausgewählten Szenenbildern 11 manuellen durchgeführt wird. Das kann z.B. jeweils durch einen Mausklick geschehen, nachdem eine Eingabemarkierung oder ein Cursor auf die jeweilige Position 13 im auf dem Bildschirm wiedergegebenen Referenzbild geführt worden ist. Die Auswerteeinheit 9 ist dann also eingerichtet, für jeden der ausgewählten Zeitpunkte die entsprechende Position 13 im Referenzbild 12 zusammen mit dem dieser Positionen 13 zugeordneten Attribut jeweils in Abhängigkeit von einer die Position 13 definierenden und diese mit dem Zeitpunkt oder dem diesem Zeitpunkt zugeordneten Szenenbild 10 verknüpfenden Eingabe zu speichern. Die Verknüpfung kann dabei z.B. dadurch geschehen, dass die die Abbildung definierende Eingabe immer unmittelbar auf die den Zeitpunkt auswählende Eingabe folgt. Number of the gaze event or a count on multiple occurrence of the same position 13, each stored together with the position 13. It can be provided that the imaging of the viewpoints 12 from the selected scene images 11 manual is performed. This can e.g. each done by a mouse click, after an input mark or a cursor has been guided to the respective position 13 in the reproduced on the screen reference image. The evaluation unit 9 is then set up, for each of the selected times, the corresponding position 13 in the reference image 12 together with the attribute assigned to these positions 13 in each case depending on a position 13 defining the position 13 and associating it with the time or the scene image 10 assigned to that time Save input. The linkage may be e.g. This is done by the input defining the mapping always immediately following the input selecting the time.
Die Auswerteeinheit 9 kann aber auch eingerichtet sein, die für die ausgewählten Zeitpunkte definierten Blickpunkte 12 automatisch auf die diesen Blickpunkten 12 entsprechenden Positionen 13 abzubilden und die so automatisch bestimmten Positionen als Abbilder der Blickpunkte 12 zu speichern. Die Darstellung der Szenenbilder 10 und des Referenzbilds 11 kann dann dazu dienen, die automatische Abbildung des Blickpunkts 12 in das Referenzbild 11 visuell zu überprüfen, wenn auch die automatisch ermittelte Position 13 dort sichtbar dargestellt wird. However, the evaluation unit 9 can also be set up to automatically map the viewpoints 12 defined for the selected times to the positions 13 corresponding to these viewpoints 12 and to store the positions thus automatically determined as images of the viewpoints 12. The representation of the scene images 10 and the reference image 11 can then serve to visually check the automatic imaging of the viewpoint 12 into the reference image 11, even if the automatically determined position 13 is displayed there visibly.
Zum automatischen Abbilden der Blickpunkte 12 auf die entsprechenden Positionen 13 im Referenzbild 11 kann die Auswerteeinheit 9 eingerichtet sein, eine Mehrzahl charakteristischer Merkmale, wie z.B. Ecken oder Kanten, und Orte dieser Merkmale im Referenzbild 11 mittels eines Algorithmus zur Merkmalsdetektion zu identifizieren und außerdem für jeden der ausgewählten Zeitpunkte jeweils folgende Schritte durchzuführen: For automatically mapping the viewpoints 12 to the corresponding positions 13 in the reference image 11, the evaluation unit 9 can be set up, a plurality of characteristic features, such as e.g. To identify corners or edges, and locations of these features in the reference image 11 by means of a feature detection algorithm and in addition to carry out the following steps for each of the selected times:
- Identifizieren dieser charakteristischen Merkmale und Bestimmen von Orten dieser Merkmale im jeweiligen Szenenbild 10 durch Anwenden des gleichen Algorithmus auf das Szenenbild 10, Identifying these characteristic features and determining locations of these features in the respective scene image 10 by applying the same algorithm to the scene image 10,
- Bestimmen einer Transformation, die eine Homographie ist und die Orte der Merkmale in dem Szenenbild 10 auf die so identifizierten Orte der jeweiligen Merkmale im Referenzbild 11 abbildet, und Determining a transformation which is a homography and images the locations of the features in the scene image 10 onto the so identified locations of the respective features in the reference image 11, and
- Anwenden dieser Transformation auf den im jeweiligen Szenenbild 10 identifizierten Blickpunkt 12. Applying this transformation to the viewpoint 12 identified in the respective scene image 10.
Anders als vorstehend beschrieben ist es auch möglich, dass für jedes der Intervalle Ii bis l6 oder für einige dieser Intervalle Ii bis l& jeweils mehrere Zeitpunkte ausgewählt werden, um durch fehlerhafte Abbildungen verursachte Ungenauigkeiten zu minimieren. In jedem Fall werden jeweils deutlich weniger Zeitpunkte ausgewählt, als das jeweilige Intervall enthält. Gemeint sind mit dem Begriff "Zeitpunkt" hier natürlich immer nur Zeitpunkte aus der endlichen Zahl von Zeitpunkten, für die Informationen über Blickpunkte vorliegen. Sofern mehrere Zeitpunkte aus einem Intervall ausgewählt werden, für die jeweils eine Abbildung beschriebener Art und mithin jeweils eine Position 13 im Referenzbild 11 definiert wird, kann als diesem Intervall zugeordnetes Abbildungsziel eine dieser Positionen 13 oder ein Mittelwert oder Median dieser Positionen 13 gespeichert werden zusammen mit der dieser Position 13 als Attribut zugeordneten Information über die Dauer des Intervalls. Die so mit verhältnismäßig geringem Aufwand und daher verhältnismäßig rasch ermittelten und gespeicherten Informationen enthalten alle Angaben, die für eine weitere Auswertung der Ergebnisse der Blickerkennung benötigt werden, und können dazu auf verschiedenste Weise maschinell oder auch manuell statistisch ausgewertet werden. Other than described above, it is also possible to select a plurality of timings for each of the intervals Ii to l 6 or for some of these intervals Ii to l & min in order to minimize inaccuracies caused by erroneous mappings. In any case, significantly fewer times are selected than the respective interval contains. Of course, the term "time" here always refers only to times from the finite number of times for which information about points of view is available. If a plurality of points in time are selected from an interval for each of which a picture of a described type and thus a respective position 13 in the reference picture 11 is defined, one of these positions 13 or an average or median of these positions 13 can be stored together with the information associated with this position 13 as an attribute over the duration of the interval. The information thus determined and stored with comparatively little effort and therefore relatively quickly contains all the information needed for a further evaluation of the results of the gaze recognition and can be statistically evaluated in a variety of ways both mechanically and manually.

Claims

Patentansprüche claims
Verfahren zum Auswerten von Ergebnissen einer Blickerfassung, wobe diese Ergebnisse vorliegen oder gewonnen werden als Informationen, die für jeden von einer Vielzahl aufeinanderfolgender Zeitpunkte jeweils eine zu diesem Zeitpunkt detektierte Blickrichtung und einen dadurch identifizierten Blickpunkt (12) in einem diesem Zeitpunkt zugeordneten Szenenbild (10) definieren, wobei die Szenenbilder zeitabhängig sind, so dass die den verschiedenen Zeitpunkten zugeordneten Szenenbiider verschieden sind, und wobei das Verfahren folgende Schritte umfasst; Method for evaluating the results of a gaze detection, wherein these results are present or obtained as information which, for each of a multiplicity of consecutive times, identifies a viewing direction detected at that time and a viewpoint (12) identified thereby in a scene image (10) associated therewith. wherein the scene images are time dependent, such that the scene buffers associated with the different times are different, and wherein the method comprises the steps of;
- Auswerten einer zeitlichen Änderung der Blickrichtung und/oder des Blickpunkts (12) und/oder einer Augenbewegung zum Identifizieren verschiedener Blickereignisse, wobei mindestens zwei verschiedene Arten von Blickereignissen erkannt und die identifizierten Blickereignisse nach ihrer Art klassifiziert werden, Evaluating a temporal change of the viewing direction and / or the point of view (12) and / or an eye movement for identifying different visual events, wherein at least two different types of visual events are recognized and the identified visual events are classified according to their type,
- Einteilen eines durch die Zeitpunkte aufgespannten Zeitraums in Intervalle derart, dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht, - dividing a period spanned by the times into intervals such that each of the identified gaze events is assigned an interval which corresponds to a duration of the respective gaze event,
- Auswählen jeweils genau eines der Zeitpunkte oder einer echten Untermenge der Zeitpunkte aus jedem der Intervalle (Ii - 16), die einem Blickereignis zumindest einer ausgewählten Art von Blickereignissen zugeordnet sind, Selecting each of exactly one of the times or a true subset of the times from each of the intervals (Ii-1 6 ) associated with a gaze event of at least one selected type of gaze event,
- und, für jeden dieser ausgewählten Zeitpunkte, Abbilden des im dem jeweiligen Zeitpunkt zugeordneten Szenenbild (10) identifizierten Blickpunkts (12) auf eine diesem Blickpunkt (12) entsprechende Position (13) in einem Referenzbild (11). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Auswerten Blickereignisse, bei denen eine Informationsaufnahme erfolgt, und Blickereignisse, bei denen keine Informationsaufnahme erfolgt, als verschiedene Arten von Biickereignissen erkannt werden, wobei das Auswählen jeweils genau eines der Zeitpunkte oder einer Untermenge der Zeitpunkte für jedes der Intervalle (Ii - Ig) erfolgt, die einem Biick- ereignis mit Informationsaufnahme zugeordnet sind. and, for each of these selected times, mapping the viewpoint (12) identified in the respective scene at the respective point in time onto a position (13) corresponding to this viewpoint (12) in a reference image (11). A method according to claim 1, characterized in that when evaluating viewing events in which an information recording takes place, and viewing events in which no information recording takes place, are recognized as different types of Biickereignissen, wherein each selecting exactly one of the times or a subset of the times for each of the intervals (Ii-Ig) associated with an information-aware paging event occurs.
Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die verschiedenen Blickereignisse sich durch unterschiedliche Geschwindigkeiten (v) und/oder Amplituden einer Augenbewegung voneinander unterscheiden und/oder dass Sakkaden (14) als Blickereignisse erkannt werden, bei denen keine Informationsaufnahme erfolgt, und/oder dass Fixationen (16) und/oder Folgebewegungen (15) als Blickereignisse erkannt werden, bei denen eine Informationsaufnahme erfolgt. Method according to one of claims 1 or 2, characterized in that the different visual events differ from one another by different speeds (v) and / or amplitudes of eye movement and / or that saccades (14) are recognized as visual events in which no information is recorded, and / or that fixations (16) and / or subsequent movements (15) are recognized as visual events in which an information recording takes place.
Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass für jedes der Intervalle (Ii - 16), die einem Blickereignis ausgewählter Art zugeordnet sind, als Abbildungsziel eine Position (13) im Referenzbild (11) zusammen mit einer Information über die Dauer des jeweiligen Blickereignisses gespeichert wird, wobei diese Position (13) gewählt wird Method according to one of claims 1 to 3, characterized in that for each of the intervals (Ii - 1 6 ) associated with a gaze event of selected type, a position (13) in the reference image (11) together with information about the Duration of each view event is stored, this position (13) is selected
- als die Position (13), auf die der Blickpunkt (12) abgebildet wird, der für den aus diesem Intervall (Ii - Ig) ausgewählten Zeitpunkt definiert ist, sofern genau einer der Zeitpunkte aus diesem Intervall (Ii - le) ausgewählt ist, oder as the position (13) on which the viewpoint (12) is mapped, which is defined for the point in time selected from this interval (Ii-Ig), if exactly one of the points in time from this interval (IIe) is selected, or
- als eine der Positionen (13) oder ein Mittelwert der Positionen (13), auf weiche die Blickpunkte (12) abgebildet werden, die für die aus diesem Intervall (Ii - 16) ausgewählten Zeitpunkte definiert sind, sofern mehrere der Zeitpunkte aus diesem Intervall (Ii - \$) ausgewählt sind. as one of the positions (13) or an average of the positions (13) on which the viewpoints (12) are mapped, which are defined for the times selected from this interval (Ii - 1 6 ), if several of the times are therefrom Interval (ii - \ $) are selected.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Szenenbifder (10) zu den genannten Zeitpunkten mit einer Kamera (4) aufgenommen werden, wobei die Blickrichtungen mittels eines Eye-Trackers (1) detektiert werden, der die Blickpunkte (12) in den Szenenbildern (10) in Abhängigkeit von den so gewonnenen Informationen über die Blickrichtungen bestimmt, wobei die Kamera (4) dabei vorzugsweise von einem Kopf eines Probanden getragen wird, dessen Blickrichtungen durch den Eye-Tracker (1) detektiert werden. 5. The method according to any one of claims 1 to 4, characterized in that the Szenierbifder (10) at said times with a camera (4) are recorded, the viewing directions are detected by means of an eye-tracker (1), the viewpoints (12) determined in the scene images (10) in dependence on the thus obtained information about the viewing directions, wherein the camera (4) is preferably carried by a head of a subject whose viewing directions are detected by the eye tracker (1).
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Referenzbild (11) ein Bild einer in den Szenenbildern (10) sichtbaren Szene ist, das einer festen Perspektive entspricht, oder eine abstrakte Wiedergabe oder Kodierung von in den Szenenbildem (10) erkennbaren charakteristischen Merkmalen ist. 6. Method according to claim 1, characterized in that the reference image (11) is an image of a scene that is visible in the scene images (10), which corresponds to a fixed perspective, or an abstract reproduction or coding of in the scene image (11). 10) recognizable characteristic features.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass für jeden der ausgewählten Zeitpunkte jeweils das diesem Zeitpunkt zugeordnete Szenenbild (10) ausgegeben wird zum manuellen Durchführen oder visuellen Überprüfen der Abbildung des Blickpunkts (12) in das Referenzbild (11). 7. The method according to any one of claims 1 to 6, characterized in that for each of the selected times in each case assigned to this time scene image (10) is output for manually performing or visually checking the image of the viewpoint (12) in the reference image (11) ,
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Abbilden der Blickpunkte (12) auf die Positionen (13) automatisch erfolgt durch 8. The method according to any one of claims 1 to 7, characterized in that the imaging of the viewpoints (12) on the positions (13) is carried out automatically by
- identifizieren einer Mehrzahl charakteristischer Merkmale und Orte dieser Merkmale im Referenzbild (11) mittels eines Algorithmus zur Merkmalsdetektion, identifying a plurality of characteristic features and locations of these features in the reference image (11) by means of a feature detection algorithm,
- Identifizieren dieser Merkmale und Bestimmen von Orten dieser Merkmale im jeweiligen Szenenbild (10) durch Anwenden des gleichen oder eines entsprechenden Algorithmus auf das Szenenbild (10), Identifying these features and determining locations of these features in the respective scene image (10) by applying the same or a corresponding algorithm to the scene image (10),
- Bestimmen einer Transformation, die die Orte der Merkmale in dem Szenenbild (10) auf die entsprechenden Orte im Referenzbild (11) abbildet, und - Anwenden dieser Transformation auf den im jeweiligen Szenenbild (10) identifizierten Blickpunkt (12). Determining a transformation that maps the locations of the features in the scene image (10) to the corresponding locations in the reference image (11), and Applying this transformation to the viewpoint (12) identified in the respective scene image (10).
9. Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung, wobei diese Ergebnisse vorliegen oder einlesbar oder erzeugbar sind als Informationen, die für jeden von einer Vielzahl aufeinanderfolgender Zeitpunkte jeweils eine zu diesem Zeitpunkt delektierte Blickrichtung und einen dadurch identifizierten Blickpunkt (12) in einem diesem Zeitpunkt zugeordneten Szenenbild (10) definieren, wobei die Szenenbilder zeitabhängig sind, so dass die den verschiedenen Zeitpunkten zugeordneten Szenenbiider verschieden sind, und wobei die Vorrichtung eingerichtet ist zum Durchführen folgender Schritte: 9. A device for evaluating the results of a gaze detection, these results being present or being readable or producible as information which, for each of a multiplicity of consecutive times, respectively indicates a gaze direction detected at that time and a viewpoint (12) identified thereby at a time associated with this Defining scene image (10), wherein the scene images are time-dependent, such that the scene buffers associated with the different time points are different, and wherein the device is arranged to perform the following steps:
- Auswerten einer zeitlichen Änderung der Blickrichtung und/oder des Blickpunkts (12) und/oder einer Augenbewegung zum Identifizieren verschiedener Blickereignisse und Erkennen von mindestens zwei verschiedenen Arten von Blickereignissen sowie Klassifizieren der identifizierten Blickereignisse nach ihrer Art, Evaluating a temporal change of the viewing direction and / or the viewpoint (12) and / or an eye movement for identifying different visual events and recognizing at least two different types of visual events, and classifying the identified visual events according to their nature,
- Einteilen eines durch die Zeitpunkte aufgespannten Zeitraums in Intervalle derart, dass jedem der identifizierten Blickereignisse ein Intervall zugeordnet wird, das einer Dauer des jeweiligen Blickereignisses entspricht, - dividing a period spanned by the times into intervals such that each of the identified gaze events is assigned an interval which corresponds to a duration of the respective gaze event,
- Ausgeben der den Blickpunkt (12) im Szenenbild (10) definierenden Informationen für ausgewählte Zeitpunkte aus den Intervallen (lx - 16), die einem Blickereignis ausgewählter Art zugeordnet sind, Outputting the information defining the viewpoint (12) in the scene image (10) for selected points in time from the intervals (l x - 1 6 ) which are associated with a look event of a selected type,
- und, für jeden der ausgewählten Zeitpunkte, Speichern einer Position (13) in einem Referenzbild (11) als Abbild des Blickpunkts (12), der für diesen Zeitpunkt definiert ist, sowie Speichern einer dieser Position (13) als Attribut zugeordneten Information über die Dauer des Blickereignisses oder Intervalls (Ii - le), zu dem dieser Zeitpunkt gehört, Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass sie eingerichtet ist, Blickereignisse, bei denen eine Informationsaufnahme erfolgt, und Blickereignisse, bei denen keine Informationsaufnahme erfolgt, als verschiedene Arten von Blickereignissen zu erkennen. and, for each of the selected instants, storing a position (13) in a reference image (11) as an image of the viewpoint (12) defined for that point in time, and storing information of that position as attribute associated with that position (13) Duration of the visual event or interval (II) to which this time belongs Device according to claim 9, characterized in that it is arranged to recognize viewing events in which information is recorded and viewing events in which no information is recorded, as different types of visual events.
Vorrichtung nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass sie eingerichtet ist, zum Einteilen des Zeitraums in die Intervalle jedem der Zeitpunkte jeweils ein Attribut zuzuordnen, das angibt, zu welchem der Intervalle oder BItckereignisse dieser Zeitpunkt gehört. Device according to one of claims 9 or 10, characterized in that it is arranged to assign to the period in the intervals of each of the times each an attribute indicating which of the intervals or BItckereignisse this time belongs.
12. Vorrichtung nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass die Vorrichtung eingerichtet ist, die verschiedenen Bückereignisse in Abhängigkeit von unterschiedliche Geschwindigkeiten (v) und/oder Amplituden einer Augenbewegung zu identifizieren und/oder Sakkaden (14) als Blickereignisse zu erkennen, bei denen keine Informationsaufnahme erfolgt, und/oder Fixationen (16) und/oder Folgebewegungen (15) als Blickereignisse zu erkennen, bei denen eine Informationsaufnahme erfolgt. 12. Device according to one of claims 9 to 11, characterized in that the device is set up to identify the various bending events as a function of different speeds (v) and / or amplitudes of an eye movement and / or to recognize saccades (14) as gaze events in which no information is recorded, and / or fixations (16) and / or subsequent movements (15) to be recognized as gaze events in which an information is recorded.
13. Vorrichtung nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass sie eingerichtet ist, die für die ausgewählten Zeitpunkte definierten Blickpunkte (12) automatisch auf diesen Blickpunkten (12) entsprechende Positionen (13) im Referenzbild (11) abzubilden und die so bestimmten Positionen (13) als die Abbilder der Blickpunkte (12) zu speichern. 13. Device according to one of claims 9 to 12, characterized in that it is adapted to automatically represent the positions (13) in the reference image (11) corresponding to those points of view (12) defined on the points of view (12), and the like certain positions (13) as the images of the viewpoints (12) store.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass sie eingerichtet ist, zum automatischen Abbilden der Blickpunkte (12) auf die entsprechenden Positionen (13) im Referenzbild (11) folgende Schritte durchzuführen: 14. The device according to claim 13, characterized in that it is arranged to perform the following steps for automatically imaging the viewpoints (12) on the corresponding positions (13) in the reference image (11):
- Identifizieren einer Mehrzahl charakteristischer Merkmale und Orte dieser Merkmale im Referenzbild (11) mittels eines Algorithmus zur Merkmalsdetektion, - Identifizieren dieser Merkmale und Bestimmen von Orten dieser Merkmale im jeweiligen Szenenbild (10) durch Anwenden des gleichen oder eines entsprechenden Algorithmus auf das Szenenbild (10), Identifying a plurality of characteristic features and locations of these features in the reference image (11) by means of a feature detection algorithm, Identifying these features and determining locations of these features in the respective scene image (10) by applying the same or a corresponding algorithm to the scene image (10),
- Bestimmen einer Transformation, die die Orte der Merkmale in dem Szenenbild (10) auf die so identifizierten Orte der jeweiligen Merkmale im Referenzbild (11) abbildet, und Determining a transformation that maps the locations of the features in the scene image (10) to the thus identified locations of the respective features in the reference image (11), and
- Anwenden dieser Transformation auf den im jeweiligen Szenenbild (10) identifizierten Blickpunkt (12). Applying this transformation to the viewpoint (12) identified in the respective scene image (10).
15. Vorrichtung nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass sie eingerichtet ist, für jeden der ausgewählten Zeitpunkte die entsprechende Position (13) im Referenzbild (11) zusammen mit dem dieser Positionen (13) zugeordneten Attribut jeweils in Abhängigkeit von einer die Position (13) definierenden und diese mit dem Zeitpunkt oder dem diesem Zeitpunkt zugeordneten Szenenbild (10) verknüpfenden Eingabe zu speichern. 15. Device according to one of claims 9 to 12, characterized in that it is arranged for each of the selected times, the corresponding position (13) in the reference image (11) together with the said these positions (13) associated with each attribute depending on a store the position (13) defining and associating it with the time or the scene image (10) associated with that time.
16. Vorrichtung nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass sie eingerichtet ist für eine die ausgewählten Zeitpunkte als solche definierende Eingabe oder für eine automatische Auswahl dieser Zeitpunkte durch Anwenden einer diese Zeitpunkte in Abhängigkeit von den Intervallen ( - 16) definierenden Vorschrift. 16. Device according to one of claims 9 to 15, characterized in that it is set up for a selected time points as defining such input or for an automatic selection of these times by applying one of these times as a function of the intervals (- 1 6 ) defining provision.
17. Vorrichtung nach einem der Ansprüche 9 bis 16, dadurch gekennzeichnet, dass sie ferner einen Eye-Tracker (1) zum Delektieren der Blickrichtungen mit einer Kamera (4) zum Aufnehmen der Szenenbilder (10) und/oder eine Kamera (6) zum Aufnehmen des Referenzbildes (11) aufweist. 17. Device according to one of claims 9 to 16, characterized in that it further comprises an eye tracker (1) for detecting the viewing directions with a camera (4) for recording the scene images (10) and / or a camera (6) for Recording the reference image (11).
EP13710873.4A 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking Active EP2828794B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16199536.0A EP3168783B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking
EP13710873.4A EP2828794B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12160878.0A EP2642425A1 (en) 2012-03-22 2012-03-22 Method and device for evaluating the results of eye tracking
PCT/EP2013/055953 WO2013139919A1 (en) 2012-03-22 2013-03-21 Method and apparatus for evaluating results of gaze detection
EP13710873.4A EP2828794B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking

Related Child Applications (2)

Application Number Title Priority Date Filing Date
EP16199536.0A Division EP3168783B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking
EP16199536.0A Division-Into EP3168783B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking

Publications (2)

Publication Number Publication Date
EP2828794A1 true EP2828794A1 (en) 2015-01-28
EP2828794B1 EP2828794B1 (en) 2017-01-04

Family

ID=47902015

Family Applications (3)

Application Number Title Priority Date Filing Date
EP12160878.0A Withdrawn EP2642425A1 (en) 2012-03-22 2012-03-22 Method and device for evaluating the results of eye tracking
EP16199536.0A Active EP3168783B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking
EP13710873.4A Active EP2828794B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking

Family Applications Before (2)

Application Number Title Priority Date Filing Date
EP12160878.0A Withdrawn EP2642425A1 (en) 2012-03-22 2012-03-22 Method and device for evaluating the results of eye tracking
EP16199536.0A Active EP3168783B1 (en) 2012-03-22 2013-03-21 Method and device for evaluating the results of eye tracking

Country Status (6)

Country Link
US (1) US9639745B2 (en)
EP (3) EP2642425A1 (en)
JP (1) JP6067093B2 (en)
CN (1) CN104321785B (en)
IN (1) IN2014DN08740A (en)
WO (1) WO2013139919A1 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010083853A1 (en) * 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
EP2642425A1 (en) 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Method and device for evaluating the results of eye tracking
US9256784B1 (en) 2013-03-11 2016-02-09 Amazon Technologies, Inc. Eye event detection
US9466130B2 (en) * 2014-05-06 2016-10-11 Goodrich Corporation Systems and methods for enhancing displayed images
US11586295B2 (en) * 2015-01-12 2023-02-21 Maximilian Ralph Peter von und zu Liechtenstein Wink gesture control system
WO2016146488A1 (en) * 2015-03-13 2016-09-22 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method for automatically identifying at least one user of an eye tracking device and eye tracking device
EP3308188A4 (en) * 2015-06-09 2019-01-23 Nokia Technologies Oy Causing performance of an active scan
EP3332284A1 (en) * 2015-08-07 2018-06-13 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for data capture and evaluation of ambient data
KR101848453B1 (en) * 2016-08-19 2018-04-13 서울대학교병원 Apparatus for taking a picture of a certain portion of eyeball using headmount display
EP3316075B1 (en) * 2016-10-26 2021-04-07 Harman Becker Automotive Systems GmbH Combined eye and gesture tracking
KR102495234B1 (en) 2017-09-06 2023-03-07 삼성전자주식회사 Electronic apparatus, method for controlling thereof and the computer readable recording medium
US10656706B2 (en) * 2017-12-04 2020-05-19 International Business Machines Corporation Modifying a computer-based interaction based on eye gaze
JP2019200481A (en) * 2018-05-14 2019-11-21 株式会社デンソーテン Terminal device and collection method
KR101987229B1 (en) * 2018-12-10 2019-06-10 세종대학교산학협력단 Method and apparatus for analyzing saliency-based visual stimulus and gaze data
JP6963157B2 (en) * 2019-02-09 2021-11-05 株式会社ガゾウ Visual inspection training equipment and programs
US11112865B1 (en) * 2019-02-13 2021-09-07 Facebook Technologies, Llc Systems and methods for using a display as an illumination source for eye tracking
CN113762907B (en) * 2020-10-13 2024-09-24 北京沃东天骏信息技术有限公司 Method and device for auditing objects
KR102354822B1 (en) * 2021-03-25 2022-01-24 박준 Eyeball Movement Test System Using AI Big Data
CN117137426B (en) * 2023-10-26 2024-02-13 中国科学院自动化研究所 Visual field damage evaluation training method and system based on micro-glance feature monitoring

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6381339B1 (en) * 1997-01-15 2002-04-30 Winton Emery Brown Image system evaluation method and apparatus using eye motion tracking
US6106119A (en) * 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
JP4120008B2 (en) * 2003-02-25 2008-07-16 独立行政法人科学技術振興機構 Motor function assist device
JP3751608B2 (en) * 2003-06-18 2006-03-01 株式会社東芝 Information processing device
JP4742695B2 (en) * 2005-06-27 2011-08-10 トヨタ自動車株式会社 Gaze recognition apparatus and gaze recognition method
US9606621B2 (en) * 2006-07-28 2017-03-28 Philips Lighting Holding B.V. Gaze interaction for information display of gazed items
US7682025B2 (en) * 2007-02-04 2010-03-23 Miralex Systems Incorporated Gaze tracking using multiple images
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
CN101382940B (en) * 2008-10-23 2012-01-04 浙江大学 Web page image individuation search method based on eyeball tracking
WO2010083853A1 (en) * 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
CN101943982B (en) * 2009-07-10 2012-12-12 北京大学 Method for manipulating image based on tracked eye movements
GB0915136D0 (en) * 2009-08-28 2009-10-07 Cambridge Entpr Ltd Visual perimeter measurement system and method
AU2011253982B9 (en) * 2011-12-12 2015-07-16 Canon Kabushiki Kaisha Method, system and apparatus for determining a subject and a distractor in an image
EP2642425A1 (en) 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Method and device for evaluating the results of eye tracking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2013139919A1 *

Also Published As

Publication number Publication date
CN104321785A (en) 2015-01-28
JP6067093B2 (en) 2017-01-25
US9639745B2 (en) 2017-05-02
US20150063635A1 (en) 2015-03-05
EP3168783B1 (en) 2020-08-19
JP2015514251A (en) 2015-05-18
EP2828794B1 (en) 2017-01-04
CN104321785B (en) 2018-01-09
IN2014DN08740A (en) 2015-05-22
EP3168783A1 (en) 2017-05-17
WO2013139919A1 (en) 2013-09-26
EP2642425A1 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
EP2828794B1 (en) Method and device for evaluating the results of eye tracking
EP2157903B1 (en) Method for perception measurement
EP3332284A1 (en) Method and apparatus for data capture and evaluation of ambient data
EP2782493B1 (en) Method and device improving visual performance
WO2017153355A1 (en) Method and device for carrying out eye gaze mapping
DE102016201531A1 (en) Method and device for detecting fatigue of a driver
DE102008040803A1 (en) Method for the quantitative representation of the blood flow
DE102014216511A1 (en) Create chapter structures for video data with images from a surgical microscope object area
DE102011011931A1 (en) Method for evaluating a plurality of time-shifted images, device for evaluating images, monitoring system
EP3873322B1 (en) Location-based quantification of impairment due to halo and scattered light
WO2017220667A1 (en) Method and device for modifying the affective visual information in the field of vision of an user
DE102017217872A1 (en) Improved view of a motor vehicle environment
EP1300108B1 (en) Method for obtaining, evaluating and analyzing sequences of vision
DE102014009699A1 (en) Method for operating a display device and system with a display device
DE102007001738B4 (en) Method and computer program product for eye tracking
EP3399427B1 (en) Method and system for the quantitative measurement of mental stress of an individual user
AT506572B9 (en) METHOD FOR MEASURING VISUAL ATTENTION IN THE VIEW OF STATIC AND DYNAMIC VISUAL SCENES
DE102023203957B3 (en) Methods for stereo image processing and display and overall system
DE102013105638B4 (en) Increase of perceptual image resolution
DE102009000376A1 (en) Method for quantitative representation of blood flow in tissue- or vein region of patients, involves generating difference between successive frames, where generated difference is represented
DE102008040802A1 (en) Method for quantitative representation of blood flow in tissue or vein region of patient, involves representing parameter characteristic of flow and another parameter characteristic of vein position in superimposed manner for image regions
AT412443B (en) Test person look sequence analyzing method, involves recording eye and view video, determining pupil coordinate for each frame of eye video, and measuring centroid corresponding to pupil center of dark area
DE102023104370A1 (en) Method for detecting and evaluating pupil movements of a living being, mobile device, computer program product and computer-readable medium
DE102016006768A1 (en) A method of operating a display system and display system
DE102015011926A1 (en) Method for operating a camera system in a motor vehicle and motor vehicle

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140922

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: HOFFMANN, JAN

Inventor name: WILLIAMS, DENIS

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20150710

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20160713

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 859903

Country of ref document: AT

Kind code of ref document: T

Effective date: 20170115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502013005972

Country of ref document: DE

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

Ref country code: NL

Ref legal event code: MP

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170404

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170405

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170504

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170504

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170404

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502013005972

Country of ref document: DE

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502013005972

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

26N No opposition filed

Effective date: 20171005

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170321

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170321

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20170331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 859903

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180321

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20190213

Year of fee payment: 7

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502013005972

Country of ref document: DE

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502013005972

Country of ref document: DE

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: SENSOMOTORIC INSTRUMENTS GESELLSCHAFT FUER INNOVATIVE SENSORIK MBH, 14513 TELTOW, DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20130321

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180321

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170104

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200331

REG Reference to a national code

Ref country code: GB

Ref legal event code: 732E

Free format text: REGISTERED BETWEEN 20210708 AND 20210714

REG Reference to a national code

Ref country code: DE

Ref legal event code: R079

Ref document number: 502013005972

Country of ref document: DE

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20231229

Year of fee payment: 12

Ref country code: GB

Payment date: 20240108

Year of fee payment: 12