EP1915874A2 - Method and circuit arrangement for recognising and tracking eyes of several observers in real time - Google Patents

Method and circuit arrangement for recognising and tracking eyes of several observers in real time

Info

Publication number
EP1915874A2
EP1915874A2 EP06791307A EP06791307A EP1915874A2 EP 1915874 A2 EP1915874 A2 EP 1915874A2 EP 06791307 A EP06791307 A EP 06791307A EP 06791307 A EP06791307 A EP 06791307A EP 1915874 A2 EP1915874 A2 EP 1915874A2
Authority
EP
European Patent Office
Prior art keywords
eye
instance
face
finder
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP06791307A
Other languages
German (de)
French (fr)
Inventor
Alexander Schwerdtner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SeeReal Technologies GmbH
Original Assignee
SeeReal Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SeeReal Technologies GmbH filed Critical SeeReal Technologies GmbH
Publication of EP1915874A2 publication Critical patent/EP1915874A2/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/05Means for tracking the observer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Definitions

  • the invention relates to a method and a circuit arrangement for a contact-free detection and tracking of eye positions or pupils of several observers in real-time mode.
  • the input data includes imagery as a sequence of digital video frames acquired by one or more image sensors.
  • the invention serves to detect the eye positions in a large target area, allows rapid movement of the viewer and determines the coordinate the depth in a large area of for example 0.5 to 3.5 meters.
  • An important field of application of the invention resides in a device for recognizing and tracking the eye positions of observers of autostereoscopic displays. Such displays provide the viewer with a stereoscopic image impression without the need for aids such as polarization glasses.
  • Other applications of the invention include, for example, the video holography and implementations in the field of person, face or gaze direction detection.
  • Autostereoscopic displays in which the display is tracked by a so-called tracking device, provide multiple viewers a large freedom of movement in a large viewer area. The error-free detection and tracking of eyes, eye positions or pupils is also an essential interface between human and machine in these areas of image presentation.
  • a reliable and error-free tracking device is usually not perceived by a viewer. In many applications, however, errors of the tracking system lead to undesirable side effects, which lead to poor reproduction or crosstalk, for example in the area of the 3D representation.
  • a tracking device requires high accuracy, reliability and accuracy. The system must also be sufficiently efficient and accurate to track the significant movements, allowing the viewer maximum freedom of movement in all three spatial directions.
  • Zhiwei Zhu Qiang Ji describes a method for non-contact detection of eyes in real time, which essentially comprises a step for eye detection and a Includes eye tracking step.
  • Eye detection includes a combination of the active illumination method and pattern recognition. After the eyes of a viewer are first recognized, the eyes are followed, this step involving the combination and synthesis of several algorithms and techniques.
  • combination and Synthesis of various means remains the problem that larger and faster head movements in all three coordinate directions can not be tracked in real time and that the delay between delivery of the position data and image acquisition can prevent real-time processing. This concerns in particular the determination of the eye position in depth in unfavorable environmental conditions.
  • the driver's face is always within a predictable range of the dashboard.
  • even small changes occur in vertical and horizontal directions.
  • the real range of motion in the depth is very small, so that usually when using a single camera, the depth position can be extrapolated with sufficient accuracy.
  • the depth should preferably cover a wide range from 0.5 to at least 3.5 meters.
  • To determine the depth on the one hand, several separately arranged cameras are necessary in order to be able to generate images from different directions from the target area.
  • the detection of the eyes at a distance of up to several meters requires a very high resolution of the cameras, resulting in a large amount of data per camera and per video frame.
  • the invention has the object to provide a method which allows to determine the eye positions of several observers, even with larger and abrupt head movements in all three coordinate directions in real time.
  • the method is intended to detect the detection of the eye positions in a large target area, to compensate for rapid movements of the observer and to determine the coordinate of the depth in a large area.
  • the response time between the video recording, ie the reading of a video frame and the result delivery, ie the provision of the eye positions should be sustainably reduced.
  • the method should also allow for high-resolution cameras error-free results in real-time mode can be achieved.
  • the method is used to detect and track reference points of multiple viewer's eyes in real time.
  • the input data includes image data as a sequence of digital video frames acquired by one or more image sensors, such as cameras.
  • the reference points of the eyes are the positions of the pupils and / or the corner of the eye.
  • the method comprises the interaction of a face finder instance for finding faces, subsequently and hierarchically subordinate an eye finder instance for finding areas of the eyes, and an eye tracker Instance used to detect and track eye points.
  • the Eye Tracker instance is hierarchically subordinate to the Eye Finder instance.
  • the invention is based on the idea that the position determination of the eyes is implemented within a hierarchical sequence with the goal that
  • Search range starting from an entire video image successively restrict.
  • the real-time behavior is realized by the hierarchical successive restriction and nesting of the search area from the complete video frame for the face finder instance to the restricted face target area for the eye finder or eye tracker instance.
  • an instance or a group of instances is executed in parallel on a separate computing unit within separate processes.
  • the Face Finder instance searches the head or face position for each viewer in the area of an entire video frame. For each face, the instance determines a significantly smaller amount of data from the data of the entire video frame, representing the corresponding face-target area, and passes that restricted area to the Eye-Finder instance.
  • the eye finder instance is hierarchically subordinate to the face finder instance and only needs to process a very limited amount of data from the data of the passed face target area.
  • the instance determines the eyes or eye positions in this data area and, in turn, defines a much smaller data volume of the face / target area than the eye / target area, whereby this limited search area is then transferred to a subsequent and hierarchically subordinate eye tracker instance.
  • the Eye Tracker Instance determines the sought reference points of the eyes in this highly constrained amount of data of the eye search area at an increased speed.
  • the Eye Tracker instance is highly effective and fast.
  • the instances face-finder and eye-finder / eye tracker should each be executed in parallel independently of each other within separate processes.
  • the parallelization by assigning an instance or a group of instances to its own computing units can be implemented in several variants.
  • a face-Finder instance is performed on a separate computing unit for each camera. Subsequently, each observer, who finds a face finder instance, is assigned an own arithmetic unit for the realization of an eye finder and subsequently an eye tracker instance. If a newly detected face is determined by a face finder instance, an instance of the eye finder and the eye tracker is immediately commissioned or initialized and these instances are executed on their own assigned arithmetic unit. Even for briefly lost and rediscovered faces an immediate tracking is delegated after detection of the face.
  • a significant advantage of the invention is that a face-Finder instance, since now the subordinate instances are executed on their own arithmetic units, is in no way blocked or obstructed.
  • the Face Finder instance continues to search for faces in the data of the current video frame, while preserving the computational resources. Determined intermediate and partial results are transferred to a control entity for further processing / distribution, or they are taken over by partial results of the eye tracker / eye finder instances in order to be able to extrapolate the facial target areas in a positive control loop.
  • the immediate realization of the instances shortens the response time of the process and provides the first basis for real-time behavior.
  • the real-time behavior is provided by the hierarchical successive restriction and nesting of the search area from the complete video frame for the Underpinned Face Finder instance to the restricted face target area for the Eye Finder or Eye Tracker instance.
  • real-time behavior is further underpinned and secured by the implementation of an instance or a group of instances in parallel within separate processes on a separate computing unit.
  • a face finder instance and an eye finder / eye tracker instance can each be executed on a separate arithmetic unit.
  • a face finder / eye finder instance and an eye tracker instance can be executed on a separate arithmetic unit.
  • An implementation of the Eye Finder instance on its own arithmetic unit also seems conceivable. However, this is an instance which requires a comparatively short computing time, so that it is advantageously allocated to a computing unit of the two computing intensive face finders or eye tracker instances.
  • both the flow of the instances and their data exchange is controlled and monitored by a control entity.
  • this instance controls the assignment of the found faces, or face target areas, to the eye finder / eye tracker instances on the individual arithmetic units.
  • the data exchange essentially comprises the
  • Initialization of the instances by assigning the search areas, the exchange of partial and final results of the instances and the transfer of the resulting reference points for the eyes to an external interface.
  • the control instance updates and re-initializes the associated instances of the Eye Finder and the Eye Tracker for an already tracked face.
  • the tax authority selects, verifies and evaluates the confidence of the found face and eye target areas.
  • Corresponding evaluation parameters are determined by the instances in the course of the procedure and serve the control entity also for an optimal execution coordination of the instances and as well as an allocation of the existing calculation units.
  • the method according to the invention allows the eye positions of several observers even with larger and abrupt head movements in all three To determine coordinate directions in real time.
  • the method can also achieve results in the real-time mode for the data volume of high-resolution camera systems.
  • Fig. 1 is a schematic representation of the nested, restricted
  • Fig. 3 is a schematic representation of the circuit arrangement and a flowchart of the parallelization of the hierarchically structured instances of the method according to the invention.
  • Fig. 1 shows the interleaved, restricted search areas of the instances of the method.
  • image material is acquired as a sequence of digital video frames VF from a plurality of image sensors, for example a stereo infrared camera.
  • a section of the entire video frame VF is shown schematically in the figure by the coordinate system.
  • a first face finder instance analyzes the data of the entire video frame VF and recognizes the faces of the viewers throughout the video frame. In the figure, the data of two faces are shown. The first face on the left is obviously close to the camera, while the second right one has a higher distance to the camera.
  • the face finder instance determines from the data of the entire video frame VF a limited data area of the facial Target area GZ corresponds.
  • the indices refer to the first face shown in the figure on the left.
  • the determined face target area GZ now represents the restricted search area for subsequent Eye Finder instance.
  • the Eye Finder instance determines the eye positions and, as a result, restricts the data volume of the target area GZ to a much smaller amount of data Eye Target Range AZ equals, one.
  • the data of the eye target area AZ with the eye positions are the input data for a subsequent eye tracker instance ET, which is now in the eye target area AZ for the current video frame and in the subsequent video frames according to the already determined motion sequence in the guided eye target area AZ finally determined reference points for the eyes as a result.
  • the eye target area AZ is tracked, updated and the areas for the current and the coming frames are extrapolated. If the observer moves into the depth, a scaling of the image content may additionally be necessary.
  • the eye-target area can disintegrate into several non-contiguous subregions.
  • the target areas are irregular, but preferably convex, depending on the observer's head position and viewing direction.
  • the regions are represented by a list of parameterized geometric surfaces, such as ellipses, circles, or rectangles.
  • Fig. 2 builds on the last embodiment and shows a flowchart of the parallelization of the instances.
  • the figure describes the hierarchical structuring of the instances of face finder FF, eye finder and eye tracker ET and the assignment to own calculation units R1 to R2.
  • a first arithmetic unit R1 is provided for the face finder instance FF. This finds the face of a first observer in the data of a video frame and thereby determines the facial target area GZ.
  • the facial Zi ⁇ l Symposium is immediately assigned its own arithmetic unit R1 for performing an eye finder EF and subsequently an eye tracker instance ET.
  • the figure shows the data flow of the data of the restricted target areas, ie facial target area GZ and eye target area AZ to the respective subsequent instance.
  • An eye tracker instance ET supplies the data of the reference points of eyes to a superordinate control instance (not shown) or to an external interface.
  • the information of the reference points determined in the past video frames is used to track the eye target area AZ during a movement of the observer and to extrapolate for the coming frames.
  • the data of the current eye target area as well as the areas of past frames are therefore returned to the Eye Tracker instance as shown.
  • an eye-finder eye-tracker instance is preferably realized analogously for each observer, that is to say a face-target area, as independent processes running in parallel, in which case several processes naturally run on one common arithmetic unit.
  • FIGS. 1 and 2 show a circuit arrangement and a flowchart of the parallelization of the hierarchically structured instances a parallelization of the method based on the image data of several cameras different positions
  • the cameras are each based on a method analogous to the above examples.
  • a camera is thus associated with a parallelization of the instances analogous to FIGS. 1 and 2.
  • the left system determines from the left image data VFL (Video Frame Left) by a face finder instance FF on a first of the arithmetic unit R1 the face target area GZ1-L of the first observer.
  • the associated Eye-Finder EF / Eye Tracker ET instances are executed on the arithmetic unit R2.
  • these arithmetic units are usually implemented as CPUs or DSPs.
  • a second group of instances on the arithmetic unit R3 is assigned to a second observer.
  • the remaining instances and arithmetic units shown in the figure refer to the right and the associated instances or elements of the circuit arrangement, characterized by VFR (Video Frame Right) and the index "R".
  • One and possibly also implemented control unit assumes in the process the task of controlling the individual processes and controls the data exchange.
  • the data exchange takes place in particular within those arithmetic units which are assigned to a viewer. For example, one uses the already available information in the left, in the right, whose content is not significantly different from the left, to determine the position in the right image with a certain tolerance and to extrapolate in knowledge of. From the xy pixel position of the eye in the left, the distance of the observer, which was determined from the previous depth calculation, and the camera parameters is a
  • the circuit arrangement essentially comprises communicating, programmable logic modules, processors, ROMs and RAMs.
  • the arithmetic units are optimized and configured exclusively for the intended task, in particular for the named instances.
  • the circuit arrangement also contains independent arithmetic units for performing auxiliary processes, such as scaling, gamma correction or the like.

Abstract

The invention relates to a method and to a circuit arrangement for recognising and for tracking, in a contact-free manner, eye positions of several users in real time. The input data comprises a sequence of digital video frames. Said method comprises the following steps: combining a face-finder-instance which is used to examine faces, an eye-finder-instance which is used to examine eye areas, and an eye-tracker-instance which is used to recognise and track eye reference points. The aim of the invention is to convert the eye positions within a hierarchical outlet of the instance to the target, which successively restricts the dataset, which is to be processed, emerging from the dataset of the entire video frame (VF) in order to form a face target area (GZ) and subsequently an eye target area (AZ). Also, an instance or a group of instances, which run in a parallel manner, are carried out, respectively, on a calculating unit thereof.

Description

Verfahren und Schaltungsanordnung zum Erkennen und Verfolgen von Augen mehrerer Betrachter in EchtzeitMethod and circuit arrangement for recognizing and tracking eyes of several observers in real time
Gebiet der ErfindungField of the invention
Die Erfindung betrifft ein Verfahren und eine Schaltungsanordnung für ein kontaktfreies Erkennen und Verfolgen von Augenpositionen oder Pupillen von mehreren Betrachtern im Echzeit-Modus.The invention relates to a method and a circuit arrangement for a contact-free detection and tracking of eye positions or pupils of several observers in real-time mode.
Die Eingangsdaten umfassen Bildmaterial als Sequenz digitaler Videoframes, die von einem oder mehreren Bildsensoren akquiriert werden.The input data includes imagery as a sequence of digital video frames acquired by one or more image sensors.
Es können Referenzpunkte der Augen mehrerer Betrachter ermittelt werden, ohne dass weitere Hilfsmittel, wie beispielsweise Brillen, Helme oder Spots erforderlich sind.It can be determined reference points of the eyes of multiple observers, without further aids, such as glasses, helmets or spots are required.
Im Gegensatz zu stationären Anwendungen, beispielsweise der Überwachung von Fahrern und Piloten, wo der Bewegungsbereich insbesondere in der Tiefe stark eingeschränkt und somit nahezu stationär ist, dient die Erfindung der Erfassung der Augenpositionen in einem großen Zielbereich, erlaubt rasche Bewegungen der Betrachter und ermittelt die Koordinate der Tiefe in einem großen Bereich von zum Beispiel 0.5 bis 3.5 Metern.In contrast to stationary applications, for example, the monitoring of drivers and pilots, where the range of motion is particularly limited in depth and thus almost stationary, the invention serves to detect the eye positions in a large target area, allows rapid movement of the viewer and determines the coordinate the depth in a large area of for example 0.5 to 3.5 meters.
Die effiziente und genaue Realisierung der Augenerkennung in Echtzeit ist eine wichtige Schnittstelle zwischen Mensch und Maschine. Ein bedeutendes Anwendungsgebiet der Erfindung liegt in einer Einrichtung zum Erkennen und Verfolgen der Augenpositionen von Betrachtern autostereoskopischer Displays. Derartige Displays bieten den Betrachtern einen stereoskopischen Bildeindruck ohne dass Hilfsmittel wie etwa Polarisationsbrillen erforderlich sind. Weitere Anwendungen der Erfindung umfassen beispielsweise die Videoholographie sowie Implementierungen im Bereich der Personen-, Gesichts- oder Blickrichtungserkennung. Autostereoskopische Displays, bei denen die Darstellung durch eine so genannte Tracking-Einrichtung nachgeführt wird, bieten mehreren Betrachtern einen großen Bewegungsfreiraum in einen großen Betrachterbereich. Die fehlerfreie Erkennung und Verfolgung von Augen, Augenpositionen beziehungsweise Pupillen ist auch in diesen Bereichen der Bilddarstellung eine wesentliche Schnittstelle zwischen Mensch und Maschine.The efficient and accurate realization of eye recognition in real time is an important interface between man and machine. An important field of application of the invention resides in a device for recognizing and tracking the eye positions of observers of autostereoscopic displays. Such displays provide the viewer with a stereoscopic image impression without the need for aids such as polarization glasses. Other applications of the invention include, for example, the video holography and implementations in the field of person, face or gaze direction detection. Autostereoscopic displays, in which the display is tracked by a so-called tracking device, provide multiple viewers a large freedom of movement in a large viewer area. The error-free detection and tracking of eyes, eye positions or pupils is also an essential interface between human and machine in these areas of image presentation.
Ein verlässlich und fehlerfrei arbeitende Tracking-Einrichtung wird von einem Betrachter in der Regel nicht wahrgenommen. Bei vielen Anwendungen führen jedoch Fehler des Tracking-Systems zu unerwünschten Nebeneffekten, welche beispielsweise im Bereich der 3D-Darstellung zu einer mangelhaften Wiedergabe oder zu Übersprechen führen. Von einer Tracking-Einrichtung wird hohe Genauigkeit, Verlässlichkeit und Treffsicherheit verlangt. Das System muss auch ausreichend effizient und genau sein, um die wesentlichen Bewegungen verfolgen zu können und dem Betrachter so eine größtmögliche Bewegungsfreiheit in alle drei Raumrichtungen erlauben.A reliable and error-free tracking device is usually not perceived by a viewer. In many applications, however, errors of the tracking system lead to undesirable side effects, which lead to poor reproduction or crosstalk, for example in the area of the 3D representation. A tracking device requires high accuracy, reliability and accuracy. The system must also be sufficiently efficient and accurate to track the significant movements, allowing the viewer maximum freedom of movement in all three spatial directions.
Stand der TechnikState of the art
Kontaktfreie Tracking-Systeme sind in verschiedenen Varianten kommerziell verfügbar. Einfache Ausführungen bieten in der Regel eine grundlegende Applikations-Software für Standard-Betriebssysteme und verfügen über hard- und softwaremäßig standardisierte Schnittstellen.Contactless tracking systems are commercially available in different variants. Simple versions usually offer a basic application software for standard operating systems and have hardware and software standardized interfaces.
Das Dokument WO 03/079 902 A1 , "Real-Time eye-detection and tracking under various light conditions", Zhiwei Zhu Qiang Ji beschreibt ein Verfahren zur kontaktfreien Erkennung von Augen in Echt-Zeit, welches im Wesentlichen einen Schritt zur Augenerkennung und einen Schritt zur Verfolgung der Augen umfasst. Die Augenerkennung beinhaltet eine Kombination der Methode der aktiven Beleuchtung und eine Mustererkennung. Nach dem die Augen eines Betrachters erstmals erkannt wurden, erfolgt das Verfolgen der Augen, wobei dieser Schritt die Kombination und Synthese mehrerer Algorithmen und Techniken umfasst. Trotz Kombination und Synthese verschiedener Mittel bleibt die Problematik bestehen, dass größere und rasche Kopfbewegungen in allen drei Koordinatenrichtungen nicht in Echtzeit verfolgt werden können und dass durch die Verzögerung zwischen Lieferung der Positionsdaten und der Bildaufnahme eine Echtzeit-Verarbeitung verhindert sein kann. Dies betrifft insbesondere die Ermittlung der Augenposition in der Tiefe bei unvorteilhaften Umgebungsbedingungen.The document WO 03/079902 A1, "Real-time eye-detection and tracking under various light conditions", Zhiwei Zhu Qiang Ji describes a method for non-contact detection of eyes in real time, which essentially comprises a step for eye detection and a Includes eye tracking step. Eye detection includes a combination of the active illumination method and pattern recognition. After the eyes of a viewer are first recognized, the eyes are followed, this step involving the combination and synthesis of several algorithms and techniques. Despite combination and Synthesis of various means remains the problem that larger and faster head movements in all three coordinate directions can not be tracked in real time and that the delay between delivery of the position data and image acquisition can prevent real-time processing. This concerns in particular the determination of the eye position in depth in unfavorable environmental conditions.
In einem Fahrzeug ist beispielsweise das Gesicht des Fahrers immer innerhalb eines vorhersehbaren Bereichs vom Armaturenbrett entfernt. Außerdem treten auch nur kleine Änderungen Bewegungen in vertikaler und horizontaler Richtung auf.For example, in a vehicle, the driver's face is always within a predictable range of the dashboard. In addition, even small changes occur in vertical and horizontal directions.
Insbesondere ist der reale Bewegungsbereich in der Tiefe sehr gering, so dass in der Regel auch bei der Verwendung einer einzelnen Kamera die Tiefenposition hinreichend genau extrapoliert werden kann.In particular, the real range of motion in the depth is very small, so that usually when using a single camera, the depth position can be extrapolated with sufficient accuracy.
Es ist die die Aufgabe der vorliegenden Erfindung in allen drei Dimensionen eines Betrachterraums bei geringen Rechenzeiten einen großen Bewegungsbereich bereit zu stellen. Im Gegensatz zum genannten Stand der Technik ist es notwendig, die Augen in allen drei Dimensionen, also inklusive der Tiefe zu erfassen. Die Tiefe soll vorzugsweise einen großen Bereich von 0.5 bis mindestens 3.5 Meter umfassen. Zur Ermittlung der Tiefe sind einerseits mehrere getrennt angeordnete Kameras notwendig, um vom Zielbereich Aufnahmen aus unterschiedlichen Richtungen generieren zu können. Überdies erfordert die Ermittlung der Augen im Abstand bis zu mehreren Metern eine sehr hohe Auflösung der Kameras, woraus eine große Datenmenge pro Kamera und pro Videoframe resultiert.It is the task of the present invention in all three dimensions of a viewer space to provide a large range of motion with low computation times. In contrast to the cited prior art, it is necessary to capture the eyes in all three dimensions, including the depth. The depth should preferably cover a wide range from 0.5 to at least 3.5 meters. To determine the depth, on the one hand, several separately arranged cameras are necessary in order to be able to generate images from different directions from the target area. In addition, the detection of the eyes at a distance of up to several meters requires a very high resolution of the cameras, resulting in a large amount of data per camera and per video frame.
Die Problematik der Verarbeitung einer großen Datenmenge in Echtzeit wird verschärft, wenn es gilt, mehrere Betrachter zu erkennen. Insbesondere sind sehr rechenintensive Verfahrensschritte erforderlich, um durch Beleuchtungseffekte, Reflexionen oder Brillengläser schwierig erkennbare Betrachter ermitteln zu können. Die Erfahrung zeigt, dass oftmals die Erkennung einer dritten oder vierten Person, die teilweise verdeckt oder abseits steht, nur mit einem hohen, zeitintensiven Rechenaufwand erreicht werden kann. Der erforderliche Rechenaufwand für jenen Betrachter, welcher momentan am schlechtesten erfassbar ist und welcher nur mit großem Aufwand zu erkennen ist, darf jedoch die Verfolgung in Echtzeit der anderen Betrachter nicht beeinträchtigen.The problem of processing a large amount of data in real time is exacerbated when it comes to recognize multiple viewers. In particular, very compute-intensive process steps are required in order to be able to determine obscure observers by means of lighting effects, reflections or spectacle lenses. Experience shows that often the detection of a third or fourth person who is partially hidden or out of the way can only be achieved with a high, time-consuming computational effort. The required computational effort for the viewer, which is currently the worst detectable and which only with great effort, but must not affect the pursuit in real time of other viewers.
Probleme beim Erkennen von Augenpositionen führen dazu, dass die eingehenden Videoframes nicht mehr permanent im Echt-Zeit-Modus verarbeitet werden können. Eine maximal zulässige Berechnungszeit pro Person und pro Frame kann überschritten werden, wenn beispielsweise Brillengläser oder Brillenbügel die Augen verdecken oder sich ein Betrachter rasch, aber nur kurzzeitig von den Kameras abwendet.Problems with detecting eye positions mean that the incoming video frames can no longer be processed permanently in real-time mode. A maximum allowable calculation time per person and per frame can be exceeded if, for example, lenses or eyeglasses hinder the eyes or a viewer turns away quickly but only briefly from the cameras.
In Kenntnis der Nachteile des Standes der Technik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zu schaffen, welches erlaubt, die Augenpositionen mehrerer Betrachter auch bei größeren und abrupten Kopfbewegungen in allen drei Koordinatenrichtungen in Echtzeit zu bestimmen. Das Verfahren soll Erfassung der Augenpositionen in einem großen Zielbereich erfassen, rasche Bewegungen der Betrachter kompensieren und die Koordinate der Tiefe in einem großen Bereich ermitteln. Bei gleichzeitiger Fehlerminimierung soll überdies die Antwortzeit zwischen der Videoaufnahme, also dem Einlesen eines Videoframes und der Ergebnisabgabe, also dem Bereitstellen der Augenpositionen, nachhaltig verringert werden. Das Verfahren soll überdies erlauben, dass auch für hoch auflösende Kameras fehlerfreie Resultate im Echt-Zeit-Modus erzielt werden können.In view of the disadvantages of the prior art, the invention has the object to provide a method which allows to determine the eye positions of several observers, even with larger and abrupt head movements in all three coordinate directions in real time. The method is intended to detect the detection of the eye positions in a large target area, to compensate for rapid movements of the observer and to determine the coordinate of the depth in a large area. With simultaneous minimization of the error, moreover, the response time between the video recording, ie the reading of a video frame and the result delivery, ie the provision of the eye positions, should be sustainably reduced. The method should also allow for high-resolution cameras error-free results in real-time mode can be achieved.
Zusammenfassung der ErfindungSummary of the invention
Das Verfahren dient zum Erkennen und Verfolgen von Referenzpunkten von Augen mehrerer Betrachter in Echtzeit. Die Eingangsdaten umfassen Bilddaten als Sequenz digitaler Videoframes, die von einem oder mehreren Bildsensoren, beispielsweise Kameras, akquiriert werden. Die Referenzpunkte der Augen sind die Positionen der Pupillen und/oder der Augenwinkel. Das Verfahren umfasst das Zusammenwirken einer Face-Finder-Instanz zum Auffinden von Gesichtern, nachfolgend und hierarchisch untergeordnet eine Eye- Finder-Instanz zum Auffinden von Bereichen der Augen, sowie eine Eye-Tracker- Instanz, die zum Erkennen und Verfolgen von Referenzpunkten der Augen dient. Die Eye-Tracker-Instanz ist der Eye-Finder-Instanz hierarchisch untergeordnet.The method is used to detect and track reference points of multiple viewer's eyes in real time. The input data includes image data as a sequence of digital video frames acquired by one or more image sensors, such as cameras. The reference points of the eyes are the positions of the pupils and / or the corner of the eye. The method comprises the interaction of a face finder instance for finding faces, subsequently and hierarchically subordinate an eye finder instance for finding areas of the eyes, and an eye tracker Instance used to detect and track eye points. The Eye Tracker instance is hierarchically subordinate to the Eye Finder instance.
Der Erfindung liegt der Gedanke zugrunde, dass die Positionsfindung der Augen innerhalb eines hierarchischen Ablaufs mit dem Ziel umgesetzt wird, denThe invention is based on the idea that the position determination of the eyes is implemented within a hierarchical sequence with the goal that
Suchbereich ausgehend von einem gesamten Videobild sukzessive einzuschränken. Das Echtzeit-Verhalten wird durch die hierarchische sukzessive Einschränkung und Verschachtelung des Suchbereichs ausgehend vom kompletten Videoframe für die Face-Finder-Instanz zum eingeschränkten Gesichts-Zielbereich für die Eye-Finder- beziehungsweise Eye-Tracker-Instanz realisiert. Im Weiteren wird eine Instanz oder eine Gruppe von Instanzen jeweils auf einer eigenen Recheneinheit parallel innerhalb separater Prozesse ablaufend durchgeführt.Search range starting from an entire video image successively restrict. The real-time behavior is realized by the hierarchical successive restriction and nesting of the search area from the complete video frame for the face finder instance to the restricted face target area for the eye finder or eye tracker instance. Furthermore, an instance or a group of instances is executed in parallel on a separate computing unit within separate processes.
Die Face-Finder-Instanz sucht im Bereich eines gesamten Videoframes die Kopf- beziehungsweise Gesichtsposition für jeden Betrachter. Die Instanz ermittelt dabei für jedes Gesicht eine wesentlich kleinere Datenmenge aus den Daten des gesamten Videoframes, die den entsprechenden als Gesichts-Zielbereich darstellen und übergibt diesen eingeschränkten Bereich an die Eye-Finder-Instanz.The Face Finder instance searches the head or face position for each viewer in the area of an entire video frame. For each face, the instance determines a significantly smaller amount of data from the data of the entire video frame, representing the corresponding face-target area, and passes that restricted area to the Eye-Finder instance.
Die Eye-Finder-Instanz ist der Face-Finder-Instanz hierarchisch untergeordnet und muss aus den Daten des übergebenen Gesichts-Zielbereichs nur mehr eine stark eingeschränkte Datenmenge verarbeiten. Die Instanz ermittelt in diesem Datenbereich die Augen beziehungsweise Augenpositionen und legt wiederum eine wesentlich kleinere Datenmenge des Gesichts-Zielbereichs als Augen-Zielbereich fest, wobei nun dieser eingeschränkte Suchbereich an eine nachfolgende und hierarchisch untergeordnete Eye-Tracker-Instanz übergeben wird.The eye finder instance is hierarchically subordinate to the face finder instance and only needs to process a very limited amount of data from the data of the passed face target area. The instance determines the eyes or eye positions in this data area and, in turn, defines a much smaller data volume of the face / target area than the eye / target area, whereby this limited search area is then transferred to a subsequent and hierarchically subordinate eye tracker instance.
Danach ermittelt die Eye-Tracker-Instanz in dieser stark einschränkten Datenmenge des Augen-Suchbereichs mit erhöhter Geschwindigkeit die gesuchten Referenzpunkte der Augen. Mit der hierarchischen Einschränkung der Suchbereiche und der Verringerung der Datenmenge ist die Eye-Tracker-Instanz hoch effektiv und schnell. Erfindungsgemäß soll zur Reduzierung der Gesamtverzögerungszeit des Verfahrens die Instanzen Face-finder und Eye-Finder / Eye-Tracker jeweils innerhalb separater Prozesse unabhängig voneinander parallel ausgeführt werden. Die Parallelisierung durch Zuordnung einer Instanz oder einer Gruppe von Instanzen auf eine eigene Recheneinheiten kann in mehreren Ausführungsvarianten implementiert werden.Thereafter, the Eye Tracker Instance determines the sought reference points of the eyes in this highly constrained amount of data of the eye search area at an increased speed. With the hierarchical restriction of search scopes and the reduction in the amount of data, the Eye Tracker instance is highly effective and fast. According to the invention, in order to reduce the total delay time of the method, the instances face-finder and eye-finder / eye tracker should each be executed in parallel independently of each other within separate processes. The parallelization by assigning an instance or a group of instances to its own computing units can be implemented in several variants.
In einer besonders bevorzugten Ausführungsform der Erfindung wird für jede Kamera eine Face-Finder-Instanz auf einer eigenen Recheneinheit durchgeführt. Anschließend wird jedem Betrachter, den eine Face-Finder-Instanz findet, eine eigene Recheneinheit zur Realisierung einer Eye-Finder- und nachfolgend einer Eye- Tracker-Instanz zugeordnet. Wird von einer Face-Finder-Instanz ein neu erkanntes Gesicht ermittelt, so wird unverzüglich eine Instanz des Eye-Finders und des Eye- Trackers beauftragt beziehungsweise initialisiert und diese Instanzen auf einer eigenen zugewiesenen Recheneinheit ausgeführt. Auch für kurzzeitig verlorene und wieder erkannte Gesichter wird ein sofortiges Tracking nach Erkennung des Gesichts delegiert.In a particularly preferred embodiment of the invention, a face-Finder instance is performed on a separate computing unit for each camera. Subsequently, each observer, who finds a face finder instance, is assigned an own arithmetic unit for the realization of an eye finder and subsequently an eye tracker instance. If a newly detected face is determined by a face finder instance, an instance of the eye finder and the eye tracker is immediately commissioned or initialized and these instances are executed on their own assigned arithmetic unit. Even for briefly lost and rediscovered faces an immediate tracking is delegated after detection of the face.
Ein wesentlicher Vorteil der Erfindung besteht darin, dass eine Face-Finder-Instanz, da nunmehr die untergeordneten Instanzen auf eigenen Recheneinheiten ausgeführt werden, in keiner Weise blockiert oder behindert ist. Die Face-Finder-Instanz setzt unter voller Wahrung der Rechenressourcen das Aufsuchen von Gesichtern in den Daten des aktuellen Videoframes fort. Ermittelte Zwischen- und Teilergebnisse werden an eine Steuerinstanz zur weiteren Verarbeitung/Verteilung übergeben, beziehungsweise von ihr Teilergebnisse der Eye-Tracker/Eye-Finder-Instanzen übernommen, um so in einem positiven Regelkreis die Gesichts-Zielbereiche extrapolieren zu können.A significant advantage of the invention is that a face-Finder instance, since now the subordinate instances are executed on their own arithmetic units, is in no way blocked or obstructed. The Face Finder instance continues to search for faces in the data of the current video frame, while preserving the computational resources. Determined intermediate and partial results are transferred to a control entity for further processing / distribution, or they are taken over by partial results of the eye tracker / eye finder instances in order to be able to extrapolate the facial target areas in a positive control loop.
Die sofortige Realisierung der Instanzen verkürzt die Reaktionszeit des Verfahrens nachhaltig und legt die erste Grundlage für ein Echtzeit- Verhalten. Das Echtzeit-Verhalten wird durch die hierarchische sukzessive Einschränkung und Verschachtelung des Suchbereichs ausgehend vom kompletten Videoframe für die Face-Finder-Instanz zum eingeschränkten Gesichts-Zielbereich für die Eye-Finder- beziehungsweise Eye-Tracker-Instanz weiterführend untermauert.The immediate realization of the instances shortens the response time of the process and provides the first basis for real-time behavior. The real-time behavior is provided by the hierarchical successive restriction and nesting of the search area from the complete video frame for the Underpinned Face Finder instance to the restricted face target area for the Eye Finder or Eye Tracker instance.
Schließlich wird durch die erfindungsgemäße Durchführung einer Instanz oder einer Gruppe von Instanzen jeweils parallel innerhalb separater Prozesse auf einer eigenen Recheneinheit das Echtzeit-Verhalten weiter untermauert und abgesichert realisiert. Zur Parallelität der Instanzen sind weitere Varianten denkbar. Wie oben genannt, kann jeweils eine Face-Finder-Instanz und eine Eye-Finder/Eye-Tracker- Instanz auf einer eigenen Recheneinheit durchgeführt werden. Im Weiteren kann jeweils eine Face-Finder/Eye-Finder-Instanz und eine Eye-Tracker-Instanz auf einer eigenen Recheneinheit durchgeführt werden. Eine Durchführung der Eye-Finder- Instanz auf einer eigenen Recheneinheit erscheint ebenso denkbar. Es handelt sich hier jedoch um eine Instanz, welche eine vergleichsweise kurze Rechenzeit beansprucht, so dass sie vorteilhafterweise einer Recheneinheit der beiden rechen intensiven Face-Finder bzw. Eye-Tracker-Instanzen zugeordnet wird.Finally, real-time behavior is further underpinned and secured by the implementation of an instance or a group of instances in parallel within separate processes on a separate computing unit. For the parallelism of the instances further variants are conceivable. As mentioned above, a face finder instance and an eye finder / eye tracker instance can each be executed on a separate arithmetic unit. Furthermore, in each case a face finder / eye finder instance and an eye tracker instance can be executed on a separate arithmetic unit. An implementation of the Eye Finder instance on its own arithmetic unit also seems conceivable. However, this is an instance which requires a comparatively short computing time, so that it is advantageously allocated to a computing unit of the two computing intensive face finders or eye tracker instances.
Vorzugsweise wird sowohl der Ablauf der Instanzen und als auch deren Datenaustausch von einer Steuerinstanz gesteuert und überwacht. Insbesondere steuert diese Instanz die Zuordnung der gefundenen Gesichter, beziehungsweise Gesichts-Zielbereiche, zu den Eye-Finder/Eye-Tracker-Instanzen auf den einzelnen Recheneinheiten. Der Datenaustausch umfasst im Wesentlichen die Re-Preferably, both the flow of the instances and their data exchange is controlled and monitored by a control entity. In particular, this instance controls the assignment of the found faces, or face target areas, to the eye finder / eye tracker instances on the individual arithmetic units. The data exchange essentially comprises the
Initialisierung der Instanzen durch Zuweisung der Suchbereiche, den Austausch von Teil- und Endergebnissen der Instanzen sowie die Übergabe der resultierenden Referenzpunkte für die Augen an eine externe Schnittstelle. Die Steuerinstanz beispielsweise für ein bereits verfolgtes Gesicht die zugehörigen Instanzen des Eye -Finders und des Eye-Trackers aktualisiert und re-initialisieren. Die Steuerinstanz selektiert, verifiziert und bewertet die Konfidenz der gefundenen Gesichts- und Augen-Zielbereiche. Entsprechende Bewertungsparameter werden von den Instanzen im Zuge des Verfahrens ermittelt und dienen der Steuerinstanz auch für eine optimale Ablaufkoordination der Instanzen und sowie einer Zuweisung der vorhandenen Recheneinheiten.Initialization of the instances by assigning the search areas, the exchange of partial and final results of the instances and the transfer of the resulting reference points for the eyes to an external interface. For example, the control instance updates and re-initializes the associated instances of the Eye Finder and the Eye Tracker for an already tracked face. The tax authority selects, verifies and evaluates the confidence of the found face and eye target areas. Corresponding evaluation parameters are determined by the instances in the course of the procedure and serve the control entity also for an optimal execution coordination of the instances and as well as an allocation of the existing calculation units.
Das Verfahren gemäß der Erfindung erlaubt, die Augenpositionen mehrerer Betrachter auch bei größeren und abrupten Kopfbewegungen in allen drei Koordinatenrichtungen in Echtzeit zu bestimmen. Überdies konnte untermauert werden, dass das Verfahren auch für die Datenmenge hoch auflösender Kamerasysteme Resultate im Echt-Zeit-Modus erzielen kann.The method according to the invention allows the eye positions of several observers even with larger and abrupt head movements in all three To determine coordinate directions in real time. In addition, it could be substantiated that the method can also achieve results in the real-time mode for the data volume of high-resolution camera systems.
Kurze Beschreibung der FigurenBrief description of the figures
Die folgenden Figuren erläutern Ausführungsbeispiele der erfindungsgemäßen Verfahrens als Bestandteil einer Tracking-Einrichtung für ein autostereoskopische Display und zeigen in Fig. 1 eine Schemadarstellung die verschachtelten, eingeschränktenThe following figures illustrate embodiments of the method according to the invention as part of a tracking device for an autostereoscopic display and show in Fig. 1 is a schematic representation of the nested, restricted
Suchbereiche der Instanzen Face-Finder, Eye-Finder und Eye-Tracker,Search areas of the instances Face-Finder, Eye-Finder and Eye-Tracker,
Fig. 2 einen Ablaufplan der Parallelisierung der hierarchisch strukturierten Instanzen des erfindungsgemäßen Verfahrens, sowie2 shows a flowchart of the parallelization of the hierarchically structured instances of the method according to the invention, as well
Fig. 3 eine Schemadarstellung der Schaltungsanordnung und einen Ablaufplan der Parallelisierung der hierarchisch strukturierten Instanzen des erfindungsgemäßen Verfahrens.Fig. 3 is a schematic representation of the circuit arrangement and a flowchart of the parallelization of the hierarchically structured instances of the method according to the invention.
Bevorzugte Ausführungen der ErfindungPreferred embodiments of the invention
Fig. 1 zeigt die verschachtelten, eingeschränkten Suchbereiche der Instanzen des Verfahrens. Als Eingangsdaten wird Bildmaterial als Sequenz digitaler Videoframes VF von mehreren Bildsensoren, beispielsweise einer Stereo- Infrarotkamera akquiriert. Ein Ausschnitt aus dem gesamten Videoframe VF ist in der Figur durch das Koordinatensystem schematisiert dargestellt. Eine erste Face-Finder-Instanz analysiert die Daten des gesamten Videoframes VF und erkennt im gesamten Videoframe die Gesichter der Betrachter. In der Figur sind die Daten von zwei Gesichtern dargestellt. Das erste Gesicht links befindet sich offensichtlich nahe an der Kamera, während das zweite rechte einen höheren Abstand zur Kamera aufweist.Fig. 1 shows the interleaved, restricted search areas of the instances of the method. As input data, image material is acquired as a sequence of digital video frames VF from a plurality of image sensors, for example a stereo infrared camera. A section of the entire video frame VF is shown schematically in the figure by the coordinate system. A first face finder instance analyzes the data of the entire video frame VF and recognizes the faces of the viewers throughout the video frame. In the figure, the data of two faces are shown. The first face on the left is obviously close to the camera, while the second right one has a higher distance to the camera.
Für jedes erkannte Gesicht ermittelt die Face-Finder-Instanz aus den Daten des gesamten Videoframes VF einen eingeschränkten Datenbereich der dem Gesichts- Zielbereich GZ entspricht. Die Indices beziehen sich auf das erste, in der Figur links dargestellte Gesicht. Der ermittelte Gesichts-Zielbereich GZ stellt nun den eingeschränkten Suchbereich für nachfolgende Eye-Finder-Instanz dar. In diesem Suchbereich ermittelt die Eye-Finder-Instanz die Augenpositionen und schränkt als Resultat die Datenmenge des Zielbereichs GZ in eine wesentlich kleinere Datenmenge, die dem den Augen-Zielbereich AZ entspricht, ein. Die Daten des Augen-Zielbereichs AZ mit den Augenpositionen sind die Eingangsdaten für eine nachfolgende Eye-Tracker-Instanz ET, welche nun im Augen-Zielbereich AZ für den aktuellen Videoframe und in den nachfolgenden Videoframes gemäß der bereits ermittelten Bewegungsfolge im nach geführten Augen-Zielbereich AZ schließlich Referenzpunkte für die Augen als Resultat ermittelt.For each detected face, the face finder instance determines from the data of the entire video frame VF a limited data area of the facial Target area GZ corresponds. The indices refer to the first face shown in the figure on the left. The determined face target area GZ now represents the restricted search area for subsequent Eye Finder instance. In this search area, the Eye Finder instance determines the eye positions and, as a result, restricts the data volume of the target area GZ to a much smaller amount of data Eye Target Range AZ equals, one. The data of the eye target area AZ with the eye positions are the input data for a subsequent eye tracker instance ET, which is now in the eye target area AZ for the current video frame and in the subsequent video frames according to the already determined motion sequence in the guided eye target area AZ finally determined reference points for the eyes as a result.
Mit den Informationen der Referenzpunkte der vergangenen Videoframes wird gemäß der Bewegung des Betrachters der Augen-Zielbereich AZ nachgeführt, aktualisiert und die Bereiche für den aktuellen und die kommenden Frames extrapoliert. Bei Bewegung des Betrachters in die Tiefe kann zusätzlich eine Skalierung des Bildinhaltes erforderlich sein.With the information of the reference points of the past video frames, according to the movement of the observer, the eye target area AZ is tracked, updated and the areas for the current and the coming frames are extrapolated. If the observer moves into the depth, a scaling of the image content may additionally be necessary.
Wie aus der Figur ersichtlich kann der Augen-Zielbereich in mehrere nicht zusammenhängende Teilbereiche zerfallen. Wie ebenso in der Figur dargestellt, sind die Zielbereiche je nach Kopfposition des Betrachters und dessen Blickrichtung unregelmäßige, jedoch vorzugsweise konvexe Gebiete. In einer einfachen Ausführung sind die Bereiche durch eine Liste parametrisierter geometrischen Flächen, wie etwa Ellipsen, Kreise oder Rechtecke repräsentiert.As can be seen from the figure, the eye-target area can disintegrate into several non-contiguous subregions. As also shown in the figure, the target areas are irregular, but preferably convex, depending on the observer's head position and viewing direction. In a simple embodiment, the regions are represented by a list of parameterized geometric surfaces, such as ellipses, circles, or rectangles.
Fig. 2 baut auf das letzte Ausführungsbeispiel auf und zeigt einen Ablaufplan der Parallelisierung der Instanzen. Die Figur beschreibt die hierarchische Strukturierung der Instanzen Face-Finder FF, Eye-Finder und Eye-Tracker ET und die Zuweisung auf eigene Recheneinheiten R1 bis R2.Fig. 2 builds on the last embodiment and shows a flowchart of the parallelization of the instances. The figure describes the hierarchical structuring of the instances of face finder FF, eye finder and eye tracker ET and the assignment to own calculation units R1 to R2.
In diesem Ausführungsbeispiel stehen drei Recheneinheiten R1 bis R3 zur Verfügung. Eine erste Recheneinheit R1 ist für die Face-Finder-Instanz FF vorgesehen. Diese findet das Gesicht eines ersten Betrachters in den Daten eines Videoframes und ermittelt dabei den Gesichts-Zielbereich GZ. Dem Gesichts- Ziθlbereich wird sofort eine eigene Recheneinheit R1 zur Durchführung einer Eye- Finder EF -und nachfolgend einer Eye-Tracker-Instanz ET zugeordnet.In this embodiment, three arithmetic units R1 to R3 are available. A first arithmetic unit R1 is provided for the face finder instance FF. This finds the face of a first observer in the data of a video frame and thereby determines the facial target area GZ. The facial Ziθlbereich is immediately assigned its own arithmetic unit R1 for performing an eye finder EF and subsequently an eye tracker instance ET.
Die Figur zeigt den Datenfluss der Daten der eingeschränkten Zielbereiche, also Gesichts-Zielbereich GZ und Augen-Zielbereich AZ an die jeweils nachfolgende Instanz. Eine Eye-Tracker-Instanz ET liefert jeweils die Daten der Referenzpunkte von Augen an eine übergeordnete Steuerinstanz (ohne Abbildung) oder an eine externe Schnittstelle. Gleichzeitig wird die Information der in den vergangenen Videoframes ermittelten Referenzpunkte verwendet, um bei einer Bewegung des Betrachters den Augen-Zielbereich AZ nachzuführen und für die kommenden Frames zu extrapolieren. Die Daten des aktuelle Augen-Zielbereichs sowie der Bereiche vergangener Frames gehen also, wie dargestellt, wieder in die Eye- Tracker-Instanz ein.The figure shows the data flow of the data of the restricted target areas, ie facial target area GZ and eye target area AZ to the respective subsequent instance. An eye tracker instance ET supplies the data of the reference points of eyes to a superordinate control instance (not shown) or to an external interface. At the same time, the information of the reference points determined in the past video frames is used to track the eye target area AZ during a movement of the observer and to extrapolate for the coming frames. The data of the current eye target area as well as the areas of past frames are therefore returned to the Eye Tracker instance as shown.
Die Realisierung der Erkennung und Verfolgung des zweiten Betrachters verläuft analog. Sind mehr Betrachter als Recheneinheiten vorhanden, so werden vorzugsweise für jeden Betrachter, also Gesichts-Zielbereich, analog eine Eye- Finder- Eye-Tracker-Instanz als eigenständige, parallel ablaufende Prozesse realisiert, wobei hier naturgemäß mehrere Prozesse auf einer gemeinsamen Recheneinheit ablaufen.The realization of the recognition and tracking of the second viewer is analogous. If there are more observers than arithmetic units, an eye-finder eye-tracker instance is preferably realized analogously for each observer, that is to say a face-target area, as independent processes running in parallel, in which case several processes naturally run on one common arithmetic unit.
Fig. 3 zeigt Schaltungsanordnung und einen Ablaufplan der Parallelisierung der hierarchisch strukturierten Instanzen eine Parallelisierung des Verfahrens anhand der Bilddaten mehrerer Kameras verschiedenen Positionen Zur Erkennung und Verfolgung der Augen ist den Kameras jeweils ein Verfahren analog der oberen Beispiele zugrunde gelegt. Einer Kamera ist somit eine Parallelisierung der Instanzen analog zu Fig. 1 und Fig. 2 zugeordnet.3 shows a circuit arrangement and a flowchart of the parallelization of the hierarchically structured instances a parallelization of the method based on the image data of several cameras different positions For detecting and tracking the eyes, the cameras are each based on a method analogous to the above examples. A camera is thus associated with a parallelization of the instances analogous to FIGS. 1 and 2.
Das linke System ermittelt ausgehend von den linken Bilddaten VFL-(Video-Frame Left) durch eine Face-Finder-Instanz FF auf einer ersten der Recheneinheit R1 den Gesichts-Zielbereich GZ1-L des ersten Betrachters. Auf der Recheneinheit R2 werden die zugehörigen Eye-Finder EF / Eye-Tracker ET-Instanzen ausgeführt. Für die Schaltungsanordnung sind diese Recheneinheiten in der Regel als CPUs oder DSPs implementiert. Eine zweite Gruppe von Instanzen auf der Recheneinheit R3 ist einem zweiten Betrachter zugeordnet. Die übrigen in der Figur dargestellten Instanzen und Recheneinheiten beziehen sich, gekennzeichnet durch VFR-(Video Frame Right) und den Index "R", auf das rechte und die zugehörigen Instanzen beziehungsweise Elemente der Schaltungsanordnung.The left system determines from the left image data VFL (Video Frame Left) by a face finder instance FF on a first of the arithmetic unit R1 the face target area GZ1-L of the first observer. The associated Eye-Finder EF / Eye Tracker ET instances are executed on the arithmetic unit R2. For the circuit arrangement, these arithmetic units are usually implemented as CPUs or DSPs. A second group of instances on the arithmetic unit R3 is assigned to a second observer. The remaining instances and arithmetic units shown in the figure refer to the right and the associated instances or elements of the circuit arrangement, characterized by VFR (Video Frame Right) and the index "R".
Eine und gegebenenfalls auch implementierte Steuereinheit, welche in der Figur nicht dargestellt ist, übernimmt im Verfahren die Aufgabe der Steuerung der einzelnen Prozesse und steuert den Datenaustausch. Der Datenaustausch findet insbesondere innerhalb jener Recheneinheiten statt, die einem Betrachter zugeordnet sind. Beispielsweise nutzt man die schon zur Verfügung stehenden Informationen im linken , um im rechten , dessen Inhalt sich nicht wesentlich vom linken unterscheidet, die Position im rechten Bild mit einer gewissen Toleranz zu bestimmen und in Kenntnis der zu extrapolieren. Aus der xy- Pixelposition des Auges im linken , der Entfernung des Betrachters, welche aus der vorhergehenden Tiefenberechnung ermittelt wurde, sowie den Kamera-Parametern ist eineOne and possibly also implemented control unit, which is not shown in the figure, assumes in the process the task of controlling the individual processes and controls the data exchange. The data exchange takes place in particular within those arithmetic units which are assigned to a viewer. For example, one uses the already available information in the left, in the right, whose content is not significantly different from the left, to determine the position in the right image with a certain tolerance and to extrapolate in knowledge of. From the xy pixel position of the eye in the left, the distance of the observer, which was determined from the previous depth calculation, and the camera parameters is a
Transformation der Teilergebnisse möglich. Beispielsweise werden die Daten eines im linken Halbbild gefundenen Augenbereichs AZ1-L als Eingangsgrößen für das rechte Halbbild AZ1-R festgelegt, gegebenenfalls transformiert, wobei nun die Möglichkeit besteht, andere Algorithmen beziehungsweise andere steuernde Parameter als für den linken Prozess zu verwenden.Transformation of partial results possible. For example, the data of an eye area AZ1-L found in the left field are set as input variables for the right field AZ1-R, possibly transformed, whereby it is now possible to use other algorithms or other controlling parameters than for the left-hand process.
Schließlich werden aus den und Die für diese Berechnung umfassen im Wesentlichen die Auflösung Kameras, deren Pixelpitch, die Brennweite des Objektivs, den Bildabstand des Objektivs zur Kamera, sowie den Abstand und Orientierung der Kameras. Die Schaltungsanordnung umfasst im Wesentlichen kommunizierende, programmierbare Logikbausteine, Prozessoren, ROMs und RAMs. Vorzugsweise sind die Recheneinheiten ausschließlich für die zugedachte Aufgabe, insbesondere für die genannten Instanzen optimiert und konfiguriert. In einer weiteren bevorzugten Ausführungsform enthält die Schaltungsanordnung ebenso eigenständige Recheneinheiten zur Durchführung von Hilfsprozessen, wie etwa die Skalierung, Gamma-Korrektur oder dergleichen. Finally, from the and for this calculation, essentially include the resolution cameras, their pixel pitch, the focal length of the lens, the image distance of the lens to the camera, as well as the distance and orientation of the cameras. The circuit arrangement essentially comprises communicating, programmable logic modules, processors, ROMs and RAMs. Preferably, the arithmetic units are optimized and configured exclusively for the intended task, in particular for the named instances. In a further preferred embodiment, the circuit arrangement also contains independent arithmetic units for performing auxiliary processes, such as scaling, gamma correction or the like.

Claims

Patentansprüche claims
1. Verfahren zum Erkennen und Verfolgen von Referenzpunktpositionen (EP1 ,..,EPn) von Augen mehrerer Betrachter in Bilddaten von Videoframes (VF), die von mindestens einem Bildsensor akquiriert werden, gekennzeichnet durch eineA method for recognizing and tracking reference point positions (EP1, .., EPn) of eyes of several observers in image data of video frames (VF) acquired by at least one image sensor, characterized by
- Face-Finder-Instanz (FF) zum Erkennen der Positionen von Gesichtern inFace Finder Instance (FF) for recognizing the positions of faces in
Videoframes (VF), welche für jedes Gesicht einen wesentlich kleineren Teilbereich des gesamten Videoframes als Gesichts-Zielbereich (GZ) extrahiert, um Information zum Gesichts-Zielbereich (GZ) an mindestens eine nachfolgendeVideo frames (VF) which extracts for each face a substantially smaller portion of the entire video frame than face target area (GZ), to provide information to the face target area (GZ) at least one subsequent one
- Eye-Finder-Instanz (EF) zum Erkennen von Augenpositionen weiterzuleiten, welche aus jedem Gesichts-Zielbereich (GZ) einen weiteren wesentlich kleineren Teilbereich des Gesichts-Zielbereichs als Augen-Zielbereich (AZ) extrahiert, um Information zum Augen-Zielbereich (AZ) an eine nachfolgende- To forward eye-Finder entity (EF) for recognizing eye positions, which extracts from each face-target area (GZ) a further substantially smaller portion of the face-target area as the eye-target area (AZ) to information about the eye-target area (AZ ) to a subsequent one
- Eye-Tracker-Instanz (ET) zum Verfolgen der Augenpositionen zu übergeben, welche nun im Augen-Zielbereich (AZ) für den aktuellen Videoframe und in den nachfolgenden Videoframes durch Referenzpunktpositionen (EP1 ,..,EPn) der Augen definieren und Information für eine Nachführeinrichtung generieren, wobei eine Instanz oder eine Gruppe von Instanzen jeweils auf einer zugeordneten Recheneinheit parallel ablaufend durchgeführt wird.- To pass eye tracker instance (ET) for tracking the eye positions, which now define in the eye-target area (AZ) for the current video frame and in the subsequent video frames by reference point positions (EP1, .., EPn) of the eyes and information for generate a tracking device, wherein an instance or a group of instances is performed in parallel on an associated computing unit in parallel.
2. Verfahren nach Anspruch 1, wobei die Koordinaten der Referenzpunktpositionen (EP1 ,..,EPn) horizontale und vertikale Position sind.2. The method of claim 1, wherein the coordinates of the reference point positions (EP1, .., EPn) are horizontal and vertical position.
3. Verfahren nach Anspruch 2, wobei ausgehend von zweidimensionalen Referenzpunktpositionen (EP1 ,..,EPn) mehrerer Bildsensoren die Koordinaten der Tiefe der Augen ermittelt werden.3. The method of claim 2, wherein starting from two-dimensional reference point positions (EP1, .., EPn) of a plurality of image sensors, the coordinates of the depth of the eyes are determined.
4. Verfahren nach Anspruch 3, wobei jeweils eine Face-Finder-Instanz und eine kombinierte Eye-Finder/Eye-Tracker-Instanz oder jeweils eine kombinierte Face- Finder/Eye-Finder-Instanz und eine Eye-Tracker-Instanz auf einer eigenen Recheneinheit durchgeführt werden.4. The method according to claim 3, wherein in each case a face finder instance and a combined eye finder / eye tracker instance or in each case a combined face Finder / Eye Finder instance and an Eye Tracker instance on its own arithmetic unit.
5. Verfahren nach Anspruch 3, bei für jedes erkannte Gesicht auf mindestens einer zugewiesenen Recheneinheit eine Instanz des Eye-Finders und des Eye-5. The method of claim 3, wherein for each detected face on at least one assigned arithmetic unit an instance of the eye finder and the eye
Trackers initialisiert und ausgeführt wird.Trackers initialized and executed.
6. Verfahren nach Anspruch 3, wobei den Betrachtern und / oder den resultierenden Zielpositionen der Augen eine Wertungsreihenfolge zugeordnet ist, anhand derer die Recheneinheiten zugeordnet werden.6. The method of claim 3, wherein the viewers and / or the resulting target positions of the eyes is assigned a scoring order, by means of which the arithmetic units are assigned.
7. Verfahren nach Anspruch 3, wobei eine oder mehrere Face-Finder-Instanzen permanent ausgeführt werden und sie die jeweils zugeordneten Eye-Finder/Eye- Tracker-Instanzen reinitialisieren.7. The method of claim 3, wherein one or more Face Finder instances are permanently executed and reinitialize the respective associated Eye Finder / Eye Tracker instances.
8. Verfahren nach Anspruch 1 mit einer Steuerinstanz, welche erkennt, ob ein von der Face-Finder-Instanz erkannter Gesichts-Zielbereich aus einem bereits verfolgten oder aus einem neu erkannten Gesicht resultiert, und welche die Eye- Tracker- oder Eye-Finder/Eye-Tracker-Instanzen auf die vorhandenen Recheneinheiten zuordnet, initialisiert und den Ablauf aller Instanzen synchronisiert.8. The method according to claim 1, comprising a control entity which detects whether a face target area recognized by the face finder instance results from an already tracked or from a newly recognized face, and which the eye tracker or eye finder / Assigns eye tracker instances to the existing arithmetic units, initializes them and synchronizes the execution of all instances.
9. Verfahren nach einem oder mehreren der vorgenannten Ansprüche wobei Bilddaten von mehreren Bildsensoren akquiriert werden und je Betrachter und Bildsensor eine Eyefinder-Instanz, eine Eye-Tracker-Instanz oder eine kombinierte Eye-Finder/Eye-Tracker-Instanz auf einer eigenen Recheneinheit durchgeführt wird, wobei zwischen den einem Betrachter zugeordneten Instanzen die resultierenden Teil- und/oder Endergebnisse ausgetauscht und verarbeitet werden.9. The method according to one or more of the preceding claims wherein image data from a plurality of image sensors are acquired and per viewer and image sensor performed an eyefinder instance, an eye tracker instance or a combined eye-finder / eye tracker instance on its own arithmetic unit is, between the observers associated instances, the resulting partial and / or final results are exchanged and processed.
10. Verfahren nach Anspruch 9, wobei in Kenntnis der Position der Bildsensoren und des Betrachters sowie von Parametern der Bildsensoren die Teil- und/oder Endergebnisse der Instanzen eines Bildsensors für die Instanzen eines anderen Bildsensors transformiert und auf dessen Blickwinkel angepasst werden. 10. The method of claim 9, wherein the knowledge of the position of the image sensors and the viewer and parameters of the image sensors, the partial and / or final results of the instances of an image sensor for the instances of another image sensor is transformed and adapted to its perspective.
11. Verfahren nach Anspruch 1 , wobei die Referenzpunktpositionen (EP1 ,...,EPn) der Augen die Position der Pupillen und/oder der Augenwinkel sind.11. The method of claim 1, wherein the reference point positions (EP1, ..., EPn) of the eyes are the position of the pupils and / or the corner of the eye.
12. Schaltungsanordnung zum Erkennen und Verfolgen von12. Circuit arrangement for detecting and tracking
Referenzpunktpositionen (EP1 ,..,EPn) von Augen mehrerer Betrachter in Bilddaten von Videoframes (VF) mit mehreren kommunizierenden Recheneinheiten (RI 1... ,Rn) mit einer Face-Finder-Instanz (FF), einer Eye-Finder-Instanz (EF) und einer Eye- Tracker-Instanz (ET), wobei die - Face-Finder-Instanz (FF) zum Erkennen der Positionen von Gesichtern inReference point positions (EP1, .., EPn) of eyes of several observers in image data of video frames (VF) with several communicating arithmetic units (RI 1 ..., Rn) with a face finder instance (FF), an eye finder instance (EF) and an Eye Tracker Instance (ET), where the - Face Finder Instance (FF) is used to detect the positions of faces in
Videoframes (VF) dient und für jedes Gesicht einen wesentlich kleineren Teilbereich des gesamten Videoframes als Gesichts-Zielbereich (GZ) extrahiert, um Information zum Gesichts-Zielbereich (GZ) an mindestens eine nachfolgende - Eye-Finder-Instanz (EF) zum Erkennen von Augenpositionen weiterzuleiten, welche aus jedem Gesichts-Zielbereich (GZ) einen weiteren wesentlich kleineren Teilbereich des Gesichts-Zielbereichs als Augen-Zielbereich (AZ) extrahiert, um Information zum Augen-Zielbereich (AZ) an eine nachfolgende - Eye-Tracker-Instanz (ET) zum Verfolgen der Augenpositionen zu übergeben, welche nun im Augen-Zielbereich (AZ) für den aktuellen Videoframe und in den nachfolgenden Videoframes Referenzpunktpositionen (EP1 ,..,EPn) der Augen definieren und Information für eine Nachführeinrichtung generieren, wobei eine Instanz oder eine Gruppe der Instanzen jeweils auf einer zugeordneten Recheneinheit parallel ablaufend durchgeführt wird.Videoframes (VF) is used and extracts for each face a much smaller portion of the entire video frame than the face target area (GZ) to provide information to the face target area (GZ) to at least one subsequent eye finder (EF) for recognizing Forward eye positions, which extracts from each face-target area (GZ) a further substantially smaller portion of the face-target area as the eye-target area (AZ), information to the eye-target area (AZ) to a subsequent - Eye Tracker instance (ET ) for tracking the eye positions which now define in the eye target area (AZ) for the current video frame and in the subsequent video frames reference point positions (EP1, .., EPn) of the eyes and generate information for a tracking device, wherein an instance or a Group of instances is carried out in parallel each running on an associated arithmetic unit.
13. Schaltungsanordnung nach Anspruch 12, mit eigenen Rechenmittel für die Normierung oder Korrektur der Bilddaten für Skalierung, Gamma-Korrektur, Helligkeitsregelung oder dergleichen.13. Circuit arrangement according to claim 12, with its own computing means for the normalization or correction of the image data for scaling, gamma correction, brightness control or the like.
14. Schaltungsanordnung nach Anspruch 12, mit Rechenmittel, welche aus den von mindestens zweier Bildsensoren ermittelten Referenzpunkten (EP1 ,..,EPn) die Koordinaten der Tiefe errechnet. 14. Circuit arrangement according to claim 12, with computing means which calculates the coordinates of the depth from the determined by at least two image sensors reference points (EP1, .., EPn).
15. Schaltungsanordnung nach Anspruch 12, wobei eine Recheneinheit eine CPU oder DSP oder dergleichen ist. 15. Circuit arrangement according to claim 12, wherein a computing unit is a CPU or DSP or the like.
EP06791307A 2005-08-17 2006-08-16 Method and circuit arrangement for recognising and tracking eyes of several observers in real time Ceased EP1915874A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005040598 2005-08-17
PCT/DE2006/001437 WO2007019842A2 (en) 2005-08-17 2006-08-16 Method and circuit arrangement for recognising and tracking eyes of several observers in real time

Publications (1)

Publication Number Publication Date
EP1915874A2 true EP1915874A2 (en) 2008-04-30

Family

ID=37654754

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06791307A Ceased EP1915874A2 (en) 2005-08-17 2006-08-16 Method and circuit arrangement for recognising and tracking eyes of several observers in real time

Country Status (10)

Country Link
US (1) US7950802B2 (en)
EP (1) EP1915874A2 (en)
JP (1) JP5054008B2 (en)
KR (1) KR101278430B1 (en)
CN (1) CN101243693B (en)
BR (1) BRPI0616547A2 (en)
CA (1) CA2619155A1 (en)
DE (1) DE112006002752A5 (en)
RU (1) RU2408162C2 (en)
WO (1) WO2007019842A2 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420056B2 (en) * 2007-04-20 2010-02-24 ソニー株式会社 Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program
DE102007025069B4 (en) * 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographic reconstruction system
DE102007056528B3 (en) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Method and device for finding and tracking pairs of eyes
USD666663S1 (en) 2008-10-20 2012-09-04 X6D Limited 3D glasses
USD624952S1 (en) 2008-10-20 2010-10-05 X6D Ltd. 3D glasses
USD603445S1 (en) 2009-03-13 2009-11-03 X6D Limited 3D glasses
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
CA2684513A1 (en) 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
USD646451S1 (en) 2009-03-30 2011-10-04 X6D Limited Cart for 3D glasses
US8314832B2 (en) 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
USD672804S1 (en) 2009-05-13 2012-12-18 X6D Limited 3D glasses
USD650956S1 (en) 2009-05-13 2011-12-20 X6D Limited Cart for 3D glasses
EP2275020B1 (en) * 2009-07-16 2018-02-21 Tobii AB Eye detection system and method using sequential data flow
JP2011064894A (en) * 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
USD671590S1 (en) 2010-09-10 2012-11-27 X6D Limited 3D glasses
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
USD669522S1 (en) 2010-08-27 2012-10-23 X6D Limited 3D glasses
USD662965S1 (en) 2010-02-04 2012-07-03 X6D Limited 3D glasses
USD664183S1 (en) 2010-08-27 2012-07-24 X6D Limited 3D glasses
EP2693404B1 (en) 2011-03-28 2019-04-24 Nec Corporation Person tracking device, person tracking method, and non-temporary computer-readable medium storing person tracking program
US10595014B2 (en) * 2011-09-28 2020-03-17 Koninklijke Philips N.V. Object distance determination from image
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
KR102175853B1 (en) * 2013-02-22 2020-11-06 삼성전자주식회사 Method for controlling operation and an electronic device thereof
RU2530660C1 (en) * 2013-02-26 2014-10-10 Владимир Николаевич Антипов Method of determining range of conditions for perception of depth of plane images
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
RU2541922C2 (en) * 2013-05-14 2015-02-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Method and device to determine look direction
KR102093455B1 (en) * 2013-10-04 2020-03-25 한국전자통신연구원 Apparatus and method for displaying hologram using pupil track based on hybrid camera
TWI522257B (en) * 2014-07-09 2016-02-21 原相科技股份有限公司 Vehicle safety system and operating method thereof
CN104661012B (en) * 2014-11-28 2017-12-01 深圳市魔眼科技有限公司 Personal holographic 3 D displaying method and equipment
CN104581126A (en) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 Image display processing method and processing device for head-mounted display device
CN107837089B (en) * 2017-12-05 2018-11-23 清华大学 A kind of video cardton limit value measurement method based on brain wave
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
US10930183B2 (en) 2018-11-22 2021-02-23 Electronics And Telecommunications Research Institute Hologram content generation apparatus, integrated hologram content control system having the same, and method for operating the hologram content generation apparatus
US11619825B2 (en) 2019-04-10 2023-04-04 Electronics And Telecommunications Research Institute Method and apparatus for displaying binocular hologram image
KR20220093144A (en) 2019-11-01 2022-07-05 라시움, 아이엔씨. A light field display that incorporates an eye tracker and a method for creating a view for a light field display using eye tracking information
US11699242B2 (en) 2020-02-25 2023-07-11 Electronics And Telecommunications Research Institute System and method for digital hologram synthesis and process using deep learning
US11532122B2 (en) 2020-03-05 2022-12-20 Electronics And Telecommunications Research Institute Method and apparatus for processing holographic image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147477A (en) * 1994-09-20 1996-06-07 Fujitsu Ltd Local area image tracking device
DE69524204T2 (en) * 1995-03-31 2002-08-22 Hitachi Europ Ltd Facial image processing
DE69507594T2 (en) * 1995-03-31 1999-09-02 Hitachi Europ Ltd Image processing method for determining facial features
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
US5867587A (en) * 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
GB2363273A (en) * 2000-06-09 2001-12-12 Secr Defence Computation time reduction for three dimensional displays
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
CN1225375C (en) * 2003-07-02 2005-11-02 北京交通大学 Method for detecting fatigue driving based on multiple characteristic fusion
JP2005099953A (en) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd Image processor, object tracing system therewith, image processing method and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2007019842A2 *

Also Published As

Publication number Publication date
RU2008110044A (en) 2009-09-27
JP5054008B2 (en) 2012-10-24
JP2009505247A (en) 2009-02-05
BRPI0616547A2 (en) 2011-06-21
RU2408162C2 (en) 2010-12-27
WO2007019842A3 (en) 2007-11-29
KR20080047392A (en) 2008-05-28
DE112006002752A5 (en) 2008-08-28
KR101278430B1 (en) 2013-06-24
CA2619155A1 (en) 2007-02-22
US7950802B2 (en) 2011-05-31
CN101243693A (en) 2008-08-13
CN101243693B (en) 2013-07-31
US20080231805A1 (en) 2008-09-25
WO2007019842A2 (en) 2007-02-22

Similar Documents

Publication Publication Date Title
EP1915874A2 (en) Method and circuit arrangement for recognising and tracking eyes of several observers in real time
DE112018001050T5 (en) SYSTEM AND METHOD FOR VIRTUALLY ENHANCED VISUAL SIMULTANEOUS LOCALIZATION AND CARTOGRAPHY
EP2406769B1 (en) Method and apparatus for reducing the memory requirement for determining disparity values for at least two stereoscopically recorded images
DE102015209822A1 (en) Detecting means, detecting program, detecting method, vehicle equipped with detecting means, parameter calculating means, parameter calculating parameters, parameter calculating program, and method of calculating parameters
DE102018215344A1 (en) SYSTEM AND METHOD FOR VEHICLE CONVOIS
DE202017007675U1 (en) Computer program product with a computer program for processing visual data of a road surface
DE10251880A1 (en) Image recognition device
EP2005361A1 (en) Multi-sensorial hypothesis based object detector and object pursuer
DE102012104302A1 (en) Environment recognition device and environment recognition method
DE102014201271A1 (en) A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle
EP2676449B1 (en) Method and device for stereo base extension of stereoscopic images and image sequences
DE102013211671A1 (en) System for highlighting targets on head-up displays with near-focus level
DE102012223481A1 (en) Apparatus and method for tracking the position of a peripheral vehicle
DE102018201154A1 (en) Method for calibrating sensors and / or sensor arrangements
DE102014219423A1 (en) Dynamic model for compensation of distortions of a windshield
EP2192550A1 (en) Method for determining the change in position of a camera system and device for recording and processing images
DE102015205868A1 (en) Method and device for operating a display device in a motor vehicle
DE112019002126T5 (en) POSITION ESTIMATE DEVICE, POSITION ESTIMATE METHOD AND PROGRAM FOR IT
DE102019201633A1 (en) Calibration of a sensor for a vehicle based on object-side and image-side identification indices of a reference object
DE102015205077B4 (en) Distance recognition device for a vehicle
EP4246268A1 (en) Method for safely determining a flight path of an unmanned aerial vehicle and unmanned aerial vehicle
DE102016225082A1 (en) Method and device for operating data glasses
DE102018200312B4 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality head-up display device for a motor vehicle and motor vehicle with such a device
DE102013209500A1 (en) An eye movement using instruction input device and instruction input method
DE102022213414A1 (en) VEHICLE, ELECTRONIC DEVICE AND CONTROL METHOD THEREOF

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080306

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK RS

RIN1 Information on inventor provided before grant (corrected)

Inventor name: ZSCHAU, ENRICO

Inventor name: SCHWERDTNER, ALEXANDER

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SEEREAL TECHNOLOGIES GMBH

17Q First examination report despatched

Effective date: 20110502

DAX Request for extension of the european patent (deleted)
REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20140221