DE102020123927A1 - Method for recognizing a driver of a motor vehicle and motor vehicle as being alive - Google Patents
Method for recognizing a driver of a motor vehicle and motor vehicle as being alive Download PDFInfo
- Publication number
- DE102020123927A1 DE102020123927A1 DE102020123927.0A DE102020123927A DE102020123927A1 DE 102020123927 A1 DE102020123927 A1 DE 102020123927A1 DE 102020123927 A DE102020123927 A DE 102020123927A DE 102020123927 A1 DE102020123927 A1 DE 102020123927A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- driver
- camera
- deception
- motor vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/30—Detection related to theft or to other events relevant to anti-theft systems
- B60R25/31—Detection related to theft or to other events relevant to anti-theft systems of human presence inside or outside the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Abstract
Verfahren zur Lebenderkennung bezüglich eines Fahrers eines Kraftfahrzeugs (1) mittels eines Fahrerbeobachtungssystems (5), wobei das Fahrerbeobachtungssystem (5) umfasst:- eine auf die Position des Fahrers gerichtete Kamera (6) zur Aufnahme von Bilddaten einer die Position des Fahrers umfassenden Szene,- eine Beleuchtungseinrichtung (7) zur Ausleuchtung der Szene, insbesondere unter Nutzung von Infrarotlicht, und- eine Steuereinrichtung (8) zur Auswertung der Bilddaten zur Ermittlung einer eine potentielle Täuschung bezüglich der Anwesenheit eines Fahrers beschreibenden Lebendinformation,dadurch gekennzeichnet, dass eine Beleuchtungseinrichtung (7) mit zwei unabhängig ansteuerbaren Leuchtabschnitten (14, 15) verwendet wird, wobei ein erster der Leuchtabschnitte (14) derart näher an der optischen Achse (13) der Kamera (6) angeordnet ist, dass die Pupillen (17) von aufgenommenen Augen (16) bei Ausleuchtung mit dem ersten Leuchtabschnitt (14) in jeweiligen ersten Bilddaten hell erscheinen und bei Ausleuchtung mit dem zweiten Leuchtabschnitt (15) ohne Betrieb des ersten Leuchtabschnitts (14) in jeweiligen zweiten Bilddaten dunkel erscheinen, wobei die Steuereinrichtung (8) die Lebendinformation unter Überprüfung der jeweiligen Erscheinung der Pupillen (17) in den ersten und den zweiten Bilddaten ermittelt.Method for detecting the presence of a driver of a motor vehicle (1) by means of a driver monitoring system (5), the driver monitoring system (5) comprising:- a camera (6) directed at the driver's position for recording image data of a scene including the driver's position, - a lighting device (7) for illuminating the scene, in particular using infrared light, and- a control device (8) for evaluating the image data to determine live information describing a potential deception regarding the presence of a driver, characterized in that a lighting device (7 ) is used with two independently controllable lighting sections (14, 15), with a first of the lighting sections (14) being arranged closer to the optical axis (13) of the camera (6) in such a way that the pupils (17) of recorded eyes (16 ) appears bright in respective first image data when illuminated with the first luminous section (14). n and when illuminated with the second luminous section (15) without operation of the first luminous section (14) appear dark in the respective second image data, the control device (8) displaying the vital information by checking the respective appearance of the pupils (17) in the first and second Image data determined.
Description
Die Erfindung betrifft ein Verfahren zur Lebenderkennung bezüglich eines Fahrers eines Kraftfahrzeugs mittels eines Fahrerbeobachtungssystems, wobei das Fahrerbeobachtungssystem umfasst:
- - eine auf die Position des Fahrers gerichtete Kamera zur Aufnahme von Bilddaten einer die Position des Fahrers, insbesondere wenigstens des Kopfes des Fahrers, umfassenden Szene,
- - eine Beleuchtungseinrichtung zur Ausleuchtung der Szene, insbesondere unter Nutzung von Infrarotlicht, und
- - eine Steuereinrichtung zur Auswertung der Bilddaten zur Ermittlung einer eine potentielle Täuschung bezüglich der Anwesenheit eines Fahrers beschreibenden Lebendinformation.
- - a camera aimed at the position of the driver for recording image data of a scene comprising the position of the driver, in particular at least the driver's head,
- - a lighting device for illuminating the scene, in particular using infrared light, and
- a control device for evaluating the image data to determine live information describing a potential deception regarding the presence of a driver.
In modernen Kraftfahrzeugen wurde zur Absicherung des Betriebs durch einen Fahrer bzw. der Anwesenheit eines Fahrers, insbesondere auch dessen Aufmerksamkeit bezüglich der aktuellen Fahrsituation, vorgeschlagen, im Innenraum des jeweiligen Kraftfahrzeugs Kameras zu verbauen, die zur Fahrerbeobachtung dienen. Dies ist insbesondere dann wesentlich, wenn Fahrzeugsysteme des Kraftfahrzeugs dem Fahrer zumindest einen Teil der Fahraufgabe abnehmen und es zur Aufrechterhaltung der Sicherheit jedoch weiterhin notwendig ist, dass der Fahrer die aktuelle Fahrsituation/Verkehrssituation aufmerksam verfolgt, mit anderen Worten „im Loop“ ist und im Zweifel eingreifen kann. Fahrerbeobachtungssysteme, die üblicherweise eine auf die Position des Fahrers gerichtete Kamera und eine Steuereinrichtung zur Auswertung von von der Kamera aufgenommenen Bilddaten umfassen, können beispielsweise dazu eingerichtet sein, aus den Bilddaten die Anwesenheit eines Fahrers, dessen Blickrichtung und dergleichen herzuleiten.In modern motor vehicles, it has been proposed to install cameras in the interior of the respective motor vehicle, which serve to monitor the driver, to secure operation by a driver or the presence of a driver, in particular also his attention to the current driving situation. This is particularly important when the vehicle systems of the motor vehicle relieve the driver of at least part of the driving task and it is still necessary to maintain safety that the driver closely follows the current driving situation/traffic situation, in other words is "in the loop" and in the doubt can intervene. Driver monitoring systems, which usually include a camera aimed at the driver's position and a control device for evaluating image data recorded by the camera, can be set up, for example, to derive the presence of a driver, his viewing direction and the like from the image data.
Gerade bei zur wenigstens teilweise automatischen Führung des Kraftfahrzeugs ausgebildeten Fahrzeugsystemen, aber auch in anderen Fällen, kann eine Versuchung existieren, das Fahrerbeobachtungssystem zu täuschen und statt der die Fahrsituation beobachtenden Anwesenheit auf dem Fahrersitz anderen Tätigkeiten nachzugehen, beispielsweise mithin den echten Fahrer durch eine Puppe, ein Bild oder dergleichen zu ersetzen. Die Erkennung solcher Täuschungsversuche, die häufig als „Spoofing“ bezeichnet werden, ist ein wesentlicher Aspekt in Fahrerbeobachtungssystemen von Kraftfahrzeugen. Verfahren, in denen solche Täuschungsversuche erkannt werden sollen, werden als Verfahren zur Lebenderkennung (liveliness detection) bezeichnet; andere Begriffe sind „fake detection“ bzw. „spoofing detection“. Bei der Lebenderkennung geht es in anderen Worten mithin darum zu erkennen, ob ein echter, mithin lebender aufmerksamer Fahrer vor der Kamera sitzt oder ein Täuschungsversuch, beispielsweise mittels einer Puppe, einem Foto oder dergleichen, vorliegt.Particularly in the case of vehicle systems designed for at least partially automatic guidance of the motor vehicle, but also in other cases, there may be a temptation to deceive the driver observation system and to pursue other activities instead of being present on the driver's seat to observe the driving situation, for example consequently identifying the real driver with a doll, to replace an image or the like. The detection of such attempts at deception, which is often referred to as "spoofing", is an essential aspect in driver monitoring systems of motor vehicles. Methods in which such attempts at deception are to be recognized are referred to as methods for liveliness detection; other terms are “fake detection” or “spoofing detection”. In other words, recognizing that the driver is alive is about recognizing whether a real driver who is alive and alert is sitting in front of the camera or whether there has been an attempt to deceive, for example using a doll, a photo or the like.
Im Stand der Technik wurde zur Lebenderkennung in Kraftfahrzeugen beispielsweise bereits vorgeschlagen, die Bilddaten über die Zeit zu analysieren, um beispielsweise ein Ausbleiben von Blinzelvorgängen des Fahrers feststellen zu können. Zudem wurde vorgeschlagen, eine Klassifikation über einen Algorithmus der künstlichen Intelligenz, insbesondere ein neuronales Netz, vorzunehmen. Diese Ansätze sind jedoch sehr fehleranfällig, da sie nur eine indirekte Schlussfolgerung hinsichtlich der An- oder Abwesenheit von Merkmalen über die Zeit liefern. Es werden nicht alle Täuschungsversuche erkannt, auf der anderen Seite gibt es jedoch auch Fehlauslösungen. Ferner liefert eine Detektion über eine Analyse über Zeit nicht sofort ein Ergebnis, sondern ist als eher träge zu bezeichnen.In the prior art, it has already been proposed, for example, for life detection in motor vehicles to analyze the image data over time in order, for example, to be able to determine that the driver has not blinked. In addition, it was proposed to carry out a classification using an artificial intelligence algorithm, in particular a neural network. However, these approaches are very error-prone as they only provide an indirect conclusion regarding the presence or absence of features over time. Not all attempts at deception are recognized, but on the other hand there are also false alarms. Furthermore, a detection via an analysis over time does not provide a result immediately, but can be described as rather sluggish.
Auch diese beiden Ansätze sind jedoch nachteilhaft, da sie zusätzliche Einrichtungen (Display, zusätzliche Kamera) benötigen und eine komplexe, insbesondere zeitliche, Auswertung benötigen.However, these two approaches are also disadvantageous, since they require additional devices (display, additional camera) and require a complex, in particular temporal, evaluation.
Der Erfindung liegt die Aufgabe zugrunde, eine robuste, einfach umsetzbare und verlässliche Möglichkeit zur Lebenderkennung im Hinblick auf Täuschungen bezüglich eines Fahrers eines Kraftfahrzeugs anzugeben.The invention is based on the object of specifying a robust, easily implementable and reliable option for detecting the presence of a vehicle with regard to deceptions regarding a driver of a motor vehicle.
Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass eine Beleuchtungseinrichtung mit zwei unabhängig ansteuerbaren Leuchtabschnitten verwendet wird, wobei ein erster der Leuchtabschnitte derart näher an der optischen Achse der Kamera angeordnet ist, dass die Pupillen von aufgenommenen Augen bei Ausleuchtung mit dem ersten Leuchtabschnitt in jeweiligen ersten Bilddaten hell erscheinen und bei Ausleuchtung mit dem zweiten Leuchtabschnitt ohne Betrieb des ersten Leuchtabschnitts in jeweiligen zweiten Bilddaten dunkel erscheinen, wobei die Steuereinrichtung die Lebendinformation unter Überprüfung der jeweiligen Erscheinung der Pupillen in den ersten und den zweiten Bilddaten ermittelt.To solve this problem, in a method of the type mentioned at the outset, the invention provides that a lighting device with two independently controllable lighting sections is used, with a first of the lighting sections being arranged closer to the optical axis of the camera in such a way that the pupils of recorded eyes when illuminated appear bright in respective first image data with the first luminous section and appear dark in respective second image data when illuminated with the second luminous section without operation of the first luminous section, the control device determining the vital information by checking the respective appearance of the pupils in the first and second image data.
Die Erfindung schlägt mithin vor, eine Beleuchtungseinrichtung mit zwei Leuchtabschnitten (Lichtquellen) zu verwenden, die eine begrenzte Ausdehnung aufweisen, unabhängig durch die Steuereinrichtung ansteuerbar sind und unterschiedlich bezüglich der optischen Achse der Kamera positioniert sind. Zur Aufnahme von ersten Bilddaten wird die Szene und insbesondere auch eine auf Echtheit zu überprüfende Person mit dem ersten Leuchtabschnitt, der möglichst nah an der optischen Achse der Kamera positioniert ist, ausgeleuchtet, bevorzugt mit infrarotem, insbesondere nahinfrarotem, Licht. Bei dem nahe an der optischen Achse befindlichen ersten Leuchtabschnitt gelangt ein kleiner Anteil des Lichts in das Auge und reflektiert von der Retina zurück zur Kamera, so dass die Pupille des Auges, vergleichbar mit dem rote-Augen-Effekt in der Fotografie, hell erscheint, weswegen der entstehende Effekt auch als „Bright Pupil Effect“ bezeichnet wird. Zweite Bilddaten werden aufgenommen, während der erste Leuchtabschnitt nicht betrieben wird, sondern lediglich der zweite Leuchtabschnitt, der von der optischen Achse so weit entfernt ist, dass derartige Rückreflexionen von der Retina zu der Kamera nicht auftreten, weswegen die Pupille dunkel erscheint, was üblicherweise in der Literatur als „Dark Pupil Effect“ beschrieben wird. Nachdem üblicherweise auch ein intensives virtuelles Bild der Lichtquelle von der Hornhaut (Cornea) zurückreflektiert wird, welches in beiden Arten von Bilddaten zu sehen ist und als „Glint“ bezeichnet wird, wurde für die Nutzung des „Bright Pupil Effect“ gemeinsam mit dem „Dark Pupil Effect“ und dem „Glint“ im Stand der Technik bislang nur vorgeschlagen, diese bezüglich einer Blickrichtungsdetektion auszunutzen, beispielsweise bei der Bedienung von Geräten mit dem Auge, vgl. hierzu beispielsweise
Mit anderen Worten wird eine konkrete geometrische Anordnung von zwei, insbesondere Infrarotlicht ausstrahlenden, Leuchtabschnitten und einer Kamera, insbesondere Infrarot-Kamera, gemeinsam mit einer intelligenten Ansteuerung genutzt, um zu bewerten, ob ein echter Mensch vor dem Fahrerbeobachtungssystem, insbesondere also der Kamera, sitzt. Dabei wird die physikalische Eigenschaft des menschlichen Auges ausgenutzt, das bei einer Lichtquelle nahe an der optischen Achse der Kamera die Pupille in den entsprechenden ersten Bilddaten hell erscheint, bei achsferner Anordnung der Lichtquelle die Pupille jedoch dunkel erscheint, wobei diese zwei verschiedenen Effekte intelligent miteinander kombiniert werden, um Täuschungsversuche zu detektieren. Dabei sei an dieser Stelle noch angemerkt, dass geeignete Positionen für die Leuchtabschnitte, um den „Bright Pupil Effect“ bzw. den „Dark Pupil Effect“ zu erreichen, problemlos empirisch bestimmt werden können, wobei für den ersten Leuchtabschnitt die nahestmögliche Platzierung an der optischen Achse bevorzugt wird, da dann der Effekt der hellen Pupille am stärksten ist.In other words, a concrete geometric arrangement of two light sections, in particular emitting infrared light, and a camera, in particular an infrared camera, is used together with an intelligent control in order to assess whether a real person is sitting in front of the driver monitoring system, i.e. in particular the camera . This exploits the physical property of the human eye, which means that when the light source is close to the optical axis of the camera, the pupil appears bright in the corresponding first image data, but when the light source is arranged off-axis, the pupil appears dark, with these two different effects being intelligently combined to detect attempted deception. It should also be noted at this point that suitable positions for the illuminated sections in order to achieve the "Bright Pupil Effect" or the "Dark Pupil Effect" can be determined empirically without any problems, with the closest possible placement to the optical one for the first illuminated section axis is preferred because then the bright pupil effect is strongest.
Die Erfindung erlaubt es, die Detektion eines Täuschungsversuchs durch Nutzung der entsprechenden Leuchtabschnitte aktiv durchzuführen. Denn die aktive Beleuchtung bei unterschiedlichen Winkelbeziehungen zum Fahrer liefert unterschiedliche Reflexionen in der Augenregion, die gezielt herbeigeführt werden können, so dass das Fahrerbeobachtungssystem nicht auf passive Beobachtungen angewiesen ist und Detektionszeiten deutlich reduziert werden können. Durch die Ausnutzung des beschriebenen Effekts kann auch die Fehlerkennung verringert werden. Gleichzeitig ist das erfindungsgemäße Verfahren generischer auf verschiedene Arten von Täuschungsversuchen anwendbar. So können beispielsweise nicht nur einfache Täuschungsversuche durch Fotos oder statische Puppen erkannt werden, sondern auch komplexere Täuschungen, wie beispielsweise abgespielte Videos oder Puppen mit beweglichen Augenlidern.The invention makes it possible to actively detect an attempt at deception by using the corresponding luminous sections. Because the active lighting at different angles to the driver provides different reflections in the eye region, which can be brought about in a targeted manner so that the driver observation system is not dependent on passive observations and detection times can be significantly reduced. By utilizing the effect described, the error detection can also be reduced. At the same time, the method according to the invention is more generically applicable to different types of deception attempts. For example, not only simple attempts at deception through photos or static puppets can be recognized, but also more complex deceptions, such as played videos or puppets with moving eyelids.
Wie bereits erwähnt, wird im Rahmen der vorliegenden Erfindung besonders bevorzugt Infrarotlicht, insbesondere Nahinfrarotlicht, herangezogen, so dass derartige Fahrerbeobachtungssysteme auch in der Dunkelheit problemlos funktionsfähig sind, ohne eine Störung des Fahrers hervorzurufen. Konkret kann beispielsweise vorgesehen sein, dass die Beleuchtungseinrichtung als Lichtquellen für die Leuchtabschnitte LEDs und/oder Oberflächenemitter (VCSEL-Technologie) nutzt.As already mentioned, infrared light, in particular near-infrared light, is particularly preferably used within the scope of the present invention, so that driver monitoring systems of this type can also function without problems in the dark without causing any disturbance to the driver. Specifically, it can be provided, for example, that the lighting device uses LEDs and/or surface emitters (VCSEL technology) as light sources for the luminous sections.
In besonders vorteilhafter Weiterbildung der vorliegenden Erfindung kann vorgesehen sein, dass die Steuereinrichtung die Kamera und die Beleuchtungseinrichtung zur insbesondere periodisch abwechselnden Aufnahme von ersten und zweiten Bilddaten ansteuert. Es kann mithin in regelmäßigen Abständen zwischen den beiden Beleuchtungsarten gewechselt werden, um zu überprüfen, ob die zu erwartende Pupillenantwort sichtbar wird. Somit kann eine kontinuierlich durchlaufende Täuschungsdetektion vorgenommen werden. Konkret können hierbei die Schaltfrequenz der Leuchtabschnitte und die Bildaufnahmefrequenz der Kamera synchronisiert sein, so dass beispielsweise jeweils eine bestimmte Anzahl von Bildern als erste Bilddaten und eine bestimmte Anzahl von Bildern als zweite Bilddaten aufgenommen werden, beispielsweise auch jeweils genau ein Bild. Zweckmäßig ist es ferner, wenn die Überprüfung einen Vergleich zeitlich benachbart aufgenommener erster und zweiter Bilddaten umfasst. Dabei beruht letztlich die Lebenderkennung der vorliegenden Erfindung ja auf der Tatsache, dass bezüglich der Pupillen ein Unterschied zwischen den ersten und den zweiten Bilddaten besteht, so dass zumindest eine einmalige Durchführung dieses Vergleichs zweckmäßig ist. Im weiteren Verlauf ist es im Rahmen der vorliegenden Erfindung selbstverständlich auch denkbar, die aufgrund eines solchen ersten Vergleichs detektierten Pupillen anderweitig nachzuverfolgen und jeweils nur zu überprüfen, ob sie in den aktuellen ersten bzw. zweiten Bilddaten hell bzw. dunkel erscheinen. Verschiedene konkrete Ansätze sind in diesem Zusammenhang denkbar. Es sei angemerkt, dass es insbesondere auch möglich ist, potentielle Pupillen eines lebenden Menschen anderweitig zu lokalisieren, beispielsweise unter Nutzung grundsätzlich bekannter Bildverarbeitungsalgorithmen, um dann bezüglich der ersten und der zweiten Bilddaten jeweils unabhängig überprüfen zu können, ob die Pupille hell oder dunkel dargestellt wird.In a particularly advantageous development of the present invention, it can be provided that the control device controls the camera and the illumination device for recording first and second image data, in particular periodically alternating. It is therefore possible to switch between the two types of illumination at regular intervals in order to check whether the pupil response to be expected is visible. In this way, a continuously running deception detection can be carried out. Specifically, the switching frequency of the light sections and the image recording frequency of the camera can be synchronized so that, for example, a specific number of images are recorded as first image data and a specific number of images are recorded as second image data, for example exactly one image in each case. It is also expedient if the check includes a comparison of first and second image data recorded temporally adjacent. In this case, the live detection of the present invention is ultimately based on the fact that there is a difference between the first and the second image data with regard to the pupils, so that it is expedient to carry out this comparison at least once. In the further course, it is of course also conceivable within the scope of the present invention to follow up the pupils detected on the basis of such a first comparison in some other way and only to check whether they appear light or dark in the current first or second image data. Various concrete approaches are conceivable in this context. It should be noted that it is also possible, in particular, to locate potential pupils of a living person in some other way, for example using fundamentally known image processing algorithms, in order to then be able to independently check whether the pupil is represented bright or dark with respect to the first and second image data .
Die Lebendinformation kann mit besonderem Vorteil an ein, in seinem Betrieb durch einen Fahrer zu überwachendes, Fahrzeugsystem zur wenigstens teilweise automatischen Führung des Kraftfahrzeugs übermittelt und durch dieses ausgewertet werden, insbesondere hinsichtlich wenigstens einer Maßnahme bei einer detektierten, durch die Lebendinformation beschriebenen Täuschung. Dabei sind verschiedene Maßnahmen im Rahmen der vorliegenden Erfindung denkbar, die selbstverständlich auch von der Art des Fahrzeugsystems abhängen können. Bei einem zur wenigstens teilweise automatischen Führung des Kraftfahrzeugs ausgebildeten Fahrzeugsystem kann beispielsweise vorgesehen sein, dass als Maßnahmen zunächst wenigstens eine Warnung, dann eine Fahrerübernahmeaufforderung und schließlich gegebenenfalls ein Verbringen des Kraftfahrzeugs in einen sicheren Zustand vorgesehen sind. Diese Maßnahmen können letztlich auch als ein Aktionsplan in bestimmter Reihenfolge aufeinanderfolgen. Ein Verbringen in einen sicheren Zustand kann dabei beispielsweise das Verbringen des Kraftfahrzeugs in einen Stillstand am Rand oder neben einer Fahrbahn umfassen. Grundsätzlich sind selbstverständlich auch andere Maßnahmen denkbar, die insbesondere auch mit Maßnahmen hinsichtlich der weiteren Fahrerbeobachtung kombiniert werden können, die im Rahmen der vorliegenden Erfindung selbstverständlich auch im Allgemeinen durch das Fahrerbeobachtungssystem bereitgestellt werden können, beispielsweise eine Aufmerksamkeitserkennung/Müdigkeitserkennung, Blickrichtungserkennung und dergleichen. Die vorliegende Erfindung bezieht sich jedoch auf die Lebenderkennung, um Täuschungen verlässlich detektieren zu können.The live information can be transmitted with particular advantage to a vehicle system to be monitored during operation by a driver for at least partially automatic guidance of the motor vehicle and evaluated by it, in particular with regard to at least one measure in the event of a detected deception described by the live information. Various measures are conceivable within the scope of the present invention, which of course can also depend on the type of vehicle system. In a vehicle system designed for at least partially automatic guidance of the motor vehicle, it can be provided, for example, that the measures initially include at least a warning, then a driver takeover request and finally, if necessary, bringing the motor vehicle into a safe state. These measures can ultimately follow one another in a specific order as an action plan. Bringing the vehicle into a safe state can include, for example, bringing the motor vehicle to a standstill at the edge of or next to a roadway. In principle, of course, other measures are also conceivable, which can in particular also be combined with measures with regard to further driver monitoring, which can of course also be provided in general by the driver monitoring system within the scope of the present invention, for example alertness detection/fatigue detection, line of sight detection and the like. However, the present invention relates to live detection in order to be able to reliably detect deceptions.
Zweckmäßigerweise kann die Lebendinformation als eine Täuschungswahrscheinlichkeit (bzw. eine solche umfassend) ermittelt werden, wobei insbesondere bei Überschreiten eines Schwellwerts durch die Täuschungswahrscheinlichkeit eine Täuschung detektiert wird. In diesem Zusammenhang kann beispielsweise konkret vorgesehen sein, dass bei abwechselnder Aufnahme erster und zweiter Bilddaten für jeden ersten und zweiten Bilddatensatz und/oder für jedes aufeinanderfolgend aufgenommene Paar erster und zweiter Bilddaten die Überprüfung vorgenommen wird, wobei jede fehlgeschlagene Überprüfung zur Erhöhung der Täuschungswahrscheinlichkeit führt. Immer also dann, wenn nicht die zu erwartende Antwort der Pupille zu sehen ist, wird die Wahrscheinlichkeit für einen Täuschungsversuch erhöht. Sind jedoch für wenigstens ein Paar von ersten und zweiten Bilddaten beide Pupillenantworten wie erwartet, ist davon auszugehen, dass es sich um eine reale Person handelt und die Täuschungswahrscheinlichkeit kann zurückgesetzt werden, beispielsweise erniedrigt werden oder sogar gänzlich zurück auf Null gesetzt werden. Je nachdem, wie viele Erhöhungen benötigt werden, um den Schwellwert zu erreichen, bzw. wie schnell wieder erniedrigt wird, kann die Robustheit gegenüber temporärer Fehldetektionen geeignet eingestellt werden.The live information can expediently be determined as a probability of deception (or including such a probability), a deception being detected in particular when the probability of deception exceeds a threshold value. In this context, it can be specifically provided, for example, that when first and second image data are recorded alternately, for each first and second image data set and/or for each successive ing recorded pairs of first and second image data, the check is carried out, each failed check leading to an increase in the probability of deception. Whenever the expected response of the pupil cannot be seen, the probability of an attempt at deception is increased. However, if both pupil responses are as expected for at least one pair of first and second image data, it can be assumed that a real person is involved and the probability of deception can be reset, for example reduced or even set back to zero entirely. Depending on how many increases are required to reach the threshold value, or how quickly it is reduced again, the robustness to temporary faulty detections can be suitably adjusted.
In Ausführungsbeispielen der vorliegenden Erfindung kann auch vorgesehen sein, dass in die Lebendinformation wenigstens ein weiteres Auswertungsergebnis der Bilddaten eingeht. Bei einem solchen weiteren Auswertungsergebnis kann es sich beispielsweise um das Auswertungsergebnis einer Blinzelerkennung, wie eingangs auch bereits beschrieben, bzw. einer sonstigen auf die Bewegung der Augen bezogenen Bewegungserkennung handeln.In exemplary embodiments of the present invention, it can also be provided that at least one further evaluation result of the image data is included in the live information. Such a further evaluation result can be, for example, the evaluation result of a blink detection, as already described above, or another motion detection related to the movement of the eyes.
In einer besonders bevorzugten Weiterbildung der vorliegenden Erfindung kann jedoch vorgesehen sein, dass das weitere Auswertungsergebnis durch den Vergleich unterschiedlicher Schattenwürfe, insbesondere in einem Gesichtsbereich, in den ersten und den zweiten Bilddaten ermittelt wird. Insbesondere dann, wenn, was bevorzugt ist, die Leuchtabschnitte die optische Achse nicht als konzentrische Kreise umgeben, führen die unterschiedlichen Winkelstellungen der Leuchtabschnitte zur optischen Achse auch zu unterschiedlichem Schattenwurf, welcher im Rahmen der vorliegenden Erfindung bevorzugt ebenso analysiert werden kann, um weitere Hinweise auf das Vorliegen einer echten Person ziehen zu können. Dabei kann in besonders vorteilhafter Ausgestaltung vorgesehen sein, dass der erste und der zweite Leuchtabschnitt der Kamera auf unterschiedlichen, insbesondere gegenüberliegenden, Seiten und in unterschiedlichen Abständen benachbart der Kamera angeordnet sind. Auf diese Weise kann ein noch höherer Abstand des ersten und des zweiten Leuchtabschnitts erreicht werden, insbesondere bei einer Anordnung auf gegenüberliegenden Seiten. In dieser Ausgestaltung wird mithin ausgenutzt, dass die aktive Beleuchtung bei unterschiedlichen Winkelbeziehungen zum Fahrer unterschiedliche Schattenwürfe der dreidimensionalen Gesichtsoberfläche hervorruft, welche im Rahmen einer Auswertung der Bilddaten ebenso detektiert werden kann und als weiterer Hinweis dahingehend interpretiert werden kann, ob tatsächlich ein echter Mensch in der Szene vorliegt.In a particularly preferred development of the present invention, however, provision can be made for the further evaluation result to be determined by comparing different shadows cast, in particular in a face area, in the first and second image data. In particular, if, which is preferred, the luminous sections do not surround the optical axis as concentric circles, the different angular positions of the luminous sections to the optical axis also lead to different shadows, which can preferably also be analyzed within the scope of the present invention to provide further information to be able to draw the existence of a real person. In a particularly advantageous embodiment, it can be provided that the first and the second lighting section of the camera are arranged on different, in particular opposite, sides and at different distances adjacent to the camera. In this way, an even greater distance between the first and the second luminous section can be achieved, in particular in the case of an arrangement on opposite sides. In this configuration, use is made of the fact that the active lighting causes different shadows to be cast on the three-dimensional facial surface at different angles to the driver, which can also be detected as part of an evaluation of the image data and can be interpreted as a further indication of whether a real person is actually in the scene is present.
Neben dem Verfahren betrifft die Erfindung auch ein Kraftfahrzeug, aufweisend ein Fahrerbeobachtungssystem, welches aufweist:
- - eine auf die Position des Fahrers gerichtete Kamera zur Aufnahme von Bilddaten einer die Position des Fahrers umfassenden Szene,
- - eine Beleuchtungseinrichtung zur Ausleuchtung der Szene, insbesondere unter Nutzung von Infrarotlicht, und
- - eine Steuereinrichtung zur Auswertung der Bilddaten zur Ermittlung einer eine potentielle Täuschung bezüglich der Anwesenheit eines Fahrers beschreibenden Lebendinformation,
dass die Beleuchtungseinrichtung zwei unabhängig ansteuerbare Leuchtabschnitte aufweist, wobei ein erster der Leuchtabschnitte derart näher an der optischen Achse der Kamera angeordnet ist, dass die Pupillen von aufgenommenen Augen bei Ausleuchtung mit dem ersten Leuchtabschnitt in jeweiligen ersten Bilddaten hell erscheinen und bei Ausleuchtung mit dem zweiten Leuchtabschnitt ohne Betrieb des ersten Leuchtabschnitts in jeweiligen zweiten Bilddaten dunkel erscheinen, wobei die Steuereinrichtung zur Ermittlung der Lebendinformation unter Überprüfung der jeweiligen Erscheinung der Pupillen in den ersten und den zweiten Bilddaten ausgebildet ist. Mit anderen Worten ist die Steuereinrichtung zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf das erfindungsgemäße Kraftfahrzeug übertragen und umgekehrt.In addition to the method, the invention also relates to a motor vehicle, having a driver monitoring system, which has:
- - a camera aimed at the driver's position for recording image data of a scene containing the driver's position,
- - a lighting device for illuminating the scene, in particular using infrared light, and
- - a control device for evaluating the image data to determine live information describing a potential deception regarding the presence of a driver,
that the lighting device has two independently controllable lighting sections, with a first of the lighting sections being arranged closer to the optical axis of the camera in such a way that the pupils of recorded eyes appear bright in the respective first image data when illuminated with the first lighting section and when illuminated with the second lighting section appear dark in respective second image data without operation of the first luminous section, the control device being designed to determine the vital information by checking the respective appearance of the pupils in the first and second image data. In other words, the control device is designed to carry out the method according to the invention. All statements relating to the method according to the invention can be transferred analogously to the motor vehicle according to the invention and vice versa.
Das Kraftfahrzeug kann sich insbesondere dadurch auszeichnen, dass die Kamera und die Beleuchtungseinrichtung in einer gemeinsamen Baueinheit integriert sind. Beispielsweise kann ein gemeinsames Gehäuse vorgesehen sein, welches eine Öffnung und/oder eine durchstrahlbare Fläche für das Objektiv/die Linse der in dem Gehäuse verbauten Kamera aufweist und bei dem die Leuchtabschnitte insbesondere in oder auf derselben Oberfläche, auf der auch die Kamera aufnimmt, vorgesehen sein können. Auf diese Weise kann eine kompakte, integrative Ausgestaltung realisiert werden. Eine durchstrahlbare Fläche bzw. ein Fenster für die (Infrarot-)Kamera in dem Gehäuse kann beispielsweise ein für optisches Licht undurchlässiges, aber für Infrarotlicht durchlässiges Element, beispielsweise eine Platte, umfassen.The motor vehicle can be characterized in particular by the fact that the camera and the lighting device are integrated in a common structural unit. For example, a common housing can be provided which has an opening and/or a surface through which radiation can pass for the objective/lens of the camera installed in the housing and in which the lighting sections are provided in particular in or on the same surface on which the camera is also recording could be. In this way, a compact, integrative configuration can be implemented. A surface through which radiation can pass or a window for the (infrared) camera in the housing can, for example, comprise an element that is impermeable to optical light but transparent to infrared light, for example a plate.
Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:
-
1 eine Prinzipskizze eines erfindungsgemäßen Kraftfahrzeugs, -
2 eine Frontansicht einer die Kamera und die Beleuchtungseinrichtung umfassenden Baueinheit, -
3 eine Illustration des „Bright Pupil Effect“, -
4 eine Illustration des „Dark Pupil Effect“, und -
5 einen Ablaufplan eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens.
-
1 a schematic diagram of a motor vehicle according to the invention, -
2 a front view of a unit comprising the camera and the lighting device, -
3 an illustration of the Bright Pupil Effect, -
4 an illustration of the Dark Pupil Effect, and -
5 a flowchart of an embodiment of the method according to the invention.
Um dies festzustellen, weist das Kraftfahrzeug 1 ferner ein Fahrerbeobachtungssystem 5 auf, welches vorliegend eine Infrarot-Kamera 6, eine Infrarot-Beleuchtungseinrichtung 7 und eine Steuereinrichtung 8 aufweist. Die Infrarot-Kamera 6 ist, wie durch den Erfassungsbereich 9 angedeutet, auf die Position des Fahrers, mithin eine den Fahrersitz 3 umfassende Szene, gerichtet, wobei vorliegend insbesondere die Position des Kopfes des Fahrers relevant ist. Die Beleuchtungseinrichtung 7 ist ferner dazu ausgebildet, eben diese Szene mit Licht im Nahinfrarot-Bereich auszuleuchten, um Störungen des Fahrers zu vermeiden. Lichtquellen der Beleuchtungseinrichtung 7 können als LEDs und/oder Oberflächenemitter ausgebildet sein.In order to determine this, the
Die Beleuchtungseinrichtung 7 weist wiederum zwei getrennt ansteuerbare und beabstandet zueinander positionierte Leuchtabschnitte 14, 15 (Lichtquellen) auf, wobei der erste Leuchtabschnitt 14 möglichst nah an der optischen Achse 13 positioniert ist, der zweite Leuchtabschnitt 15 deutlich weiter entfernt von der optischen Achse 13. Um den Abstand der Leuchtabschnitte 14, 15 voneinander ferner weiter zu vergrößern, sind sie auf gegenüberliegenden Seiten der Kamera 6 bzw. der Linse 12 angeordnet.The
Aufgrund der möglichst achsnahen Anordnung des ersten Beleuchtungsabschnitts 14 ist in ersten Bilddaten, die bei die Szene ausleuchtendem ersten Leuchtabschnitt 14 aufgenommen wurden, der sogenannte „Bright Pupil Effect“ zu beobachten, bei dem ein Teil des Nahinfrarot-Lichtes des ersten Leuchtabschnitts 14 von der Retina zur Kamera 6 zurückreflektiert wird, wie dies schematisch in
Ist jedoch der erste Leuchtabschnitt 14 nicht aktiv und wird nur der zweite Leuchtabschnitt 15 zur Ausleuchtung der Szene mit Nahinfrarot-Licht betrieben, können Reflexionen der Retina nicht zur Kamera 6 zurückgelangen, so dass, wie
Die Tatsache, dass der erste Beleuchtungsabschnitt 14 den „Bright Pupil Effect“ hervorruft, der zweite Leuchtabschnitt 15 jedoch den „Dark Pupil Effect“, wird von der Steuereinrichtung 8 zur Lebenderkennung, konkret zur Ermittlung einer eine mögliche Täuschung anzeigenden Lebendinformation, verwendet. Dabei wird dort in regelmäßigen Abständen nur der erste Leuchtabschnitt 14 bzw. nur der zweite Leuchtabschnitt 15 aktiviert, um erste und zweite Bilddaten in Synchronisation mit der Kamerafrequenz aufzunehmen, beispielsweise immer eine bestimmte Anzahl von Bildern innerhalb eines Zeitintervalls, in dem die entsprechende Art von Beleuchtung aktiv ist, die dann zusammen einen Bilddatensatz bilden können. Die Beleuchtung mit dem ersten Leuchtabschnitt 14 kann dabei als „Bright Pupil“-Beleuchtung, die Beleuchtung mit ausschließlich dem zweiten Leuchtabschnitt 15 als „Dark Pupil“-Beleuchtung bezeichnet werden.The fact that the
In einem ersten Schritt S1 werden zu Beginn des Verfahrens, mithin der Lebenderkennung, zunächst die Positionen von Pupillen in den ersten und den zweiten Bilddaten festgestellt, was beispielsweise im Rahmen einer Gesichtserkennung erfolgen kann, aber auch durch Vergleich von ersten und zweiten Bilddaten unter Nutzung der unterschiedlichen Erscheinung der Pupille; im weiteren Verlauf kann dann die Position der Pupille mit bekannten Verfahren getrackt werden. Es sind auch Ausführungen denkbar, in denen die Pupillen jedes Mal neu bzw. bei Eintritt bestimmter Bedingungen neu lokalisiert werden können.In a first step S1, at the beginning of the method, i.e. the detection of life, the positions of pupils in the first and second image data are first determined, which can be done, for example, as part of face detection, but also by comparing first and second image data using the under different appearance of the pupil; in the further course, the position of the pupil can then be tracked using known methods. Embodiments are also conceivable in which the pupils can be relocated each time or when certain conditions occur.
In einem Schritt S2 wird ausschließlich der erste Leuchtabschnitt 14 aktiviert, mithin die „Bright Pupil“-Beleuchtung genutzt, und es werden erste Bilddaten aufgenommen. Diese werden in einem Schritt S3 dahingehend ausgewertet, ob der „Bright Pupil Effect“ sichtbar ist, mithin die Pupille wie erwartet hell erscheint. Ist dies nicht der Fall, wird in einem Schritt S4 eine als bzw. als Teil der Lebendinformation verwendete Täuschungswahrscheinlichkeit um einen vorgegebenen Wert erhöht. Immer dann, wenn dies der Fall ist, wird in einem Schritt S5 überprüft, ob die Täuschungswahrscheinlichkeit einen vorgegebenen Schwellwert überschreitet. Ist dies der Fall, wird in einem Schritt S6 ein Täuschungsversuch festgestellt. Eine entsprechende Täuschungsinformation kann als weiterer Teil der Lebendinformation verwendet werden und beispielsweise an das Fahrzeugsystem 4 weitergegeben werden. Überschreitet die Täuschungswahrscheinlichkeit jedoch nicht den Grenzwert, wird mit der Bildaufnahme fortgefahren.In a step S2 only the first
Nach dem der Periodizität zugrunde liegenden Zeitraum wird in einem Schritt S7 ausschließlich der Leuchtabschnitt 15 zur Ausleuchtung der Szene aktiviert, mithin die „Dark Pupil“-Beleuchtung. Es werden somit nun zweite Bilddaten aufgenommen. Diese werden in einem Schritt S8 dahingehend von der Steuereinrichtung 8 ausgewertet, ob der „Dark Pupil Effect“ feststellbar ist. Ist dies nicht der Fall, wird wiederum im Schritt S4 die Täuschungswahrscheinlichkeit erhöht und die Überschreitung des Schwellwerts im Schritt S5 überprüft.After the period of time on which the periodicity is based, in a step S7 only the
Wurde jedoch für eine Folge von ersten und zweiten Bilddaten jeweils festgestellt, dass die erwartete Pupillenerscheinung vorlag, wird in einem Schritt S9 die Täuschungswahrscheinlichkeit entweder unmittelbar auf Null zurückgesetzt, oder aber zumindest um einen weiteren vorgegebenen Wert erniedrigt.However, if it was determined for a sequence of first and second image data that the expected pupillary appearance was present, in a step S9 the probability of deception is either immediately reset to zero or at least reduced by a further predetermined value.
Wurde im Schritt S6 ein Täuschungsversuch festgestellt, kann dies seitens des Fahrzeugsystems 4 verschiedene Maßnahmen zur Folge haben, beispielsweise eine Ausgabe einer Warnung, die Ausgabe einer Fahrerübernahmeaufforderung, eine Deaktivierung der Funktion, die Überwachung durch den Fahrer benötigt, oder sogar ein Verbringen des Kraftfahrzeugs 1 in einen sicheren Zustand, insbesondere den Stillstand.If an attempt to deceive was determined in step S6, this can result in various measures on the part of the
Es sei angemerkt, dass in die Lebendinformation auch weitere Auswertungsergebnisse eingehen können, beispielsweise die einer Blinzelerkennung oder einer sonstigen Bewegungserkennung, wie sie aus dem Stand der Technik bekannt sind. Die in
Das Fahrerbeobachtungssystem 5 kann selbstverständlich mittels seiner Komponenten auch weitere Aufgaben, wie im Stand der Technik bekannt, erfüllen, beispielsweise Blickrichtungsbestimmung, Müdigkeitsbestimmung, Aufmerksamkeitsbestimmung und dergleichen, was insbesondere zusätzlich immer dann erfolgen kann, wenn kein Täuschungsversuch festgestellt wurde.The
Schließlich sei angemerkt, dass statt einer Überprüfung jeweils in den ersten und in den zweiten Bilddaten, ob der jeweils erwartete Effekt vorliegt, es selbstverständlich auch denkbar ist, für jedes Paar von ersten und zweiten Bilddaten, die zeitlich nacheinander aufgenommen wurden, durch Vergleich zu überprüfen, ob die erwartete natürliche Erscheinung eines menschlichen Auges in den Bilddaten gegeben ist.Finally, it should be noted that instead of checking the first and second image data to determine whether the expected effect is present, it is of course also conceivable to check by comparison for each pair of first and second image data that were recorded one after the other whether the expected natural appearance of a human eye is given in the image data.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- EP 3192008 B1 [0005]EP 3192008 B1 [0005]
- US 2014/0071293 A1 [0006]US 2014/0071293 A1 [0006]
- US 2005/0226472 A1 [0008]US 2005/0226472 A1 [0008]
- US 4950069 A [0011]US4950069A [0011]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020123927.0A DE102020123927A1 (en) | 2020-09-15 | 2020-09-15 | Method for recognizing a driver of a motor vehicle and motor vehicle as being alive |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020123927.0A DE102020123927A1 (en) | 2020-09-15 | 2020-09-15 | Method for recognizing a driver of a motor vehicle and motor vehicle as being alive |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020123927A1 true DE102020123927A1 (en) | 2022-03-17 |
Family
ID=80351456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020123927.0A Pending DE102020123927A1 (en) | 2020-09-15 | 2020-09-15 | Method for recognizing a driver of a motor vehicle and motor vehicle as being alive |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020123927A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4950069A (en) | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
US20050226472A1 (en) | 2004-04-13 | 2005-10-13 | Denso Corporation | Driver's appearance recognition system |
DE102011106800A1 (en) | 2011-07-06 | 2013-01-10 | Volkswagen Aktiengesellschaft | Method and system for checking a driving authorization for a vehicle |
CN103106397A (en) | 2013-01-19 | 2013-05-15 | 华南理工大学 | Human face living body detection method based on bright pupil effect |
US20140071293A1 (en) | 2012-09-12 | 2014-03-13 | Google Inc. | Method and device for authintication of live human faces using infra red images |
EP3192008B1 (en) | 2014-09-09 | 2018-06-27 | EyeVerify Inc. | Systems and methods for liveness analysis |
-
2020
- 2020-09-15 DE DE102020123927.0A patent/DE102020123927A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4950069A (en) | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
US20050226472A1 (en) | 2004-04-13 | 2005-10-13 | Denso Corporation | Driver's appearance recognition system |
DE102011106800A1 (en) | 2011-07-06 | 2013-01-10 | Volkswagen Aktiengesellschaft | Method and system for checking a driving authorization for a vehicle |
US20140071293A1 (en) | 2012-09-12 | 2014-03-13 | Google Inc. | Method and device for authintication of live human faces using infra red images |
CN103106397A (en) | 2013-01-19 | 2013-05-15 | 华南理工大学 | Human face living body detection method based on bright pupil effect |
EP3192008B1 (en) | 2014-09-09 | 2018-06-27 | EyeVerify Inc. | Systems and methods for liveness analysis |
Non-Patent Citations (1)
Title |
---|
JI, Qiang ; YANG, Xiaojie: Real-time eye, gaze, and face pose tracking for monitoring driver vigilance. In: Real-Time Imaging, Vol. 8, 2002, No. 5, S. 357-377. - ISSN 1077-2014 (P); 1096-116X (E). DOI: 10.1006/rtim.2002.0279. URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.408.8589&rep=rep1&type=pdf [abgerufen am 2020-10-07] |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60220494T2 (en) | Iris recognition method and system using the same | |
DE102020105652B4 (en) | TRACKING SYSTEM WITH INFRARED CAMERA | |
EP1073988B1 (en) | System for contactless recognition of hand and finger lines | |
DE69830611T2 (en) | METHOD FOR ILLUMINATING AND IMAGING EYES WITH GLASSES USING MULTIPLE LIGHTING SOURCES | |
DE102007056528B3 (en) | Method and device for finding and tracking pairs of eyes | |
US7689008B2 (en) | System and method for detecting an eye | |
DE602005003214T2 (en) | METHOD AND SYSTEM FOR THE PERCEPTUAL FITNESS TESTING OF A DRIVER | |
EP1910973A1 (en) | Method and system for biometric identification or verification | |
DE102015223891A1 (en) | Line of sight tracking device and method of tracking a line of sight | |
DE102016009619A1 (en) | Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data | |
EP3425560B1 (en) | Device and method for detecting biometric features of a person's face | |
EP3274911B1 (en) | Device for person identification | |
DE102013009474A1 (en) | Apparatus for automatically verifying a person's identity document and method for generating identification data of a person for use in an automated identity control station | |
CH713061A1 (en) | System and method for non-contact biometric authentication. | |
DE102020123927A1 (en) | Method for recognizing a driver of a motor vehicle and motor vehicle as being alive | |
DE102016011992A1 (en) | A method of detecting the lifestyles by detecting scheduled reflections in a person's eye for personal data capture devices | |
DE10046859B4 (en) | Vision direction detection system from image data | |
WO2016011992A1 (en) | Device for optically identifying the sex of a slaughter pig | |
DE102018206237A1 (en) | Method and device for detecting fatigue of a person | |
DE102006036864B4 (en) | Method and system for biometric identification or verification | |
DE102007001738B4 (en) | Method and computer program product for eye tracking | |
Fender et al. | The effects of retinal image motion in a simple pattern recognition task | |
DE102017205386A1 (en) | A driver observation apparatus and method for observing a driver in a vehicle for determining at least one position of the driver in the vehicle | |
DE102018121256A1 (en) | Access control system for capturing a facial image of a person | |
Skyu et al. | Using morphological filters for pupil detec-tion in infrared videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |