DE102011011221B4 - Method for detecting the attention of the driver of a motor vehicle - Google Patents

Method for detecting the attention of the driver of a motor vehicle Download PDF

Info

Publication number
DE102011011221B4
DE102011011221B4 DE102011011221.9A DE102011011221A DE102011011221B4 DE 102011011221 B4 DE102011011221 B4 DE 102011011221B4 DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 B4 DE102011011221 B4 DE 102011011221B4
Authority
DE
Germany
Prior art keywords
driver
image
facial
biometric
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011011221.9A
Other languages
German (de)
Other versions
DE102011011221A1 (en
Inventor
Mirko Langnickel
Maik Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102011011221.9A priority Critical patent/DE102011011221B4/en
Publication of DE102011011221A1 publication Critical patent/DE102011011221A1/en
Application granted granted Critical
Publication of DE102011011221B4 publication Critical patent/DE102011011221B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/063Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver preventing starting of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem, wobei mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt werden:a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandenseins des Fahrers anhand des Fahrerbildes,b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch (24) handelt,c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, unde) Erzeugen eines Aktivitätssignals aus der in Schritt d) bestimmten Fahreraufmerksamkeit.Method for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system, the following steps being carried out by means of biometric facial recognition by a facial biometric camera system: a) recording a driver image and determining the presence of the driver based on the driver image, b) Checking whether it is a real driver or an attempt at deception (24), c) extracting facial features of the driver from the driver image if steps a) and b) are positive, d) determining the driver's attention from the extracted features, ande ) Generating an activity signal from the driver attention determined in step d).

Description

Die Erfindung betrifft ein Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Signals für ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1, sowie eine Verwendung des Verfahrens in einem Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 11.The invention relates to a method for detecting the attention of the driver of a motor vehicle and for generating a signal for a driver assistance system according to the preamble of claim 1, as well as a use of the method in a driver assistance system according to the preamble of claim 11.

Bisherige Algorithmen zur Erkennung der Fahreraufmerksamkeit, wie beispielsweise über die Betrachtung der Kopfrotation und den Lidschluss, arbeiten im Wesentlichen basierend auf Modellen. Große Probleme gibt es dabei bei Brillenträgern und Bartträgern, die bisher gegen eine Einführung derartiger Algorithmen im Fahrzeug sprechen. Zusätzlich gewährleisten diese Algorithmen keine Lebend- oder Täuschungs-Erkennung, was auch als Fake-Erkennung bezeichnet wird, die für ein autonomes Assistenzsystem notwendig ist, da sonst ein Missbrauch und damit eine Beeinträchtigung der funktionalen Sicherheit nicht ausgeschlossen werden kann.Previous algorithms for detecting driver attention, such as by looking at head rotation and eyelid closure, essentially work based on models. There are major problems with people who wear glasses and beards, who have so far argued against the introduction of such algorithms in vehicles. In addition, these algorithms do not guarantee live or deceptive detection, which is also referred to as fake detection, which is necessary for an autonomous assistance system, otherwise misuse and thus an impairment of functional safety cannot be ruled out.

Die Druckschrift DE 10 2007 023 140 A1 zeigt ein Verfahren zur Erkennung und Identifizierung des Fahrers eines Kraftfahrzeugs, wobei mittels eines Kamerasystems wenigstens eine Bewegung und/oder wenigstens ein Bewegungsablauf des Fahrers aufgenommen und zur Erkennung und Identifizierung des Fahrers seitens einer Bildverarbeitungseinheit analysiert wird. Dabei wird die extrahierte Bewegung bzw. der Bewegungsablauf mit einem bereits gespeicherten verglichen. Bei einer Übereinstimmung innerhalb vorgegebener Grenzen ist dann der Fahrer identifiziert und für diese Person gespeicherte Einstellungen können vorgenommen werden. Es wird daher ein biometrisches Identifikationsverfahren eingesetzt.The publication DE 10 2007 023 140 A1 shows a method for recognizing and identifying the driver of a motor vehicle, wherein at least one movement and / or at least one movement sequence of the driver is recorded by means of a camera system and analyzed by an image processing unit to recognize and identify the driver. The extracted movement or sequence of movements is compared with one that has already been saved. If there is a match within specified limits, the driver is then identified and settings saved for this person can be made. A biometric identification process is therefore used.

Ferner ist aus der DE 10 2008 031 697 A1 eine Vorrichtung zur Objektidentifikation, insbesondere zur biometrischen Identifikation, bekannt, welche eine Bilderfassungseinheit zur Erfassung eines Bereichs, in dem sich das zu identifizierende Objekt befindet, und eine Auswerteeinheit zur Verarbeitung der von der Bilderfassungseinheit bereitgestellten Bilddaten umfasst. Die Vorrichtung ist in einem ersten Betriebsmodus derart steuerbar, dass die der Auswerteeinheit bereitgestellten Bilddaten in einem ersten Bildbereich und in einem zweiten Bildbereich jeweils einen geringen Kontrastunterschied aufweisen und der erste und der zweite Bildbereich einen großen Kontrastunterschied zueinander aufweisen. Hierdurch hebt sich der erste Bildbereich unter Ausbildung einer Kontur von dem zweiten Bildbereich ab. Die Auswerteeinheit ist in dem ersten Betriebsmodus dazu eingerichtet, die Kontur zu analysieren und anhand deren Verlaufs auf das Vorhandensein des erwarteten Objekts oder auf das Vorhandensein eines Abbilds des Objekts zu schließen. Es wird daher überprüft, ob es sich um ein reales Objekt im Erfassungsbereich der Bilderfassungseinheit oder um einen Täuschungsversuch, beispielsweise mittels einer Fotographie, handelt.Furthermore, from the DE 10 2008 031 697 A1 a device for object identification, in particular for biometric identification, is known, which comprises an image capture unit for capturing an area in which the object to be identified is located, and an evaluation unit for processing the image data provided by the image capture unit. The device can be controlled in a first operating mode in such a way that the image data provided to the evaluation unit each have a small contrast difference in a first image area and in a second image area and the first and second image areas have a large contrast difference from one another. As a result, the first image area stands out from the second image area, forming a contour. In the first operating mode, the evaluation unit is set up to analyze the contour and, based on its course, infer the presence of the expected object or the presence of an image of the object. It is therefore checked whether it is a real object in the detection range of the image capture unit or an attempt to deceive, for example by means of photography.

Die Druckschrift DE 100 24 227 A1 betrifft Verfahren sowie Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades eines Kraftfahrzeugführers durch elektronische Überwachung der Augen oder Augenpartie. Um hierbei zu erreichen, dass durch Unaufmerksamkeit und nicht nur durch Schläfrigkeit entstehende Verkehrssituationen beherrschbar bleiben, insbesondere dann, wenn sich das Fahrzeug in einer mit kurzen Abständen zum vorausfahrenden Fahrzeug bewegenden Kolonne mitbewegt, wird bei entsprechender Registrierung von Müdigkeit die Geschwindigkeit automatisch reduziert.The publication DE 100 24 227 A1 relates to methods and devices for electronically monitoring the level of attention of a motor vehicle driver through electronic monitoring of the eyes or eye area. In order to ensure that traffic situations caused by inattention and not just by drowsiness remain controllable, especially if the vehicle is moving in a column that moves at short distances from the vehicle in front, the speed is automatically reduced if fatigue is registered accordingly.

Die Druckschrift DE 103 60 176 A1 betrifft ein Kraftfahrzeug mit einem Sensor zur Fahrerüberwachung, bei dem der Sensor im Kraftfahrzeug in einer Position angebracht und geeignet ausgerichtet ist, dass eine möglichst ungehinderte Erfassung des Fahrers des Kraftfahrzeugs möglich ist.The publication DE 103 60 176 A1 relates to a motor vehicle with a sensor for driver monitoring, in which the sensor is mounted in the motor vehicle in a position and is suitably aligned so that the driver of the motor vehicle can be detected as unhindered as possible.

Die Druckschrift DE 199 36 271 A1 betrifft eine Vorrichtung zur benutzerspezifischen Fahrzeugfreigabe. Eine erste Biometriedatenerfassung erfasst eine benutzerspezifische Biometrieinformation als Referenz-Biometrieinformation. Die Referenz-Biometrieinformation wird über eine Übertragungsstrecke an einen fahrzeugseitigen Empfänger abgegeben und in einem Speicher abgelegt. Eine im Fahrzeug angeordnete zweite Biometriedatenerfassung erfasst eine benutzerspezifische Biometrieinformation als Ist-Biometrieinformation. Eine Steueranordnung vergleicht die Ist-Biometrieinformation mit der Referenz-Biometrieinformation und gibt ein Freigabesignal an eine betriebsnotwendige Komponente ab, wenn die Referenz-Biometrieinformation mit der Ist-Biometrieinformation übereinstimmt.The publication DE 199 36 271 A1 relates to a device for user-specific vehicle release. A first biometric data acquisition captures user-specific biometric information as reference biometric information. The reference biometric information is transmitted via a transmission link to a receiver on the vehicle and stored in a memory. A second biometric data acquisition arranged in the vehicle records user-specific biometric information as actual biometric information. A control arrangement compares the actual biometric information with the reference biometric information and emits a release signal to an operationally necessary component if the reference biometric information matches the actual biometric information.

Die Druckschrift DE 196 21 435 A1 betrifft ein System zur Überwachung der Augen einer Person, umfassend eine Schnittstelle zu dem Menschen, die zur Gewinnung von Bildern von der Person und zur Bereitstellung einer Rückkopplung zu der Person dient, und einen Prozessor für die Analyse der Bilder. Der Prozessor wandelt eine Bildfolge in ein eindimensionales Signal durch Herausgreifen von relevanten Merkmalen aus den Bildern um. Die Analyse des erzeugten Signals findet dann zur Erfassung der Schläfrigkeit statt. Eine Transformation der Bildfolge beinhaltet die Augenlokalisierung, die Augenverfolgung und die Erzeugung eines Augenbewegungssignals. Das System nutzt die relativ hohe Horizontalkontrastdichte der Augenregion für die Ermittlung der Augenpositionen in einem Grauskala- bzw. Graustufenbild eines menschlichen Gesichts aus.The publication DE 196 21 435 A1 relates to a system for monitoring a person's eyes, comprising a human interface for obtaining images of the person and providing feedback to the person, and a processor for analyzing the images. The processor converts a sequence of images into a one-dimensional signal by extracting relevant features from the images. The generated signal is then analyzed to record sleepiness. A transformation of the image sequence includes eye localization, eye tracking and the generation of an eye movement signal. The system uses the relatively high horizontal contrast density of the eye region for the determination the eye positions in a grayscale or grayscale image of a human face.

Die Druckschrift DE 10 2004 044 772 A1 betrifft ein Verfahren zum Aufbau einer Datenbank für den Einsatz zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug, umfassend die Aufnahme und Speicherung einer Vielzahl von zweidimensionalen Gesichtsbildern eines bekannten Fahrers. Dabei wird der aktuelle Aufnahmewinkel zwischen der Kamera und der Gesichtsnormalen des Fahrers durch eine ansonsten nicht der bildbasierten Fahreridentifikation dienende Einrichtung bestimmt und an das Verfahren zum Aufbau der Datenbank weitergegeben und die Aufnahme eines Gesichtsbilds wird ausgelöst, wenn der aktuelle Aufnahmewinkel einen bestimmten Vorgabewert erreicht.The publication DE 10 2004 044 772 A1 relates to a method for building a database for use for image-based driver identification in a motor vehicle, comprising recording and storing a plurality of two-dimensional facial images of a known driver. The current recording angle between the camera and the driver's facial normal is determined by a device that is not otherwise used for image-based driver identification and passed on to the method for building the database, and the recording of a facial image is triggered when the current recording angle reaches a certain default value.

Die Druckschrift DE 10 2004 005 163 B3 betrifft eine Vorrichtung zur Erfassung der Fahrtüchtigkeit eines Fahrers in einem Fahrzeug, die eine Beleuchtungseinrichtung zum Beleuchten wenigstens eines Auges des Fahrers, eine Bildaufnahmeeinrichtung zum Aufnehmen von Bildern des beleuchteten Auges, eine Auswerteeinrichtung, die dem Auswerten der von der Bildaufnahmeeinrichtung aufgenommenen Bilder dient, und einen Datenspeicher aufweist. Dabei beleuchtet die Beleuchtungseinrichtung wenigstens ein Auge des Fahrers biltzlichtartig oder intermittierend, wobei die Auswerteeinrichtung mittels der Bildaufnahmeeinrichtung erfasste Messwerte der Pupillenreaktion des Fahrers mit mindestens einem im Datenspeicher gespeicherten Normalwert einer Pupillenreaktion vergleicht und bei einer Unterschreitung des Normalwertes durch die Messwerte der Pupillenreaktion auf eine Steuerungseinrichtung derart einwirkt, dass eine Inbetriebnahme des Fahrzeuges oder eine Weiterfahrt nach einem Halt des im Betriebszustand befindlichen Fahrzeuges verhindert wird.The publication DE 10 2004 005 163 B3 relates to a device for detecting the driving ability of a driver in a vehicle, which has a lighting device for illuminating at least one eye of the driver, an image recording device for recording images of the illuminated eye, an evaluation device which is used to evaluate the images recorded by the image recording device, and one Has data storage. The lighting device illuminates at least one eye of the driver in a flash-like or intermittent manner, the evaluation device comparing measured values of the driver's pupil reaction recorded by means of the image recording device with at least one normal value of a pupil reaction stored in the data memory and, if the value falls below the normal value, the measured values of the pupil reaction are applied to a control device in this way has the effect of preventing the vehicle from being put into operation or from continuing to drive after the vehicle has stopped in the operating state.

Die Druckschrift DE 10 2008 031 697 A1 betrifft eine Vorrichtung zur Objektidentifikation, insbesondere zur biometrischen Identifikation, welche eine Bilderfassungseinheit zur Erfassung eines Bereichs, in dem sich das zu identifizierende Objekt befindet, und eine Auswerteeinheit zur Verarbeitung der von der Bilderfassungseinheit bereitgestellten Bilddaten umfasst. Die Vorrichtung ist in einem ersten Betriebsmodus derart steuerbar, dass die der Auswerteeinheit bereitgestellten Bilddaten in einem ersten Bildbereich und in einem zweiten Bildbereich jeweils einen geringen Kontrastunterschied aufweisen und der erste und der zweite Bildbereich einen großen Kontrastunterschied zueinander aufweisen. Der erste Bildbereich hebt sich unter Ausbildung einer Kontur von dem zweiten Bildbereich ab. Die Auswerteeinheit ist in dem ersten Betriebsmodus dazu eingerichtet, die Kontur zu analysieren und anhand deren Verlaufs auf das Vorhandensein des erwartenden Objekts oder auf das Vorhandensein eines Abbilds des Objekts zu schließen.The publication DE 10 2008 031 697 A1 relates to a device for object identification, in particular for biometric identification, which comprises an image capture unit for capturing an area in which the object to be identified is located, and an evaluation unit for processing the image data provided by the image capture unit. The device can be controlled in a first operating mode in such a way that the image data provided to the evaluation unit each have a small contrast difference in a first image area and in a second image area and the first and second image areas have a large contrast difference from one another. The first image area stands out from the second image area to form a contour. In the first operating mode, the evaluation unit is set up to analyze the contour and, based on its course, determine the presence of the expected object or the presence of an image of the object.

Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung der Fahreraktivität und dessen Verwendung in einem Fahrerassistenzsystem, beispielsweise einem ACC-System mit Stop&Go-Funktionalität (ACC: Adaptive Cruise Control oder automatische Distanzregelung), anzugeben.The invention is therefore based on the object of specifying an improved method for recognizing driver activity and its use in a driver assistance system, for example an ACC system with Stop & Go functionality (ACC: Adaptive Cruise Control or automatic distance control).

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrerassistenzsystem mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method with the features of claim 1 and by a driver assistance system with the features of claim 11. Preferred embodiments of the invention are the subject of the subclaims.

Das erfindungsgemäße Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem führt mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durch:

  1. a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes,
  2. b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt,
  3. c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,
  4. d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und
  5. e) Erzeugen eines Aktivitätssignal aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
The method according to the invention for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system carries out the following steps by means of biometric facial recognition by a facial biometric camera system:
  1. a) taking a driver image and determining the presence of the driver based on the driver image,
  2. b) Check whether it is a real driver or an attempt to deceive,
  3. c) extracting facial features of the driver from the driver image if steps a) and b) are positive,
  4. d) determining driver attention from the extracted features, and
  5. e) Generating an activity signal from the driver attention determined in step d).

Vorzugsweise werden zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert, um das Verfahren auf einen definierten Ausgangszustand aufsetzen zu können. Dieser Vorgang läuft vorzugsweise automatisch ab und wird beispielsweise mit dem Entriegeln des Fahrzeugs initiiert, da der Vorgang des Entriegelns zumindest eine teilweise Stromversorgung des Fahrzeugs und eine Aktivierung bzw. Initiierung vorgegebener Fahrerassistenzsysteme bewirkt.Preferably, at the start of the journey, a frontal image of the driver is stored as the initial driver image and its extracted features for comparison purposes in order to be able to set up the method on a defined initial state. This process preferably takes place automatically and is initiated, for example, when the vehicle is unlocked, since the process of unlocking causes at least a partial power supply to the vehicle and an activation or initiation of predetermined driver assistance systems.

Vorzugsweise wird der Schritt a), d.h. das Aufnehmen eines Fahrerbildes und die Bestimmung des Vorhandenseins eines Fahrers, durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt.Preferably, step a), i.e. recording a driver image and determining the presence of a driver, is carried out by determining the facial contour of the driver in the recorded driver image.

Weiter bevorzugt wird Schritt b) des Verfahrens durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt.Step b) of the method is further preferred through a live detection, a deception Connection detection and driver identification are carried out.

Insbesondere kann die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgen. Intrinsische Bewegungen sind beispielsweise Kopf- und/oder Lidbewegungen über einen vorgegebenen Zeitraum.In particular, the live detection can be carried out by continuously checking intrinsic movements of the driver's head and/or the driver's face. Intrinsic movements are, for example, head and/or eyelid movements over a given period of time.

Die Täuschungserkennung kann durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nah-Infrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgen. Die Ergebnisse der Täuschungserkennung können auch zumindest teilweise in die Lebend-Erkennung einfließen.Deception detection can be carried out by checking the distance between the driver's head and the camera, the use of pulsed near-infrared lighting and/or the brightness distribution in the detected driver's face. The results of deception detection can also be at least partially incorporated into liveness detection.

Weiter bevorzugt erfolgt die Fahreridentifizierung anhand des Ähnlichkeitswertes des initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes, was auch als Matchscore bezeichnet wird.More preferably, driver identification is carried out based on the similarity value of the initially stored driver image and the current driver image, which is also referred to as a match score.

Vorzugsweise werden die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert, wobei die Aufzählung nicht abschließend ist. Weitere geeignete Merkmale wie beispielsweise Kopfneigungswinkel oder Mundmerkmale können verwendet werden.The facial features head rotation, head position, X and Y coordinates of the driver's eyes and the degree of eye opening are preferably extracted, although the list is not exhaustive. Other suitable features such as head tilt angle or mouth features can be used.

Zur Bestimmung der Fahreraktivität wird vorzugsweise ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt.To determine the driver activity, a biometric comparison of the extracted current facial features is preferably carried out with the stored facial features of the initial driver image.

Vorzugsweise wird der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad, der offenen Augen entspricht, ergibt.Preferably, the driver is assessed as active and an activity signal is generated if the biometric comparison results in a frontal head direction and a degree of eye opening that corresponds to open eyes.

Das erfindungsgemäße Fahrerassistenzsystem, welches das im Vorangegangenen erläuterte Verfahrens verwendet, umfasst ein gesichtsbiometrisches Kamerasystem, welches den Fahrer insbesondere während der Standzeit des Kraftfahrzeugs im Stau beobachtet und ein Fahrerbild erzeugt, und ein Steuergerät zur Durchführung der biometrischen Gesichtserkennung. Dabei erfolgt vom Fahrerassistenzsystem dann eine fahrerseitige Anfahrfreigabe, wenn folgende Bedingungen erfüllt sind:

  • i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen,
  • ii) der Lenkradwinkel liegt zwischen +/- 60 Grad,
  • iii) die Gesichtskontur im Fahrerbild ist erkannt,
  • iv) das Fahrergesicht ist „lebendig“,
  • v) der Fahrerkopf ist für eine vorgegebene Zeit t1 frontal ausgerichtet, und
  • vi) die Augen des Fahrers sind für eine vorgegebene Zeit t2 offen.
The driver assistance system according to the invention, which uses the method explained above, comprises a facial biometric camera system, which observes the driver, in particular while the motor vehicle is stationary in a traffic jam, and generates a driver image, and a control device for carrying out the biometric facial recognition. The driver assistance system then releases the driver's approach if the following conditions are met:
  • i) the driver's seat is occupied and the door and belt buckle are closed,
  • ii) the steering wheel angle is between +/- 60 degrees,
  • iii) the facial contour in the driver's image is recognized,
  • iv) the driver's face is "alive",
  • v) the driver's head is oriented frontally for a predetermined time t1, and
  • vi) the driver's eyes are open for a given time t2.

Als Fahrerassistenzsystems kommen ACC-Fahrerassistenzsysteme mit Stop & Go-Funktionalität oder alle Systeme für autonome oder automatisierte Fahrunterstützung in Betracht, die im stehenden oder fahrenden Zustand Informationen über den Fahrerzustand benötigen.The driver assistance systems that can be considered are ACC driver assistance systems with stop & go functionality or all systems for autonomous or automated driving support that require information about the driver's condition when stationary or moving.

Weiter bevorzugt erfolgt ein Fahrfreigabe für das Kraftfahrzeug dann, wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt. Mit anderen Worten, es erfolgt eine Sensorfusion der fahrerseitigen Freigabe mit Ergebnissen anderer Umfeldsensoren wie beispielsweise Radar, Laser und/oder Außenkamera.Further preferably, a driving release for the motor vehicle occurs when, in addition to the driver's release, the drive is released by further vehicle sensors. In other words, there is a sensor fusion of the driver's release with results from other environmental sensors such as radar, laser and/or external camera.

Die beschriebenen Signale des gesichtsbiometrischen Kamerasystems werden daher neben der klassischen Fahrerpersonalisierung vorrangig für Eingangssignale von Fahrerassistenzsystemen, beispielsweise in einem ACC-Fahrerassistenzsystem, genutzt. Der zusätzliche Vorteil besteht in der Mehrfachnutzung eines Algorithmus auf einem Steuergerät, so dass weitere Softwarevarianten entfallen.In addition to classic driver personalization, the described signals from the facial biometric camera system are therefore primarily used for input signals from driver assistance systems, for example in an ACC driver assistance system. The additional advantage is that an algorithm can be used multiple times on one control unit, meaning that additional software variants are no longer necessary.

Ferner erfolgt nunmehr die Anfahrfreigabe, die derzeit nach einer kurzen Standzeit, beispielsweise in einem Stau, manuell durch eine Betätigung eines Hebels am Lenkstock oder des Beschleunigungspedals, durch die biometrische Gesichtserkennung, wobei zusätzlich mit dem Algorithmus eine sogenannte Lebend- und Täuschungserkennung erfolgt, um beispielsweise das Lesen einer Zeitung im Stau zu detektieren, in welchem Fall keine Anfahrfreigabe erfolgt und damit die funktionale Sicherheit erhöht wird.Furthermore, the start-up release, which is currently after a short standstill, for example in a traffic jam, is now carried out manually by operating a lever on the steering column or the accelerator pedal, through biometric facial recognition, with the algorithm also being used for so-called liveness and deception detection, for example to detect the reading of a newspaper in a traffic jam, in which case there is no start-up clearance and thus functional safety is increased.

Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt

  • 1 die Komponenten eines ACC-Stop&Go-Fahrerassistenzsystems,
  • 2 ein biometrischer Erkennungsalgorithmus in schematischer Darstellung, und
  • 3 ein Ablaufdiagramm der fahrerseitigen Freigabe innerhalb eines ACC-Stop&Go-Fahrerassistenzsystems.
A preferred embodiment of the invention is explained below with reference to the drawings. This shows
  • 1 the components of an ACC Stop&Go driver assistance system,
  • 2 a biometric recognition algorithm in a schematic representation, and
  • 3 a flowchart of the driver's release within an ACC Stop&Go driver assistance system.

1 zeigt die beteiligten Komponenten eines beispielhaften ACC Fahrerassistenzsystems mit Stop&Go-Funktionalität, welches um eine kamerabasierte, biometrische Fahrerbeobachtung erweitert ist. Dabei soll der manuelle Aufwand durch den Fahrer hin zu einer stärkeren Automatisierung und Fahrkomfort erweitert werden. Der Fahrer muss mit dem gesichtsbiometrischen Kamerasystem im Staufall keine manuelle Aktion mehr durchführen, da das System erkennt, ob der Fahrer zum Verkehrsgeschehen schaut oder nicht. Zum Einsatz kommt dabei ein Algorithmus der biometrischen Fahrererkennung. 1 shows the components involved in an exemplary ACC driver assistance system with Stop&Go functionality, which is expanded to include camera-based, biometric driver monitoring. The manual effort should be reduced by the Drivers can be expanded towards greater automation and driving comfort. With the facial biometric camera system, the driver no longer has to carry out any manual action in the event of a traffic jam, as the system recognizes whether the driver is looking at the traffic or not. A biometric driver recognition algorithm is used.

Die für einen Anfahrentscheidung beteiligten Komponenten des ACC-Fahrerassistenzsystems mit Stop&Go-Funktionalität sind das HMI 1 (HMI: Human-Maschine-Interface) mit den Komponenten Beschleunigungspedal 1a, Lenkstock 1b und Kombiinstrument 1c, der Antrieb 2 mit den Komponenten Gang 2a, Verzögerung 2b und Beschleunigung 2c, die Umfeldsensorik 3 mit den Komponenten Videokamera 3a beispielsweise in der Frontscheibe, Radar 3b für den Fernbereich und Ultraschallsensor 3c für den Nahbereich, das biometrische Erkennungssystem 4 sowie die Anfahrentscheidung 7.The components of the ACC driver assistance system with Stop&Go functionality involved in making a starting decision are the HMI 1 (HMI: human-machine interface) with the components accelerator pedal 1a, steering column 1b and instrument cluster 1c, the drive 2 with the components gear 2a, deceleration 2b and acceleration 2c, the environment sensor system 3 with the components video camera 3a, for example in the windshield, radar 3b for the long range and ultrasonic sensor 3c for the close range, the biometric recognition system 4 and the approach decision 7.

Das biometrische Erkennungssystem 4 umfasst dabei die beiden Bereiche Fahrerparameter 5 sowie die Fahrerbeobachtung 6. Unter Fahrerparameter 5 werden hier vom Fahrer bewirkte bzw. beeinflusste Parameter oder Zustände verstanden, insbesondere die Sitzbelegung 5a mit den Werten „belegt, frei“, den Zustand Gurtschloss 5b mit den Werten „geschlossen oder offen“, den Zustand der Türöffnung 5c mit den Werten „offen oder zu“ sowie den Lenkradwinkel 5d. Im Bereich Fahrerbeobachtung 6 wird mit einer Kamera 6a ein Videobild aufgenommen und in einer Bildverarbeitung 6b verarbeitet. Die extrahierten oder berechneten Signale 6c werden einer Interpretation 6d zugeführt.The biometric recognition system 4 includes the two areas of driver parameters 5 and driver observation 6. Driver parameters 5 here are understood to mean parameters or states caused or influenced by the driver, in particular the seat occupancy 5a with the values “occupied, free”, and the belt buckle state 5b the values “closed or open”, the state of the door opening 5c with the values “open or closed” and the steering wheel angle 5d. In the driver observation area 6, a video image is recorded with a camera 6a and processed in an image processing unit 6b. The extracted or calculated signals 6c are fed to an interpretation 6d.

Aus den entsprechenden Signalen der beteiligten Komponenten HMI 1, Antrieb 2, Umfeldsensorik 3, Fahrerparameter 5 und Fahrerbeobachtung 6 werden dann in der Anfahrentscheidung 7 eine Entscheidung getroffen.A decision is then made in the approach decision 7 from the corresponding signals from the involved components HMI 1, drive 2, environment sensors 3, driver parameters 5 and driver observation 6.

Das gesichtsbiometrische Kamerasystem, auch abgekürzt als GBKS bezeichnet, der Fahrerbeobachtung 6, bestehend aus den Komponenten Monokamera, zwei Nah-Infrarotbeleuchtungsmodulen und einem Steuergerät mit dem nachfolgend erläuterten biometrischen Algorithmus, beobachtet den Fahrer während der Standzeit des Fahrzeugs. Das Fahrzeug entscheidet nur dann auf automatische Freigabe, wenn folgende Faktoren erfüllt sind:

  • - der Fahrersitz ist belegt, Tür und Gurtschloss sind geschlossen,
  • - der Lenkradwinkel liegt zwischen -/+60 Grad,
  • - das GBKS erkennt Gesichtskontur des Fahrers im Videobild,
  • - das GBKS erkennt, dass das Gesicht des Fahrers „lebendig“ ist,
  • - das GBKS erkennt, dass der Kopf des Fahrers für eine vorgegebene Zeit t1 frontal ausgerichtet ist, und
  • - das GBKS erkennt, dass die Augen des Fahrers für eine vorgegebene Zeit t2 offen sind.
The facial biometric camera system, also abbreviated as GBKS, of the driver observation 6, consisting of the components mono camera, two near-infrared lighting modules and a control unit with the biometric algorithm explained below, observes the driver while the vehicle is stationary. The vehicle will only decide on automatic release if the following factors are met:
  • - the driver's seat is occupied, the door and seatbelt buckle are closed,
  • - the steering wheel angle is between -/+60 degrees,
  • - the GBKS recognizes the driver's facial contour in the video image,
  • - the GBKS recognizes that the driver's face is “alive”,
  • - the GBKS detects that the driver's head is oriented frontally for a predetermined time t1, and
  • - the GBKS recognizes that the driver's eyes are open for a specified time t2.

Sind alle Parameter erfüllt, erfolgt von Seiten des gesichtsbiometrisches Kamerasystem eine Anfahrfreigabe für das Teilsystem „Fahrer“. Eine endgültige Entscheidung für ACC Stop&Go wird über die Fusion mit anderen Fahrzeugsensoren (Radar, Außenkamera, etc.) getroffen.If all parameters are met, the facial biometric camera system releases the “driver” subsystem to start. A final decision for ACC Stop&Go is made via the merger with other vehicle sensors (radar, external camera, etc.).

2 zeigt in schematischer Darstellung einen Algorithmus der biometrischen Gesichtserkennung. Mittels einer Innenraumkamera 11 wird ein Videobild des Fahrers erzeugt und an eine Steuereinrichtung 12 übertragen. In der Steuereinrichtung 12 wird eine Gesichtssuche 13 durchgeführt. Das Bild und die ermittelte Gesichtsposition wird einem Augenfinder 14 zugeführt, der die Koordinaten der Fahreraugen bestimmt. Die ermittelten Daten, d.h. das aktuelle Bild, die Gesichtsposition und die Koordinaten der Augen werden einer Bildqualitätprüfung 15 unterzogen. Es erfolgt im nächsten Block eine Normalisierung des Gesichts und das normalisierte Gesicht wird einer Vorverarbeitung 17 unterzogen. Anschließend wird aus dem vorverarbeiteten Gesicht des Fahrers die gewünschten bzw. notwendigen Merkmale extrahiert und in einem Musterbildner 10 zu einem Mustervektor, dem sogenannten Referenzvektor, zusammengefasst. 2 shows a schematic representation of an algorithm for biometric facial recognition. Using an interior camera 11, a video image of the driver is generated and transmitted to a control device 12. A face search 13 is carried out in the control device 12. The image and the determined facial position are fed to an eye finder 14, which determines the coordinates of the driver's eyes. The determined data, ie the current image, the face position and the coordinates of the eyes, are subjected to an image quality check 15. The face is normalized in the next block and the normalized face is subjected to preprocessing 17. The desired or necessary features are then extracted from the driver's preprocessed face and combined in a pattern generator 10 to form a pattern vector, the so-called reference vector.

Die hier verwendeten Werte des Algorithmus sind:

  • - der Match Score, d.h. der Ähnlichkeitswert zwischen einem hinterlegten Frontalbild des Fahrers und dem aktuellen Gesichtbild des Fahrers, dem sogenannten Livebild,
  • - die X- und Y-Koordinaten der detektierten Augen des Fahrers aus dem aktuellen Bild
  • - der aktuelle Augenöffnungsgrad in Prozent, und
  • - die geschätzte Kopfposition aus den geometrischen Verhältnissen im aktuellen Fahrergesicht.
The values of the algorithm used here are:
  • - the match score, ie the similarity value between a stored frontal image of the driver and the current facial image of the driver, the so-called live image,
  • - the X and Y coordinates of the driver's detected eyes from the current image
  • - the current degree of eye opening in percent, and
  • - the estimated head position from the geometric relationships in the current driver's face.

Dabei sind die X- und Y-Koordinaten der Fahreraugen bezogen beispielsweise auf die jeweilige Augenmitte oder Augenecken, um eine konsistente Koordinatendefinition zu erhalten.The X and Y coordinates of the driver's eyes are based, for example, on the respective eye center or eye corners in order to obtain a consistent coordinate definition.

Zur Erkennung der oben genannten Kopfrotation gelten die folgenden Bedingungen:

  • - der Matchscore ist abhängig von der Kopfrotation,
  • - Ist der Kopf frontal, d.h. die Kopfrotation ist 0 Grad, dann ist der Match Score maximal (100%), d.h. das aktuelle Bild ist zum gespeicherten initialen Bild absolut ähnlich,
  • - dreht der Fahrer den Kopf, dann sinkt der Match Score,
  • - ab etwa 30 Grad hat der Match Score üblicherweise den Wert Null, mit anderen Worten bis zu diesem Winkel ist eine direkte winkel- und sektorenabhängige Erkennung möglich,
  • - Erkennung der Rotationsrichtung (links/rechts) erfolgt über Symmetrie- und Richtungsberechnung der x- und y-Augenpunkte.
To detect the above head rotation, the following conditions apply:
  • - the match score depends on the head rotation,
  • - If the head is frontal, i.e. the head rotation is 0 degrees, then the match score is maximum (100%), i.e. the current image is absolutely similar to the saved initial image,
  • - the driver turns his head, then the match score drops,
  • - from around 30 degrees the match score usually has the value zero, in other words up to this angle direct angle and sector-dependent detection is possible,
  • - Detection of the direction of rotation (left/right) is carried out by calculating the symmetry and direction of the x and y eye points.

Dabei bedeutet der Wert von 30 Grad nicht die Grenze der Funktionsfähigkeit des Systems, sondern der Wert signalisiert nur, dass der Fahrer nicht mehr frontal schaut. Eine Erkennung des Fahrers funktioniert noch über den Wert mittels der Betrachtung der Historie und eine Prognose ist über den Bereich hinaus möglich.The value of 30 degrees does not mean the limit of the system's functionality, but rather the value only signals that the driver is no longer looking straight ahead. The driver can still be recognized based on the value by looking at the history and a forecast is possible beyond the range.

3 zeigt ein Ablaufdiagramm zur Bestimmung der fahrerseitigen Fahrfreigabe eine Fahrerassistenzsystem, insbesondere eines ACC-Systems mit Stop&Go-Funktionalität. Zu Beginn, also nach dem Einstieg des Fahrers, wird im Schritt 20 ein Frontalbild des Fahrers aufgenommen und abgespeichert, welches als initiales Fahrerbild bezeichnet wird. Ferner werden aus dem initialen Bild Merkmale des aktuellen Fahrers extrahiert und ebenfalls gespeichert. 3 shows a flowchart for determining the driver's permission to drive a driver assistance system, in particular an ACC system with stop & go functionality. At the beginning, i.e. after the driver gets in, a frontal image of the driver is recorded and saved in step 20, which is referred to as the initial driver image. Furthermore, characteristics of the current driver are extracted from the initial image and also saved.

Im nächsten Schritt 21 werden notwendige Voraussetzungen abgeprüft, nämlich ob der Fahrer im Fahrzeug sitzt, die Türen geschlossen sind, der oder die Sicherheitsgurte angelegt sind, der Sitz belegt ist, das ACC Stop&Go aktiviert ist und das Fahrzeug still im Stau steht.In the next step 21, necessary conditions are checked, namely whether the driver is sitting in the vehicle, the doors are closed, the seat belt(s) are fastened, the seat is occupied, the ACC Stop&Go is activated and the vehicle is standing still in a traffic jam.

Nachdem die Voraussetzungen des Schrittes 21 erfüllt sind, wird im Schritt 22 ein aktuelles Fahrerbild, das sog. Livebild, aufgenommen. Danach wird im Schritt 23 untersucht, ob eine Gesichtskontur im Livebild vorhanden ist. Ist dies nicht der Fall, welcher mit „N“ gekennzeichnet ist, so geht das System wieder zum Schritt 22 zurück. Ist ein Gesichtskontur erkannt worden so wird im Schritt 24 untersucht, ob eine Täuschung vorliegt. Trifft dies zu, was mit „J“ gekennzeichnet ist, so geht das System zurück zu Schritt 22. Liegt kein Täuschungsversuch vor, was mit „N“ gekennzeichnet ist, so erfolgt im Schritt 25 eine Merkmalsextraktion aus dem aktuellen Fahrerbild.After the requirements of step 21 have been met, a current driver image, the so-called live image, is recorded in step 22. Then in step 23 it is examined whether a facial contour is present in the live image. If this is not the case, which is marked with “N”, the system goes back to step 22. If a facial contour has been recognized, it is examined in step 24 whether there is an illusion. If this is true, which is marked with “Y”, the system goes back to step 22. If there is no attempt to deceive, which is marked with “N”, then in step 25 a feature extraction from the current driver image takes place.

Im Schritt 26 erfolgt ein biometrischer Vergleich zwischen den im Schritt 25 ermittelten Merkmalen mit den Merkmalen des initialen Bildes des Schritts 20 zur Bestimmung der Kopfrichtung. Fällt dieser Vergleich kleiner aus als ein vorgegebener Grenzwert, so wird im Schritt 27 geschlossen, dass die Kopfrichtung nicht frontal ist (Ausgang „<“) und das System geht zurück zum Schritt 22. Im mit dem Ausgang „≥“ zu erreichenden Schritt 28 wird auf eine frontale Kopfrichtung geschlossen, was bedeutet, dass der Vergleich größer oder gleich einem vorgegebenen Grenzwert ausgefallen ist.In step 26, a biometric comparison is made between the features determined in step 25 with the features of the initial image from step 20 to determine the head direction. If this comparison turns out to be smaller than a predetermined limit value, it is concluded in step 27 that the head direction is not frontal (output “<”) and the system goes back to step 22. In step 28, which can be reached with the output “≥”. closed to a frontal head direction, which means that the comparison was greater than or equal to a specified limit value.

Anschließend wird im nächsten Schritt 29 der Augenöffnungsgrad geprüft. Ist dieser kleiner als ein vorgegebener Grenzwert, so wird im Schritt 30 die Augen des Fahrers als geschlossen betrachtet und das System geht zurück zu Schritt 22. Ist der Augenöffnungsgrad größer oder gleich dem genannten vorgegebenen Grenzwert, so wird auf geöffnete Augen des Fahrers im Schritt 31 geschlossen. Da der Fahrer eine frontale Kopfposition und geöffnete Augen hat, wird im Schritt 32 die fahrerseitige Fahrfreigabe erteilt.The degree of eye opening is then checked in the next step 29. If this is smaller than a predetermined limit value, the driver's eyes are considered closed in step 30 and the system goes back to step 22. If the degree of eye opening is greater than or equal to the stated predetermined limit value, the driver's eyes are opened in step 31 closed. Since the driver has a frontal head position and eyes open, the driver's permission to drive is given in step 32.

Die im Ablaufdiagramm angesprochenen Schritt 23 und 24 führen eine Unterscheidung zwischen lebendigen Objekten, nämlich dem Fahrer selbst und nicht-lebendigen Objekten,m wie Personen auf Zeitungen, Fotos, Puppen, etc., durch. Diese Unterscheidung ist zwingend notwendig. Daneben muss unterschieden werden, ob es sich um den aktuellen Fahrer oder beispielsweise den Beifahrer handelt.Steps 23 and 24 mentioned in the flowchart make a distinction between living objects, namely the driver himself, and non-living objects, such as people in newspapers, photos, dolls, etc. This distinction is absolutely necessary. In addition, a distinction must be made as to whether it is the current driver or, for example, the passenger.

Die Täuschungs- und Lebend-Erkennung der bevorzugten Ausführungsform arbeitet wie folgt:

  • - das gesichtsbiometrische Kamerasystem erwartet den Kopf des Fahrers in einer gewissen Entfernung vor der Kamera , dem sog. Erwartungsraum, womit einfache Foto-Täuschungen ermittelt werden können,
  • - der Einsatz von gepulster Nah-Infrarot-Beleuchtung führt zur Aufdeckung von Video-Täuschungen,
  • - es wird eine laufende Prüfung intrinsische Bewegungen (Kopf- und Lidbewegungen über einen Zeitraum), was zur Detektion von Abdeckung von Foto- und Puppen-Täuschungen führt,
  • - mittels der Überprüfung von Helligkeitsverteilungen im erkannten Gesicht durch Abgleich zwischen bekannten Verläufen sowie Abgleich zwischen Sonnensensorrichtung und Helligkeitsverteilung im Gesicht werden Foto- und Videotäuschungen ermittelt, und
  • - eine Unterscheidung zwischen Fahrer und Beifahrer erfolgt über das initial gespeichertes Frontalbild: beugt sich beispielsweise der Beifahrer in die Fahrerzone, dann würde das System einen deutlich geringeren Match Score berechnen und keine Freigabe erteilen, wodurch eine Abdeckung einer absichtlichen Fehlbedienung erreicht wird.
The deception and liveness detection of the preferred embodiment works as follows:
  • - the facial biometric camera system expects the driver's head at a certain distance in front of the camera, the so-called expectation space, with which simple photo illusions can be determined,
  • - the use of pulsed near-infrared lighting leads to the detection of video deceptions,
  • - there will be an ongoing test of intrinsic movements (head and eyelid movements over time), leading to the detection of cover photo and doll illusions,
  • - photo and video illusions are determined by checking brightness distributions in the detected face by comparing known curves as well as comparing the direction of the sun sensor and the brightness distribution in the face, and
  • - A distinction between driver and front passenger is made via the initially saved frontal image: if, for example, the front passenger leans into the driver's zone, then the system would calculate a significantly lower match score and would not issue a release, thereby covering intentional incorrect operation.

Eine Unterscheidung zwischen Fahrer und Beifahrer kann auch über die unterschiedliche Kopfrotation mittels der Auswertung der X- und Y-Augenpunkte erfolgen.A distinction between driver and front passenger can also be made via the different head rotation by evaluating the X and Y eye points.

BezugszeichenlisteReference symbol list

11
HMI (Mensch-Maschine-InterfaceHMI (Human-Machine Interface
1a1a
BeschleunigungspedalAccelerator pedal
1b1b
Lenkstocksteering column
1c1c
KombiinstrumentInstrument cluster
22
Antriebdrive
2a2a
Gangcorridor
2b2 B
Verzögerungdelay
2c2c
Beschleunigungacceleration
33
UmfeldsensorikEnvironmental sensors
3a3a
Videokamera FrontscheibeVideo camera front window
3b3b
Radar (Fernbereich)Radar (long range)
3c3c
Ultraschall (Nahbereich)Ultrasound (close range)
44
Biometrisches ErkennungssystemBiometric recognition system
55
FahrerparameterDriver parameters
5a5a
SitzbelegungSeat occupancy
5b5b
Zustand GurtschlossCondition of the belt buckle
5c5c
Zustand TüröffnungState of door opening
5d5d
LenkradwinkelSteering wheel angle
66
FahrerbeobachtungDriver observation
6a6a
Kameracamera
6b6b
BildverarbeitungImage processing
6c6c
extrahierte Signaleextracted signals
6d6d
Interpretationinterpretation
77
Anfahrentscheidung Approach decision
1111
InnenraumkameraInterior camera
1212
SteuergerätControl unit
1313
GesichtssucheFace search
1414
AugenfinderEyefinder
1515
BildqualitätsprüfungImage quality check
1616
GesichtsnormalisierungFacial normalization
1717
VorbereitungPreparation
1818
MerkmalsextraktionFeature extraction
1919
MusterbildungPattern formation
2020
Speicherung Frontalbild und Merkmalsextraktion aktueller FahrerStorage of frontal image and feature extraction of current drivers
2121
Voraussetzungenrequirements
2222
LivebildLive image
2323
Gesichtskontur vorhandenFacial contour present
2424
TäuschungsversuchAttempted deception
2525
Merkmalsextraktion aus LivebildFeature extraction from live image
2626
Biometrischer VergleichBiometric comparison
2727
Kopfrichtung nicht frontalHead direction not frontal
2828
Kopfrichtung frontalHead direction frontal
2929
Augenöffnungsgraddegree of eye opening
3030
Augen geschlosseneyes closed
3131
Augen offenEyes open
3232
FreigabeRelease

Claims (12)

Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem, wobei mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt werden: a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandenseins des Fahrers anhand des Fahrerbildes, b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch (24) handelt, c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind, d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und e) Erzeugen eines Aktivitätssignals aus der in Schritt d) bestimmten Fahreraufmerksamkeit.Method for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system, the following steps being carried out by means of biometric facial recognition by a facial biometric camera system: a) taking a driver image and determining the presence of the driver based on the driver image, b) Check whether it is a real driver or an attempt to deceive (24), c) extracting facial features of the driver from the driver image if steps a) and b) are positive, d) determining driver attention from the extracted features, and e) Generating an activity signal from the driver attention determined in step d). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert (20) werden.Procedure according to Claim 1 , characterized in that at the start of the journey a frontal image of the driver is saved (20) as the initial driver image and its extracted features for comparison purposes. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass Schritt a) durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt wird.Procedure according to Claim 1 or 2 , characterized in that step a) is carried out by determining the facial contour of the driver in the recorded driver image. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Schritt b) durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt wird.Method according to one of the preceding claims, characterized in that step b) is carried out by live detection, deception detection and driver identification. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgt.Procedure according to Claim 4 , characterized in that the live detection is carried out by an ongoing intrinsic check Movements of the driver's head and/or the driver's face occur. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Täuschungserkennung durch Überprüfung des Abstandes Fahrerkopf und Kamera (6a, 11), den Einsatz gepulster Nahinfrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgt.Procedure according to Claim 4 , characterized in that the deception detection is carried out by checking the distance between the driver's head and the camera (6a, 11), the use of pulsed near-infrared lighting and / or the brightness distribution in the detected driver's face. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Fahreridentifizierung anhand des Ähnlichkeitswertes eines initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes erfolgt.Procedure according to Claim 4 , characterized in that the driver identification takes place based on the similarity value of an initially stored driver image and the current driver image. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad (29) extrahiert werden.Method according to one of the preceding claims, characterized in that the facial features head rotation, head position, X and Y coordinates of the driver's eyes and the degree of eye opening (29) are extracted. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass zur Bestimmung der Fahreraktivität ein biometrischer Vergleich (26) der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtsmerkmalen des initialen Fahrerbildes durchgeführt wird.Procedure according to Claim 8 , characterized in that to determine the driver activity, a biometric comparison (26) of the extracted current facial features is carried out with the stored facial features of the initial driver image. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt wird, wenn der biometrische Vergleich eine frontale Kopfrichtung (28) und einen Augenöffnungsgrad (29) für offene Augen (31) ergibt.Procedure according to Claim 9 , characterized in that the driver is assessed as active and an activity signal is generated if the biometric comparison results in a frontal head direction (28) and an eye opening degree (29) for open eyes (31). Fahrerassistenzsystem unter Verwendung des Verfahrens nach einem der vorangegangenen Ansprüche mit einem gesichtsbiometrischen Kamerasystem (4), welches den Fahrer zumindest während der Standzeit des Kraftfahrzeugs beobachtet und ein Fahrerbild erzeugt, und einem Steuergerät (12) zur Durchführung der biometrischen Gesichtserkennung, wobei eine fahrerseitige Anfahrfreigabe (32) erfolgt, wenn folgende Bedingungen erfüllt sind: i) der Fahrersitz ist belegt (5a) sowie Tür und Gurtschloss (5b, 5c) geschlossen, ii) Lenkradwinkel (5d) zwischen +/- 60 Grad, iii) Gesichtskontur im Fahrerbild ist erkannt (23), iv) Fahrergesicht ist „lebendig“, v) Fahrerkopf ist für eine vorgegebene Zeit t frontal ausgerichtet (28), und vi) Augen des Fahrers sind für eine vorgegebene Zeit t offen (31).Driver assistance system using the method according to one of the preceding claims with a facial biometric camera system (4), which observes the driver at least while the motor vehicle is stationary and generates a driver image, and a control device (12) for carrying out the biometric facial recognition, wherein a driver-side approach release ( 32) occurs when the following conditions are met: i) the driver's seat is occupied (5a) and the door and belt buckle (5b, 5c) are closed, ii) steering wheel angle (5d) between +/- 60 degrees, iii) facial contour in the driver's image is recognized (23), iv) Driver face is “alive”, v) Driver's head is oriented frontally for a predetermined time t (28), and vi) The driver's eyes are open for a predetermined time t (31). Fahrerassistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass eine Fahrfreigabe (7) für das Kraftfahrzeug erfolgt, wenn neben der fahrerseitigen Freigabe (32) eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt.Driver assistance system Claim 11 , characterized in that a driving release (7) for the motor vehicle occurs when, in addition to the driver-side release (32), the drive is released by other vehicle sensors.
DE102011011221.9A 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle Active DE102011011221B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011011221.9A DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010056483 2010-12-30
DE102010056483.4 2010-12-30
DE102011011221.9A DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102011011221A1 DE102011011221A1 (en) 2012-07-05
DE102011011221B4 true DE102011011221B4 (en) 2023-11-02

Family

ID=46509326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011011221.9A Active DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102011011221B4 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103661095B (en) * 2012-09-11 2015-12-02 财团法人车辆研究测试中心 The detecting system of driving condition
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102017103391A1 (en) 2017-02-20 2018-08-23 Deutsche Telekom Ag Method for improving the user-friendliness of a vehicle
DE102018209440A1 (en) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Methods for influencing systems for attention monitoring
DE102021208998B4 (en) 2021-08-17 2023-11-30 Zf Friedrichshafen Ag Method for operating a vehicle with a driver assistance system
DE102021208997A1 (en) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Method for operating a driver assistance system
CN115063966B (en) * 2022-05-31 2024-01-26 河南越秀尉许高速公路有限公司 Expressway construction area early warning system and method for ACC following vehicle running

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (en) 1995-06-02 1996-12-05 Siemens Corp Res Inc Method and apparatus for monitoring eyes for the detection of a sleepy state
DE19936271A1 (en) 1999-07-31 2001-03-15 Bosch Gmbh Robert Device for user-specific vehicle approval
DE10024227A1 (en) 2000-05-17 2001-12-13 Volkswagen Ag Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter
DE102004005163B3 (en) 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction
DE10360176A1 (en) 2003-12-20 2005-07-21 Volkswagen Ag Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving
DE102004044772A1 (en) 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database
DE102007023140A1 (en) 2007-05-16 2008-10-02 Audi Ag Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
DE102008031697A1 (en) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (en) 1995-06-02 1996-12-05 Siemens Corp Res Inc Method and apparatus for monitoring eyes for the detection of a sleepy state
DE19936271A1 (en) 1999-07-31 2001-03-15 Bosch Gmbh Robert Device for user-specific vehicle approval
DE10024227A1 (en) 2000-05-17 2001-12-13 Volkswagen Ag Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter
DE10360176A1 (en) 2003-12-20 2005-07-21 Volkswagen Ag Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving
DE102004005163B3 (en) 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction
DE102004044772A1 (en) 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database
DE102007023140A1 (en) 2007-05-16 2008-10-02 Audi Ag Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
DE102008031697A1 (en) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object

Also Published As

Publication number Publication date
DE102011011221A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
DE102011011221B4 (en) Method for detecting the attention of the driver of a motor vehicle
DE102018207977B4 (en) Interior monitoring for seat belt adjustment
DE102008019731B4 (en) Method and device for driver-passenger differentiation
EP3248179B1 (en) Method and apparatus for recognising microsleep in a driver of a vehicle
DE102007023140A1 (en) Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
DE112017007252T5 (en) DRIVER MONITORING DEVICE, DRIVER MONITORING METHOD, LEARNING DEVICE AND LEARNING METHOD
DE102017211005A1 (en) DRIVER STATE MONITORING USING CORNEAL REFLECTIONS
DE102019109505A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
DE102014201036A1 (en) Image-based classification of driver status and / or driver behavior
EP2543561B1 (en) Method and system for checking the driving authorisation for a vehicle
DE112017007258T5 (en) DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL
DE102015001686B4 (en) Method and device for detecting a driver&#39;s responsiveness in automated driving
WO2012156228A1 (en) Method and apparatus for identifying a possible collision object
DE112018007454T5 (en) Occupant condition determination device, warning output control device, and occupant condition determination method
DE102020117555A1 (en) METHOD AND DEVICE FOR INTRIBUTOR CLASSIFICATION
WO2003107259A1 (en) Method for detecting a person in a space
DE112020006871T5 (en) Cabin interior detection device and cabin interior detection method
DE102018100650A1 (en) A method for collision avoidance for a motor vehicle with a driving support system
DE102017103391A1 (en) Method for improving the user-friendliness of a vehicle
DE102018206237A1 (en) Method and device for detecting fatigue of a person
DE102020204362A1 (en) Method for evaluating a gesture by a vehicle occupant in an interior space of a vehicle, a method for illuminating an object and a lighting system
DE102020215652A1 (en) VEHICLE IMAGE PROCESSING SYSTEM
DE102020214713A1 (en) Method of distinguishing a real person from a surrogate
DE102008031697B4 (en) Device and method for object identification
DE102019215691A1 (en) Method and device for detecting the status of a vehicle occupant

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division