DE102011011221A1 - Method for recognition of attention of driver of motor car and production of activity signal for adaptive cruise control stop and go driver assistance system, involves producing activity signals from determined driver attention - Google Patents

Method for recognition of attention of driver of motor car and production of activity signal for adaptive cruise control stop and go driver assistance system, involves producing activity signals from determined driver attention Download PDF

Info

Publication number
DE102011011221A1
DE102011011221A1 DE102011011221A DE102011011221A DE102011011221A1 DE 102011011221 A1 DE102011011221 A1 DE 102011011221A1 DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 A1 DE102011011221 A1 DE 102011011221A1
Authority
DE
Germany
Prior art keywords
driver
image
attention
head
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011011221A
Other languages
German (de)
Other versions
DE102011011221B4 (en
Inventor
Mirko Langnickel
Maik Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102011011221.9A priority Critical patent/DE102011011221B4/en
Publication of DE102011011221A1 publication Critical patent/DE102011011221A1/en
Application granted granted Critical
Publication of DE102011011221B4 publication Critical patent/DE102011011221B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/063Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver preventing starting of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The method involves receiving a driver image and determination of existences of a driver based on the driver image, and checking whether the driver image concerns an actual driver or an attempt of deception. Face features of the driver are extracted from the driver image if reception and checking steps are positive. Driver attention is determined from the extracted features. Activity signals are produced from the determined driver attention. A front image of the driver as an initial driver image and the extracted features are memorized for comparative purposes at start of trip. An independent claim is also included for a driver assistance system for performing a method for recognition of attention of a driver of a motor car and production of an activity signal.

Description

Die Erfindung betrifft ein Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Signals für ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1, sowie eine Verwendung des Verfahrens in einem Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 11.The invention relates to a method for detecting the attention of the driver of a motor vehicle and for generating a signal for a driver assistance system according to the preamble of claim 1, as well as a use of the method in a driver assistance system according to the preamble of claim 11.

Bisherige Algorithmen zur Erkennung der Fahreraufmerksamkeit, wie beispielsweise über die Betrachtung der Kopfrotation und den Lidschluss, arbeiten im Wesentlichen basierend auf Modellen. Große Probleme gibt es dabei bei Brillenträgern und Bartträgern, die bisher gegen eine Einführung derartiger Algorithmen im Fahrzeug sprechen. Zusätzlich gewährleisten diese Algorithmen keine Lebend- oder Täuschungs-Erkennung, was auch als Fake-Erkennung bezeichnet wird, die für ein autonomes Assistenzsystem notwendig ist, da sonst ein Missbrauch und damit eine Beeinträchtigung der funktionalen Sicherheit nicht ausgeschlossen werden kann.Previous algorithms for detecting driver attention, such as regarding head rotation and eyelid closure, operate essentially based on models. There are great problems with eyeglass wearers and beards, who speak so far against introducing such algorithms in the vehicle. In addition, these algorithms do not provide for live or deceptive detection, which is also referred to as fake detection, which is necessary for an autonomous assistance system, since otherwise abuse and thus impairment of functional safety can not be ruled out.

Die Druckschrift DE 10 2007 023 140 A1 zeigt ein Verfahren zur Erkennung und Identifizierung des Fahrers eines Kraftfahrzeugs, wobei mittels eines Kamerasystems wenigstens eine Bewegung und/oder wenigstens ein Bewegungsablauf des Fahrers aufgenommen und zur Erkennung und Identifizierung des Fahrers seitens einer Bildverarbeitungseinheit analysiert wird. Dabei wird die extrahierte Bewegung bzw. der Bewegungsablauf mit einem bereits gespeicherten verglichen. Bei einer Übereinstimmung innerhalb vorgegebener Grenzen ist dann der Fahrer identifiziert und für diese Person gespeicherte Einstellungen können vorgenommen werden. Es wird daher ein biometrisches Identifikationsverfahren eingesetzt.The publication DE 10 2007 023 140 A1 shows a method for detecting and identifying the driver of a motor vehicle, wherein by means of a camera system at least one movement and / or at least one movement sequence of the driver is recorded and analyzed for recognition and identification of the driver by an image processing unit. In this case, the extracted movement or the motion sequence is compared with an already stored. If there is a match within predetermined limits then the driver is identified and stored settings for that person can be made. Therefore, a biometric identification method is used.

Ferner ist aus der DE 10 2008 031 697 A1 eine Vorrichtung zur Objektidentifikation, insbesondere zur biometrischen Identifikation, bekannt, welche eine Bilderfassungseinheit zur Erfassung eines Bereichs, in dem sich das zu identifizierende Objekt befindet, und eine Auswerteeinheit zur Verarbeitung der von der Bilderfassungseinheit bereitgestellten Bilddaten umfasst. Die Vorrichtung ist in einem ersten Betriebsmodus derart steuerbar, dass die der Auswerteeinheit bereitgestellten Bilddaten in einem ersten Bildbereich und in einem zweiten Bildbereich jeweils einen geringen Kontrastunterschied aufweisen und der erste und der zweite Bildbereich einen großen Kontrastunterschied zueinander aufweisen. Hierdurch hebt sich der erste Bildbereich unter Ausbildung einer Kontur von dem zweiten Bildbereich ab. Die Auswerteeinheit ist in dem ersten Betriebsmodus dazu eingerichtet, die Kontur zu analysieren und anhand deren Verlaufs auf das Vorhandensein des erwarteten Objekts oder auf das Vorhandensein eines Abbilds des Objekts zu schließen. Es wird daher überprüft, ob es sich um ein reales Objekt im Erfassungsbereich der Bilderfassungseinheit oder um einen Täuschungsversuch, beispielsweise mittels einer Fotographie, handelt.Furthermore, from the DE 10 2008 031 697 A1 a device for object identification, in particular for biometric identification, which comprises an image acquisition unit for detecting a region in which the object to be identified is located, and an evaluation unit for processing the image data provided by the image acquisition unit. In a first operating mode, the device can be controlled in such a way that the image data provided to the evaluation unit each have a low contrast difference in a first image area and in a second image area and the first and the second image area have a large difference in contrast to one another. As a result, the first image area is lifted off from the second image area, forming a contour. In the first operating mode, the evaluation unit is set up to analyze the contour and, based on its progression, to conclude the presence of the expected object or the presence of an image of the object. It is therefore checked whether it is a real object in the detection range of the image acquisition unit or a deception attempt, for example by means of a photograph.

Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung der Fahreraktivität und dessen Verwendung in einem Fahrerassistenzsystem, beispielsweise einem ACC-System mit Stop&Go-Funktionalität (ACC: Adaptive Cruise Control oder automatische Distanzregelung), anzugeben.The invention is therefore based on the object, an improved method for detecting the driver activity and its use in a driver assistance system, such as an ACC system with Stop & Go functionality (ACC: Adaptive Cruise Control or automatic distance control) to specify.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrerassistenzsystem mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method having the features of claim 1 and by a driver assistance system having the features of claim 11. Preferred embodiments of the invention are subject of the dependent claims.

Das erfindungsgemäße Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem führt mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durch:

  • a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes,
  • b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt,
  • c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,
  • d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und
  • e) Erzeugen eines Aktivitätssignal aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
The inventive method for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system performs the following steps by means of a biometric facial recognition by a facial biometric camera system:
  • a) recording a driver image and determining the presence of the driver based on the driver image,
  • b) Checking whether it is a real driver or an attempted deception,
  • c) extracting facial features of the driver from the driver image if steps a) and b) are positive,
  • d) determining driver attention from the extracted features, and
  • e) generating an activity signal from the driver attention determined in step d).

Vorzugsweise werden zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert, um das Verfahren auf einen definierten Ausgangszustand aufsetzen zu können. Dieser Vorgang läuft vorzugsweise automatisch ab und wird beispielsweise mit dem Entriegeln des Fahrzeugs initiiert, da der Vorgang des Entriegelns zumindest eine teilweise Stromversorgung des Fahrzeugs und eine Aktivierung bzw. Initiierung vorgegebener Fahrerassistenzsysteme bewirkt.Preferably, a frontal image of the driver as an initial driver image and its extracted features are stored at the beginning of the journey for comparison purposes, in order to be able to set the method to a defined initial state. This process preferably takes place automatically and is initiated, for example, with the unlocking of the vehicle, since the process of unlocking causes at least a partial power supply of the vehicle and an activation or initiation of predetermined driver assistance systems.

Vorzugsweise wird der Schritt a), d. h. das Aufnehmen eines Fahrerbildes und die Bestimmung des Vorhandenseins eines Fahrers, durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt.Preferably, step a), i. H. the taking of a driver image and the determination of the presence of a driver, performed by a determination of the driver's facial contour in the recorded driver image.

Weiter bevorzugt wird Schritt b) des Verfahrens durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt.Further preferred is step b) of the method by a live recognition, a Deception detection and driver identification performed.

Insbesondere kann die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgen. Intrinsische Bewegungen sind beispielsweise Kopf- und/oder Lidbewegungen über einen vorgegebenen Zeitraum.In particular, the live recognition can be carried out by a continuous check of intrinsic movements of the driver's head and / or the driver's face. Intrinsic movements are, for example, head and / or eyelid movements over a given period of time.

Die Täuschungserkennung kann durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nah-Infrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgen. Die Ergebnisse der Täuschungserkennung können auch zumindest teilweise in die Lebend-Erkennung einfließen.The deception detection can be done by checking the distance between the driver's head and camera, the use of pulsed near-infrared illumination and / or the brightness distribution in the recognized driver's face. The results of the detection of deception can also at least partially be incorporated into the live recognition.

Weiter bevorzugt erfolgt die Fahreridentifizierung anhand des Ähnlichkeitswertes des initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes, was auch als Matchscore bezeichnet wird.More preferably, the driver identification is based on the similarity value of the initially stored driver image and the current driver image, which is also referred to as a match score.

Vorzugsweise werden die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert, wobei die Aufzählung nicht abschließend ist. Weitere geeignete Merkmale wie beispielsweise Kopfneigungswinkel oder Mundmerkmale können verwendet werden.Preferably, the facial features head rotation, head position, X and Y coordinates of the driver's eyes, and the eye opening degree are extracted, the enumeration being incomplete. Other suitable features such as head angle or mouth features may be used.

Zur Bestimmung der Fahreraktivität wird vorzugsweise ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt.To determine the driver's activity, a biometric comparison of the extracted current facial features with the stored facial features of the initial driver's image is preferably performed.

Vorzugsweise wird der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad, der offenen Augen entspricht, ergibt.Preferably, the driver is estimated to be active and an activity signal is generated when the biometric comparison gives a frontal head direction and an eye opening degree corresponding to open eyes.

Das erfindungsgemäße Fahrerassistenzsystem, welches das im Vorangegangenen erläuterte Verfahrens verwendet, umfasst ein gesichtsbiometrisches Kamerasystem, welches den Fahrer insbesondere während der Standzeit des Kraftfahrzeugs im Stau beobachtet und ein Fahrerbild erzeugt, und ein Steuergerät zur Durchführung der biometrischen Gesichtserkennung. Dabei erfolgt vom Fahrerassistenzsystem dann eine fahrerseitige Anfahrfreigabe, wenn folgende Bedingungen erfüllt sind:

  • i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen,
  • ii) der Lenkradwinkel liegt zwischen +/–60 Grad,
  • iii) die Gesichtskontur im Fahrerbild ist erkannt,
  • iv) das Fahrergesicht ist ”lebendig”,
  • v) der Fahrerkopf ist für eine vorgegebene Zeit t1 frontal ausgerichtet, und
  • vi) die Augen des Fahrers sind für eine vorgegebene Zeit t2 offen.
The driver assistance system according to the invention, which uses the method explained above, comprises a facial biometric camera system which observes the driver in a traffic jam during the service life of the motor vehicle and generates a driver image, and a control device for carrying out the biometric face recognition. The driver assistance system then initiates a driver-side start-up release if the following conditions are met:
  • i) the driver's seat is occupied and the door and buckle are closed,
  • ii) the steering wheel angle is between +/- 60 degrees,
  • iii) the facial contour in the driver's image is recognized,
  • iv) the driver's face is "alive",
  • v) the driver head is frontally aligned for a predetermined time t1, and
  • vi) the driver's eyes are open for a predetermined time t2.

Als Fahrerassistenzsystems kommen ACC-Fahrerassistenzsysteme mit Stop & Go-Funktionalität oder alle Systeme für autonome oder automatisierte Fahrunterstützung in Betracht, die im stehenden oder fahrenden Zustand Informationen über den Fahrerzustand benötigen.As a driver assistance system, ACC driver assistance systems with stop-and-go functionality or all systems for autonomous or automated driving support are considered, which require information about the driver's state when standing or driving.

Weiter bevorzugt erfolgt ein Fahrfreigabe für das Kraftfahrzeug dann, wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt. Mit anderen Worten, es erfolgt eine Sensorfusion der fahrerseitigen Freigabe mit Ergebnissen anderer Umfeldsensoren wie beispielsweise Radar, Laser und/oder Außenkamera.Further preferably, a drive release for the motor vehicle takes place when, in addition to the driver-side release, a release of the drive takes place by further vehicle sensors. In other words, there is a sensor fusion of the driver-side release with results of other environment sensors such as radar, laser and / or outdoor camera.

Die beschriebenen Signale des gesichtsbiometrischen Kamerasystems werden daher neben der klassischen Fahrerpersonalisierung vorrangig für Eingangssignale von Fahrerassistenzsystemen, beispielsweise in einem ACC-Fahrerassistenzsystem, genutzt. Der zusätzliche Vorteil besteht in der Mehrfachnutzung eines Algorithmus auf einem Steuergerät, so dass weitere Softwarevarianten entfallen.The described signals of the facial biometric camera system are therefore used in addition to the classic driver personalization primarily for input signals of driver assistance systems, for example in an ACC driver assistance system. The additional advantage is the multiple use of an algorithm on a control unit, so that accounts for more software variants.

Ferner erfolgt nunmehr die Anfahrfreigabe, die derzeit nach einer kurzen Standzeit, beispielsweise in einem Stau, manuell durch eine Betätigung eines Hebels am Lenkstock oder des Beschleunigungspedals, durch die biometrische Gesichtserkennung, wobei zusätzlich mit dem Algorithmus eine sogenannte Lebend- und Täuschungserkennung erfolgt, um beispielsweise das Lesen einer Zeitung im Stau zu detektieren, in welchem Fall keine Anfahrfreigabe erfolgt und damit die funktionale Sicherheit erhöht wird.Furthermore, now the Anfahrfreigabe, which is currently after a short life, for example, in a traffic jam, manually by an operation of a lever on the steering column or the accelerator pedal, by the biometric face recognition, which additionally takes place with the algorithm so-called detection of life and deception, for example to detect the reading of a newspaper in a traffic jam, in which case no start-up clearance occurs and thus the functional safety is increased.

Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigtA preferred embodiment of the invention will be explained below with reference to the drawings. It shows

1 die Komponenten eines ACC-Stop&Go-Fahrerassistenzsystems, 1 the components of an ACC Stop & Go driver assistance system,

2 ein biometrischer Erkennungsalgorithmus in schematischer Darstellung, und 2 a biometric recognition algorithm in a schematic representation, and

3 ein Ablaufdiagramm der fahrerseitigen Freigabe innerhalb eines ACC-Stop&Go-Fahrerassistenzsystems. 3 a flowchart of the driver side release within an ACC Stop & Go driver assistance system.

1 zeigt die beteiligten Komponenten eines beispielhaften ACC Fahrerassistenzsystems mit Stop&Go-Funktionalität, welches um eine kamerabasierte, biometrische Fahrerbeobachtung erweitert ist. Dabei soll der manuelle Aufwand durch den Fahrer hin zu einer stärkeren Automatisierung und Fahrkomfort erweitert werden. Der Fahrer muss mit dem gesichtsbiometrischen Kamerasystem im Staufall keine manuelle Aktion mehr durchführen, da das System erkennt, ob der Fahrer zum Verkehrsgeschehen schaut oder nicht. Zum Einsatz kommt dabei ein Algorithmus der biometrischen Fahrererkennung. 1 shows the involved components of an exemplary ACC driver assistance system with Stop & Go functionality, which is extended by a camera-based, biometric driver observation. This is the manual effort by the driver be extended to greater automation and ride comfort. The driver no longer has to perform any manual action with the facial biometric camera system in traffic jam, because the system recognizes whether the driver is watching the traffic or not. An algorithm of biometric driver recognition is used.

Die für einen Anfahrentscheidung beteiligten Komponenten des ACC-Fahrerassistenzsystems mit Stop&Go-Funktionalität sind das HMI 1 (HMI: Human-Maschine-Interface) mit den Komponenten Beschleunigungspedal 1a, Lenkstock 1b und Kombiinstrument 1c, der Antrieb 2 mit den Komponenten Gang 2a, Verzögerung 2b und Beschleunigung 2c, die Umfeldsensorik 3 mit den Komponenten Videokamera 3a beispielsweise in der Frontscheibe, Radar 3b für den Fernbereich und Ultraschallsensor 3c für den Nahbereich, das biometrische Erkennungssystem 4 sowie die Anfahrentscheidung 7.The components of the ACC driver assistance system with stop-and-go functionality involved in a start-up decision are the HMI 1 (HMI: Human machine interface) with the components accelerator pedal 1a , Steering column 1b and instrument cluster 1c , the drive 2 with the gear components 2a , Delay 2 B and acceleration 2c , the environment sensor 3 with the components video camera 3a for example in the windscreen, radar 3b for the long range and ultrasonic sensor 3c for the close range, the biometric recognition system 4 as well as the starting decision 7 ,

Das biometrische Erkennungssystem 4 umfasst dabei die beiden Bereiche Fahrerparameter 5 sowie die Fahrerbeobachtung 6. Unter Fahrerparameter 5 werden hier vom Fahrer bewirkte bzw. beeinflusste Parameter oder Zustände verstanden, insbesondere die Sitzbelegung 5a mit den Werten ”belegt, frei”, den Zustand Gurtschloss 5b mit den Werten ”geschlossen oder offen”, den Zustand der Türöffnung 5c mit den Werten ”offen oder zu” sowie den Lenkradwinkel 5d. Im Bereich Fahrerbeobachtung 6 wird mit einer Kamera 6a ein Videobild aufgenommen und in einer Bildverarbeitung 6b verarbeitet. Die extrahierten oder berechneten Signale 6c werden einer Interpretation 6d zugeführt.The biometric recognition system 4 includes the two areas driver parameters 5 as well as the driver observation 6 , Under driver parameters 5 are understood here by the driver caused or influenced parameters or states, in particular the seat occupancy 5a with the values "occupied, free", the condition buckle 5b with the values "closed or open", the state of the door opening 5c with the values "open or closed" and the steering wheel angle 5d , In the field of driver observation 6 is with a camera 6a a video image taken and in an image processing 6b processed. The extracted or calculated signals 6c become an interpretation 6d fed.

Aus den entsprechenden Signalen der beteiligten Komponenten HMI 1, Antrieb 2, Umfeldsensorik 3, Fahrerparameter 5 und Fahrerbeobachtung 6 werden dann in der Anfahrentscheidung 7 eine Entscheidung getroffen.From the corresponding signals of the participating components HMI 1 , Drive 2 , Environment sensor 3 , Driver parameters 5 and driver observation 6 will then be in the starting decision 7 made a decision.

Das gesichtsbiometrische Kamerasystem, auch abgekürzt als GBKS bezeichnet, der Fahrerbeobachtung 6, bestehend aus den Komponenten Monokamera, zwei Nah-Infrarotbeleuchtungsmodulen und einem Steuergerät mit dem nachfolgend erläuterten biometrischen Algorithmus, beobachtet den Fahrer während der Standzeit des Fahrzeugs. Das Fahrzeug entscheidet nur dann auf automatische Freigabe, wenn folgende Faktoren erfüllt sind:

  • – der Fahrersitz ist belegt, Tür und Gurtschloss sind geschlossen,
  • – der Lenkradwinkel liegt zwischen –/+60 Grad,
  • – das GBKS erkennt Gesichtskontur des Fahrers im Videobild,
  • – das GBKS erkennt, dass das Gesicht des Fahrers ”lebendig” ist,
  • – das GBKS erkennt, dass der Kopf des Fahrers für eine vorgegebene Zeit t1 frontal ausgerichtet ist, und
  • – das GBKS erkennt, dass die Augen des Fahrers für eine vorgegebene Zeit t2 offen sind.
The facial biometric camera system, also abbreviated as GBKS, the driver observation 6 , consisting of the components monocamera, two near-infrared lighting modules and a control unit with the biometric algorithm explained below, observes the driver during the life of the vehicle. The vehicle only decides on automatic release if the following factors are fulfilled:
  • - the driver's seat is occupied, door and buckle are closed,
  • - the steering wheel angle is between - / + 60 degrees,
  • - the GBKS recognizes the driver's facial contour in the video image,
  • - the GBKS recognizes that the driver's face is "alive",
  • - the GBKS recognizes that the head of the driver is frontal for a given time t1, and
  • - the GBKS recognizes that the driver's eyes are open for a given time t2.

Sind alle Parameter erfüllt, erfolgt von Seiten des gesichtsbiometrisches Kamerasystem eine Anfahrfreigabe für das Teilsystem ”Fahrer”. Eine endgültige Entscheidung für ACC Stop&Go wird über die Fusion mit anderen Fahrzeugsensoren (Radar, Außenkamera, etc.) getroffen.If all parameters are met, the face biometric camera system initiates a start-up release for the "driver" subsystem. A final decision for ACC Stop & Go will be made by merging with other vehicle sensors (radar, outdoor camera, etc.).

2 zeigt in schematischer Darstellung einen Algorithmus der biometrischen Gesichtserkennung. Mittels einer Innenraumkamera 11 wird ein Videobild des Fahrers erzeugt und an eine Steuereinrichtung 12 übertragen. In der Steuereinrichtung 12 wird eine Gesichtssuche 13 durchgeführt. Das Bild und die ermittelte Gesichtsposition wird einem Augenfinder 14 zugeführt, der die Koordinaten der Fahreraugen bestimmt. Die ermittelten Daten, d. h. das aktuelle Bild, die Gesichtsposition und die Koordinaten der Augen werden einer Bildqualitätprüfung 15 unterzogen. Es erfolgt im nächsten Block eine Normalisierung des Gesichts und das normalisierte Gesicht wird einer Vorverarbeitung 17 unterzogen. Anschließend wird aus dem vorverarbeiteten Gesicht des Fahrers die gewünschten bzw. notwendigen Merkmale extrahiert und in einem Musterbildner 10 zu einem Mustervektor, dem sogenannten Referenzvektor, zusammengefasst. 2 shows a schematic representation of an algorithm of biometric facial recognition. By means of an interior camera 11 a video image of the driver is generated and sent to a control device 12 transfer. In the control device 12 becomes a face search 13 carried out. The image and the determined facial position becomes an eye finder 14 fed, which determines the coordinates of the driver's eyes. The obtained data, ie the current image, the face position and the coordinates of the eyes become an image quality inspection 15 subjected. Normalization of the face occurs in the next block and the normalized face becomes preprocessing 17 subjected. Subsequently, the desired or necessary features are extracted from the preprocessed face of the driver and in a pattern creator 10 to a pattern vector, the so-called reference vector summarized.

Die hier verwendeten Werte des Algorithmus sind:

  • – der Match Score, d. h. der Ähnlichkeitswert zwischen einem hinterlegten Frontalbild
  • – des Fahrers und dem aktuellen Gesichtbild des Fahrers, dem sogenannten Livebild,
  • – die X- und Y-Koordinaten der detektierten Augen des Fahrers aus dem aktuellen Bild
  • – der aktuelle Augenöffnungsgrad in Prozent, und
  • – die geschätzte Kopfposition aus den geometrischen Verhältnissen im aktuellen Fahrergesicht.
The values of the algorithm used here are:
  • - The match score, ie the similarity value between a stored frontal image
  • The driver and the current face of the driver, the so-called live image,
  • The X and Y coordinates of the driver's detected eyes from the current image
  • - the current eye opening degree in percent, and
  • - The estimated head position from the geometric relationships in the current driver's face.

Dabei sind die X- und Y-Koordinaten der Fahreraugen bezogen beispielsweise auf die jeweilige Augenmitte oder Augenecken, um eine konsistente Koordinatendefinition zu erhalten.The X and Y coordinates of the driver's eyes are related, for example, to the respective center of the eye or corners of the eye in order to obtain a consistent coordinate definition.

Zur Erkennung der oben genannten Kopfrotation gelten die folgenden Bedingungen:

  • – der Matchscore ist abhängig von der Kopfrotation,
  • – Ist der Kopf frontal, d. h. die Kopfrotation ist 0 Grad, dann ist der Match Score maximal (100%), d. h. das aktuelle Bild ist zum gespeicherten initialen Bild absolut ähnlich,
  • – dreht der Fahrer den Kopf, dann sinkt der Match Score,
  • – ab etwa 30 Grad hat der Match Score üblicherweise den Wert Null, mit anderen Worten bis zu diesem Winkel ist eine direkte Winkel- und sektorenabhängige Erkennung möglich,
  • – Erkennung der Rotationsrichtung (links/rechts) erfolgt über Symmetrie- und Richtungsberechnung der x- und y-Augenpunkte.
To recognize the above-mentioned head rotation, the following conditions apply:
  • - the match score depends on the head rotation,
  • - If the head is head-on, ie the head rotation is 0 degrees, then the match score is maximum (100%), ie the current image is absolutely similar to the stored initial image,
  • - turns the driver's head, then the score decreases,
  • - from about 30 degrees, the match score usually has the value zero, in other words up to this angle a direct angle and sector-dependent detection is possible,
  • - Detection of the direction of rotation (left / right) takes place via symmetry and direction calculation of the x and y eye points.

Dabei bedeutet der Wert von 30 Grad nicht die Grenze der Funktionsfähigkeit des Systems, sondern der Wert signalisiert nur, dass der Fahrer nicht mehr frontal schaut. Eine Erkennung des Fahrers funktioniert noch über den Wert mittels der Betrachtung der Historie und eine Prognose ist über den Bereich hinaus möglich.The value of 30 degrees does not mean the limit of the functionality of the system, but the value only signals that the driver no longer looks head-on. A recognition of the driver still works on the value by means of the consideration of the history and a prognosis is possible beyond the range.

3 zeigt ein Ablaufdiagramm zur Bestimmung der fahrerseitigen Fahrfreigabe eine Fahrerassistenzsystem, insbesondere eines ACC-Systems mit Stop&Go-Funktionalität. Zu Beginn, also nach dem Einstieg des Fahrers, wird im Schritt 20 ein Frontalbild des Fahrers aufgenommen und abgespeichert, welches als initiales Fahrerbild bezeichnet wird. Ferner werden aus dem initialen Bild Merkmale des aktuellen Fahrers extrahiert und ebenfalls gespeichert. 3 shows a flowchart for determining the driver side driving a driver assistance system, in particular an ACC system with stop & go functionality. At the beginning, ie after the entry of the driver, is in the step 20 a frontal image of the driver recorded and stored, which is referred to as the initial driver image. Furthermore, features of the current driver are extracted from the initial image and also stored.

Im nächsten Schritt 21 werden notwendige Voraussetzungen abgeprüft, nämlich ob der Fahrer im Fahrzeug sitzt, die Türen geschlossen sind, der oder die Sicherheitsgurte angelegt sind, der Sitz belegt ist, das ACC Stop&Go aktiviert ist und das Fahrzeug still im Stau steht.In the next step 21 the necessary conditions are checked, namely whether the driver is seated in the vehicle, the doors are closed, the seat belt (s) are fastened, the seat is occupied, the ACC Stop & Go is activated and the vehicle is standing still in a traffic jam.

Nachdem die Voraussetzungen des Schrittes 21 erfüllt sind, wird im Schritt 22 ein aktuelles Fahrerbild, das sog. Livebild, aufgenommen. Danach wird im Schritt 23 untersucht, ob eine Gesichtskontur im Livebild vorhanden ist. Ist dies nicht der Fall, welcher mit ”N” gekennzeichnet ist, so geht das System wieder zum Schritt 22 zurück. Ist ein Gesichtskontur erkannt worden so wird im Schritt 24 untersucht, ob eine Täuschung vorliegt. Trifft dies zu, was mit ”J” gekennzeichnet ist, so geht das System zurück zu Schritt 22. Liegt kein Täuschungsversuch vor, was mit ”N” gekennzeichnet ist, so erfolgt im Schritt 25 eine Merkmalsextraktion aus dem aktuellen Fahrerbild.After the requirements of the step 21 are met in step 22 a current driver image, the so-called live image, taken. After that, in step 23 examines whether a facial contour is present in the live image. If this is not the case, which is marked with "N", then the system goes back to the step 22 back. If a facial contour has been detected then it will be in step 24 investigates if there is a deception. If this matches what is marked "J", the system goes back to step 22 , If there is no deception attempt, which is marked with "N", takes place in the step 25 a feature extraction from the current driver image.

Im Schritt 26 erfolgt ein biometrischer Vergleich zwischen den im Schritt 25 ermittelten Merkmalen mit den Merkmalen des initialen Bildes des Schritts 20 zur Bestimmung der Kopfrichtung. Fällt dieser Vergleich kleiner aus als ein vorgegebener Grenzwert, so wird im Schritt 27 geschlossen, dass die Kopfrichtung nicht frontal ist (Ausgang ”<”) und das System geht zurück zum Schritt 22. Im mit dem Ausgang ”≥” zu erreichenden Schritt 28 wird auf eine frontale Kopfrichtung geschlossen, was bedeutet, dass der Vergleich größer oder gleich einem vorgegebenen Grenzwert ausgefallen ist.In step 26 a biometric comparison is made between those in the step 25 determined features with the characteristics of the initial image of the step 20 for determining the head direction. If this comparison is smaller than a predetermined limit, then in step 27 concluded that the head direction is not frontal (output "<") and the system goes back to the step 22 , In the step to be reached with the output "≥" 28 is closed to a frontal head direction, which means that the comparison is greater than or equal to a predetermined limit.

Anschließend wird im nächsten Schritt 29 der Augenöffnungsgrad geprüft. Ist dieser kleiner als ein vorgegebener Grenzwert, so wird im Schritt 30 die Augen des Fahrers als geschlossen betrachtet und das System geht zurück zu Schritt 22. Ist der Augenöffnungsgrad größer oder gleich dem genannten vorgegebenen Grenzwert, so wird auf geöffnete Augen des Fahrers im Schritt 31 geschlossen. Da der Fahrer eine frontale Kopfposition und geöffnete Augen hat, wird im Schritt 32 die fahrerseitige Fahrfreigabe erteilt.Subsequently, in the next step 29 the eye opening degree checked. If this is smaller than a predetermined limit, then in step 30 the driver's eyes are considered closed and the system goes back to step 22 , If the eye opening degree is greater than or equal to said predetermined limit value, the driver's eyes are opened in step 31 closed. As the driver has a frontal head position and open eyes, is in step 32 the driver-side driving permission granted.

Die im Ablaufdiagramm angesprochenen Schritt 23 und 24 führen eine Unterscheidung zwischen lebendigen Objekten, nämlich dem Fahrer selbst und nicht-lebendigen Objekten, m wie Personen auf Zeitungen, Fotos, Puppen, etc., durch. Diese Unterscheidung ist zwingend notwendig. Daneben muss unterschieden werden, ob es sich um den aktuellen Fahrer oder beispielsweise den Beifahrer handelt.The step mentioned in the flowchart 23 and 24 make a distinction between living objects, namely the driver himself and non-living objects, such as persons on newspapers, photos, dolls, etc., through. This distinction is imperative. In addition, it must be distinguished whether it is the current driver or, for example, the passenger.

Die Täuschungs- und Lebend-Erkennung der bevorzugten Ausführungsform arbeitet wie folgt:

  • – das gesichtsbiometrische Kamerasystem erwartet den Kopf des Fahrers in einer gewissen Entfernung vor der Kamera, dem sog. Erwartungsraum, womit einfache Foto-Täuschungen ermittelt werden können,
  • – der Einsatz von gepulster Nah-Infrarot-Beleuchtung führt zur Aufdeckung von Video-Täuschungen,
  • – es wird eine laufende Prüfung intrinsische Bewegungen (Kopf- und Lidbewegungen über einen Zeitraum), was zur Detektion von Abdeckung von Foto- und Puppen-Täuschungen führt,
  • – mittels der Überprüfung von Helligkeitsverteilungen im erkannten Gesicht durch Abgleich zwischen bekannten Verläufen sowie Abgleich zwischen Sonnensensorrichtung und Helligkeitsverteilung im Gesicht werden Foto- und Videotäuschungen ermittelt, und
  • – eine Unterscheidung zwischen Fahrer und Beifahrer erfolgt über das initial gespeichertes Frontalbild: beugt sich beispielsweise der Beifahrer in die Fahrerzone, dann würde das System einen deutlich geringeren Match Score berechnen und keine Freigabe erteilen, wodurch eine Abdeckung einer absichtlichen Fehlbedienung erreicht wird.
The deceptive and live detection of the preferred embodiment operates as follows:
  • The facial biometric camera system expects the head of the driver at a certain distance in front of the camera, the so-called expectation space, with which simple photo illusions can be determined
  • - the use of pulsed near-infrared lighting leads to the detection of video illusions,
  • It is an ongoing examination intrinsic movements (head and eyelid movements over a period of time), which leads to the detection of cover of photo and doll delusions,
  • - By checking brightness distributions in the recognized face by matching between known gradients and balance between the sun sensor direction and brightness distribution in the face photo and video illusions are determined, and
  • - A distinction between the driver and front passenger over the initially stored frontal image: bends, for example, the passenger in the driver's area, then the system would charge a significantly lower match score and grant no clearance, which covers a deliberate misuse is achieved.

Eine Unterscheidung zwischen Fahrer und Beifahrer kann auch über die unterschiedliche Kopfrotation mittels der Auswertung der X- und Y-Augenpunkte erfolgen.A distinction between driver and front passenger can also be made via the different head rotation by means of the evaluation of the X and Y eye points.

Bezugszeichenliste LIST OF REFERENCE NUMBERS

11
HMI (Mensch-Maschine-InterfaceHMI (human-machine interface
1a1a
Beschleunigungspedalaccelerator pedal
1b1b
Lenkstockpitman
1c1c
Kombiinstrumentinstrument cluster
22
Antriebdrive
2a2a
Gangcorridor
2b2 B
Verzögerungdelay
2c2c
Beschleunigungacceleration
33
Umfeldsensorikenvironment sensors
3a3a
Videokamera FrontscheibeVideo camera windscreen
3b3b
Radar (Fernbereich)Radar (far range)
3c3c
Ultraschall (Nahbereich)Ultrasound (close range)
44
Biometrisches ErkennungssystemBiometric recognition system
55
Fahrerparameterdriver parameters
66
Fahrerbeobachtungdriver observation
77
AnfahrentscheidungAnfahrentscheidung
1111
InnenraumkameraInterior camera
1212
Steuergerätcontrol unit
1313
Gesichtssucheface search
1414
Augenfindereye finder
1515
BildqualitätsprüfungImage quality test
1616
Gesichtsnormalisierungface normalization
1717
Vorbereitungpreparation
1818
Merkmalsextraktionfeature extraction
1919
Musterbildungpatterning
2020
Speicherung Frontalbild und Merkmalsextraktion aktueller FahrerStorage of frontal image and feature extraction of current drivers
2121
Voraussetzungenrequirements
2222
LivebildLive image
2323
Gesichtskontur vorhandenFacial contour available
2424
Täuschungsversuchattempt to deceive
25 25
Merkmalsextraktion aus LivebildFeature extraction from live image
2626
Biometrischer VergleichBiometric comparison
2727
Kopfrichtung nicht frontalHead direction not frontal
2828
Kopfrichtung frontalHead direction frontal
2929
AugenöffnungsgradEye opening degree
3030
Augen geschlosseneyes closed
3131
Augen offenEyes open
3232
Freigaberelease

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102007023140 A1 [0003] DE 102007023140 A1 [0003]
  • DE 102008031697 A1 [0004] DE 102008031697 A1 [0004]

Claims (12)

Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem, wobei mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt werden: a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes, b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt, c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind, d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und e) Erzeugen eines Aktivitätssignals aus der in Schritt d) bestimmten Fahreraufmerksamkeit.A method for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system, wherein the following steps are performed by means of a biometric facial recognition by a facial biometric camera system: a) recording a driver image and determining the presence of the driver based on the driver image, b) Checking whether it is a real driver or an attempted deception, c) extracting facial features of the driver from the driver image if steps a) and b) are positive, d) determining driver attention from the extracted features, and e) generating an activity signal from the driver attention determined in step d). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert werden.A method according to claim 1, characterized in that at the beginning of a frontal image of the driver as the initial driver image and its extracted features are stored for comparison purposes. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass Schritt a) durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt wird.A method according to claim 1 or 2, characterized in that step a) is performed by determining the facial contour of the driver in the recorded driver image. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Schritt b) durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt wird.Method according to one of the preceding claims, characterized in that step b) is performed by a live detection, a deception detection and a driver identification. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgt.A method according to claim 4, characterized in that the live detection is carried out by a continuous review of intrinsic movements of the driver's head and / or the driver's face. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Täuschungserkennung durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nahinfrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgt.A method according to claim 4, characterized in that the detection of deception by checking the distance between the driver's head and the camera, the use of pulsed near-infrared illumination and / or the brightness distribution in the recognized driver's face. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Fahreridentifizierung anhand des Ähnlichkeitswertes eines initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes erfolgt.A method according to claim 4, characterized in that the driver identification is based on the similarity value of an initially stored driver image and the current driver image. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert werden.Method according to one of the preceding claims, characterized in that the facial features head rotation, head position, X and Y coordinates of the driver's eyes and the eye opening degree are extracted. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass zur Bestimmung der Fahreraktivität ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt wird.A method according to claim 8, characterized in that for determining the driver activity, a biometric comparison of the extracted current facial features with the stored facial features of the initial driver image is performed. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt wird, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad für offene Augen ergibt.A method according to claim 9, characterized in that the driver is considered to be active and an activity signal is generated when the biometric comparison results in a head-on-head direction and an eye-opening degree for open eyes. Fahrerassistenzsystem unter Verwendung des Verfahrens nach einem der vorangegangenen Ansprüche mit einem gesichtsbiometrischen Kamerasystem, welches den Fahrer zumindest während der Standzeit des Kraftfahrzeugs beobachtet und ein Fahrerbild erzeugt, und einem Steuergerät zur Durchführung der biometrischen Gesichtserkennung, wobei eine fahrerseitige Anfahrfreigabe erfolgt, wenn folgende Bedingungen erfüllt sind: i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen, ii) Lenkradwinkel zwischen +/–60 Grad, iii) Gesichtskontur im Fahrerbild ist erkannt, iv) Fahrergesicht ist ”lebendig”, v) Fahrerkopf ist für eine vorgegebene Zeit t frontal ausgerichtet, und vi) Augen des Fahrers sind für eine vorgegebene Zeit t offen.Driver assistance system using the method according to one of the preceding claims with a facial biometric camera system, which observes the driver at least during the service life of the motor vehicle and generates a driver image, and a control unit for performing the biometric facial recognition, wherein a driver-side Anfahrfreigabe occurs when the following conditions are met : i) the driver's seat is occupied and the door and buckle are closed, ii) steering wheel angle between +/- 60 degrees, iii) facial contour in the driver's image is detected iv) driver's face is "alive", v) driver's head is frontal for a given time t, and vi) eyes of the driver are open for a given time t. Fahrerassistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass ein Fahrfreigabe für das Kraftfahrzeug erfolgt wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt.Driver assistance system according to claim 11, characterized in that a drive release for the motor vehicle takes place when in addition to the driver-side release of a release of the drive is carried out by other vehicle sensors.
DE102011011221.9A 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle Active DE102011011221B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011011221.9A DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010056483.4 2010-12-30
DE102010056483 2010-12-30
DE102011011221.9A DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102011011221A1 true DE102011011221A1 (en) 2012-07-05
DE102011011221B4 DE102011011221B4 (en) 2023-11-02

Family

ID=46509326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011011221.9A Active DE102011011221B4 (en) 2010-12-30 2011-02-15 Method for detecting the attention of the driver of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102011011221B4 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103661095A (en) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 Driving state detecting system
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102017103391A1 (en) 2017-02-20 2018-08-23 Deutsche Telekom Ag Method for improving the user-friendliness of a vehicle
DE102018209440A1 (en) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Methods for influencing systems for attention monitoring
CN115063966A (en) * 2022-05-31 2022-09-16 河南越秀尉许高速公路有限公司 Highway construction area early warning system and method for ACC car following driving
DE102021208997A1 (en) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Method for operating a driver assistance system
DE102021208998A1 (en) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Method for operating a driver assistance system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (en) * 1995-06-02 1996-12-05 Siemens Corp Res Inc Method and apparatus for monitoring eyes for the detection of a sleepy state
DE19936271A1 (en) * 1999-07-31 2001-03-15 Bosch Gmbh Robert Device for user-specific vehicle approval
DE10024227A1 (en) * 2000-05-17 2001-12-13 Volkswagen Ag Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter
DE102004005163B3 (en) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction
DE10360176A1 (en) * 2003-12-20 2005-07-21 Volkswagen Ag Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving
DE102004044772A1 (en) * 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database
DE102007023140A1 (en) 2007-05-16 2008-10-02 Audi Ag Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
DE102008031697A1 (en) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (en) * 1995-06-02 1996-12-05 Siemens Corp Res Inc Method and apparatus for monitoring eyes for the detection of a sleepy state
DE19936271A1 (en) * 1999-07-31 2001-03-15 Bosch Gmbh Robert Device for user-specific vehicle approval
DE10024227A1 (en) * 2000-05-17 2001-12-13 Volkswagen Ag Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter
DE10360176A1 (en) * 2003-12-20 2005-07-21 Volkswagen Ag Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving
DE102004005163B3 (en) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction
DE102004044772A1 (en) * 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database
DE102007023140A1 (en) 2007-05-16 2008-10-02 Audi Ag Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
DE102008031697A1 (en) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103661095A (en) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 Driving state detecting system
CN103661095B (en) * 2012-09-11 2015-12-02 财团法人车辆研究测试中心 The detecting system of driving condition
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102017103391A1 (en) 2017-02-20 2018-08-23 Deutsche Telekom Ag Method for improving the user-friendliness of a vehicle
CN112041903A (en) * 2018-06-13 2020-12-04 宝马股份公司 Method for influencing a system for monitoring attention
WO2019238820A1 (en) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Method for influencing systems for monitoring alertness
DE102018209440A1 (en) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Methods for influencing systems for attention monitoring
CN112041903B (en) * 2018-06-13 2022-05-03 宝马股份公司 Method for influencing a system for monitoring attention
US11587335B2 (en) 2018-06-13 2023-02-21 Bayerische Motoren Werke Aktiengesellschaft Method for influencing systems for monitoring alertness
DE102021208997A1 (en) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Method for operating a driver assistance system
DE102021208998A1 (en) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Method for operating a driver assistance system
DE102021208998B4 (en) 2021-08-17 2023-11-30 Zf Friedrichshafen Ag Method for operating a vehicle with a driver assistance system
CN115063966A (en) * 2022-05-31 2022-09-16 河南越秀尉许高速公路有限公司 Highway construction area early warning system and method for ACC car following driving
CN115063966B (en) * 2022-05-31 2024-01-26 河南越秀尉许高速公路有限公司 Expressway construction area early warning system and method for ACC following vehicle running

Also Published As

Publication number Publication date
DE102011011221B4 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
DE102019134141B4 (en) Seat belt condition determination procedure
DE102011011221A1 (en) Method for recognition of attention of driver of motor car and production of activity signal for adaptive cruise control stop and go driver assistance system, involves producing activity signals from determined driver attention
DE102018207977B4 (en) Interior monitoring for seat belt adjustment
DE102007023140A1 (en) Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
EP3248179B1 (en) Method and apparatus for recognising microsleep in a driver of a vehicle
DE102012106522A1 (en) Method for authenticating a driver in a motor vehicle
DE102016220979A1 (en) Method and apparatus for controlling operation of a side and rear surveillance camera system
WO2015091679A1 (en) Method for authenticating a driver in a motor vehicle
DE102012222175A1 (en) Method and device for opening a door of a vehicle
EP2543561B1 (en) Method and system for checking the driving authorisation for a vehicle
DE102010038567A1 (en) Image recognition device with multiple classifiers
DE112017007258T5 (en) DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL
DE102020124633A1 (en) CONTEXT-SENSITIVE ADAPTATION OF A TERRAIN VIEW TIME
DE102016215297A1 (en) Method for identifying a driver change in a motor vehicle
DE102006053328B4 (en) A method of authenticating a driver of a vehicle and associated apparatus
DE102019204892A1 (en) Method and control device for detecting drowsiness of a driver for a driver assistance system for a vehicle
DE102020117555A1 (en) METHOD AND DEVICE FOR INTRIBUTOR CLASSIFICATION
DE102013002686B4 (en) Method for operating a motor vehicle and motor vehicles
DE102020215652A1 (en) VEHICLE IMAGE PROCESSING SYSTEM
DE102020204362A1 (en) Method for evaluating a gesture by a vehicle occupant in an interior space of a vehicle, a method for illuminating an object and a lighting system
DE102020214713A1 (en) Method of distinguishing a real person from a surrogate
DE102020205517A1 (en) Method for setting a functional element in a motor vehicle
DE102008031697B4 (en) Device and method for object identification
DE102008003081B4 (en) Method and device for crash classification for a vehicle safety system
DE102013021929B4 (en) Motor vehicle with cameras and image analysis devices

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division