DE102011011221B4 - Method for detecting the attention of the driver of a motor vehicle - Google Patents
Method for detecting the attention of the driver of a motor vehicle Download PDFInfo
- Publication number
- DE102011011221B4 DE102011011221B4 DE102011011221.9A DE102011011221A DE102011011221B4 DE 102011011221 B4 DE102011011221 B4 DE 102011011221B4 DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 B4 DE102011011221 B4 DE 102011011221B4
- Authority
- DE
- Germany
- Prior art keywords
- driver
- image
- facial
- biometric
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000001815 facial effect Effects 0.000 claims abstract description 40
- 230000000694 effects Effects 0.000 claims abstract description 12
- 210000003128 head Anatomy 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 19
- 238000013459 approach Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 208000032140 Sleepiness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000007261 regionalization Effects 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
- B60K28/063—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver preventing starting of vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem, wobei mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt werden:a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandenseins des Fahrers anhand des Fahrerbildes,b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch (24) handelt,c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, unde) Erzeugen eines Aktivitätssignals aus der in Schritt d) bestimmten Fahreraufmerksamkeit.Method for detecting the attention of the driver of a motor vehicle and for generating an activity signal for a driver assistance system, the following steps being carried out by means of biometric facial recognition by a facial biometric camera system: a) recording a driver image and determining the presence of the driver based on the driver image, b) Checking whether it is a real driver or an attempt at deception (24), c) extracting facial features of the driver from the driver image if steps a) and b) are positive, d) determining the driver's attention from the extracted features, ande ) Generating an activity signal from the driver attention determined in step d).
Description
Die Erfindung betrifft ein Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Signals für ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1, sowie eine Verwendung des Verfahrens in einem Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 11.The invention relates to a method for detecting the attention of the driver of a motor vehicle and for generating a signal for a driver assistance system according to the preamble of
Bisherige Algorithmen zur Erkennung der Fahreraufmerksamkeit, wie beispielsweise über die Betrachtung der Kopfrotation und den Lidschluss, arbeiten im Wesentlichen basierend auf Modellen. Große Probleme gibt es dabei bei Brillenträgern und Bartträgern, die bisher gegen eine Einführung derartiger Algorithmen im Fahrzeug sprechen. Zusätzlich gewährleisten diese Algorithmen keine Lebend- oder Täuschungs-Erkennung, was auch als Fake-Erkennung bezeichnet wird, die für ein autonomes Assistenzsystem notwendig ist, da sonst ein Missbrauch und damit eine Beeinträchtigung der funktionalen Sicherheit nicht ausgeschlossen werden kann.Previous algorithms for detecting driver attention, such as by looking at head rotation and eyelid closure, essentially work based on models. There are major problems with people who wear glasses and beards, who have so far argued against the introduction of such algorithms in vehicles. In addition, these algorithms do not guarantee live or deceptive detection, which is also referred to as fake detection, which is necessary for an autonomous assistance system, otherwise misuse and thus an impairment of functional safety cannot be ruled out.
Die Druckschrift
Ferner ist aus der
Die Druckschrift
Die Druckschrift
Die Druckschrift
Die Druckschrift
Die Druckschrift
Die Druckschrift
Die Druckschrift
Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung der Fahreraktivität und dessen Verwendung in einem Fahrerassistenzsystem, beispielsweise einem ACC-System mit Stop&Go-Funktionalität (ACC: Adaptive Cruise Control oder automatische Distanzregelung), anzugeben.The invention is therefore based on the object of specifying an improved method for recognizing driver activity and its use in a driver assistance system, for example an ACC system with Stop & Go functionality (ACC: Adaptive Cruise Control or automatic distance control).
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrerassistenzsystem mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method with the features of
Das erfindungsgemäße Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem führt mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durch:
- a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes,
- b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt,
- c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,
- d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und
- e) Erzeugen eines Aktivitätssignal aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
- a) taking a driver image and determining the presence of the driver based on the driver image,
- b) Check whether it is a real driver or an attempt to deceive,
- c) extracting facial features of the driver from the driver image if steps a) and b) are positive,
- d) determining driver attention from the extracted features, and
- e) Generating an activity signal from the driver attention determined in step d).
Vorzugsweise werden zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert, um das Verfahren auf einen definierten Ausgangszustand aufsetzen zu können. Dieser Vorgang läuft vorzugsweise automatisch ab und wird beispielsweise mit dem Entriegeln des Fahrzeugs initiiert, da der Vorgang des Entriegelns zumindest eine teilweise Stromversorgung des Fahrzeugs und eine Aktivierung bzw. Initiierung vorgegebener Fahrerassistenzsysteme bewirkt.Preferably, at the start of the journey, a frontal image of the driver is stored as the initial driver image and its extracted features for comparison purposes in order to be able to set up the method on a defined initial state. This process preferably takes place automatically and is initiated, for example, when the vehicle is unlocked, since the process of unlocking causes at least a partial power supply to the vehicle and an activation or initiation of predetermined driver assistance systems.
Vorzugsweise wird der Schritt a), d.h. das Aufnehmen eines Fahrerbildes und die Bestimmung des Vorhandenseins eines Fahrers, durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt.Preferably, step a), i.e. recording a driver image and determining the presence of a driver, is carried out by determining the facial contour of the driver in the recorded driver image.
Weiter bevorzugt wird Schritt b) des Verfahrens durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt.Step b) of the method is further preferred through a live detection, a deception Connection detection and driver identification are carried out.
Insbesondere kann die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgen. Intrinsische Bewegungen sind beispielsweise Kopf- und/oder Lidbewegungen über einen vorgegebenen Zeitraum.In particular, the live detection can be carried out by continuously checking intrinsic movements of the driver's head and/or the driver's face. Intrinsic movements are, for example, head and/or eyelid movements over a given period of time.
Die Täuschungserkennung kann durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nah-Infrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgen. Die Ergebnisse der Täuschungserkennung können auch zumindest teilweise in die Lebend-Erkennung einfließen.Deception detection can be carried out by checking the distance between the driver's head and the camera, the use of pulsed near-infrared lighting and/or the brightness distribution in the detected driver's face. The results of deception detection can also be at least partially incorporated into liveness detection.
Weiter bevorzugt erfolgt die Fahreridentifizierung anhand des Ähnlichkeitswertes des initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes, was auch als Matchscore bezeichnet wird.More preferably, driver identification is carried out based on the similarity value of the initially stored driver image and the current driver image, which is also referred to as a match score.
Vorzugsweise werden die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert, wobei die Aufzählung nicht abschließend ist. Weitere geeignete Merkmale wie beispielsweise Kopfneigungswinkel oder Mundmerkmale können verwendet werden.The facial features head rotation, head position, X and Y coordinates of the driver's eyes and the degree of eye opening are preferably extracted, although the list is not exhaustive. Other suitable features such as head tilt angle or mouth features can be used.
Zur Bestimmung der Fahreraktivität wird vorzugsweise ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt.To determine the driver activity, a biometric comparison of the extracted current facial features is preferably carried out with the stored facial features of the initial driver image.
Vorzugsweise wird der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad, der offenen Augen entspricht, ergibt.Preferably, the driver is assessed as active and an activity signal is generated if the biometric comparison results in a frontal head direction and a degree of eye opening that corresponds to open eyes.
Das erfindungsgemäße Fahrerassistenzsystem, welches das im Vorangegangenen erläuterte Verfahrens verwendet, umfasst ein gesichtsbiometrisches Kamerasystem, welches den Fahrer insbesondere während der Standzeit des Kraftfahrzeugs im Stau beobachtet und ein Fahrerbild erzeugt, und ein Steuergerät zur Durchführung der biometrischen Gesichtserkennung. Dabei erfolgt vom Fahrerassistenzsystem dann eine fahrerseitige Anfahrfreigabe, wenn folgende Bedingungen erfüllt sind:
- i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen,
- ii) der Lenkradwinkel liegt zwischen +/- 60 Grad,
- iii) die Gesichtskontur im Fahrerbild ist erkannt,
- iv) das Fahrergesicht ist „lebendig“,
- v) der Fahrerkopf ist für eine vorgegebene Zeit t1 frontal ausgerichtet, und
- vi) die Augen des Fahrers sind für eine vorgegebene Zeit t2 offen.
- i) the driver's seat is occupied and the door and belt buckle are closed,
- ii) the steering wheel angle is between +/- 60 degrees,
- iii) the facial contour in the driver's image is recognized,
- iv) the driver's face is "alive",
- v) the driver's head is oriented frontally for a predetermined time t1, and
- vi) the driver's eyes are open for a given time t2.
Als Fahrerassistenzsystems kommen ACC-Fahrerassistenzsysteme mit Stop & Go-Funktionalität oder alle Systeme für autonome oder automatisierte Fahrunterstützung in Betracht, die im stehenden oder fahrenden Zustand Informationen über den Fahrerzustand benötigen.The driver assistance systems that can be considered are ACC driver assistance systems with stop & go functionality or all systems for autonomous or automated driving support that require information about the driver's condition when stationary or moving.
Weiter bevorzugt erfolgt ein Fahrfreigabe für das Kraftfahrzeug dann, wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt. Mit anderen Worten, es erfolgt eine Sensorfusion der fahrerseitigen Freigabe mit Ergebnissen anderer Umfeldsensoren wie beispielsweise Radar, Laser und/oder Außenkamera.Further preferably, a driving release for the motor vehicle occurs when, in addition to the driver's release, the drive is released by further vehicle sensors. In other words, there is a sensor fusion of the driver's release with results from other environmental sensors such as radar, laser and/or external camera.
Die beschriebenen Signale des gesichtsbiometrischen Kamerasystems werden daher neben der klassischen Fahrerpersonalisierung vorrangig für Eingangssignale von Fahrerassistenzsystemen, beispielsweise in einem ACC-Fahrerassistenzsystem, genutzt. Der zusätzliche Vorteil besteht in der Mehrfachnutzung eines Algorithmus auf einem Steuergerät, so dass weitere Softwarevarianten entfallen.In addition to classic driver personalization, the described signals from the facial biometric camera system are therefore primarily used for input signals from driver assistance systems, for example in an ACC driver assistance system. The additional advantage is that an algorithm can be used multiple times on one control unit, meaning that additional software variants are no longer necessary.
Ferner erfolgt nunmehr die Anfahrfreigabe, die derzeit nach einer kurzen Standzeit, beispielsweise in einem Stau, manuell durch eine Betätigung eines Hebels am Lenkstock oder des Beschleunigungspedals, durch die biometrische Gesichtserkennung, wobei zusätzlich mit dem Algorithmus eine sogenannte Lebend- und Täuschungserkennung erfolgt, um beispielsweise das Lesen einer Zeitung im Stau zu detektieren, in welchem Fall keine Anfahrfreigabe erfolgt und damit die funktionale Sicherheit erhöht wird.Furthermore, the start-up release, which is currently after a short standstill, for example in a traffic jam, is now carried out manually by operating a lever on the steering column or the accelerator pedal, through biometric facial recognition, with the algorithm also being used for so-called liveness and deception detection, for example to detect the reading of a newspaper in a traffic jam, in which case there is no start-up clearance and thus functional safety is increased.
Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
-
1 die Komponenten eines ACC-Stop&Go-Fahrerassistenzsystems, -
2 ein biometrischer Erkennungsalgorithmus in schematischer Darstellung, und -
3 ein Ablaufdiagramm der fahrerseitigen Freigabe innerhalb eines ACC-Stop&Go-Fahrerassistenzsystems.
-
1 the components of an ACC Stop&Go driver assistance system, -
2 a biometric recognition algorithm in a schematic representation, and -
3 a flowchart of the driver's release within an ACC Stop&Go driver assistance system.
Die für einen Anfahrentscheidung beteiligten Komponenten des ACC-Fahrerassistenzsystems mit Stop&Go-Funktionalität sind das HMI 1 (HMI: Human-Maschine-Interface) mit den Komponenten Beschleunigungspedal 1a, Lenkstock 1b und Kombiinstrument 1c, der Antrieb 2 mit den Komponenten Gang 2a, Verzögerung 2b und Beschleunigung 2c, die Umfeldsensorik 3 mit den Komponenten Videokamera 3a beispielsweise in der Frontscheibe, Radar 3b für den Fernbereich und Ultraschallsensor 3c für den Nahbereich, das biometrische Erkennungssystem 4 sowie die Anfahrentscheidung 7.The components of the ACC driver assistance system with Stop&Go functionality involved in making a starting decision are the HMI 1 (HMI: human-machine interface) with the
Das biometrische Erkennungssystem 4 umfasst dabei die beiden Bereiche Fahrerparameter 5 sowie die Fahrerbeobachtung 6. Unter Fahrerparameter 5 werden hier vom Fahrer bewirkte bzw. beeinflusste Parameter oder Zustände verstanden, insbesondere die Sitzbelegung 5a mit den Werten „belegt, frei“, den Zustand Gurtschloss 5b mit den Werten „geschlossen oder offen“, den Zustand der Türöffnung 5c mit den Werten „offen oder zu“ sowie den Lenkradwinkel 5d. Im Bereich Fahrerbeobachtung 6 wird mit einer Kamera 6a ein Videobild aufgenommen und in einer Bildverarbeitung 6b verarbeitet. Die extrahierten oder berechneten Signale 6c werden einer Interpretation 6d zugeführt.The
Aus den entsprechenden Signalen der beteiligten Komponenten HMI 1, Antrieb 2, Umfeldsensorik 3, Fahrerparameter 5 und Fahrerbeobachtung 6 werden dann in der Anfahrentscheidung 7 eine Entscheidung getroffen.A decision is then made in the
Das gesichtsbiometrische Kamerasystem, auch abgekürzt als GBKS bezeichnet, der Fahrerbeobachtung 6, bestehend aus den Komponenten Monokamera, zwei Nah-Infrarotbeleuchtungsmodulen und einem Steuergerät mit dem nachfolgend erläuterten biometrischen Algorithmus, beobachtet den Fahrer während der Standzeit des Fahrzeugs. Das Fahrzeug entscheidet nur dann auf automatische Freigabe, wenn folgende Faktoren erfüllt sind:
- - der Fahrersitz ist belegt, Tür und Gurtschloss sind geschlossen,
- - der Lenkradwinkel liegt zwischen -/+60 Grad,
- - das GBKS erkennt Gesichtskontur des Fahrers im Videobild,
- - das GBKS erkennt, dass das Gesicht des Fahrers „lebendig“ ist,
- - das GBKS erkennt, dass der Kopf des Fahrers für eine vorgegebene Zeit t1 frontal ausgerichtet ist, und
- - das GBKS erkennt, dass die Augen des Fahrers für eine vorgegebene Zeit t2 offen sind.
- - the driver's seat is occupied, the door and seatbelt buckle are closed,
- - the steering wheel angle is between -/+60 degrees,
- - the GBKS recognizes the driver's facial contour in the video image,
- - the GBKS recognizes that the driver's face is “alive”,
- - the GBKS detects that the driver's head is oriented frontally for a predetermined time t1, and
- - the GBKS recognizes that the driver's eyes are open for a specified time t2.
Sind alle Parameter erfüllt, erfolgt von Seiten des gesichtsbiometrisches Kamerasystem eine Anfahrfreigabe für das Teilsystem „Fahrer“. Eine endgültige Entscheidung für ACC Stop&Go wird über die Fusion mit anderen Fahrzeugsensoren (Radar, Außenkamera, etc.) getroffen.If all parameters are met, the facial biometric camera system releases the “driver” subsystem to start. A final decision for ACC Stop&Go is made via the merger with other vehicle sensors (radar, external camera, etc.).
Die hier verwendeten Werte des Algorithmus sind:
- - der Match Score, d.h. der Ähnlichkeitswert zwischen einem hinterlegten Frontalbild des Fahrers und dem aktuellen Gesichtbild des Fahrers, dem sogenannten Livebild,
- - die X- und Y-Koordinaten der detektierten Augen des Fahrers aus dem aktuellen Bild
- - der aktuelle Augenöffnungsgrad in Prozent, und
- - die geschätzte Kopfposition aus den geometrischen Verhältnissen im aktuellen Fahrergesicht.
- - the match score, ie the similarity value between a stored frontal image of the driver and the current facial image of the driver, the so-called live image,
- - the X and Y coordinates of the driver's detected eyes from the current image
- - the current degree of eye opening in percent, and
- - the estimated head position from the geometric relationships in the current driver's face.
Dabei sind die X- und Y-Koordinaten der Fahreraugen bezogen beispielsweise auf die jeweilige Augenmitte oder Augenecken, um eine konsistente Koordinatendefinition zu erhalten.The X and Y coordinates of the driver's eyes are based, for example, on the respective eye center or eye corners in order to obtain a consistent coordinate definition.
Zur Erkennung der oben genannten Kopfrotation gelten die folgenden Bedingungen:
- - der Matchscore ist abhängig von der Kopfrotation,
- - Ist der Kopf frontal, d.h. die Kopfrotation ist 0 Grad, dann ist der Match Score maximal (100%), d.h. das aktuelle Bild ist zum gespeicherten initialen Bild absolut ähnlich,
- - dreht der Fahrer den Kopf, dann sinkt der Match Score,
- -
ab etwa 30 Grad hat der Match Score üblicherweise den Wert Null, mit anderen Worten bis zu diesem Winkel ist eine direkte winkel- und sektorenabhängige Erkennung möglich, - - Erkennung der Rotationsrichtung (links/rechts) erfolgt über Symmetrie- und Richtungsberechnung der x- und y-Augenpunkte.
- - the match score depends on the head rotation,
- - If the head is frontal, i.e. the head rotation is 0 degrees, then the match score is maximum (100%), i.e. the current image is absolutely similar to the saved initial image,
- - the driver turns his head, then the match score drops,
- - from around 30 degrees the match score usually has the value zero, in other words up to this angle direct angle and sector-dependent detection is possible,
- - Detection of the direction of rotation (left/right) is carried out by calculating the symmetry and direction of the x and y eye points.
Dabei bedeutet der Wert von 30 Grad nicht die Grenze der Funktionsfähigkeit des Systems, sondern der Wert signalisiert nur, dass der Fahrer nicht mehr frontal schaut. Eine Erkennung des Fahrers funktioniert noch über den Wert mittels der Betrachtung der Historie und eine Prognose ist über den Bereich hinaus möglich.The value of 30 degrees does not mean the limit of the system's functionality, but rather the value only signals that the driver is no longer looking straight ahead. The driver can still be recognized based on the value by looking at the history and a forecast is possible beyond the range.
Im nächsten Schritt 21 werden notwendige Voraussetzungen abgeprüft, nämlich ob der Fahrer im Fahrzeug sitzt, die Türen geschlossen sind, der oder die Sicherheitsgurte angelegt sind, der Sitz belegt ist, das ACC Stop&Go aktiviert ist und das Fahrzeug still im Stau steht.In the
Nachdem die Voraussetzungen des Schrittes 21 erfüllt sind, wird im Schritt 22 ein aktuelles Fahrerbild, das sog. Livebild, aufgenommen. Danach wird im Schritt 23 untersucht, ob eine Gesichtskontur im Livebild vorhanden ist. Ist dies nicht der Fall, welcher mit „N“ gekennzeichnet ist, so geht das System wieder zum Schritt 22 zurück. Ist ein Gesichtskontur erkannt worden so wird im Schritt 24 untersucht, ob eine Täuschung vorliegt. Trifft dies zu, was mit „J“ gekennzeichnet ist, so geht das System zurück zu Schritt 22. Liegt kein Täuschungsversuch vor, was mit „N“ gekennzeichnet ist, so erfolgt im Schritt 25 eine Merkmalsextraktion aus dem aktuellen Fahrerbild.After the requirements of
Im Schritt 26 erfolgt ein biometrischer Vergleich zwischen den im Schritt 25 ermittelten Merkmalen mit den Merkmalen des initialen Bildes des Schritts 20 zur Bestimmung der Kopfrichtung. Fällt dieser Vergleich kleiner aus als ein vorgegebener Grenzwert, so wird im Schritt 27 geschlossen, dass die Kopfrichtung nicht frontal ist (Ausgang „<“) und das System geht zurück zum Schritt 22. Im mit dem Ausgang „≥“ zu erreichenden Schritt 28 wird auf eine frontale Kopfrichtung geschlossen, was bedeutet, dass der Vergleich größer oder gleich einem vorgegebenen Grenzwert ausgefallen ist.In
Anschließend wird im nächsten Schritt 29 der Augenöffnungsgrad geprüft. Ist dieser kleiner als ein vorgegebener Grenzwert, so wird im Schritt 30 die Augen des Fahrers als geschlossen betrachtet und das System geht zurück zu Schritt 22. Ist der Augenöffnungsgrad größer oder gleich dem genannten vorgegebenen Grenzwert, so wird auf geöffnete Augen des Fahrers im Schritt 31 geschlossen. Da der Fahrer eine frontale Kopfposition und geöffnete Augen hat, wird im Schritt 32 die fahrerseitige Fahrfreigabe erteilt.The degree of eye opening is then checked in the
Die im Ablaufdiagramm angesprochenen Schritt 23 und 24 führen eine Unterscheidung zwischen lebendigen Objekten, nämlich dem Fahrer selbst und nicht-lebendigen Objekten,m wie Personen auf Zeitungen, Fotos, Puppen, etc., durch. Diese Unterscheidung ist zwingend notwendig. Daneben muss unterschieden werden, ob es sich um den aktuellen Fahrer oder beispielsweise den Beifahrer handelt.
Die Täuschungs- und Lebend-Erkennung der bevorzugten Ausführungsform arbeitet wie folgt:
- - das gesichtsbiometrische Kamerasystem erwartet den Kopf des Fahrers in einer gewissen Entfernung vor der Kamera , dem sog. Erwartungsraum, womit einfache Foto-Täuschungen ermittelt werden können,
- - der Einsatz von gepulster Nah-Infrarot-Beleuchtung führt zur Aufdeckung von Video-Täuschungen,
- - es wird eine laufende Prüfung intrinsische Bewegungen (Kopf- und Lidbewegungen über einen Zeitraum), was zur Detektion von Abdeckung von Foto- und Puppen-Täuschungen führt,
- - mittels der Überprüfung von Helligkeitsverteilungen im erkannten Gesicht durch Abgleich zwischen bekannten Verläufen sowie Abgleich zwischen Sonnensensorrichtung und Helligkeitsverteilung im Gesicht werden Foto- und Videotäuschungen ermittelt, und
- - eine Unterscheidung zwischen Fahrer und Beifahrer erfolgt über das initial gespeichertes Frontalbild: beugt sich beispielsweise der Beifahrer in die Fahrerzone, dann würde das System einen deutlich geringeren Match Score berechnen und keine Freigabe erteilen, wodurch eine Abdeckung einer absichtlichen Fehlbedienung erreicht wird.
- - the facial biometric camera system expects the driver's head at a certain distance in front of the camera, the so-called expectation space, with which simple photo illusions can be determined,
- - the use of pulsed near-infrared lighting leads to the detection of video deceptions,
- - there will be an ongoing test of intrinsic movements (head and eyelid movements over time), leading to the detection of cover photo and doll illusions,
- - photo and video illusions are determined by checking brightness distributions in the detected face by comparing known curves as well as comparing the direction of the sun sensor and the brightness distribution in the face, and
- - A distinction between driver and front passenger is made via the initially saved frontal image: if, for example, the front passenger leans into the driver's zone, then the system would calculate a significantly lower match score and would not issue a release, thereby covering intentional incorrect operation.
Eine Unterscheidung zwischen Fahrer und Beifahrer kann auch über die unterschiedliche Kopfrotation mittels der Auswertung der X- und Y-Augenpunkte erfolgen.A distinction between driver and front passenger can also be made via the different head rotation by evaluating the X and Y eye points.
BezugszeichenlisteReference symbol list
- 11
- HMI (Mensch-Maschine-InterfaceHMI (Human-Machine Interface
- 1a1a
- BeschleunigungspedalAccelerator pedal
- 1b1b
- Lenkstocksteering column
- 1c1c
- KombiinstrumentInstrument cluster
- 22
- Antriebdrive
- 2a2a
- Gangcorridor
- 2b2 B
- Verzögerungdelay
- 2c2c
- Beschleunigungacceleration
- 33
- UmfeldsensorikEnvironmental sensors
- 3a3a
- Videokamera FrontscheibeVideo camera front window
- 3b3b
- Radar (Fernbereich)Radar (long range)
- 3c3c
- Ultraschall (Nahbereich)Ultrasound (close range)
- 44
- Biometrisches ErkennungssystemBiometric recognition system
- 55
- FahrerparameterDriver parameters
- 5a5a
- SitzbelegungSeat occupancy
- 5b5b
- Zustand GurtschlossCondition of the belt buckle
- 5c5c
- Zustand TüröffnungState of door opening
- 5d5d
- LenkradwinkelSteering wheel angle
- 66
- FahrerbeobachtungDriver observation
- 6a6a
- Kameracamera
- 6b6b
- BildverarbeitungImage processing
- 6c6c
- extrahierte Signaleextracted signals
- 6d6d
- Interpretationinterpretation
- 77
- Anfahrentscheidung Approach decision
- 1111
- InnenraumkameraInterior camera
- 1212
- SteuergerätControl unit
- 1313
- GesichtssucheFace search
- 1414
- AugenfinderEyefinder
- 1515
- BildqualitätsprüfungImage quality check
- 1616
- GesichtsnormalisierungFacial normalization
- 1717
- VorbereitungPreparation
- 1818
- MerkmalsextraktionFeature extraction
- 1919
- MusterbildungPattern formation
- 2020
- Speicherung Frontalbild und Merkmalsextraktion aktueller FahrerStorage of frontal image and feature extraction of current drivers
- 2121
- Voraussetzungenrequirements
- 2222
- LivebildLive image
- 2323
- Gesichtskontur vorhandenFacial contour present
- 2424
- TäuschungsversuchAttempted deception
- 2525
- Merkmalsextraktion aus LivebildFeature extraction from live image
- 2626
- Biometrischer VergleichBiometric comparison
- 2727
- Kopfrichtung nicht frontalHead direction not frontal
- 2828
- Kopfrichtung frontalHead direction frontal
- 2929
- Augenöffnungsgraddegree of eye opening
- 3030
- Augen geschlosseneyes closed
- 3131
- Augen offenEyes open
- 3232
- FreigabeRelease
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011011221.9A DE102011011221B4 (en) | 2010-12-30 | 2011-02-15 | Method for detecting the attention of the driver of a motor vehicle |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010056483 | 2010-12-30 | ||
DE102010056483.4 | 2010-12-30 | ||
DE102011011221.9A DE102011011221B4 (en) | 2010-12-30 | 2011-02-15 | Method for detecting the attention of the driver of a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102011011221A1 DE102011011221A1 (en) | 2012-07-05 |
DE102011011221B4 true DE102011011221B4 (en) | 2023-11-02 |
Family
ID=46509326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011011221.9A Active DE102011011221B4 (en) | 2010-12-30 | 2011-02-15 | Method for detecting the attention of the driver of a motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011011221B4 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103661095B (en) * | 2012-09-11 | 2015-12-02 | 财团法人车辆研究测试中心 | The detecting system of driving condition |
US9351019B2 (en) | 2012-12-27 | 2016-05-24 | Automotive Research & Testing Center | System for detecting vehicle driving state |
DE102017103391A1 (en) | 2017-02-20 | 2018-08-23 | Deutsche Telekom Ag | Method for improving the user-friendliness of a vehicle |
DE102018209440A1 (en) * | 2018-06-13 | 2019-12-19 | Bayerische Motoren Werke Aktiengesellschaft | Methods for influencing systems for attention monitoring |
DE102021208998B4 (en) | 2021-08-17 | 2023-11-30 | Zf Friedrichshafen Ag | Method for operating a vehicle with a driver assistance system |
DE102021208997A1 (en) | 2021-08-17 | 2023-02-23 | Zf Friedrichshafen Ag | Method for operating a driver assistance system |
CN115063966B (en) * | 2022-05-31 | 2024-01-26 | 河南越秀尉许高速公路有限公司 | Expressway construction area early warning system and method for ACC following vehicle running |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19621435A1 (en) | 1995-06-02 | 1996-12-05 | Siemens Corp Res Inc | Method and apparatus for monitoring eyes for the detection of a sleepy state |
DE19936271A1 (en) | 1999-07-31 | 2001-03-15 | Bosch Gmbh Robert | Device for user-specific vehicle approval |
DE10024227A1 (en) | 2000-05-17 | 2001-12-13 | Volkswagen Ag | Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter |
DE102004005163B3 (en) | 2004-02-02 | 2005-06-02 | Braun, Uwe Peter, Dipl.-Ing. | Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction |
DE10360176A1 (en) | 2003-12-20 | 2005-07-21 | Volkswagen Ag | Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving |
DE102004044772A1 (en) | 2004-09-16 | 2006-04-06 | Bayerische Motoren Werke Ag | Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database |
DE102007023140A1 (en) | 2007-05-16 | 2008-10-02 | Audi Ag | Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system |
DE102008031697A1 (en) | 2008-07-04 | 2010-01-07 | Bayerische Motoren Werke Aktiengesellschaft | Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object |
-
2011
- 2011-02-15 DE DE102011011221.9A patent/DE102011011221B4/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19621435A1 (en) | 1995-06-02 | 1996-12-05 | Siemens Corp Res Inc | Method and apparatus for monitoring eyes for the detection of a sleepy state |
DE19936271A1 (en) | 1999-07-31 | 2001-03-15 | Bosch Gmbh Robert | Device for user-specific vehicle approval |
DE10024227A1 (en) | 2000-05-17 | 2001-12-13 | Volkswagen Ag | Electronic monitoring of vehicle driver attention involves using ADR regulated automatically controlled traffic column or jam driving mode as additional attention parameter |
DE10360176A1 (en) | 2003-12-20 | 2005-07-21 | Volkswagen Ag | Optical monitoring system observing vehicle drivers eyes e.g. for signs of tiredness, is positioned to avoid obstruction to beam path during driving |
DE102004005163B3 (en) | 2004-02-02 | 2005-06-02 | Braun, Uwe Peter, Dipl.-Ing. | Alertness detection device for vehicle driver using intermittent illumination of eye and evaluation of pupil reaction |
DE102004044772A1 (en) | 2004-09-16 | 2006-04-06 | Bayerische Motoren Werke Ag | Image-based driver identification database designing method for motor vehicle, involves activating recording of driver`s face images if actual recording angle reaches preset value, and storing images with angle relative to value in database |
DE102007023140A1 (en) | 2007-05-16 | 2008-10-02 | Audi Ag | Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system |
DE102008031697A1 (en) | 2008-07-04 | 2010-01-07 | Bayerische Motoren Werke Aktiengesellschaft | Object identification i.e. person's biometric identification, device for e.g. motor vehicle, has evaluation unit arranged in operating mode to analyze and close contour with respect to course of contour based on existence of object |
Also Published As
Publication number | Publication date |
---|---|
DE102011011221A1 (en) | 2012-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011011221B4 (en) | Method for detecting the attention of the driver of a motor vehicle | |
DE102018207977B4 (en) | Interior monitoring for seat belt adjustment | |
DE102008019731B4 (en) | Method and device for driver-passenger differentiation | |
EP3248179B1 (en) | Method and apparatus for recognising microsleep in a driver of a vehicle | |
DE102007023140A1 (en) | Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system | |
DE112017007252T5 (en) | DRIVER MONITORING DEVICE, DRIVER MONITORING METHOD, LEARNING DEVICE AND LEARNING METHOD | |
DE102017211005A1 (en) | DRIVER STATE MONITORING USING CORNEAL REFLECTIONS | |
DE102019109505A1 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
DE102014201036A1 (en) | Image-based classification of driver status and / or driver behavior | |
EP2543561B1 (en) | Method and system for checking the driving authorisation for a vehicle | |
DE112017007258T5 (en) | DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL | |
DE102015001686B4 (en) | Method and device for detecting a driver's responsiveness in automated driving | |
WO2012156228A1 (en) | Method and apparatus for identifying a possible collision object | |
DE112018007454T5 (en) | Occupant condition determination device, warning output control device, and occupant condition determination method | |
DE102020117555A1 (en) | METHOD AND DEVICE FOR INTRIBUTOR CLASSIFICATION | |
WO2003107259A1 (en) | Method for detecting a person in a space | |
DE112020006871T5 (en) | Cabin interior detection device and cabin interior detection method | |
DE102018100650A1 (en) | A method for collision avoidance for a motor vehicle with a driving support system | |
DE102017103391A1 (en) | Method for improving the user-friendliness of a vehicle | |
DE102018206237A1 (en) | Method and device for detecting fatigue of a person | |
DE102020204362A1 (en) | Method for evaluating a gesture by a vehicle occupant in an interior space of a vehicle, a method for illuminating an object and a lighting system | |
DE102020215652A1 (en) | VEHICLE IMAGE PROCESSING SYSTEM | |
DE102020214713A1 (en) | Method of distinguishing a real person from a surrogate | |
DE102008031697B4 (en) | Device and method for object identification | |
DE102019215691A1 (en) | Method and device for detecting the status of a vehicle occupant |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |