DE102014100352A1 - Fahrerblickdetektionssystem - Google Patents

Fahrerblickdetektionssystem Download PDF

Info

Publication number
DE102014100352A1
DE102014100352A1 DE201410100352 DE102014100352A DE102014100352A1 DE 102014100352 A1 DE102014100352 A1 DE 102014100352A1 DE 201410100352 DE201410100352 DE 201410100352 DE 102014100352 A DE102014100352 A DE 102014100352A DE 102014100352 A1 DE102014100352 A1 DE 102014100352A1
Authority
DE
Germany
Prior art keywords
driver
eye
eyeball
location
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201410100352
Other languages
English (en)
Other versions
DE102014100352B4 (de
Inventor
Wende Zhang
Dan Levi
Debbie E. Nachtegall
Fernando De La Torre
Dong Huang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
GM Global Technology Operations LLC
Original Assignee
Carnegie Mellon University
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/041,016 external-priority patent/US9405982B2/en
Application filed by Carnegie Mellon University, GM Global Technology Operations LLC filed Critical Carnegie Mellon University
Publication of DE102014100352A1 publication Critical patent/DE102014100352A1/de
Application granted granted Critical
Publication of DE102014100352B4 publication Critical patent/DE102014100352B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Abstract

Ein Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen auf der Basis einer abgeschätzten Blickrichtung eines Fahrers eines Fahrzeugs umfasst das Überwachen von Gesichtsmerkmalspunkten des Fahrers innerhalb Bildeingangsdaten, die von einer fahrzeuginternen Kameravorrichtung aufgenommen werden. Ein Ort für jedes von mehreren Augenmerkmalen für einen Augapfel des Fahrers wird auf der Basis der überwachten Gesichtsmerkmale detektiert. Eine Kopfhaltung des Fahrers wird auf der Basis der überwachten Gesichtsmerkmalspunkte abgeschätzt. Die Blickrichtung des Fahrers wird auf der Basis des detektierten Orts für jedes der mehreren Augenmerkmale und der abgeschätzten Kopfhaltung abgeschätzt.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Nutzen der vorläufigen US-Anmeldung Nr. 61/754,134, eingereicht am 18. Januar 2013, die durch Bezugnahme vollständig mit aufgenommen ist.
  • TECHNISCHES GEBIET
  • Diese Offenbarung bezieht sich auf das Abschätzen einer Blickrichtung eines Fahrers in Echtzeit.
  • HINTERGRUND
  • Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen in Bezug auf die vorliegende Offenbarung dar. Folglich sollen solche Aussagen keine Anerkenntnis von Standes d Technik darstellen.
  • Fahrzeuge mit der Fähigkeit, einen Fahrer eines Fahrzeugs zu überwachen und zu detektieren, dass der Fahrer der Straßenszene keine Aufmerksamkeit schenkt, ermöglichen, dass Maßnahmen getroffen werden, um eine Fahrzeugkollision aufgrund dessen, dass der Fahrer nicht achtgibt, zu verhindern. Warnsysteme können beispielsweise aktiviert werden, um den Fahrer zu warnen, dass er nicht achtgibt. Ferner können automatische Brems- und automatische Lenksysteme aktiviert werden, um das Fahrzeug zu einem Stillstand zu bringen, wenn festgestellt wird, dass der Fahrer nicht aufmerksam wurde, selbst nachdem er gewarnt wurde.
  • Es ist bekannt, Fahrerüberwachungs-Kameravorrichtungen zu verwenden, die dazu konfiguriert sind, einen Fahrer zu überwachen und eine Bedingung mit von der Straße abgewandten Augen (EOR) zu detektieren, die darauf hinweist, dass die Augen des Fahrers sich nicht auf der Straße befinden. Die Echtzeitblickverfolgung, die eine Kombination einer Kopfhaltung und einer Augenblickrichtung umfasst, ist jedoch in der Fahrzeugumgebung anspruchsvoll aufgrund von (1) unterschiedlichen Größen- und Gesichtsmerkmalen von Fahrern, was es schwierig macht, eine Kameravorrichtung für die Kopfhaltung und Blickrichtung zu kalibrieren, (2) unbekannten Beleuchtungsbedingungen, die zu einer unzuverlässigen Detektion der Gesichtsmerkmale führen, und (3) abrupten Änderungen der Kopfhaltung des Fahrers, die in Videoströmen, die in Bilddaten enthalten sind, die durch die Kameravorrichtung aufgenommen werden, schwierig zu verfolgen ist.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen auf der Basis einer abgeschätzten Blickrichtung eines Fahrers eines Fahrzeugs umfasst das Überwachen von Gesichtsmerkmalspunkten des Fahrers innerhalb Bildeingangsdaten, die von einer fahrzeuginternen Kameravorrichtung aufgenommen werden. Ein Ort für jedes von mehreren Augenmerkmalen für einen Augapfel des Fahrers wird auf der Basis der überwachten Gesichtsmerkmale detektiert. Eine Kopfhaltung des Fahrers wird auf der Basis der überwachten Gesichtsmerkmalspunkte abgeschätzt. Die Blickrichtung des Fahrers wird auf der Basis des detektierten Orts für jedes der mehreren Augenmerkmale und der abgeschätzten Kopfhaltung abgeschätzt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Eine oder mehrere Ausführungsformen werden nun beispielhaft mit Bezug auf die begleitenden Zeichnungen beschrieben, in denen:
  • 1 eine beispielhafte nicht begrenzende Ansicht eines Fahrers und von Komponenten eines Fahrerblickverfolgungssystems innerhalb eines Fahrzeugs gemäß der vorliegenden Offenbarung darstellt;
  • 2 ein Diagramm des Fahrerblickverfolgungssystems von 1 gemäß der vorliegenden Offenbarung darstellt;
  • 3 ein beispielhaftes System zur Detektion der von der Straße abgewandten Augen, das in Verbindung mit dem Fahrerblickverfolgungssystem von 1 und 2 verwendet wird, gemäß der vorliegenden Offenbarung darstellt;
  • 4 einen beispielhaften Ablaufplan zur Verwendung eines Unterstützungsvektormaschinen-Klassifikators (SVM-Klassifikators), um einen Ort für jedes von mehreren Augenmerkmalen eines Augapfels zu detektieren, gemäß der vorliegenden Offenbarung darstellt;
  • 5 einen beispielhaften Ablaufplan, der in Verbindung mit dem beispielhaften Ablaufplan von 4 verwendet wird, zum Detektieren und Verfolgen eines Orts für jedes der mehreren Augenmerkmale des Augapfels gemäß der vorliegenden Offenbarung darstellt;
  • 6 eine beispielhafte Ausführungsform zum Trainieren von Unterräumen unter Verwendung von überwachtem lokalem Unterraumlernen, das durch den Block 112 von 3 ausgeführt wird, gemäß der vorliegenden Offenbarung darstellt;
  • 7 eine beispielhafte Ausführungsform einer Kopfhaltungsabschätzung, die durch den Block 112 von 3 unter Verwendung der trainierten Unterräume von 6 ausgeführt wird, gemäß der vorliegenden Offenbarung darstellt;
  • 8 ein geometrisches Modell des Fahrerblickverfolgungssystems 200 von 2 in Bezug auf detektierte und verfolgte Orte für jedes der mehreren Augenmerkmale, das durch den Block 110 von 3 ausgeführt wird, und die Kopfhaltungsabschätzung, die durch den Block 112 von 3 ausgeführt wird, gemäß der vorliegenden Offenbarung darstellt;
  • 9-1 und 9-2 anatomische Einschränkungen des geometrischen Modells von 8 zum Abschätzen der Blickrichtung des Fahrers gemäß der vorliegenden Offenbarung darstellen; und
  • 10 ein geometrisches Modell zum Bestimmen eines Nickwinkels, der eine Höhe eines Kopfs des Fahrers in Bezug auf die monokulare Kameravorrichtung von 1 beschreibt, gemäß der vorliegenden Offenbarung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In den Zeichnungen, in denen die Darstellungen nur zum Zweck der Erläuterung von bestimmten beispielhaften Ausführungsformen und nicht zum Zweck der Begrenzung derselben dienen, stellt 1 eine beispielhafte Ansicht eines Fahrers und von Komponenten eines Fahrerblickverfolgungssystems innerhalb eines Fahrzeugs gemäß der vorliegenden Offenbarung dar. Das Fahrerblickverfolgungssystem umfasst eine fahrzeuginterne monokulare Kameravorrichtung 10, die dazu konfiguriert ist, Bilddaten in einem Blickfeld (FOV), das in Richtung des Fahrers gerichtet ist, aufzunehmen. Die aufgenommenen Bilddaten umfassen Videoströme, die mehrere Einzelbilder, die der Reihe nach aufgenommen werden, umfassen. Die Kameravorrichtung 10 ist in der Lage, Licht oder eine andere Strahlung zu empfangen und die Lichtenergie in elektrische Signale in einem Pixelformat beispielsweise unter Verwendung von einem von Sensoren einer ladungsgekoppelten Vorrichtung (CCD) oder Sensoren eines komplementären Metalloxid-Halbleiters (CMOS) umzusetzen. Die Kameravorrichtung 10 steht mit einer nichtflüchtigen Verarbeitungsvorrichtung (d. h. Prozessor 20 von 2) in Signalkommunikation, die dazu konfiguriert ist, die aufgenommenen Bilddaten zu empfangen und eine kontinuierliche Abschätzung der Blickrichtung des Fahrers in Echtzeit auszugeben. Der Prozessor kann innerhalb irgendeines geeigneten Raums des Fahrzeugs implementiert werden, so dass Bildeingangsdaten, die durch die Kameravorrichtung 10 aufgenommen werden, empfangen werden können. Die Kameravorrichtung 10 ist innerhalb eines Innenraums des Fahrzeugs angebracht. In einer Ausführungsform ist die Kameravorrichtung 10 an einem Fahrzeugarmaturenbrett über einer Lenkradsäule angebracht, um Abschätzungen der Fahrerblicknickwinkel zu erleichtern, so dass Detektionen dessen, wann ein Fahrer simst, mit größerer Recheneffizienz erhalten werden können. Das Fahrerblickverfolgungssystem umfasst ferner eine Infrarotbeleuchtungsvorrichtung 12, die dazu konfiguriert ist, Infrarotlicht in einer Richtung zum Fahrer hin zu projizieren, so dass ein klares Bild des Gesichts des Fahrers durch die Kameravorrichtung 10 während lichtarmen Bedingungen wie z. B. während der Nachtzeit erhalten wird. Im Gegensatz zur Verwendung einer direkten Lichtquelle wirkt sich das Infrarotlicht nicht auf die Sicht des Fahrers aus. Überdies leiden aufgenommene Bilddaten nicht unter einer ”hellen Pupille”, die erzeugt wird, wenn Nahinfrarotlichtquellen verwendet werden.
  • In einer Ausführungsform umfasst die Kameravorrichtung kein Infrarotfilter, das Infrarotlicht jenseits vorbestimmter Wellenlängen blockiert.
  • Steuermodul, Modul, Steuerung, Controller, Steuereinheit, Prozessor und ähnliche Begriffe bedeuten irgendeine oder verschiedene Kombinationen von einer oder mehreren von anwendungsspezifischen integrierten Schaltung(en) (ASIC), einer oder mehreren elektronischen Schaltungen, einer oder mehreren Zentraleinheiten (vorzugsweise Mikroprozessor(en)) und eines zugehörigen Speichers und einer Ablage (Festwert-, programmierbarer Festwert-, Direktzugriffsspeicher, Festplatte usw.), die ein oder mehrere Software- oder Firmwareprogramme oder -routinen ausführen, einer oder mehreren kombinatorischen Logikschaltungen, Eingabe/Ausgabe-Schaltung(en) und -Vorrichtungen, einer geeigneten Signalaufbereitungs- und Pufferschaltungsanordnung, und andere Komponenten, um die beschriebene Funktionalität bereitzustellen. Software, Firmware, Programme, Befehle, Routinen, Code, Algorithmen und ähnliche Begriffe bedeuten beliebige Befehlssätze, einschließlich Kalibrierungen und Nachschlagetabellen. Das Steuermodul weist einen Satz von Steuerroutinen auf, die ausgeführt werden, um die gewünschten Funktionen bereitzustellen. Routinen werden ausgeführt, wie z. B. durch eine Zentraleinheit, und sind betriebsfähig, um Eingaben von Erfassungsvorrichtungen und anderen vernetzten Steuermodulen zu überwachen, und Steuer- und Diagnoseroutinen auszuführen, um den Betrieb von Aktuatoren zu steuern. Die Routinen können in regelmäßigen Intervallen, beispielsweise alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden, während des laufenden Kraftmaschinen- und Fahrzeugbetriebs ausgeführt werden. Alternativ können Routinen in Ansprechen auf das Auftreten eines Ereignisses ausgeführt werden.
  • Ausführungsformen sind hier auf das Abschätzen einer Blickrichtung des Fahrers in Echtzeit auf der Basis von Bildeingangsdaten, die von der Kameravorrichtung 10 aufgenommen und durch den Prozessor 20 verarbeitet werden, gerichtet. In der dargestellten Ausführungsform von 1 sind abgeschätzte Blickrichtungen 90, 90' dargestellt. Aus jeder der Blickrichtungen kann ein Blickort des Fahrers identifiziert werden. Wie hier verwendet, beschreibt der Begriff ”Blickort” einen Punkt, an dem die abgeschätzte Blickrichtung eine Windschutzscheibenebene des Fahrzeugs schneidet. Die Blickorte, die jeweiligen der abgeschätzten Blickrichtungen 90, 90' entsprechen, können mit einer Straßenebene 50 innerhalb der Windschutzscheibenebene verglichen werden, um festzustellen, ob eine Bedingung mit von der Straße abgewandten Augen detektiert werden kann oder nicht. Der Blickort, der der abgeschätzten Blickrichtung 90 entspricht, liegt beispielsweise innerhalb der Straßenebene 50, was darauf hinweist, dass die Augen des Fahrers, d. h. die Blickrichtung, auf einer Straßenszene vor dem Fahrzeug liegen. Im Gegensatz dazu liegt der Blickort, der der abgeschätzten Blickrichtung 90' entspricht, außerhalb der Straßenebene 50, was zur Detektion der Bedingung mit von der Straße abgewandten Augen führt. Wenn die Bedingung mit von der Straße abgewandten Augen detektiert wird, können ein Alarm oder andere Maßnahmen getroffen werden, um die Aufmerksamkeit des Fahrers zu erlangen, so dass der Fahrer seine Augen wieder auf der Straßenszene hält.
  • 2 stellt ein Diagramm des Fahrerblickverfolgungssystems 200 von 1 gemäß der vorliegenden Offenbarung dar. Die Komponenten des Fahrerblickverfolgungssystems 200 umfassen die monokulare Kameravorrichtung 10 und die Verarbeitungsvorrichtung 20. Die Verarbeitungsvorrichtung 20 umfasst ein Detektions- und Verfolgungsmodul 22, ein Kopfhaltungsabschätzmodul 24 und ein Blickrichtungsabschätzmodul 26.
  • Das Detektions- und Verfolgungsmodul 22 überwacht Gesichtsmerkmalspunkte des Fahrers innerhalb Bildeingangsdaten, die von der fahrzeuginternen Vorrichtung aufgenommen werden. Insbesondere werden die Gesichtsmerkmalspunkte im Anschluss an das Detektieren eines Gesichts des Fahrers extrahiert. Wie hier verwendet, kann der Begriff ”Gesichtsmerkmalspunkte” Punkte, die Augen-, Nasen- und Mundbereiche umgeben, sowie Punkte, die konturierte Abschnitte des detektierten Gesichts des Fahrers umreißen, umfassen. Auf der Basis der überwachten Gesichtsmerkmalspunkte können anfängliche Orte für jedes von mehreren Augenmerkmalen eines Augapfels des Fahrers detektiert werden. Wie hier verwendet, umfassen die Augenmerkmale eine Iris und einen ersten und einen zweiten Augenwinkel des Augapfels. Folglich umfasst das Detektieren des Orts für jedes der mehreren Augenmerkmale das Detektieren eines Orts einer Iris, das Detektieren eines Orts für den ersten Augenwinkel und das Detektieren eines Orts für einen zweiten Augenwinkel. Der erste Augenwinkel gibt einen inneren Augenwinkel nahe einer Nasenwurzel an und der zweite Augenwinkel gibt einen äußeren Augenwinkel an. In einer Ausführungsform stellt das Detektions- und Verfolgungsmodul 22 das Gesichtsverfolgungsverhalten für hellhäutige Leute ein. Im Allgemeinen ist ein Vertrauenswert für ein detektiertes Gesicht bei hellhäutigen Leuten niedrig. Eine Lösung besteht darin, intensiv zu suchen, wobei ein Schwellenwert der Verfolgungseinrichtung an einigen Stellen des Bildes geändert wird.
  • Das Kopfhaltungsabschätzmodul 24 verwendet ferner die überwachten Gesichtsmerkmale, um eine Kopfhaltung des Fahrers abzuschätzen. Wie hier verwendet, beschreibt der Begriff ”Kopfhaltung” einen Winkel bezüglich der relativen Orientierung des Kopfs des Fahrers in Bezug auf eine Kameraebene der Kameravorrichtung. In einer Ausführungsform umfasst die Kopfhaltung Gier- und Nickwinkel des Kopfs des Fahrers in Bezug auf die Kameraebene. In einer anderen Ausführungsform umfasst die Kopfhaltung Gier-, Nick- und Rollwinkel des Kopfs des Fahrers in Bezug auf die Kameraebene. In einer Ausführungsform kann die Kopfhaltung von –90 Grad bis 90 Grad mit 15 Hz verfolgt werden.
  • Das Blickrichtungsabschätzmodul 26 schätzt die Blickrichtung (und den Blickwinkel) des Fahrers in einem geometrischen Modell auf der Basis der abgeschätzten Kopfhaltung und der detektierten Orte für jede der Iris und des ersten und des zweiten Augenwinkels ab. Es ist zu erkennen, dass unter plötzlichen Änderungen der Kopfhaltung und Beleuchtung eine Fähigkeit zum Verfolgen von Gesichtsmerkmalspunkten vorübergehend verloren gehen kann. In diesem Fall kann ein Neuinitialisierungsmechanismus entwickelt werden, um die Augenwinkel und die Iris wieder aufzufinden. Während das Fahrerblickverfolgungssystem 200 hauptsächlich zum Abschätzen einer Blickrichtung in Echtzeit verwendet wird, kann das System erweitert werden, um andere Ablenkungen (z. B. Müdigkeit, Benommenheit, Reden am Telefon, Essen und Rauchen) zu klassifizieren, um Fahreremotionen zu erkennen und andere Informationen des Fahrers wieder zu sammeln (z. B. Geschlecht, Alter, Blinzelrate, zeitliche Blickrichtungsveränderung).
  • In einer Ausführungsform wird das Fahrerblickverfolgungssystem 200 in einem vollautomatischen Prozess kalibriert, der Informationen vom Fahrer, einschließlich Größe, innerer Augenabstand und Sitzpositionierung, verwendet, um Kopfhaltungsabschätzungen und Blickrichtungsabschätzungen, die für den Fahrer spezifisch sind, einzustellen. Diese automatische Kalibrierung wird während ersten vorbestimmten mehreren Einzelbildern im Anschluss an ein Schlüsseleinschaltereignis des Fahrzeugs durch den Fahrer durchgeführt. In einem nicht begrenzenden Beispiel umfassen die vorbestimmten mehreren Einzelbilder 50 Einzelbilder und verwenden nur die Detektion eines vorderen Gesichts des Fahrers. Der innere Augenabstand des Fahrers beschreibt einen Abstand zwischen einem Zentrum jedes Augapfels des Fahrers, so dass eine Proportion des Kopfs des Fahrers bestimmt wird. Überdies kann die Kameravorrichtung 10 kalibriert werden, um einen Abstand von der Kameravorrichtung 10 zum Fahrer abzuschätzen, so dass eine Verlagerung eines Blicks des Fahrers von der Kameravorrichtung berechnet werden kann. Danach kann die Größe des Fahrers auf der Basis der Verlagerung des Blicks bestimmt werden. Der automatische Kalibrierungsprozess erzeugt ferner eine Beeinflussung, um die abgeschätzte Kopfhaltung und den abgeschätzten Blickort des Fahrers auf der Basis der bestimmten Größe und Proportion des Kopfs des Fahrers einzustellen.
  • 3 stellt ein beispielhaftes System zur Detektion 100 der von der Straße abgewandten Augen (EOTR), das in Verbindung mit dem Fahrerblickverfolgungssystem von 1 und 2 verwendet wird, zum Detektieren der EOTR-Bedingung gemäß der vorliegenden Offenbarung dar. Das EOTR-Detektionssystem 100 kann durch den nichtflüchtigen Prozessor 20 ausgeführt werden. Mit Bezug auf den Block 102 wird das Fahrergesicht aus Eingangsbilddaten, die von der monokularen Kameravorrichtung aufgenommen werden, detektiert. Die Gesichtsdetektion wird im Detektions- und Verfolgungsmodul 22 ausgeführt. Das Gesicht des Fahrers kann unter Verwendung eines Gesichtsdetektors der Open-Source-Computersicht (Open-CV) detektiert werden. Der Open-CV-Gesichtsdetektor kann sowohl einen Frontalgesichtsdetektor als auch einen Profilgesichtsdetektor umfassen.
  • Im Block 104 ist ein Bild eines detektierten Gesichts dargestellt. Unter Verwendung eines aktiven Erscheinungsbildmodells (AAM) können mehrere Gesichtsmerkmalspunkte 107111 detektiert und vom detektierten Gesicht extrahiert und dann überwacht werden. Die Gesichtsmerkmalspunkte werden durch das Detektions- und Verfolgungsmodul extrahiert. In einem nicht begrenzenden Beispiel detektiert und extrahiert 66 das AAM Gesichtsmerkmalspunkte. In einer Ausführungsform werden die Gesichtsmerkmalspunkte aus dem detektierten Gesicht für ein erstes Einzelbild extrahiert. Für jedes aufeinander folgende Einzelbild im Anschluss an das erste Einzelbild wird ein Kandidatenbereich 105 identifiziert, der die Gesichtsmerkmalspunkte umgibt, die aus einem oder mehreren vorherigen Eingangsbildern extrahiert wurden. Die Gesichtsmerkmalspunkte können nur innerhalb des Kandidatenbereichs 105 innerhalb jedes der aufeinander folgenden Einzelbilder identifiziert werden, so dass die Verarbeitungszeit verkürzt wird, da das Gesicht des Fahrers nicht in jedem Einzelbild detektiert werden muss. In der dargestellten Ausführungsform umfassen die mehreren Gesichtsmerkmalspunkte Merkmalspunkte nahe den Augen 107 des Fahrers, Gesichtsmerkmalspunkte nahe der Nase und dem Mund 109 des Fahrers und Gesichtsmerkmalspunkte an der Kontur 111 des Gesichts des Fahrers.
  • Im Block 110 wird ein Ort für jedes der mehreren Augenmerkmale für den Augapfel des Fahrers auf der Basis der überwachten Gesichtsmerkmalspunkte des Blocks 104 detektiert. Insbesondere wird ein Ort für die Iris detektiert, ein Ort für den ersten Augenwinkel wird detektiert und ein Ort für den zweiten Augenwinkel wird detektiert.
  • Beispielhafte Ausführungsformen sind auf Gesichtsmerkmalsdetektions- und -verfolgungsroutinen gerichtet, die durch das Detektions- und Verfolgungsmodul zum Detektieren des Orts für jedes der mehreren Augenelemente in aufeinander folgenden Einzelbildern ausgeführt werden. Im Allgemeinen ist das Auffinden der Iris und der Augenwinkel eine sehr schwierige Aufgabe für Kameras mit niedriger Auflösung. Mit Bezug auf 4 ist ein beispielhafter nicht begrenzender Ablaufplan 500 zur Verwendung eines Unterstützungsvektormaschinen-Klassifikators (SVM-Klassifikators) zum Detektieren eines Orts für jedes der mehreren Augenmerkmale gemäß der vorliegenden Offenbarung dargestellt. Die dargestellte Ausführungsform wird mit Bezug auf das Detektieren des Orts der Iris beschrieben; der Ablaufplan 500 wird jedoch gleichermaßen zum Detektieren des Orts von jedem des ersten und des zweiten Augenwinkels angewendet. Der Ablaufplan 500 umfasst einen Trainingszustand 610 und einen Testzustand 614. Während des Trainingszustandes 610 bringt der Block 620 mehrere Bildfelder um eine abgetastete Referenziris auf, die aus einer Datenbank erhalten wird. Im Block 622 kann ein Histogramm von orientierten Gradienten (HOG) von den mehreren Bildfeldern auf der Basis einer Verteilung von Intensitätsgradienten oder Kantenorientierungen für Pixel innerhalb jedes Feldes erhalten werden. Der Block 624 überwacht positive Abtastwerte, die durch das HOG angegeben werden, die Bildfelder angeben, die auf der Iris zentriert sind, und überwacht negative Abtastwerte, die Bildfelder angeben, die nicht von Bereichen der Iris stammen. Folglich können ein oder mehrere der zugewiesenen Bildfelder durch den SVM-Klassifikator als um die Iris zentriert im Block 624 identifiziert werden. Während des Testzustandes 614 ist das Anwenden des SVM-Klassifikators über ein ganzes Bild sowohl ineffizient als auch fehleranfällig. Stattdessen wird ein Testbild im Block 616 überwacht. In einer Ausführungsform umfasst das Testbild ein Bild des Gesichts des Fahrers, das durch die monokulare Kameravorrichtung 10 von 1 aufgenommen wurde. Eine Vertrauensabbildung wird auf das Testbild im Block 618 angewendet. Der Block 626 wählt ein oder mehrere Kandidatenpixel, die den Irisort angeben, unter Verwendung von zwei statistischen Vorrängen auf der Basis einer Amplitude der Intensität und einer detektierten Kantenstärke aus. Diese statistischen Vorränge basieren auf der Statistik von mehreren beobachteten Personengesichtern und sind in einer Datenbank gespeichert. Im Block 628 wird ein Vertrauenspunktwert für jedes Kandidatenpixel auf der Basis einer gewichteten Summe der zwei statistischen Vorränge gemäß der folgenden Beziehung berechnet. Sconfidence = α·Sintensity + (1 – α)·Sedge [1] wobei
  • Sconfidence
    den Vertrauenspunktwert darstellt,
    α
    eine Vertrauensvariable darstellt,
    Sintensity
    die Amplitude der Intensität darstellt, und
    Sedge
    die Kantenstärke darstellt.
  • Im Allgemeinen deuten Kandidatenpixel mit Amplituden der Intensität von weniger als einem Intensitätsschwellenwert auf das Iriszentrum hin und Kandidatenpixel mit detektierten Kantenstärken, die größer sind als ein Kantenstärkenschwellenwert, geben den Bereich, der das Iriszentrum umgibt, zwischen Pupille, Lederhaut und oberen und unteren Augenlidern an. Folglich geben erhöhte Vertrauenspunktwerte Pixel mit einer Intensitätsamplitude von weniger als dem Intensitätsschwellenwert und/oder detektierten Kantenstärken, die größer sind als der Kantenstärkeschwellenwert, an. Der Block 628 wählt obere Kandidatenpixelorte mit jeweils einem jeweiligen Vertrauenspunktwert aus, der größer ist als ein Vertrauenspunktwertschwellenwert. Für jeden oberen Kandidatenpixelort werden HOG-Merkmale innerhalb eines Nachbarschaftsbereichs extrahiert. Der Block 630 wendet den SVM-Klassifikator von Block 624 auf jeden der oberen Kandidatenpixelorte an, um eine Klassifikatorantwort für jeden der oberen Kandidatenpixelorte zu erzeugen. Der Ort der Iris wird von dem oberen Kandidatenort mit der höchsten Klassifikatorantwort detektiert.
  • 5 stellt einen beispielhaften Ablaufplan 600, der in Verbindung mit dem beispielhaften Ablaufplan 500 von 5 zum Detektieren und Verfolgen eines Orts für jedes der mehreren Augenmerkmale des Augapfels verwendet wird, gemäß der vorliegenden Offenbarung dar. Die dargestellte Ausführungsform wird mit Bezug auf das Detektieren des Orts der Iris beschrieben; der Ablaufplan 600 wird jedoch gleichermaßen zum Detektieren des Orts von jedem des ersten und des zweiten Augenwinkels angewendet. Es ist zu erkennen, dass nur das Verfolgen eines einzelnen Punkts in Bilddaten aufgrund von Rauschen, Änderungen der Beleuchtung und Bildverzerrung anfällig ist.
  • Zum Detektieren und Verfolgen des Orts der Iris in einem entsprechenden Einzelbild identifiziert der Block 502 zuerst den Ort der Iris 501, die in einem unmittelbar vorangehenden Einzelbild 502' detektiert wird. Es ist zu erkennen, dass, wenn das entsprechende Einzelbild ein erstes Einzelbild umfasst, der Ort der Iris, der durch den Block 630 von 5 detektiert wird, verwendet wird. Der Block 504 identifiziert zusätzliche Merkmalspunkte 503, die den Ort der Iris 501 umgeben, die im unmittelbar vorangehenden Einzelbild 502' detektiert wurde. Die zusätzlichen Merkmalspunkte 503 umfassen einen Teil der Gesichtsmerkmalspunkte, die durch den Block 104 von 3 extrahiert werden. In einer nicht begrenzenden Ausführungsform umfassen die zusätzlichen Merkmalspunkte Eckenpunkte nahe dem Iriszentrum. Beispielhafte Ausführungsformen sind hier auf den Block 504 gerichtet, der ein Kanada-Lucas-Tomas-Verfahren (KLT-Verfahren) verwendet, um die zusätzlichen Merkmalspunkte 503 zwischen aufeinander folgenden Einzelbildern zu verfolgen. Es ist zu erkennen, dass, obwohl die Bewegung jedes Unterstützungsmerkmalspunkts unabhängig eine Diskrepanz aufweisen kann, jeder Unterstützungsmerkmalspunkt in einer allgemeinen Richtung des verfolgten Ziels übereinstimmt. Selbst wenn einige Punkte ungenau verfolgt werden oder verloren gehen, kann folglich die Übereinstimmung, die allen Unterstützungsmerkmalspunkten gemeinsam ist, das Rauschen, das bei den Personen dargestellt wird, aufheben. Das KLT-Verfahren zum Verfolgen, das im Block 504 angewendet wird, drückt jeden der Merkmalspunkte S und ihre Verlagerungen {(d x / i , d y / i )} |s| / i=1 im Block 506 aus, wobei die Abschätzung der Verlagerung des Iriszentrums (d x / i , d y / i ) wie folgt ausgedrückt werden kann. d x / e = 1 / |s|Σ |s| / t-1d x / i, d y / e = 1 / |s|Σ |s| / t-1d y / i [2]
  • Der abgeschätzte anfängliche Ort der Iris 507 und die verfolgten mehreren Merkmalspunkte 505 sind im entsprechenden (z. B. aktuellen) Einzelbild 506' dargestellt. Der abgeschätzte Ort der Iris wird als vorheriger Ort (z. B. Block 502 und unmittelbar vorangehendes Einzelbild 502') um (d x / i , d y / i ) verschoben berechnet. Folglich wird eine Ortsänderung für jeden der zusätzlichen Gesichtsmerkmalspunkte vom unmittelbar vorangehenden Einzelbild 502' bis zum entsprechenden Einzelbild 506' verfolgt. In Anbetracht des abgeschätzten anfänglichen Orts der Iris 507 (x r / i , y r / i ) im entsprechenden Einzelbild 506' wendet der Block 508 ein Fenster 511 um den abgeschätzten anfänglichen Ort der Iris 507 (x r / i , y r / i ) an. Innerhalb des Bereichs, der durch das Fenster 511 definiert ist, das im entsprechenden Einzelbild 506' dargestellt ist, berechnet der Block 508 den Vertrauenspunktwert für jedes von mehreren Pixeln, die darin angeordnet sind und den abgeschätzten anfänglichen Ort der Iris 507 umgeben. Es ist zu erkennen, dass der Vertrauenspunktwert unter Verwendung von Gleichung [1] berechnet wird, wie vorstehend mit Bezug auf den Block 628 von 5 beschrieben. Wie mit Bezug auf den Block 628 von 5 beschrieben, wählt der Block 508 ferner obere Kandidatenpixel innerhalb des durch das Fenster 511 definierten Bereichs aus, wobei jedes obere Kandidatenpixel einen jeweiligen Vertrauenspunktwert aufweist, der größer ist als der Vertrauenspunktwertschwellenwert. Der Block 508 vergleicht ferner die ausgewählten oberen Kandidatenpixel mit dem trainierten SVM-Klassifikator des Blocks 624 von 5, um die Klassifikatorantwort für jedes der oberen Kandidatenpixel zu erzeugen. Im Block 510 wird der Ort der Iris 513 innerhalb des entsprechenden Einzelbildes 506' auf der Basis des oberen Kandidatenpixels mit der höchsten Klassifikatorantwort detektiert. Häufig stehen Pixel von Haar- und Augenbrauenbereichen an hoher Stelle in der Liste der Klassifikatorantworten aufgrund ihrer niedrigen Amplituden der Intensität. Statistische Vorränge geben jedoch an, dass Haar- und Augenbrauenbereiche im Allgemeinen geringe detektierte Kantenantworten aufweisen. In einer Ausführungsform umfassen die mehreren Pixel innerhalb des durch das Fenster 511 definierten Bereichs, der den abgeschätzten anfänglichen Ort der Iris 507 umgibt, nur Pixel mit detektierten Kantenantworten, die einen Schwellenwert für schwache Kanten übersteigen. Mit anderen Worten, Pixel, die Haar- und Augenbrauenbereiche angeben, werden aus der Berücksichtigung für die Auswahl von oberen Kandidatenpixeln entfernt.
  • Die Ablaufpläne von 4 und 5 werden gleichermaßen zum Detektieren der jeweiligen Orte für jedes der anderen Augenelemente angewendet, einschließlich des ersten und des zweiten Augenwinkels. Andere Ausführungsformen können in Erwägung gezogen werden, wobei der Ort des Mundes zusätzlich zum Ort für ein oder mehrere der mehreren Augenelemente detektiert wird.
  • Es ist zu erkennen, dass existierende Verfahren zur Gesichtsmerkmalsdetektion und -verfolgung im Allgemeinen in eine der folgenden Kategorien mit jeweils entsprechenden Nachteilen fallen. Aktive Erscheinungsbildmodelle (AAMs) sind beispielsweise in Echtzeit schwierig zu implementieren. Außerdem ist der Vorlagenvergleich unter plötzlichen Änderungen der Kopfhaltung und Beleuchtung nicht zuverlässig. Überdies sind Verfahren mit nur Detektion mäßig schnell und zuverlässig, aber können durch Vorsehen eines interessierenden Bereichs (z. B. Fenster 511) verbessert werden, um den Suchbereich einzuschränken.
  • Mit Rückbezug auf 3 schätzt der Block 112 die Kopfhaltung des Fahrers innerhalb der Bildeingangsdaten auf der Basis der überwachten Gesichtsmerkmalspunkte unter Verwendung des Kopfhaltungsabschätzmoduls 24 von 2 ab. Selbstverständlich werden die abgeschätzte Kopfhaltung und die Orte der mehreren Augenelemente im EOTR-Detektionssystem 100 separat behandelt, bevor sie für die endgültige Blickrichtungsabschätzung des Blocks 116 kombiniert werden. Es ist zu erkennen, dass die Orte für die mehreren Augenelemente, die im Block 110 detektiert werden, verwendet werden können, um einen abgeschätzten Blickwinkel zu bestimmen. Die Kopfhaltungsabschätzung ist wesentlich, um die Augenblickrichtung des Fahrers zu bestimmen, wobei die Blickrichtung eine Kombination der Kopfhaltung und des Augenblickwinkels ist.
  • Existierende Verfahren für die kontinuierliche Kopfhaltungsabschätzung können in vier Hauptkategorien mit jeweils entsprechenden Nachteilen gruppiert werden: Erscheinungsbildvorlageverfahren, Verfahren auf Klassifikationsbasis, Verfahren auf Regressionsbasis und Verfahren auf Einbettungsbasis. Ein Nachteil, der mit Erscheinungsbildvorlageverfahren verbunden ist, besteht darin, dass die Vorlagen gewöhnlich gegen Rauschen, einschließlich Ausdruck und/oder Beleuchtung, empfindlich sind und typischerweise gleichmäßig abgetastete Trainingsdaten erfordern, um genaue Ergebnisse zu erreichen. Ein Nachteil, der mit Verfahren auf Klassifikationsbasis verbunden ist, besteht darin, dass eine ungleichmäßige Abtastung in den Trainingsdaten dazu führt, dass nur diskrete Kopfhaltungsabschätzungen zurückgegeben werden. Die Nachteile von Verfahren auf Regressionsbasis bestehen darin, dass sie unter unregelmäßig verteilten Trainingsdaten leiden, für eine Überanpassung in Gegenwart von begrenzten Trainingsabtastwerten anfällig sind und gegen Rauschen in den Trainings- oder Testbildern nicht robust sind. Ein Nachteil von Verfahren auf Einbettungsbasis besteht darin, dass sie dem Wesen nach unüberwacht sind und keine Merkmale extrahieren, die Klasseninformationen beinhalten.
  • Die existierenden Verfahren auf Regressionsbasis leiten die Kopfhaltung (Gier- und Nickwinkel) direkt von Bildmerkmalen ab und sind viel robuster als die anderen existierenden Verfahren. Verfahren auf Regressionsbasis können Hauptkomponentenregression (PCR) und Ridge-Regression (RR) umfassen. PCRPCR kann Dimensionen entfernen, die maximal mit den Winkeln korreliert sind, und RR beeinflusst typischerweise die Lösung in Richtung kleiner Winkel. Die Parameter für die Regression in jeder dieser Methoden werden jedoch als Mittelwerte über Trainingsabtastwerte berechnet, was zu einer schlechten Darstellung der Winkel führt, die unterabgetastet sind. Folglich erzeugen diese Verfahren auf Regressionsbasis (lineare RR und PCR) gewöhnlich größere Fehler in den unterabgetasteten Winkelbereichen, wohingegen k-nearest Neighbor (KNN) stetig Regressionsverfahren aufgrund der Winkel (Kopfhaltung), die als lokal gewichtete Kombinationen von benachbarten Abtastwerten abgeschätzt werden, übertrifft, was weniger empfindlich ist gegen den verteilten Trainingssatz. Obwohl KNN eine bessere Leistung erzeugen kann als Verfahren auf Regressionsbasis, liegt ein Hauptnachteil von KNN in seiner Rechenkomplexität aufgrund dessen, dass KNN erfordert, dass eine Ähnlichkeit zwischen dem Testabtastwert und allen Trainingsdaten berechnet wird. KNN ist für die hier beschriebenen Ausführungsformen aufgrund der Anforderung der Echtzeitimplementierung zum Abschätzen der Kopfhaltung nicht geeignet.
  • Unter Milderung der Nachteile der vorstehend beschriebenen existierenden Verfahren zum Abschätzen der Kopfhaltung führt der Block 112 von 3 ein überwachtes lokales Unterraumlernen (SL2) aus, das lokale lineare Modelle aus einem spärlichen und ungleichmäßig beabstandeten abgetasteten Trainingssatz aufbaut. SL2 kann als Lernen einer Mischung von lokalen Tangentenunterräumen, das gegenüber unterabgetasteten Bereichen robust ist und aufgrund seiner Regularisierungseigenschaften gegenüber einer Überanpassung robust ist, beschrieben werden.
  • 6 stellt eine beispielhafte Ausführungsform zum Trainieren von Unterräumen unter Verwendung von SL2, das durch den Block 112 von 3 ausgeführt wird, gemäß der vorliegenden Offenbarung dar. Ein Ausgangsraum 702 umfasst mehrere gleichmäßig beabstandete Gierwinkel, die innerhalb eines Bereichs von Gierwinkeln von –90 Grad bis 90 Grad erzeugt werden. Der Ausgangsraum 701 umfasst mehrere Tangentenunterräume 710, 712, 714, 716 und 718, die jeweils jeweiligen der gleichmäßig beabstandeten Haltungswinkel des Ausgangsraums 702 zugeordnet sind. Jeder Unterraum wird durch einen jeweiligen Mittelwert, der durch schattierte Kreise 711, 713, 715, 717 und 719 angegeben ist, und eine jeweilige Basis parametrisiert. Wie hier verwendet, bezieht sich der Begriff ”Basis” auf einen Unterbereich von Gierwinkeln innerhalb des gleichmäßig beabstandeten Bereichs von Gierwinkeln des Ausgangsraums 702. In der dargestellten Ausführungsform werden mehrere Trainingsbilder, die durch jeweilige Quadrate 750, 751, 752, 754, 755 und 756 jeweils mit einer unterschiedlichen Kopfhaltung angegeben sind, die einem jeweiligen trainierten Gierwinkel zugeordnet ist, im Eingangsraum 701 abgetastet. Entsprechende Quadrate mit gleichen Ziffern werden in den Ausgangsraum 702 projiziert. Selbstverständlich sind die Trainingsbilddaten von 6 klein, und tasten daher nicht gleichmäßig den Bereich von Gierwinkeln zum Abschätzen der Kopfhaltung auf der Basis der überwachten Gesichtsmerkmalspunkte ab.
  • In der dargestellten Ausführungsform von 6 sind die trainierten Gierwinkel, die jeweiligen der trainierten Bilder einer unterschiedlichen Kopfhaltung entsprechen, ungleichmäßig innerhalb des Bereichs von Gierwinkeln im Ausgangsraum 702 beabstandet. Bildmerkmale X, die die Kopfhaltung angeben, d. h. Gesichtsmerkmalspunkte, innerhalb jedes trainierten Bildes sind häufig hochdimensional und stehen typischerweise nicht-linear mit dem Bereich von Gierwinkeln Θ im Ausgangsraum 702 in Beziehung. Die Bildmerkmale X, die den jeweiligen trainierten Gierwinkel in jedem trainierten Bild angeben, werden mit m lokalen Unterräumen modelliert, die durch den Bereich von Winkeln O parametrisiert werden, wie folgt. X = f(Θ) ≈ f(〈c1, G1, θ ^1〉, ..., 〈cm, Gm, θ ^m〉, Θ) [3] wobei 〈ci, Gi, θ ^i〉 sich auf den i-ten lokalen Tangentenunterraum bezieht,
    ci den Mittelwert jedes Unterraums darstellt,
    Gi die Basis jedes Unterraums darstellt, und
    θ ^i einen Satz von gleichmäßig abgetasteten Gierwinkeln darstellt.
  • Unter Verwendung der Gleichung [3] werden die mehreren Tangentenunterräume 710, 712, 714, 716 und 718 auf der Basis der bestimmten Winkel der Taylor-Erweiterung erster Ordnung im Mittelwert/Zentrum ci des i-ten Unterraums erzeugt (es sind m lokale Unterräume vorhanden). Folglich können jedes trainierte Bild und jeder zugehörige trainierte Gierwinkel auf der Basis der erzeugten mehreren gleichmäßig beabstandeten Gierwinkel und der erzeugten mehreren Unterräume 710, 712, 714, 716 und 718 rekonstruiert werden. Jedes trainierte Bild umfasst Trainingsdatenpunkte xp, θp, die durch einen der Unterräume rekonstruiert werden, wobei sich xp auf die Position im Eingangsraum 701 bezieht und sich θp auf den zugehörigen jeweiligen Gierwinkel im Ausgangsraum 702 bezieht. Der Unterraum, aus dem xp rekonstruiert wird, gehört mathematisch zur Umgebung der Winkel nahe θp. Anschließend wird xp wie folgt ausgedrückt. xp ≈ ci + GiΔθpi [4] wobei sich Δθpi auf θp – θ ^i bezieht.
  • SL2 minimiert weiter eine Fehlerfunktion, die Zentren jedes lokalen Unterraums ciS und der Basis GiS zugeordnet ist, wie folgt.
    Figure DE102014100352A1_0002
    wobei τ einen Kandidatenunterraum darstellt,
    λ einen Parameter darstellt, der die zwei Terme ins Gleichgewicht bringt, und
    w 2 / pi einen gewichteten Parameter darstellt.
  • Die Gleichung [5] umfasst einen ersten Term jedes Trainingsabtastwerts, der unabhängig unter Verwendung von einem der lokalen Unterräume angenähert wird, und einen zweiten Regularisierungsterm, der erzwingt, dass der Mittelwert jedes Unterraums durch die benachbarten Unterräume rekonstruiert werden soll. Der erste Term beschreibt, dass die lokalen Unterräume durch die Winkel ausgewählt werden, die nahe dem zugehörigen jeweiligen Gierwinkel θp liegen, während der zweite Term sicherstellt, dass die Unterraumparameter sanft variieren und aus spärlichen ungleichmäßigen Bilddaten abgeschätzt werden können. Der gewichtete Parameter w 2 / pi gewichtet den Beitrag jedes benachbarten Unterraums zur Datenabtastwertrekonstruktion und wird folgendermaßen ausgedrückt.
    Figure DE102014100352A1_0003
    wobei ψ(θp, θ ^i) irgendeine positivwertige Funktion darstellt, die umgekehrt proportional zum Abstand zwischen trainierten und gleichmäßig abgetasteten Gierwinkeln ist.
  • Unter Verwendung von Gleichung [6] kann der Block 112 die Gleichung [5] effizient durch ein abgewechseltes Verfahren kleinster Quadrate lösen.
  • 7 stellt eine beispielhafte Ausführungsform der durch den Block 112 von 3 ausgeführten Kopfhaltungsabschätzung unter Verwendung der trainierten Unterräume von 6 gemäß der vorliegenden Offenbarung dar. Gleiche Ziffern in 7 beziehen sich auf gleiche Merkmale in 6. 7 stellt den Eingangsraum 801 und den Ausgangsraum 802 dar. Innerhalb des Eingangsraums 801 identifiziert der Block 112 zwei Kandidatenunterräume 816 und 818 aus den mehreren Unterräumen 810, 812, 814, 816 und 818 auf der Basis eines neuen Testdatenpunkts xt 850, der im Eingangsraum 801 dargestellt ist. Insbesondere gibt der neue Testdatenpunkt xt 850 einen oder mehrere der überwachten Gesichtsmerkmalspunkte innerhalb eines entsprechenden Einzelbildes an, der durch die Kameravorrichtung 10 von 1 aufgenommen wird. Die zwei Kandidatenunterräume 816 und 818 sind zum neuen Testdatenpunkt xt 850 benachbarte Unterräume und werden für Effizienzzwecke in zwei Schritten gefunden, einschließlich: (1) Auffinden der zwei Kandidatenunterräume (z. B. 816 und 818), deren Zentren/Mittelwerte (z. B. 817 und 819) am nächsten zu xt 850 im Eingangsraum 801 liegen; und (2) Auswählen des benachbarten Unterraums aus den zwei Kandidaten mit einem niedrigsten Rekonstruktionsfehler des neuen Testdatenpunkts xt 850. Der niedrigste Rekonstruktionsfehler wird unter Verwendung der Gleichungen [5] und [6] berechnet, wobei das Gewicht von w 2 / ti von jedem der Kandidatenunterräume 814 und 816, die zu xt 850 beitragen, bestimmt wird und θi der Gierwinkel ist, der zum Zentrum des i-ten Unterraums gehört. In der dargestellten Ausführungsform entspricht der i-te Unterraum dem benachbarten Unterraum 816. Ein optimaler Gierwinkel θt des entsprechenden Bildes kann dann durch Minimieren des Rekonstruktionsfehlers für xt 850 berechnet werden, wobei Gleichung [5] folgendermaßen umgeordnet wird.
  • Figure DE102014100352A1_0004
  • Es ist zu erkennen, dass der optimale Gierwinkel θt der abgeschätzten Kopfhaltung auf der Basis des gleichmäßig beabstandeten Gierwinkels des eingegebenen Ausgangsraums 802 entspricht, der dem ausgewählten benachbarten Unterraum 816 innerhalb des Eingangsraums 801 zugeordnet ist. Die durch SL2 bereitgestellte Methodologie schafft verringerte Aufwendungen in Bezug auf die Berechnungen, da nur der optimale Gierwinkel θt berechnet werden muss, wohingegen die vorstehend beschriebenen vorstehend erwähnten existierenden Verfahren alle Trainingspunkte speichern müssen, und Ähnlichkeiten zwischen einem Testdatenpunkt und dem Trainingssatz berechnen. Die Gleichung [7] weist beispielsweise eine Rechenkomplexität von O(md + 3dk) auf, wobei k die Anzahl von benachbarten Unterräumen ist, m die Anzahl von Unterräumen ist und d die Dimension von HOG-Merkmalen ist. Existierende Methodologien wie z. B. KNN weisen eine Rechenkomplexität von etwa O(3n + nd) auf, wobei n die Anzahl von Trainingsabtastwerten ist und typischerweise n weitaus größer ist als m und k von SL2.
  • In einigen Ausführungsformen kann die abgeschätzte Kopfhaltung des Blocks 112 ferner das Abschätzen eines Gierwinkels unter Verwendung eines Detektionsbereichs, der durch den Profilgesichtsdetektor gegeben ist, und unter Verwendung des abgeschätzten Gierwinkels umfassen, um den detektierten Gesichtsort unter Verwendung einer Beziehung zu korrigieren, die beim Trainieren gelernt wird, um schließlich die Kopfhaltung unter Verwendung eines berichtigten Gesichtsorts abzuschätzen. Vor dem Extrahieren und Überwachen der Gesichtsmerkmalspunkte des Fahrers im Block 104 kann der Detektionsbereich innerhalb der Bildeingangsdaten vorgesehen werden, um einen Gesichtsort des Fahrers zu umgeben, der durch den Profilgesichtsdetektor im Block 102 von 3 detektiert wird. Unter Verwendung von gespeicherten Daten von bekannten Gesichtszentren in Bezug auf den Gierwinkel kann der Gierwinkel des detektierten Gesichtsorts des Fahrers innerhalb des Detektionsbereichs abgeschätzt werden, um einen berichtigten Gesichtsort zu erzeugen. Dieser berichtigte Gesichtsort kann verwendet werden, um die Kopfhaltung des Fahrers abzuschätzen, wie mit Bezug auf die Gleichungen [3]–[7] des Blocks 112 beschrieben.
  • Mit Bezug auf den Block 114 des EOTR-Detektionssystems 100 von 3 werden die Kopfhaltung, die im Block 112 abgeschätzt wird, und die Orte von jeder der Iris und des ersten und des zweiten Augenwinkels, die im Block 110 detektiert und verfolgt werden, unter Verwendung irgendeines bekannten gewünschten Verfahrens gefiltert und geglättet. Anschließend schätzt der Block 116 die Fahrerblickrichtung ab. Ebenso wird der Fahrerblickwinkel durch den Block 116 abgeschätzt.
  • 8 stellt ein geometrisches Modell des Fahrerblickverfolgungssystems 200 von 2 in Bezug auf detektierte und verfolgte Orte für jedes der mehreren Augenmerkmale, das durch den Block 110 von 3 ausgeführt wird, und die Kopfhaltungsabschätzung, die vom Block 112 von 3 ausgeführt wird, gemäß der vorliegenden Offenbarung dar. Das geometrische Modell von 8 nimmt an, dass der Augapfel 900 kugelförmig ist und dass der Ort der Augenwinkel 921 und 922 genau abgeschätzt wurde. Das geometrische Modell umfasst den Augapfel 900, eine Gesichtsebene, eine Kameraebene 901 und eine Kameravorrichtung 10 von 1. Der detektierte und verfolgte Ort des ersten Augenwinkels 922 und des zweiten Augenwinkels 921 ist entlang der Gesichtsebene dargestellt. Der detektierte und verfolgte Ort der Iris 950 ist unter der Gesichtsebene dargestellt. Der abgeschätzte Kopfhaltungswinkel ist durch den Winkel 960 in Bezug auf die Gesichtsebene und die Kameraebene 901 dargestellt. Der Punkt 930 stellt einen Projektionspunkt von einem Zentrum des Augapfels auf die Gesichtsebene 902 dar und die gestrichelte Linie 932 stellt einen Radius des Augapfels dar, die beide durch Berechnungen abgeschätzt werden, die in den nachstehenden Gleichungen [8]–][10] ausgedrückt sind. Die gestrichelte vertikale Linie 934 stellt einen Projektionsabstand zwischen dem Zentrum des Augapfels 930 und der Gesichtsebene dar. Auf der Basis von erhaltenen anatomischen Einschränkungskoeffizienten in Bezug auf den abgeschätzten Kopfhaltungswinkel 960 können ein Blickwinkel 980 und eine entsprechende Blickrichtung 990 durch den Block 116 durch Berechnungen, die in den nachstehenden Gleichungen [11]–[13] ausgedrückt sind, auf der Basis der detektierten und verfolgten Orte der Iris 950, des ersten Augenwinkels 922, des zweiten Augenwinkels 921, des Zentrums 930 des Augapfels 900 und des Radius 932 des Augapfels 900 abgeschätzt werden.
  • 9-1 und 9-2 stellen anatomische Einschränkungen des geometrischen Modells von 8 zum Abschätzen der Blickrichtung des Fahrers gemäß der vorliegenden Offenbarung dar. Gleiche Ziffern von 9-1 und 9-2 beziehen sich auf gleiche Merkmale im geometrischen Modell von 8. 9-1 stellt eine Ansicht des Augapfels 1000 von oben nach unten zum Berechnen von Versätzen zum Zentrum 1030 des Augapfels unter Verwendung der abgeschätzten Kopfhaltung 1060 dar. 9-2 stellt den Augapfel 1000 von oben nach unten zum Abschätzen der Blickrichtung 1090 und des Blickwinkels 1080 dar. Der Punkt 1034 stellt einen Mittelpunkt ”m” der Augenwinkel 1022 und 1021 zum Punkt 1032 dar, der der Projektionspunkt des Augapfelzentrums 1030 auf die Gesichtsebene ist. Die Linie 1004 stellt einen skalierten Projektionsabstand zwischen dem Zentrum des Augapfels 930 und der Gesichtsebene dar. Die Linie 1006 stellt eine Abweichung T vom Mittelpunkt m 1034 zum Punkt 1032 dar. Es ist zu erkennen, dass 9-1 und 9-2 ein zweidimensionales Bild einer Ansicht des Augapfels von oben nach unten darstellen. Die Bildebene 1001 ist ferner mit dem Projektionspunkt 1035 vom Mittelpunkt m 1034, Projektionspunkt 1031 vom Zentrum 1030 und Projektionspunkt 1033 vom Punkt n 1032, der darauf projiziert ist, dargestellt. Die Kopfhaltung oder Richtung der Kopfhaltung 1070 ist in Bezug auf den Kopfhaltungswinkel 1060 in 9-1 dargestellt. 9-2 stellt ferner den Projektionspunkt 1051 auf die Bildebene 1001 von der Iris 1050 dar.
  • Der Mittelpunkt m 1034 zwischen den Augenwinkeln 1021 und 1022 wird folgendermaßen ausgedrückt.
  • Figure DE102014100352A1_0005
  • wobei e1 der erste Augenwinkel 1022 ist, und
    e2 der zweite Augenwinkel 1021 ist.
  • Ein Maßstab des Gesichts des Fahrers muss durch einen Abstand zwischen den Augenwinkeln 1021 und 1022 auf der Basis des Kopfhaltungswinkels Φ 1060 berechnet werden. Es ist zu erkennen, dass ein minimaler Wert von S in einem vollständig frontalen Gesicht erreicht wird, wobei der Kopfhaltungswinkel Φ gleich null ist. Ferner ist zu erkennen, dass der Projektionsabstand zwischen den Augenwinkeln innerhalb des entsprechenden Bildes mit zunehmender Kopfdrehung abnimmt. Der Maßstab S des Gesichts wird folgendermaßen ausgedrückt.
  • Figure DE102014100352A1_0006
  • Das Zentrum des Augapfels 1030, O, wird unter Verwendung des Mittelpunkts m, der in Gleichung [8] berechnet wird, auf der Basis des Kopfhaltungswinkels (Φx, Φy) wie folgt berechnet.
    Figure DE102014100352A1_0007
    wobei Tx und Ty eine Abweichung vom Mittelpunkt m 1034 zum Punkt 1032 darstellen, und
    SL den skalierten Projektionsabstand 1004 zwischen dem Zentrum des Augapfels 930 und der Gesichtsebene darstellt.
  • Der Radius des Augapfels R 932 wird durch Multiplizieren eines normierten Radius R0 mit dem Maßstab des Gesichts S erhalten, der in Gleichung [9] berechnet wird.
  • Auf der Basis der erhaltenen anatomischen Einschränkungen, die in den obigen Gleichungen [8]–[10] bestimmt werden, wird die abgeschätzte Blickrichtung 1090 folgendermaßen ausgedrückt.
    Figure DE102014100352A1_0008
    wobei θx und θy den Blickwinkel 1080 darstellen.
  • Es ist zu erkennen, dass die Blickwinkel θx und θy einen Gierwinkel bzw. einen Nickwinkel in Bezug auf die Bildebene angeben. Die Blickrichtung wird auf der Basis sowohl des Gier- als auch des Nickwinkels bestimmt. In den Gleichungen [10] und [11] hängen der Kopfhaltungswinkel und der Augenblickwinkel in Weltkoordinaten von den anatomischen Einschränkungen R0, L, Tx und Ty ab. In einer Ausführungsform werden die anatomischen Einschränkungen R0, L, Tx und Ty offline in Anbetracht von Augenblickwinkeln θx und θy berechnet. Folglich werden die anatomischen Einschränkungen R0, L, Tx und Ty folgendermaßen ausgedrückt.
  • Figure DE102014100352A1_0009
  • Beispielhafte Ausführungsformen sammeln einen Satz von Trainingsabtastwerten mit einem im Labor kalibrierten Blickwinkel (θx, θy) und Kopfhaltungswinkel (ϕx, ϕy). Jeder Trainingsabtastwert kann die Form von entweder (θx, θy, ϕx, ϕy) = (α i / x , 0, β i / x , 0) oder (θx, θy, ϕx, ϕy) = (0, α j / y , 0, β j / y ) annehmen. Unter Verwendung von Nx Bildern der ersten Form und Ny Bildern der zweiten Form können die anatomischen Einschränkungen R0, L, Tx und Ty folgendermaßen ausgedrückt werden.
  • Figure DE102014100352A1_0010
  • Die Lösung kleinster Quadrate von Gleichung [13] ergibt die anatomischen Einschränkungskoeffizienten R0, L, Tx und Ty.
  • Mit Bezug auf den Block 118 des EOTR-Detektionssystems 300 von 3 wird eine Feststellung hinsichtlich dessen, ob die EOTR-Bedingung existiert oder nicht, auf der Basis der durch Gleichung [11] im Block 116 bestimmten abgeschätzten Blickrichtung, einer mittleren Verschiebung zum Detektieren, dass das Gesicht des Fahrers über 45 Grad Gierung vorhanden ist, des Blocks 106, und ob eine Detektion durchgeführt wurde oder nicht, dass der Fahrer eine Sonnenbrille trägt, des Blocks 118 durchgeführt. Es ist zu erkennen, dass andere Verfahren zum Abschätzen der Fahrerblickrichtung implementiert werden können, falls tatsächlich der Block 108 bestimmt, dass der Fahrer eine Brille oder Sonnenbrille trägt.
  • Vorstehend mit Bezug auf die beispielhafte nicht begrenzende Ansicht des Fahrers von 1 beschrieben, kann ein Blickort auf der Basis der abgeschätzten Blickrichtung identifiziert werden, wobei der Blickort einen Punkt beschreibt, an dem die abgeschätzte Blickrichtung eine Windschutzscheibenebene des Fahrzeugs schneidet. In Bezug auf 1 dargestellt kann eine vorbestimmte Straßenebene 50 auf die Windschutzscheibenebene überlagert werden. Wenn der Blickort des Fahrers außerhalb der Straßenebene liegt, existiert die EOTR-Bedingung und geeignete Maßnahmen können getroffen werden, um die Aufmerksamkeit des Fahrers wieder zu erlangen.
  • 10 stellt ein geometrisches Modell zum Bestimmen eines Nickwinkels, der eine Höhe eines Kopfs eines Fahrers in Bezug auf die monokulare Kameravorrichtung 10 von 1 beschreibt, gemäß der vorliegenden Offenbarung dar. Das geometrische Modell umfasst eine Augenposition 1110 und die monokulare Kameravorrichtung 10 von 1, die auf einer Lenkradsäule angebracht ist. Ein Weltkoordinatensystem ist mit einer z-Achse 1101 und einer y-Achse 1102 dargestellt. Es ist zu erkennen, dass die Kameravorrichtung 10 in Bezug auf das Weltkoordinatensystem geneigt ist, so dass Bilddaten des Gesichts des Fahrers aufgenommen werden können. Die Neigung der Kamera ist als Winkel 1130 ausgedrückt. Folglich ist ein Kamerakoordinatensystem mit einer z'-Achse 1101' und einer y'-Achse 1102' auf der Basis der Drehung des Weltkoordinatensystems um den Neigungswinkel 1130 der Kamera dargestellt. Die Linie 1112 stellt eine Projektion vom Kopf des Fahrers in Bezug auf das Kamerakoordinatensystem dar und die Linie 1190 stellt die Blickrichtung des Fahrers dar. Der Nickwinkel 1134 hängt von der Höhe des Kopfs des Fahrers in Bezug auf die Kameravorrichtung 10 ab, während der Winkel 1136 dazu unveränderlich ist. Folglich erfordert die Abschätzung des Blicks unveränderlich zur Kopfposition des Fahrers eine Berechnung des Nickwinkels 1136. Der Winkel 1136 wird auf der Basis des Subtrahierens des Nickwinkels 1135 vom Nickwinkel 1132 berechnet. Ein Blickgierwinkel kann ebenso für die andere Dimension des Weltkoordinatensystems durch Projizieren einer x-Achse, die in Bezug auf die y- und z-Achse senkrecht ist, und des Kamerakoordinatensystems durch Projizieren einer x-Achse, die zur y'- und z'-Achse senkrecht ist, abgeschätzt werden. Unter Verwendung des Nickwinkels 1134 und des ähnlich bestimmten Gierwinkels für die andere Dimension, die dem Blickgierwinkel zugeordnet ist, kann ein 3-dimensionaler Vektor der Blickrichtung des Fahrers wie folgt ausgedrückt werden.
    Figure DE102014100352A1_0011
    wobei ϕpitch den Nickwinkel 1136 darstellt,
    ϕyaw den Gierwinkel darstellt, der der anderen Dimension entspricht, die dem Gierwinkel zugeordnet ist.
  • Unter Verwendung des 3-dimensionalen Blickvektors U gaze kann die dreidimensionale Blickrichtung, die durch die Linie 1190 angegeben ist, unter Verwendung einer dreidimensionalen Parameterlinie abgeschätzt werden. Der dreidimensionale Fahrerblickort beschreibt den Punkt, an dem die abgeschätzte Blickrichtung eine Windschutzscheibenebene des Fahrzeugs schneidet.
  • Die Offenbarung hat bestimmte bevorzugte Ausführungsformen und Modifikationen daran beschrieben. Weitere Modifikationen und Änderungen können anderen beim Lesen und Verstehen der Patentbeschreibung in den Sinn kommen. Daher ist vorgesehen, dass die Offenbarung nicht auf die spezielle(n) Ausführungsform(en) begrenzt ist, die als beste Art, die zur Ausführung dieser Offenbarung in Erwägung gezogen wird, offenbart ist (sind), sondern dass die Offenbarung alle Ausführungsformen umfasst, die in den Schutzbereich der beigefügten Ansprüche fallen.

Claims (10)

  1. Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen auf der Basis einer abgeschätzten Blickrichtung eines Fahrers eines Fahrzeugs, das umfasst: Überwachen von Gesichtsmerkmalspunkten des Fahrers innerhalb Bildeingangsdaten, die durch eine fahrzeuginterne Kameravorrichtung aufgenommen werden; Detektieren eines Orts für jedes von mehreren Augenmerkmalen für einen Augapfel des Fahrers auf der Basis der überwachten Gesichtsmerkmalspunkte; Abschätzen einer Kopfhaltung des Fahrers auf der Basis der überwachten Gesichtsmerkmalspunkte; und Abschätzen der Blickrichtung des Fahrers auf der Basis der detektierten Ortsinformationen für jedes der mehreren Augenmerkmale und der abgeschätzten Kopfhaltung.
  2. Verfahren nach Anspruch 1, wobei die überwachten Gesichtsmerkmalspunkte gemäß den Schritten extrahiert werden, die umfassen: für ein erstes Einzelbild Detektieren eines Gesichts des Fahrers und Extrahieren der Gesichtsmerkmalspunkte aus dem detektierten Gesicht; für jedes nachfolgende Einzelbild im Anschluss an das erste Einzelbild: Identifizieren eines Kandidatenbereichs, der die Gesichtsmerkmalspunkte umgibt, die von einem oder mehreren vorherigen Eingangseinzelbildern extrahiert wurden; und Identifizieren der Gesichtsmerkmalspunkte nur innerhalb des Kandidatenbereichs.
  3. Verfahren nach Anspruch 1, wobei das Detektieren des Orts für jedes der mehreren Augenmerkmale für den Augapfel des Fahrers umfasst: Detektieren eines Orts einer Iris; Detektieren eines Orts für einen ersten Augenwinkel, der einen inneren Augenwinkel nahe einer Nasenwurzel angibt; und Detektieren eines Orts für einen zweiten Augenwinkel, der einen äußeren Augenwinkel angibt.
  4. Verfahren nach Anspruch 3, wobei das Detektieren des Orts für jedes der mehreren Augenmerkmale für den Augapfel des Fahrers ferner umfasst: für jedes entsprechende Augenmerkmal der mehreren Augenmerkmale Trainieren eines Klassifikators, das umfasst: Zuweisen von Bildfeldern um ein Referenzaugenmerkmal in Bezug auf das entsprechende Augenmerkmal, das von einer Datenbank erhalten wird; und Identifizieren von einem oder mehreren der zugewiesenen Bildfelder, die um das Referenzaugenmerkmal zentriert sind.
  5. Verfahren nach Anspruch 1, wobei das Abschätzen der Kopfhaltung des Fahrers auf der Basis der überwachten Gesichtsmerkmalspunkte umfasst: in einem Ausgangsraum Erzeugen von mehreren gleichmäßig beabstandeten Gierwinkeln innerhalb eines Bereichs von Gierwinkeln; in einem Eingangsraum: Erzeugen von mehreren Unterräumen, die jeweils entsprechenden der gleichmäßig beabstandeten Gierwinkel zugeordnet sind und durch einen jeweiligen Mittelwert und eine Basis parametrisiert sind, Identifizieren von zwei Kandidatenunterräumen unter den mehreren Unterräumen, die am nächsten zu den überwachten Gesichtsmerkmalspunkten liegen, und Auswählen eines benachbarten Unterraums aus den zwei Kandidatenunterräumen mit einem niedrigsten Rekonstruktionsfehler, der den überwachten Gesichtsmerkmalspunkten zugeordnet ist; und Abschätzen der Kopfhaltung des Fahrers auf der Basis des gleichmäßig beabstandeten Gierwinkels im Ausgangsraum, der dem ausgewählten benachbarten Unterraum im Eingangsraum zugeordnet ist.
  6. Verfahren nach Anspruch 5, wobei das Abschätzen der Kopfhaltung des Fahrers ferner umfasst: Abtasten von mehreren Trainingsbildern im Eingangsraum, die jeweils einem jeweiligen trainierten Gierwinkel zugeordnet sind, wobei die trainierten Gierwinkel ungleichmäßig innerhalb des Bereichs von Winkeln im Ausgangsraum beabstandet sind; Rekonstruieren jedes trainierten Bildes und jedes zugehörigen trainierten Gierwinkels auf der Basis der erzeugten mehreren gleichmäßig beabstandeten Gierwinkel und der erzeugten mehreren Unterräume; und Abschätzen der Kopfhaltung des Fahrers auf der Basis von einem der rekonstruierten Trainingsbilder und des diesem zugeordneten trainierten Gierwinkels.
  7. Verfahren nach Anspruch 1, wobei das Abschätzen der Blickrichtung des Fahrers auf der Basis der detektierten Ortsinformationen für jedes der mehreren Augenmerkmale und der abgeschätzten Kopfhaltung umfasst: Detektieren eines Orts für jeden des ersten und des zweiten Augenwinkels des Augapfels; Berechnen eines Mittelpunkts zwischen dem detektierten Ort für jeden des ersten und des zweiten Augenwinkels des Augapfels; Berechnen eines Zentrums des Augapfels unter Verwendung des berechneten Mittelpunkts und von zwei Korrekturen auf der Basis der abgeschätzten Kopfhaltung; Berechnen eines Maßstabs des Gesichts des Fahrers auf der Basis eines Abstandes zwischen dem detektierten ersten und zweiten Augenwinkel und der abgeschätzten Kopfhaltung; Berechnen eines Radius des Augapfels auf der Basis einer Multiplikation eines normierten Radius des Augapfels mit dem berechneten Maßstab des Gesichts; und Abschätzen der Blickrichtung des Fahrers auf der Basis des berechneten Radius des Augapfels und des berechneten Zentrums des Augapfels.
  8. Verfahren nach Anspruch 1, das ferner umfasst: Identifizieren eines Blickorts des Fahrers entsprechend einem Punkt, an dem die abgeschätzte Blickrichtung eine Windschutzscheibenebene des Fahrzeugs schneidet; Vergleichen des identifizierten Blickorts des Fahrers mit einer Straßenebene innerhalb der Windschutzscheibenebene; und Detektieren der Bedingung mit von der Straße abgewandten Augen nur dann, wenn der identifizierte Blickort außerhalb der Straßenebene liegt.
  9. Verfahren nach Anspruch 1, wobei die fahrzeuginterne Kameravorrichtung eine monokulare Kameravorrichtung umfasst, die nahe einem Lenkrad in einem Innenraum des Fahrzeugs angebracht ist, wobei die monokulare Kameravorrichtung dazu konfiguriert ist, ein Blickfeld zu erfassen, das in Richtung des Fahrers gerichtet ist.
  10. Verfahren nach Anspruch 1, das ferner umfasst: Beleuchten eines Innenraums des Fahrzeugs unter Verwendung einer Infrarotbeleuchtungsvorrichtung während lichtarmen Bedingungen innerhalb des Innenraums des Fahrzeugs.
DE102014100352.7A 2013-01-18 2014-01-14 Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen Active DE102014100352B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361754134P 2013-01-18 2013-01-18
US61/754,134 2013-01-18
US14/041,016 2013-09-30
US14/041,016 US9405982B2 (en) 2013-01-18 2013-09-30 Driver gaze detection system

Publications (2)

Publication Number Publication Date
DE102014100352A1 true DE102014100352A1 (de) 2014-07-24
DE102014100352B4 DE102014100352B4 (de) 2020-07-23

Family

ID=51064560

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014100352.7A Active DE102014100352B4 (de) 2013-01-18 2014-01-14 Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen

Country Status (1)

Country Link
DE (1) DE102014100352B4 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016113939A1 (de) 2016-07-28 2018-02-01 Valeo Schalter Und Sensoren Gmbh Blickrichtungserkennung für ein Fahrerassistenzsystem eines Kraftfahrzeugs
CN109583338A (zh) * 2018-11-19 2019-04-05 山东派蒙机电技术有限公司 基于深度融合神经网络的驾驶员视觉分散检测方法
CN111027506A (zh) * 2019-12-19 2020-04-17 斑马网络技术有限公司 视线方向的确定方法、装置、电子设备及存储介质
CN111985403A (zh) * 2020-08-20 2020-11-24 中再云图技术有限公司 一种基于人脸姿态估计和视线偏离的分心驾驶检测方法
CN112163470A (zh) * 2020-09-11 2021-01-01 高新兴科技集团股份有限公司 基于深度学习的疲劳状态识别方法、系统、存储介质
DE102019218712A1 (de) * 2019-12-02 2021-06-02 Robert Bosch Gmbh Verfahren zum Korrigieren eines selbstleuchtenden Displays
US11062158B2 (en) 2017-11-15 2021-07-13 Omron Corporation Driver state determination apparatus, method, and recording medium
CN113247012A (zh) * 2020-02-12 2021-08-13 Aptiv技术有限公司 在车辆驾驶员的视野中显示空间信息的系统和方法
CN113815623A (zh) * 2020-06-11 2021-12-21 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
CN116052136A (zh) * 2023-03-27 2023-05-02 中国科学技术大学 分心检测方法、车载控制器和计算机存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7423540B2 (en) 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state
BRPI0712837B8 (pt) 2006-06-11 2021-06-22 Volvo Tech Corporation método para determinação e análise de uma localização de interesse visual
US8406479B2 (en) 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
US20100007479A1 (en) 2008-07-08 2010-01-14 Smith Matthew R Adaptive driver warning methodology

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016113939A1 (de) 2016-07-28 2018-02-01 Valeo Schalter Und Sensoren Gmbh Blickrichtungserkennung für ein Fahrerassistenzsystem eines Kraftfahrzeugs
US11062158B2 (en) 2017-11-15 2021-07-13 Omron Corporation Driver state determination apparatus, method, and recording medium
DE102018127163B4 (de) 2017-11-15 2021-09-09 Omron Corporation Vorrichtung, verfahren und programm zur fahrerzustandsbestimmung
CN109583338A (zh) * 2018-11-19 2019-04-05 山东派蒙机电技术有限公司 基于深度融合神经网络的驾驶员视觉分散检测方法
DE102019218712A1 (de) * 2019-12-02 2021-06-02 Robert Bosch Gmbh Verfahren zum Korrigieren eines selbstleuchtenden Displays
CN111027506A (zh) * 2019-12-19 2020-04-17 斑马网络技术有限公司 视线方向的确定方法、装置、电子设备及存储介质
CN111027506B (zh) * 2019-12-19 2024-04-12 斑马网络技术有限公司 视线方向的确定方法、装置、电子设备及存储介质
CN113247012B (zh) * 2020-02-12 2024-01-30 Aptiv技术有限公司 在车辆驾驶员的视野中显示空间信息的系统和方法
CN113247012A (zh) * 2020-02-12 2021-08-13 Aptiv技术有限公司 在车辆驾驶员的视野中显示空间信息的系统和方法
CN113815623A (zh) * 2020-06-11 2021-12-21 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
CN113815623B (zh) * 2020-06-11 2023-08-08 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
CN111985403A (zh) * 2020-08-20 2020-11-24 中再云图技术有限公司 一种基于人脸姿态估计和视线偏离的分心驾驶检测方法
CN112163470A (zh) * 2020-09-11 2021-01-01 高新兴科技集团股份有限公司 基于深度学习的疲劳状态识别方法、系统、存储介质
CN116052136A (zh) * 2023-03-27 2023-05-02 中国科学技术大学 分心检测方法、车载控制器和计算机存储介质
CN116052136B (zh) * 2023-03-27 2023-09-05 中国科学技术大学 分心检测方法、车载控制器和计算机存储介质

Also Published As

Publication number Publication date
DE102014100352B4 (de) 2020-07-23

Similar Documents

Publication Publication Date Title
DE102014100352B4 (de) Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen
EP3542211B1 (de) Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
US20140204193A1 (en) Driver gaze detection system
EP3157426B1 (de) Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
DE60209989T2 (de) Robuste Ansichtsmodelle zur visuellen Bewegungsanalyse und Nachführung
Alioua et al. Driver’s fatigue detection based on yawning extraction
DE102006059172B4 (de) Bildprozessor
DE102015209822A1 (de) Erfassungseinrichtung, Erfassungsprogramm, Erfassungsverfahren, mit Erfassungseinrichtung ausgerüstetes Fahrzeug, Parameterberechnungseinrichtung, Parameter berechnende Parameter, Parameterberechnungsprogramm, und Verfahren zum Berechnen von Parametern
EP3968288A2 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE102010001520A1 (de) Durch einen Flugzeugsensor unterstütztes Iriserfassungssystem und -Verfahren
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE112018007120B4 (de) Physis-Ermittlungseinrichtung und Physis-Ermittlungsverfahren
DE102010001331A1 (de) Iris-Deblurring-Verfahren basierend auf globalen und lokalen Irisbildstatistiken
DE102011081370A1 (de) Vorrichtung zur Unterstützung der Fahrt eines mobilen Objekts auf der Grundlage von dessen Sollortskurve
DE102010001324A1 (de) Tiefenbewusstes Blur-Kernel-Schätzverfahren unter Verwendung von Iris-Deblurring
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE112017007011B4 (de) Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren
DE112018008131T5 (de) Zustandsbestimmungseinrichtung, zustandsbestimmungsverfahren und zustandsbestimmungsprogramm
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102022100559A1 (de) Materialspektroskopie
DE112020005223T5 (de) Objektverfolgungseinrichtung und Objektverfolgungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

Representative=s name: MANITZ, FINSTERWALD & PARTNER GBR, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final