DE102017207206A1 - Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs Download PDF

Info

Publication number
DE102017207206A1
DE102017207206A1 DE102017207206.7A DE102017207206A DE102017207206A1 DE 102017207206 A1 DE102017207206 A1 DE 102017207206A1 DE 102017207206 A DE102017207206 A DE 102017207206A DE 102017207206 A1 DE102017207206 A1 DE 102017207206A1
Authority
DE
Germany
Prior art keywords
state
sensor device
driver
illumination device
activated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017207206.7A
Other languages
English (en)
Inventor
Hoang Trinh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017207206.7A priority Critical patent/DE102017207206A1/de
Priority to FR1853492A priority patent/FR3065812B1/fr
Priority to CN201810394656.4A priority patent/CN108852382B/zh
Publication of DE102017207206A1 publication Critical patent/DE102017207206A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Abstract

Die Erfindung betrifft ein Verfahren zum Ansteuern eines Fahrerbeobachtungssystems (100) zum Beobachten eines Fahrers eines Fahrzeugs. Das Fahrerbeobachtungssystem (100) umfasst zumindest ein erstes Modul (102) mit einer ersten Sensoreinrichtung (CAM1) und einer ersten Beleuchtungseinrichtung (IR1) und ein zweites Modul (104) mit einer zweiten Sensoreinrichtung (CAM2) und einer zweiten Beleuchtungseinrichtung (IR2). In einem ersten Verfahrensschritt werden Bildanalysedaten, die ein Ergebnis einer Analyse zumindest eines von der ersten Sensoreinrichtung (CAM1) und/oder der zweiten Sensoreinrichtung (CAM2) aufgenommenen Bildes des Fahrers repräsentieren, und/oder Betriebszustandsdaten, die einen Betriebszustand des Fahrerbeobachtungssystems (100) repräsentieren, empfangen. Anschließend werden die Bildanalysedaten und/oder die Betriebszustandsdaten in einem zweiten Verfahrenschritt verwendet, um einen ersten Zustand und/oder einen zweiten Zustand des Fahrerbeobachtungssystems (100) zu aktivieren, in denen je zwischen einem ersten Aufnahmemodus und einem zweiten Aufnahmemodus umgeschaltet wird. Dabei sind im ersten Aufnahmemodus bei aktiviertem erstem Zustand die erste Sensoreinrichtung (CAM1) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet, während die zweite Sensoreinrichtung (CAM2) und die erste Beleuchtungseinrichtung (IR1) ausgeschaltet sind. Hingegen sind im ersten Aufnahmemodus bei aktiviertem zweitem Zustand die erste Sensoreinrichtung (CAM1) und die erste Beleuchtungseinrichtung (IR1) eingeschaltet, während die zweite Sensoreinrichtung (CAM2) und die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet sind. Im zweiten Aufnahmemodus sind bei aktiviertem erstem Zustand die zweite Sensoreinrichtung (CAM2) und die erste Beleuchtungseinrichtung (IR1) eingeschaltet, während die erste Sensoreinrichtung (CAM1) und die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet sind. Hingegen sind im zweiten Aufnahmemodus bei aktiviertem zweitem Zustand die zweite Sensoreinrichtung (CAM2) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet, während die erste Sensoreinrichtung (CAM1) und die erste Beleuchtungseinrichtung (IR1) ausgeschaltet sind.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Fahrerbeobachtungskameras können beispielsweise in Kombination mit Softwarefunktionen oder Algorithmen zur Erkennung von Kopf- und Augenbewegungen, zur Gesichtserkennung, zur Modellierung eines Fahrerverhaltens durch Detektion von Müdigkeit oder mangelnder Aufmerksamkeit oder zur Blickrichtungserkennung eingesetzt werden. Dabei kann etwa das Fahrergesicht durch eine aktive Infrarotbeleuchtung ausgeleuchtet werden, um unter allen Bedingungen ein kontrastreiches, homogenes und helles Bild des Gesichtsbereichs zu erhalten.
  • Bei Verwendung eines Zweikamerasystems und zweier Bright-Pupil-Module sollte die Kamerasichtverdeckung durch das Lenkrad oder die Hand des Fahrers berücksichtigt werden. Ferner können durch die aktive Beleuchtung Reflexionen entstehen, beispielsweise an Brillengläsern, die die Detektion beeinträchtigen können.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Es wird ein Verfahren zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs vorgestellt, wobei das Fahrerbeobachtungssystem zumindest ein erstes Modul und ein zweites Modul zum Erfassen des Fahrers aus unterschiedlichen Blickwinkeln aufweist, wobei das erste Modul eine erste Sensoreinrichtung und eine erste Beleuchtungseinrichtung aufweist und das zweite Modul eine zweite Sensoreinrichtung und eine zweite Beleuchtungseinrichtung aufweist, wobei das Verfahren folgende Schritte umfasst:
    • Empfangen von Bildanalysedaten, die ein Ergebnis einer Analyse zumindest eines von der ersten Sensoreinrichtung und/oder der zweiten Sensoreinrichtung aufgenommenen Bildes des Fahrers repräsentieren, und/oder von Betriebszustandsdaten, die einen Betriebszustand des Fahrerbeobachtungssystems repräsentieren; und
    • Aktivieren eines ersten Zustands des Fahrerbeobachtungssystems und/oder eines zweiten Zustands des Fahrerbeobachtungssystems unter Verwendung der Bildanalysedaten und/oder der Betriebszustandsdaten, wobei im ersten Zustand und/oder im zweiten Zustand zwischen einem ersten Aufnahmemodus und einem zweiten Aufnahmemodus umgeschaltet wird, wobei im ersten Aufnahmemodus bei aktiviertem erstem Zustand die erste Sensoreinrichtung und die zweite Beleuchtungseinrichtung eingeschaltet sind, während die zweite Sensoreinrichtung und die erste Beleuchtungseinrichtung ausgeschaltet sind, und/oder bei aktiviertem zweitem Zustand die erste Sensoreinrichtung und die erste Beleuchtungseinrichtung eingeschaltet sind, während die zweite Sensoreinrichtung und die zweite Beleuchtungseinrichtung ausgeschaltet sind, wobei im zweiten Aufnahmemodus bei aktiviertem erstem Zustand die zweite Sensoreinrichtung und die erste Beleuchtungseinrichtung eingeschaltet sind, während die erste Sensoreinrichtung und die zweite Beleuchtungseinrichtung ausgeschaltet sind, und/oder bei aktiviertem zweitem Zustand die zweite Sensoreinrichtung und die zweite Beleuchtungseinrichtung eingeschaltet sind, während die erste Sensoreinrichtung und die erste Beleuchtungseinrichtung ausgeschaltet sind.
  • Unter einem Modul kann etwa ein Kameramodul mit einer Kamera als Sensoreinrichtung verstanden werden. Unter einer Sensoreinrichtung kann im Allgemeinen ein optischer Sensor zum Aufnehmen von Bildern des Fahrers verstanden werden. Unter einer Beleuchtungseinrichtung kann beispielsweise zumindest eine Leuchtdiode, insbesondere auch ein Array aus einer Mehrzahl von Leuchtdioden, verstanden werden. Die Leuchtdioden können etwa als Infrarotleuchtdioden ausgebildet sein. Je nach Ausführungsform kann zumindest eine der beiden Beleuchtungseinrichtungen als sogenanntes Dark-Pupil-Modul zur Beleuchtung des Fahrers aus größerer Entfernung oder als Bright-Pupil-Modul zur Beleuchtung des Fahrers aus geringerer Entfernung realisiert sein. Die beiden Module können beispielsweise in ein Kombiinstrument des Fahrzeugs integriert sein.
  • Die Bildanalysedaten können beispielsweise eine Verdeckung zumindest einer der beiden Sensoreinrichtungen durch ein Lenkrad oder eine Hand des Fahrers, eine Helligkeit oder einen Kontrast in dem aufgenommenen Bild des Fahrers, insbesondere beispielsweise eine Helligkeit oder einen Kontrast einer Iris oder einer Pupille des Fahrers, repräsentieren. Ferner können die Bildanalysedaten zumindest eine in dem Bild des Fahrers erkannte Lichtreflexion, beispielsweise an einem Brillenglas, oder eine Genauigkeit einer Erkennung von Kopf- oder Augenbewegungen des Fahrers, auch Head- bzw. Eye-Tracking genannt, repräsentieren. Die Bildanalysedaten können beispielsweise unter Verwendung geeigneter Bildverarbeitungsalgorithmen, etwa zur Gesichtserkennung, zum Head- oder Eye-Tracking oder zur Unterdrückung von Brillenglasreflexionen, ermittelt worden sein. Die Bildanalysedaten können beispielsweise auch statistische Bilddaten repräsentieren.
  • Unter einem Betriebszustand kann beispielsweise ein gerade aktiver Erkennungsmodus des Fahrerbeobachtungssystems, etwa ein Gesichtserkennungsmodus oder Head- oder Eye-Tracking-Modus, verstanden werden.
  • Je nach Ausführungsform kann im ersten oder zweiten Zustand alternierend zwischen dem ersten und dem zweiten Aufnahmemodus umgeschaltet werden. Das Umschalten zwischen dem ersten und dem zweiten Aufnahmemodus kann entweder unterbrechungsfrei oder nach Ablauf eines vorgegebenen Unterbrechungsintervalls erfolgen. Das Umschalten zwischen dem ersten Zustand und dem zweiten Zustand kann beispielsweise verzögert erfolgen.
  • Der hier vorgestellte Ansatz beruht auf der Erkenntnis, dass eine situationsangepasste, kombinierte und ganzheitliche Kamera- und Infrarotbeleuchtungssteuerung in einem Fahrzeug mittels einer Zustandsmaschine zum Steuern von Zuständen eines Zweikamerasystems mit mindestens zwei Infrarotbeleuchtungsmodulen realisiert werden kann. Die Kameras können dabei beispielsweise paarweise zusammen mit je einem der beiden Infrarotbeleuchtungsmodule sequenziell aktiviert werden. Die Situations- oder Zustandserkennung erfolgt beispielsweise mittels Bildverarbeitungsalgorithmen wie Gesichtserkennung, Nachverfolgung von Kopf- und Augenbewegungen oder nachgeschalteten Zusatzalgorithmen, etwa zur Reduktion von Reflexionen an Brillengläsern. Anhand der erkannten Situation, etwa einer störenden Reflexion an einem Brillenglas, wird daraufhin ein jeweils optimales Ansteuerungsschema getriggert. Durch ein derartiges Verfahren zur adaptiven Steuerung von Kraftfahrzeuginnenraumkameras mit aktiver Infrarotbeleuchtung kann zum einen eine hohe Systemverfügbarkeit erreicht werden; zum anderen können dadurch störende Brillenglasreflexionen bei der Bildaufnahme effektiv vermieden werden.
  • Gemäß einer Ausführungsform kann im Schritt des Aktivierens der erste Zustand oder, zusätzlich oder alternativ, der zweite Zustand aktiviert werden, um alternierend zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umzuschalten. Dadurch kann die Genauigkeit bei der Erkennung von Augenbewegungen oder einer Blickrichtung des Fahrers erhöht werden.
  • Gemäß einer weiteren Ausführungsform kann im Schritt des Aktivierens der erste Zustand oder, zusätzlich oder alternativ, der zweite Zustand nach Ablauf eines Verzögerungsintervalls aktiviert werden. Dadurch kann beispielsweise ein zu schnelles Hin-und-her-Schalten zwischen dem ersten und dem zweiten Zustand vermieden werden.
  • Es ist vorteilhaft, wenn im Schritt des Aktivierens ein weiterer Zustand des Fahrerbeobachtungssystems unter Verwendung der Bildanalysedaten oder, zusätzlich oder alternativ, der Betriebszustandsdaten aktiviert wird. Im weiteren Zustand sind die erste Sensoreinrichtung, die zweite Sensoreinrichtung, die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung eingeschaltet. Dadurch kann das Gesicht des Fahrers auch bei schlechten Lichtverhältnissen, etwa nachts, gut ausgeleuchtet werden.
  • Von Vorteil ist auch, wenn im Schritt des Aktivierens ein zusätzlicher Zustand des Fahrerbeobachtungssystems unter Verwendung der Bildanalysedaten oder, zusätzlich oder alternativ, der Betriebszustandsdaten aktiviert wird. Im zusätzlichen Zustand kann zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umgeschaltet werden. Bei aktiviertem zusätzlichem Zustand sind im ersten Aufnahmemodus die erste Sensoreinrichtung, die zweite Sensoreinrichtung und die erste Beleuchtungseinrichtung eingeschaltet, während die zweite Beleuchtungseinrichtung ausgeschaltet ist. Im zweiten Aufnahmemodus sind bei aktiviertem zusätzlichem Zustand die erste Sensoreinrichtung, die zweite Sensoreinrichtung und die zweite Beleuchtungseinrichtung eingeschaltet, während die erste Beleuchtungseinrichtung ausgeschaltet ist. Durch diese Ausführungsform können Lichtreflexionen beim Beleuchten des Fahrers, beispielsweise an Brillengläsern, vermieden oder reduziert werden. Gleichzeitig kann damit eine hohe Erkennungsgenauigkeit gewährleistet werden.
  • Gemäß einer Ausführungsform kann im Schritt des Aktivierens der zusätzliche Zustand aktiviert werden, um nach Ablauf eines Unterbrechungsintervalls, in dem die erste Sensoreinrichtung, die zweite Sensoreinrichtung, die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung ausgeschaltet sind, zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umzuschalten. Dadurch können Lichtreflexionen besonders effizient unterdrückt werden.
  • Des Weiteren kann im Schritt des Aktivierens der zusätzliche Zustand aktiviert werden, wenn die Bildanalysedaten zumindest eine in dem Bild erkannte Lichtreflexion repräsentieren. Dadurch kann der zusätzliche Zustand abhängig vom tatsächlichen Vorhandensein von Lichtreflexionen aktiviert werden.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einem Steuergerät, implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung des Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale wie Beschleunigungs-, Druck-, Lenkwinkel- oder Umfeldsensorsignale zugreifen. Die Ansteuerung erfolgt über Aktoren wie Brems- oder Lenkaktoren oder ein Motorsteuergerät des Fahrzeugs.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 2 eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem erstem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 3 eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem zweitem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 4 eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem drittem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 5 eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem viertem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 6 eine schematische Darstellung von Umschaltwegen zum Umschalten zwischen Zuständen eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel;
    • 7 eine schematische Darstellung einer Vorrichtung gemäß einem Ausführungsbeispiel; und
    • 8 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines Fahrerbeobachtungssystems 100 gemäß einem Ausführungsbeispiel. Das Fahrerbeobachtungssystem 100 umfasst ein erstes Modul 102 bestehend aus einer ersten Sensoreinrichtung CAM1 und einer ersten Beleuchtungseinrichtung IR1 sowie ein zweites Modul 104 bestehend aus einer zweiten Sensoreinrichtung CAM2 und einer zweiten Beleuchtungseinrichtung IR2. Gemäß diesem Ausführungsbeispiel sind die beiden Module 102, 104 an einem Kombiinstrument 106 eines Fahrzeugs, beispielsweise an einem frei programmierbaren Kombiinstrument, angeordnet. Beispielsweise sind die beiden Module 102, 104 unterhalb eines Sichtfelds 108 eines Head-up-Displays angeordnet. Die beiden Module 102, 104 sind je mit einer Vorrichtung 110 zum Ansteuern der Sensoreinrichtungen CAM1, CAM2 und der Beleuchtungseinrichtungen IR1, IR2 verbunden, beispielsweise über Low Voltage Differential Signaling.
  • Die Module 102, 104 sind ausgebildet, um einen Fahrer des Fahrzeugs mittels der Beleuchtungseinrichtungen IR1, IR2 zu beleuchten und dabei mittels der Sensoreinrichtungen CAM1, CAM2 Bilder des Fahrers aufzunehmen. Auf der Vorrichtung 110 werden unter Verwendung der aufgenommenen Bilder beispielsweise Algorithmen zur Erkennung von Kopf- und Augenbewegungen oder zur Gesichtserkennung ausgeführt.
  • Die Vorrichtung 110 ist ausgebildet, um das Fahrerbeobachtungssystem 100 unter Verwendung von Bildanalysedaten einer anhand von Bilddaten zumindest einer der beiden Sensoreinrichtungen CAM1, CAM2 durchgeführten Bildanalyse oder auch unter Verwendung von Betriebszustandsdaten bezüglich eines aktuellen Betriebszustands des Fahrerbeobachtungssystems 100 in einen ersten Zustand oder einen zweiten Zustand umzuschalten. Dabei schaltet die Vorrichtung 110 in jedem der beiden Zustände zwischen einem ersten Aufnahmemodus und einem zweiten Aufnahmemodus um. Das Umschalten zwischen den beiden Aufnahmemodi erfolgt beispielsweise alternierend.
  • Bei aktiviertem erstem Zustand schaltet die Vorrichtung 110 im ersten Aufnahmemodus die erste Sensoreinrichtung CAM1 und die zweite Beleuchtungseinrichtung IR2 ein, wobei die zweite Sensoreinrichtung CAM2 und die erste Beleuchtungseinrichtung IR1 ausgeschaltet bleiben. Im zweiten Aufnahmemodus des ersten Zustands schaltet die Vorrichtung 110 die erste Sensoreinrichtung CAM1 und die zweite Beleuchtungseinrichtung IR2 ab, um stattdessen die zweite Sensoreinrichtung CAM2 und die erste Beleuchtungseinrichtung IR1 einzuschalten.
  • Bei aktiviertem zweitem Zustand schaltet die Vorrichtung 110 hingegen im ersten Aufnahmemodus die erste Sensoreinrichtung CAM1 und die erste Beleuchtungseinrichtung IR1 ein, während die zweite Sensoreinrichtung CAM2 und die zweite Beleuchtungseinrichtung IR2 ausgeschaltet bleiben. Im zweiten Aufnahmemodus des zweiten Zustands schaltet die Vorrichtung 110 die erste Sensoreinrichtung CAM1 und die erste Beleuchtungseinrichtung IR1 ab, um stattdessen die zweite Sensoreinrichtung CAM2 und die zweite Beleuchtungseinrichtung IR2 einzuschalten.
  • Gemäß einem Ausführungsbeispiel ist das Fahrerbeobachtungssystem 100 als Dualkamerasystem bestehend aus zwei Kameras mit integrierten Infrarotbeleuchtungseinheiten, auch Bright-Pupil-Module genannt, als Beleuchtungseinrichtungen IR1, IR2 realisiert. Die Kameras sind vor oder in einem Instrumentencluster verbaut oder integriert. Bei der Vorrichtung 110 handelt es sich entweder um ein bereits vorhandenes Steuergerät im Instrumentencluster oder ein dediziertes Steuergerät, das je nach Anforderung durch Ausnutzung von Synergien und vorhandenem Bauraum realisiert ist. Die Algorithmen und Funktionen zur Fahrerbeobachtung laufen auf der Vorrichtung 110. Dabei ist die Vorrichtung 110 beispielsweise über CAN, Ethernet oder Flexray mit einem Bussystem des Fahrzeugs verbunden. Die Infrarotbeleuchtungseinheiten, die beispielsweise je durch ein Array aus Infrarotleuchtdioden gebildet sind, sind in 1 lediglich beispielhaft beiderseits der Kameras angeordnet. Alternativ sind die Infrarotbeleuchtungseinheiten entweder links oder rechts der jeweiligen Kamera angeordnet. Optional umfasst das Fahrerbeobachtungssystem 100 zusätzlich zu den beiden Beleuchtungseinrichtungen IR1, IR2 zumindest ein zusätzliches Infrarot- oder Dark-Pupil-Modul zur Leistungssteigerung.
  • Die 2 bis 5 zeigen verschiedene Anwendungsfälle mit entsprechendem Systemtiming zur Veranschaulichung eines jeweiligen Betriebsstatus der Sensor- und Beleuchtungseinrichtungen des Fahrerbeobachtungssystems.
  • 2 zeigt eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem erstem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand von 1 beschriebenen Fahrerbeobachtungssystems. Die jeweiligen Signalverläufe der Sensoreinrichtungen CAM1, CAM2 und der Beleuchtungseinrichtungen IR1, IR2 sind übereinander dargestellt. Eingezeichnet sind ein erstes Zeitintervall 202, das den ersten Aufnahmemodus des ersten Zustands repräsentiert, und ein sich an das erste Zeitintervall 202 anschließendes zweites Zeitintervall 204, das den zweiten Aufnahmemodus des ersten Zustands repräsentiert. Die zwei aufeinanderfolgenden Zeitintervalle 202, 204 entsprechen zusammen beispielsweise einer Periode von 16 ms bei einer Bildwiederholrate von 60 fps. Das erste Zeitintervall 202 entspricht dabei beispielsweise 800 µs.
  • 3 zeigt eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem zweitem Zustand des Fahrerbeobachtungssystems aus 1.
  • 4 zeigt eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem drittem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand der 1 bis 3 beschriebenen Fahrerbeobachtungssystems. Der dritte Zustand wird ähnlich wie der erste oder zweite Zustand unter Verwendung der Bildanalysedaten oder der Betriebszustandsdaten oder beider Datentypen durch die Vorrichtung des Fahrerbeobachtungssystems aktiviert. Dabei sind beide Sensoreinrichtungen CAM1, CAM2 sowie beide Beleuchtungseinrichtungen IR1, IR2 während des ersten Zeitintervalls 202 eingeschaltet. Im zweiten Zeitintervall 204 sind die Sensor- und Beleuchtungseinrichtungen beider Module ausgeschaltet.
  • 5 zeigt eine schematische Darstellung eines zeitlichen Ablaufs bei aktiviertem viertem Zustand eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand der 1 bis 4 beschriebenen Fahrerbeobachtungssystems. Gemäß diesem Ausführungsbeispiel ist die Vorrichtung des Fahrerbeobachtungssystems ausgebildet, um unter Verwendung der Bildanalyse- oder Betriebszustandsdaten einen Zustand des Fahrerbeobachtungssystems zu aktivieren, in dem während des ersten Zeitintervalls 202 bei ausgeschalteter zweiter Beleuchtungseinrichtung IR2 die beiden Sensoreinrichtungen CAM1, CAM2 und die erste Beleuchtungseinrichtung IR1 eingeschaltet sind und in dem während des zweiten Zeitintervalls 204 bei ausgeschalteter erster Beleuchtungseinrichtung IR1 die beiden Sensoreinrichtungen CAM1, CAM2 und die zweite Beleuchtungseinrichtung IR2 eingeschaltet sind. Insbesondere eignet sich der in 5 gezeigte vierte Zustand zur Unterdrückung von Brillenglasreflexionen.
  • Gemäß diesem Ausführungsbeispiel sind die beiden Zeitintervalle 202, 204 durch ein Unterbrechungsintervall 500, in dem die Sensor- und Beleuchtungseinrichtungen beider Module ausgeschaltet sind, zeitlich voneinander getrennt.
  • In jedem der in den 2 bis 5 gezeigten Zustände wird ein an die Umgebungsbedingung angepasstes Beleuchtungsmuster realisiert, durch das optimale Bilder oder optimale Bildpaare bei der Unterdrückung von Brillenglasreflexionen und damit ein optimales Ergebnis für die verwendeten Bildverarbeitungsalgorithmen gewährleistet werden können. Beispielsweise laufen die Kameras CAM1, CAM2 im ersten Zustand zeitlich sequenziell innerhalb einer Periode von beispielsweise ca. 16 ms nacheinander, wobei IR2 für CAM1 und IR1 für CAM2 aktiv ist. Dadurch kann eine Dark-Pupil-Beleuchtung realisiert werden, die insbesondere eine gute, leistungsfähige Erkennung von Augenbewegungen und Blickrichtungen gewährleistet. Dabei kann sich aufgrund einer Verdeckung einer Kamera durch das Lenkrad die Systemverfügbarkeit verringern. Dies kann durch den zweiten Zustand etwa mittels Aktivierung einer Bright-Pupil-Beleuchtung, wobei CAM1 mit IR1 und CAM2 mit IR2 sequenziell aktiviert werden, abgefangen werden, sodass die nicht verdeckte Kamera ein beleuchtetes Bild liefern kann.
  • Während die Bright-Pupil-Beleuchtung bei bestimmten Personen und dunklen Umgebungsbedingungen, wenn die Pupille weit geöffnet und somit gut sichtbar und detektierbar ist, gut funktioniert, sollten bei helleren Umgebungsbedingungen oder in Extremsituationen wie etwa bei von hinten durch die Heckscheibe einfallendem Sonnenlicht alle verfügbaren Infrarotmodule aktiviert werden, damit das Fahrergesicht ausreichend beleuchtet wird, was durch den dritten Zustand erreicht wird. Dieses Beleuchtungsmuster garantiert ebenfalls eine gleichmäßige und homogene Beleuchtung für kontrastreiche Kamerabilder, die insbesondere für Bildverarbeitungsalgorithmen wie Kopfposenerkennung oder Gesichtsidentifizierung gut geeignet ist. Der vierte Zustand adressiert speziell Lichtreflexionen an Brillengläsern durch eine zeitlich sequenzielle Ansteuerung von IR1 zu einem ersten Zeitpunkt t1 und IR2 zu einem zweiten Zeitpunkt t2 und eine anschließende Auswertung der jeweiligen Kamerabilder von CAM1 zu den Zeitpunkten t1 bzw. t2. Ein spezieller Algorithmus zur Unterdrückung von Lichtreflexionen, etwa durch Bestimmung eines Minimumbildes oder basierend auf anderen Prinzipien, entfernt dabei die hellen Reflexbereiche. Dies wird optional parallel für CAM2 durchgeführt oder es wird das jeweils beste reduzierte Bild von CAM1 und CAM2 zur weiteren Verarbeitung für das Eye-Tracking verwendet.
  • 6 zeigt eine schematische Darstellung von Umschaltwegen zum Umschalten zwischen Zuständen eines Fahrerbeobachtungssystems gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand der 1 bis 5 beschriebenen Fahrerbeobachtungssystems. Die vier weiter oben genannten Zustände werden von einer Zustandsmaschine 600 gesteuert, die die Übergangsbedingungen während des Betriebs des Fahrerbeobachtungssystems kontinuierlich prüft. Die verschiedenen Umschaltwege sind durch Pfeile gekennzeichnet. Der erste bis vierte Zustand des Fahrerbeobachtungssystems ist mit den Ziffern 1 bis 4 gekennzeichnet. Die Ziffer 0 kennzeichnet einen Startzustand des Fahrerbeobachtungssystems. Je nach Ausführungsbeispiel erfolgt das Umschalten zwischen den Zuständen 0 bis 4 insbesondere in folgenden Richtungen:
    • - von 0 nach 1,
    • - von 0 nach 3,
    • - von 1 nach 2,
    • - von 2 nach 1,
    • - von 2 nach 3,
    • - von 2 nach 4,
    • - von 3 nach 1,
    • - von 3 nach 4,
    • - von 4 nach 1,
    • - von 4 nach 2.
  • Dabei erfolgt das Umschalten von 0 nach 1, von 0 nach 3, von 2 nach 3 und von 3 nach 1 beispielsweise abhängig von einer Bedingung A, die eine logische Verknüpfung mehrerer Flags wie „Gesichtserkennung aktiv“, „Head-Tracking im Initialisierungsmodus“, „Head-Tracking im Refind-Modus“ und von Bildstatistiken repräsentiert. Beim Initialisierungsmodus handelt es sich um eine globale Suche nach Kopfkandidaten im gesamten Bild. Im Refind-Modus sucht der Algorithmus innerhalb eines vergrößerten Suchbereichs erneut nach Kopf- oder Gesichtskandidaten, wenn diese bei einem vorherigen Tracking verloren gingen. Das Umschalten zwischen 2 und 4 erfolgt beispielsweise abhängig von einer Bedingung B, die eine Eye-Tracking-Robustheit oder einen entsprechenden Konfidenzwert repräsentiert.
  • Beispielsweise erfolgt der Übergang von 2 nach 4, wenn die Bedingung B „Eye-Tracking-Robustheit“ nicht erfüllt ist oder der Konfidenzwert unterhalb einer festgelegten Schwelle thr1 liegt oder wenn Brillenglas und Reflexion detektiert werden.
  • Das Umschalten zwischen 1 und 2 erfolgt beispielsweise abhängig von Helligkeits- oder Kontrastwerten in den von den Sensoreinrichtungen aufgenommenen Bildern. Beispielsweise wird bei einer erkannten Verdeckung zumindest einer der beiden Sensoreinrichtungen oder bei niedriger Helligkeit oder niedrigem Kontrast im Bereich der Iris oder Pupille des Fahrers von 1 nach 2 umgeschaltet. Von 2 nach 1 wird hingegen umgeschaltet, wenn keine Verdeckung erkannt wird oder die Umgebung zu dunkel ist.
  • Die Zustandsmaschine 600 befindet sich nach dem Starten im Zustand 0 und prüft die Bedingung A. Ist die Bedingung A erfüllt, dann wird auf Zustand 3 geschaltet, wo Kameras und Infrarotbeleuchtung synchron zueinander arbeiten. Wenn die Bedingung A nicht erfüllt ist, dann wird Zustand 1 getriggert usw. Jeder Zustand bleibt so lange erhalten, bis eine Übergangsbedingung erfüllt ist. Speziell im Zustand 4 wird beispielsweise durch ein Softwaremodul ein globales Flag gesetzt, wenn eine Brille oder eine Brillenglasreflexion erkannt wird. Dieses Softwaremodul ist je nach Ausführungsbeispiel in einem Head- oder Eye-Tracking-Modul oder in einem Gesichtserkennungsmodul integriert oder als eigenständiges Modul realisiert und wird je nach Bedarf aufgerufen oder läuft parallel.
  • Um ein schnelles Hin-und-her-Schalten zwischen den Zuständen zu vermeiden, ist optional ein Hystereseverhalten implementiert, etwa durch zwei unterschiedliche Schwellen, d. h., die erste Schwelle definiert die Eintrittsschwelle, beispielsweise thrl, und eine zweite Schwelle thr2, die kleiner ist thrl ist, legt fest, wann die Austrittsschwelle erreicht wird und ein Zustandswechsel eingeleitet werden kann, beispielsweise von Zustand 4 in Zustand 2.
  • Die Zustandsmaschine 600 steuert, zu welchen Zeitpunkten die verschiedenen Algorithmenmodule, etwa Gesichtserkennung, Kopfposenerkennung oder Eye-Tracking, aktiviert werden. Beispielsweise wird die Gesichtserkennung nur zu Beginn oder während einer Phase des Einsteigens und Platznehmens im Fahrzeug aktiviert, wobei die Algorithmen zum Head- oder Eye-Tracking inaktiv bleiben, da diese zur schnellen Erkennung der Person nicht unbedingt erforderlich sind.
  • 7 zeigt eine schematische Darstellung einer Vorrichtung 110 gemäß einem Ausführungsbeispiel, etwa einer vorangehend anhand der 1 bis 6 beschriebenen Vorrichtung. Gezeigt ist ein Regelungskreis bestehend aus Kameras, Infrarotmodulen und berechneten Basissignalen aus Bildverarbeitungsmodulen wie etwa Head-Tracker, die zur Parametrierung des Reglers oder der Zustandsmaschine in einem Kamera- und Infrarotsteuerblock verwendet werden. Gemäß diesem Ausführungsbeispiel umfasst die Vorrichtung 110 eine erste Puffereinheit 702 zum Puffern eines Videostreams der ersten Sensoreinrichtung CAM1 und eine zweite Puffereinheit 704 zum Puffern eines Videostreams der zweiten Sensoreinrichtung CAM2. Eine Mappingeinheit 706 ist ausgebildet, um die Videostreams, bei denen es sich beispielsweise um 12/10-Bit-Streams handelt, nach 8 Bit umzuwandeln und die umgewandelten Daten an eine Systemzustandsmaschine 707 mit einer Einheit 708 zur Gesichtserkennung, einer Einheit 710 zur Erkennung von Kopfbewegungen sowie einer Einheit 712 zur Erkennung von Augenbewegungen zu übertragen. Die von den Einheiten 708, 710, 712 bereitgestellten Bildanalysedaten 713 werden von der Systemzustandsmaschine 707 an eine den Kamera- und Infrarotsteuerblock repräsentierende Steuereinheit 714 geleitet, die die Bildanalysedaten 713 zur Ansteuerung der Sensoreinrichtungen CAM1, CAM2 und der Beleuchtungseinrichtungen IR1, IR2 auswertet. IR3 kennzeichnet eine ebenfalls durch die Steuereinheit 714 ansteuerbare zusätzliche Beleuchtungseinrichtung, beispielsweise ein zusätzliches Dark-Pupil-Modul.
  • 7 zeigt eine prinzipielle Wirkkette für ein Fahrerbeobachtungssystem in Form eines Dualkamerasystems. Die Zustandsmaschine zur Steuerung einer Infrarotbeleuchtung des Fahrerbeobachtungssystems ist etwa im Kamera- und Infrarotsteuerblock realisiert. Ausgehend von den Bildverarbeitungsalgorithmen Gesichtserkennung, Head-Tracking und Eye-Tracking, deren Aktivität von der separaten Systemzustandsmaschine 707 gesteuert wird, wird die Zustandsmaschine konditioniert. Die Zustandsmaschine triggert den jeweiligen Zustand des Fahrerbeobachtungssystems mit einer situationsangepassten Infrarotbeleuchtung und Bildauswertung, speziell bei Modi zur Reflexionsunterdrückung. Zusätzlich wird beispielsweise eine Parametrierung der Gewichtungen für die Bildverarbeitungsalgorithmen speziell für die Beleuchtungsregelung, d. h. optimiert für den Gesichtsbereich oder nur für den Augenbereich, festgelegt. Des Weiteren erfolgt beispielsweise eine Intensitätsregelung der Infrarotleuchtdioden durch entsprechende Treiber, sodass neben der Regelung der Beleuchtungszeit oder der Integrationszeit eine verbesserte Bildhelligkeit und ein verbesserter Bildkontrast erreicht werden können.
  • 8 zeigt ein Ablaufdiagramm eines Verfahrens 800 gemäß einem Ausführungsbeispiel. Das Verfahren 800 zum Ansteuern eines Fahrerbeobachtungssystems kann beispielsweise unter Verwendung einer Vorrichtung, wie sie vorangehend anhand der 1 bis 7 beschrieben ist, durchgeführt werden. Dabei werden in einem Schritt 810 die Bildanalysedaten bzw. die Betriebszustandsdaten empfangen. In einem weiteren Schritt 820 erfolgt die Aktivierung des ersten Zustands bzw. des zweiten Zustands des Fahrerbeobachtungssystems unter Verwendung der Bildanalysedaten bzw. der Betriebszustandsdaten.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (10)

  1. Verfahren (800) zum Ansteuern eines Fahrerbeobachtungssystems (100) zum Beobachten eines Fahrers eines Fahrzeugs, wobei das Fahrerbeobachtungssystem (100) zumindest ein erstes Modul (102) und ein zweites Modul (104) zum Erfassen des Fahrers aus unterschiedlichen Blickwinkeln aufweist, wobei das erste Modul (102) eine erste Sensoreinrichtung (CAM1) und eine erste Beleuchtungseinrichtung (IR1) aufweist und das zweite Modul (104) eine zweite Sensoreinrichtung (CAM2) und eine zweite Beleuchtungseinrichtung (IR2) aufweist, wobei das Verfahren (800) folgende Schritte umfasst: Empfangen (810) von Bildanalysedaten (713), die ein Ergebnis einer Analyse zumindest eines von der ersten Sensoreinrichtung (CAM1) und/oder der zweiten Sensoreinrichtung (CAM2) aufgenommenen Bildes des Fahrers repräsentieren, und/oder von Betriebszustandsdaten, die einen Betriebszustand des Fahrerbeobachtungssystems (100) repräsentieren; und Aktivieren (820) eines ersten Zustands (1) des Fahrerbeobachtungssystems (100) und/oder eines zweiten Zustands (2) des Fahrerbeobachtungssystems (100) unter Verwendung der Bildanalysedaten (713) und/oder der Betriebszustandsdaten, wobei im ersten Zustand (1) und/oder im zweiten Zustand (2) zwischen einem ersten Aufnahmemodus und einem zweiten Aufnahmemodus umgeschaltet wird, wobei im ersten Aufnahmemodus bei aktiviertem erstem Zustand (1) die erste Sensoreinrichtung (CAM1) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet sind, während die zweite Sensoreinrichtung (CAM2) und die erste Beleuchtungseinrichtung (IR1) ausgeschaltet sind, und/oder bei aktiviertem zweitem Zustand (2) die erste Sensoreinrichtung (CAM1) und die erste Beleuchtungseinrichtung (IR1) eingeschaltet sind, während die zweite Sensoreinrichtung (CAM2) und die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet sind, wobei im zweiten Aufnahmemodus bei aktiviertem erstem Zustand (1) die zweite Sensoreinrichtung (CAM2) und die erste Beleuchtungseinrichtung (IR1) eingeschaltet sind, während die erste Sensoreinrichtung (CAM1) und die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet sind, und/oder bei aktiviertem zweitem Zustand (2) die zweite Sensoreinrichtung (CAM2) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet sind, während die erste Sensoreinrichtung (CAM1) und die erste Beleuchtungseinrichtung (IR1) ausgeschaltet sind.
  2. Verfahren (800) gemäß Anspruch 1, bei dem im Schritt des Aktivierens (820) der erste Zustand (1) und/oder der zweite Zustand (2) aktiviert wird, um alternierend zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umzuschalten.
  3. Verfahren (800) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Aktivierens (820) der erste Zustand (1) und/oder der zweite Zustand (2) nach Ablauf eines Verzögerungsintervalls aktiviert wird.
  4. Verfahren (800) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Aktivierens (820) ein weiterer Zustand (3) des Fahrerbeobachtungssystems (100) unter Verwendung der Bildanalysedaten (713) und/oder der Betriebszustandsdaten aktiviert wird, wobei im weiteren Zustand (3) die erste Sensoreinrichtung (CAM1), die zweite Sensoreinrichtung (CAM2), die erste Beleuchtungseinrichtung (IR1) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet sind.
  5. Verfahren (800) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Aktivierens (820) ein zusätzlicher Zustand (4) des Fahrerbeobachtungssystems (100) unter Verwendung der Bildanalysedaten (713) und/oder der Betriebszustandsdaten aktiviert wird, wobei im zusätzlichen Zustand (4) zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umgeschaltet wird, wobei bei aktiviertem zusätzlichem Zustand (4) im ersten Aufnahmemodus die erste Sensoreinrichtung (CAM1), die zweite Sensoreinrichtung (CAM2) und die erste Beleuchtungseinrichtung (IR1) eingeschaltet sind, während die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet ist, und im zweiten Aufnahmemodus die erste Sensoreinrichtung (CAM1), die zweite Sensoreinrichtung (CAM2) und die zweite Beleuchtungseinrichtung (IR2) eingeschaltet sind, während die erste Beleuchtungseinrichtung (IR1) ausgeschaltet ist.
  6. Verfahren (800) gemäß Anspruch 5, bei dem im Schritt des Aktivierens (820) der zusätzliche Zustand (4) aktiviert wird, um nach Ablauf eines Unterbrechungsintervalls (500), in dem die erste Sensoreinrichtung (CAM1), die zweite Sensoreinrichtung (CAM2), die erste Beleuchtungseinrichtung (IR1) und die zweite Beleuchtungseinrichtung (IR2) ausgeschaltet sind, zwischen dem ersten Aufnahmemodus und dem zweiten Aufnahmemodus umzuschalten.
  7. Verfahren (800) gemäß Anspruch 5 oder 6, bei dem im Schritt des Aktivierens (820) der zusätzliche Zustand (4) aktiviert wird, wenn die Bildanalysedaten (713) zumindest eine in dem Bild erkannte Lichtreflexion repräsentieren.
  8. Vorrichtung (110) mit Einheiten (702, 704, 706, 707, 708, 710, 712, 714), die ausgebildet sind, um das Verfahren (800) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.
  9. Computerprogramm, das ausgebildet ist, um das Verfahren (800) gemäß einem der Ansprüche 1 bis 7 auszuführen und/oder anzusteuern.
  10. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.
DE102017207206.7A 2017-04-28 2017-04-28 Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs Pending DE102017207206A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017207206.7A DE102017207206A1 (de) 2017-04-28 2017-04-28 Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs
FR1853492A FR3065812B1 (fr) 2017-04-28 2018-04-20 Procede et dispositif de commande d'un systeme d'observation de conducteur d'un vehicule
CN201810394656.4A CN108852382B (zh) 2017-04-28 2018-04-27 用于操控用来观察车辆驾驶员的驾驶员观察系统的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017207206.7A DE102017207206A1 (de) 2017-04-28 2017-04-28 Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102017207206A1 true DE102017207206A1 (de) 2018-10-31

Family

ID=63797187

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017207206.7A Pending DE102017207206A1 (de) 2017-04-28 2017-04-28 Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs

Country Status (3)

Country Link
CN (1) CN108852382B (de)
DE (1) DE102017207206A1 (de)
FR (1) FR3065812B1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021113811A1 (de) 2021-05-28 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Innenraumüberwachung eines Fahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2238889A1 (de) * 2009-04-01 2010-10-13 Tobii Technology AB Adaptive Kamera und Illuminator-Eyetracker
DE102014215843A1 (de) * 2014-08-11 2016-02-11 Robert Bosch Gmbh Fahrerbeobachtungssystem für ein Kraftfahrzeug
US20160063304A1 (en) * 2014-08-29 2016-03-03 Alps Electric Co., Ltd. Line-of-sight detection apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7777778B2 (en) * 2004-10-27 2010-08-17 Delphi Technologies, Inc. Illumination and imaging system and method
EP2823751B1 (de) * 2013-07-09 2023-07-05 Smart Eye AB Blickabbildung des Auges
US9411417B2 (en) * 2014-07-07 2016-08-09 Logitech Europe S.A. Eye gaze tracking system and method
CN105118237B (zh) * 2015-09-16 2018-01-19 苏州清研微视电子科技有限公司 用于疲劳驾驶预警系统的智能照明系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2238889A1 (de) * 2009-04-01 2010-10-13 Tobii Technology AB Adaptive Kamera und Illuminator-Eyetracker
DE102014215843A1 (de) * 2014-08-11 2016-02-11 Robert Bosch Gmbh Fahrerbeobachtungssystem für ein Kraftfahrzeug
US20160063304A1 (en) * 2014-08-29 2016-03-03 Alps Electric Co., Ltd. Line-of-sight detection apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021113811A1 (de) 2021-05-28 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Innenraumüberwachung eines Fahrzeugs

Also Published As

Publication number Publication date
CN108852382B (zh) 2023-06-23
FR3065812A1 (fr) 2018-11-02
FR3065812B1 (fr) 2022-07-29
CN108852382A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
EP3022089B1 (de) Dynamische sichtfeldausleuchtung
DE102007056528B3 (de) Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
DE10339314B3 (de) Verfahren zur Anzeigesteuerung von unterschiedlichen Informationen in einem Fahrzeug und optoakustische Informationseinheit
US10521683B2 (en) Glare reduction
DE102008027194B4 (de) Gesichtsbildaufnahmevorrichtung
EP2836386B1 (de) Verfahren, vorrichtung und computerprogrammprodukt zum steuern zumindest einer funktion zumindest eines anzeigegerätes für einen innenraum eines fahrzeugs
DE102014212162A1 (de) Frontscheinwerfersteuerungsvorrichtung
DE102011017649B3 (de) Verfahren und Vorrichtung zur Erkennung einer Intensität eines Aerosols in einem Sichtfeld einer Kamera eines Fahrzeugs
EP1600006B1 (de) Verfahren und vorrichtung zur einstellung eines bildsensorsystems
DE102014002134A1 (de) Vorrichtung zur Erkennung einer Beleuchtungsumgebung eines Fahrzeugs und Steuerungsverfahren davon
DE112017004596T5 (de) Sichtlinienmessvorrichtung
CN109565549A (zh) 用于运行内饰摄像机的方法和设备
DE102014019420A1 (de) Kraftfahrzeugscheinwerfersystem, Kraftfahrzeug, Verfahren zum Betrieb eines Kraftfahrzeugscheinwerfersystems sowie Computerprogrammprodukt
DE102017207206A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Fahrerbeobachtungssystems zum Beobachten eines Fahrers eines Fahrzeugs
DE102014118387A1 (de) Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
DE102019004692B3 (de) Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
DE112017004669T5 (de) Luminanzsteuervorrichtung, Luminanzsteuersystem und Luminanzsteuerverfahren
DE102006040349B4 (de) Verfahren und Vorrichtung zur Erkennung von defekten Pixeln eines Bildaufnahmesensors in einem Fahrerassistenzsystem
DE102016225265A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE10300612A1 (de) Nachtsichtsystem für Kraftfahrzeuge
DE102019106258A1 (de) Insassenüberwachungsvorrichtung
DE102007021577A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung
WO2015139939A1 (de) Dynamische wellenlängenanpassung von eye-tracking beleuchtungen
DE102016204795B4 (de) Kraftfahrzeug mit einer Anzeigevorrichtung sowie Verfahren zum Betrieb eines Kraftfahrzeuges
WO2022117165A1 (de) Trainieren eines künstlichen neuronalen netzes

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000

R012 Request for examination validly filed