DE102017200607A1 - Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug - Google Patents

Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug Download PDF

Info

Publication number
DE102017200607A1
DE102017200607A1 DE102017200607.2A DE102017200607A DE102017200607A1 DE 102017200607 A1 DE102017200607 A1 DE 102017200607A1 DE 102017200607 A DE102017200607 A DE 102017200607A DE 102017200607 A1 DE102017200607 A1 DE 102017200607A1
Authority
DE
Germany
Prior art keywords
image
vehicle
illumination
shadow
surface structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017200607.2A
Other languages
English (en)
Other versions
DE102017200607B4 (de
Inventor
Johannes Foltin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017200607.2A priority Critical patent/DE102017200607B4/de
Priority to CN201810039961.1A priority patent/CN108334818B/zh
Priority to US15/873,233 priority patent/US10579867B2/en
Publication of DE102017200607A1 publication Critical patent/DE102017200607A1/de
Application granted granted Critical
Publication of DE102017200607B4 publication Critical patent/DE102017200607B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R22/00Safety belts or body harnesses in vehicles
    • B60R22/48Control systems, alarms, or interlock systems, for the correct application of the belt or harness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Arrangements Of Lighting Devices For Vehicle Interiors, Mounting And Supporting Thereof, Circuits Therefore (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts (108) in einem Fahrzeug (100), wobei das Fahrzeug (100) eine Beleuchtungseinrichtung (104) zum Beleuchten des Objekts (108) mit unterschiedlichen Beleuchtungseinstellungen und eine Bildaufnahmeeinrichtung (106) zum Aufnehmen von Bildern (112, 114, 116) des Objekts (108) aufweist. Dabei werden ein erstes Bild (112), das einen beim Beleuchten des Objekts (108) mit einer ersten Beleuchtungseinstellung erzeugten ersten Schattenwurf auf dem Objekt (108) repräsentiert, und ein zweites Bild (114), das einen beim Beleuchten des Objekts (108) mit einer zweiten Beleuchtungseinstellung erzeugten zweiten Schattenwurf auf dem Objekt (108) repräsentiert, eingelesen. Das erste Bild (112) und das zweite Bild (114) werden in einem weiteren Schritt verarbeitet, um anhand der beiden unterschiedlichen Schattenwürfe eine Oberflächenstruktur und/oder die Position des Objekts (108) zu erkennen.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Ein Fahrzeug kann mit einem Gurtwarnsystem, auch Seat-Belt-Reminder genannt, ausgestattet sein. Dabei können beispielsweise Sitzmatten zur Messung einer Sitzbelegung verwendet werden, da in der Regel nur ein belegter Sitz für eine Gurtwarnung relevant ist. Die Sitzmatten können beispielsweise zwischen verschiedenen Personengruppen unterscheiden, wie etwa zwischen einem Baby in einer Babyschale, einem Kind oder einem Erwachsenen. Neben Sitzmatten sind auch Gurtschlosssensoren zur Erfassung eines geöffneten oder geschlossenen Zustands eines Gurtschlosses bekannt. Ferner sind Kamerasysteme zur Fahrzeuginnenraumüberwachung bekannt.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen eines Objekts in einem Fahrzeug, eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Es wird ein Verfahren zum Erkennen eines Objekts in einem Fahrzeug vorgestellt, wobei das Fahrzeug eine Beleuchtungseinrichtung zum Beleuchten des Objekts mit unterschiedlichen Beleuchtungseinstellungen und eine Bildaufnahmeeinrichtung zum Aufnehmen von Bildern des Objekts aufweist, wobei das Verfahren folgende Schritte umfasst:
    Einlesen eines ersten Bildes, das einen beim Beleuchten des Objekts mit einer ersten Beleuchtungseinstellung erzeugten ersten Schattenwurf auf dem Objekt repräsentiert, und eines zweiten Bildes, das einen beim Beleuchten des Objekts mit einer zweiten Beleuchtungseinstellung erzeugten zweiten Schattenwurf auf dem Objekt repräsentiert; und
    Verarbeiten des ersten Bildes und des zweiten Bildes, um anhand des ersten Schattenwurfs und des zweiten Schattenwurfs eine Oberflächenstruktur und/oder Position des Objekts zu erkennen.
  • Unter einem Objekt kann etwa ein Fahrzeuginsasse, insbesondere ein Gesicht des Fahrzeuginsassen, oder auch ein Kindersitz oder eine Babyschale verstanden werden. Unter einer Beleuchtungseinrichtung kann beispielsweise eine herkömmliche Innenraumbeleuchtung zum Beleuchten des Objekts mit sichtbarem Licht und/oder mit Infrarot-Licht verstanden werden. Die Beleuchtungseinrichtung kann beispielsweise eine Mehrzahl von an unterschiedlichen Stellen im Innenraum positionierten Beleuchtungseinheiten umfassen, um das Objekt aus unterschiedlichen Richtungen beleuchten zu können. Unter einer Bildaufnahmeeinrichtung kann etwa eine Kamera zur Überwachung des Fahrzeuginnenraums verstanden werden. Die erste und die zweite Beleuchtungseinstellung können sich beispielsweise hinsichtlich einer durch die Beleuchtungseinrichtung erzeugten Lichtverteilung im Fahrzeuginnenraum voneinander unterscheiden. Unter einem Schattenwurf kann sowohl ein kontinuierlicher Helligkeitsverlauf als auch ein Schlagschatten verstanden werden. Ein kontinuierlicher Helligkeitsverlauf bei gleichbleibendem Reflexionsgrad kann beispielsweise durch die Änderung des Einfallwinkels auf die Oberfläche bzw. durch Änderung des Objektwinkels relativ zur Beleuchtungseinheit erfolgen. Eine Änderung des Objektwinkels und damit auch der Helligkeit erfolgt bei einer kugelförmigen Fläche kontinuierlich. Dies kann auch als Kosinusabhängigkeit bezeichnet werden. Der Schattenwurf kann gemäß dem hier vorliegenden Verständnis von der einfallenden Lichtintensität, dem richtungsabhängigen Reflexionsgrad, sowie dem Einfallswinkel abhängen.
  • Der hier vorgestellte Ansatz beruht auf der Erkenntnis, dass eine Innenraumsensierung in einem Kraftfahrzeug bei Dunkelheit durch eine synchronisiert wechselnde Beleuchtung des Innenraums verbessert werden kann. Durch eine individuelle Ansteuerung einer Innenraumbeleuchtung mit Synchronisation einer Bildauswertung wird eine Auswertung der Innenraumsituation über unterschiedlich beleuchtete und damit unterschiedlich schattierte Bilder ermöglicht. Vorteilhafterweise kann dabei eine Infrarotausleuchtung des Innenraums bei Dunkelheit entfallen, wenn die klassische Innenraumbeleuchtung derart angesteuert wird, dass verschiedene Beleuchtungssituationen geschaffen werden, die eine Unterscheidung zwischen flachen 2D-Objekten und erhabenen 3D-Objekten ermöglichen. Beispielsweise kann die Beleuchtungseinrichtung auch einer Sensitivität einer Kamera angepasst werden. Durch die Nutzung einer vorhandenen Innenraumbeleuchtung zur Innenraumsensierung kann beispielsweise auf eine zusätzliche Hilfsbeleuchtung verzichtet werden. Durch Nutzung des hier vorgestellten Ansatzes mit Infrarotlicht kann durch die unterschiedliche Ausleuchtung eine Unterscheidung zwischen flachen 2D-Objekten und erhabenen 3D-Objekten ermöglicht werden und/oder eine für die Auswertung verbesserte Ausleuchtung der Innenraumszene erreicht werden.
  • Durch Kenntnis der Position der Lichtquellen kann ferner aus dem Schattenwurf nicht nur die Oberflächenstruktur ermittelt werden, sondern gleichzeitig auch die Position des Objekts abgeschätzt werden. Dies wird vor allem bei punktförmigen Lichtquellen (z.B. einer LED-Lichtquelle) und nahem Abstand des Kopfes zur Lichtquelle möglich. Eine geringe Positionsänderung wirkt sich dann stark auch den Schattenwurf aus. Es kann somit in einem ersten Schritt eine Bestätigung erfolgen, dass es sich bei dem Objekt um ein dreidimensionales Objekt handelt, wobei dann in einem nachfolgenden zweiten Schritt eine Abschätzung der Position dieses Objekts ermittelt werden kann. Dieser zweite Schritt ist jedoch nicht zwingend nötig, da auch einfach mit der Annahme eines 3D-Objekts ohne Bestätigung die Position geschätzt werden könnte.
  • Gemäß einer Ausführungsform kann im Schritt des Verarbeitens ein dreidimensionales Modell des Objekts erzeugt werden, um die Oberflächenstruktur anhand des dreidimensionalen Modells zu erkennen. Das dreidimensionale Modell kann beispielsweise pixelweise durch Ermitteln eines jeweiligen Abstands von dem Objekt zugeordneten Bildpunkten zur Bildaufnahmeeinrichtung erzeugt werden. Durch diese Ausführungsform wird eine präzise und zuverlässige Erkennung der Oberflächenstruktur des Objekts ermöglicht. Zusätzlich oder alternativ kann die Position des Objekts gemessen werden. Eine solche Position kann beispielsweise dann besonders gut ermittelt werden, wenn der Abstand jedes Pixels zu einem benachbarten Pixel bekannt ist, was für andere Anwendungsfälle im Bereich der passiven Sicherheit vorteilhaft ist. In diesem Fall kann besonders vorteilhaft Infrarotlicht zur Beleuchtung verwendet werden.
  • Gemäß einer weiteren Ausführungsform kann im Schritt des Verarbeitens zumindest ein Helligkeitsschwellenwert verwendet werden, um einen den ersten Schattenwurf repräsentierenden ersten Helligkeitsverlauf oder, zusätzlich oder alternativ, einen den zweiten Schattenwurf repräsentierenden zweiten Helligkeitsverlauf zu ermitteln. Dabei kann die Oberflächenstruktur anhand zumindest einer der beiden Helligkeitsverläufe erkannt werden. Durch diese Ausführungsform kann ein Rechenaufwand beim Erkennen der Oberflächenstruktur reduziert werden. Somit kann die Effizienz des Verfahrens erhöht werden.
  • Es ist vorteilhaft, wenn im Schritt des Verarbeitens ein Abstand zwischen dem Objekt und der Beleuchtungseinrichtung pixelweise ermittelt wird, um die Oberflächenstruktur zu erkennen. Dadurch kann die Oberflächenstruktur mit möglichst hoher Auflösung erkannt werden.
  • Das Verfahren kann zudem einen Schritt des Auswertens der Oberflächenstruktur umfassen, um einen Fahrzeuginsassen oder einen Kindersitz als das Objekt zu erkennen. Beispielsweise kann das Objekt mittels einer geeigneten Klassifizierung als der Fahrzeuginsasse oder der Kindersitz erkannt werden. Dadurch kann beim Erkennen des Objekts zwischen Fahrzeuginsassen und Kindersitzen unterschieden werden.
  • Zudem kann das erste Bild oder das zweite Bild ein beim Beleuchten des Objekts mit sichtbarem Licht aufgenommenes Bild des Objekts repräsentieren. Alternativ können beide Bilder je ein beim Beleuchten des Objekts mit sichtbarem Licht aufgenommenes Bild des Objekts repräsentieren. Dadurch kann die Oberflächenstruktur unter Verwendung einer herkömmlichen Innenraumbeleuchtung erkannt werden. Somit kann auf eine zusätzliche Beleuchtungseinrichtung zur Erkennung der Oberflächenstruktur verzichtet werden.
  • Des Weiteren kann das Verfahren einen Schritt des Ansteuerns der Beleuchtungseinrichtung oder, zusätzlich oder alternativ, der Bildaufnahmeeinrichtung abhängig von einer Stellung zumindest einer Tür des Fahrzeugs umfassen. Dadurch kann die Effizienz der Objekterkennung erhöht werden.
  • Gemäß einer weiteren Ausführungsform kann im Schritt des Einlesens zumindest ein drittes Bild eingelesen werden. Das dritte Bild kann einen beim Beleuchten des Objekts mit einer dritten Beleuchtungseinstellung erzeugten dritten Schattenwurf auf dem Objekt repräsentieren. Dementsprechend kann im Schritt des Verarbeitens das dritte Bild verarbeitet werden, um die Oberflächenstruktur zu erkennen. Dadurch kann die Oberflächenstruktur anhand einer Mehrzahl unterschiedlicher Schattenwürfe auf dem Objekt erkannt werden. Somit kann die Zuverlässigkeit des Verfahrens weiter erhöht werden.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einem Steuergerät, implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung des Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale wie Beschleunigungs-, Druck-, Lenkwinkel- oder Umfeldsensorsignale zugreifen. Die Ansteuerung erfolgt über Aktoren wie Brems- oder Lenkaktoren oder ein Motorsteuergerät des Fahrzeugs.
  • In einer weiteren vorteilhaften Ausgestaltung erfolgt die Anpassung von Schutzmitteln des Fahrzeugs, beispielsweise die Auslösebedingung von Airbags oder Gurtstraffern. In einer weiteren vorteilhaften Ausgestaltung erfolgt die Anpassung von Informations-/ Warnfunktionen, beispielsweise einer Gurtwarnfunktion oder eines Airbagabschaltinformation bei Nutzung einer Babyschale auf dem Sitz.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel;
    • 2 eine schematische Darstellung einer Vorrichtung gemäß einem Ausführungsbeispiel;
    • 3 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel;
    • 4 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel;
    • 5 eine schematische Darstellung eines Gesichts bei verschiedenen Beleuchtungsverhältnissen in einem Fahrzeug; und
    • 6 eine schematische Darstellung eines flachen, inhomogenen Objekts mit Schwellen gleicher Helligkeit.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. Die Vorrichtung 102 ist mit einer Beleuchtungseinrichtung 104 zum Beleuchten eines Innenraums des Fahrzeugs 100, etwa einer herkömmlichen Innenraumbeleuchtung zum Beleuchten des Innenraums mit sichtbarem Licht, sowie einer Bildaufnahmeeinrichtung 106, beispielsweise einer Innenraumüberwachungskamera, zum Aufnehmen von Bildern des Innenraums verbunden. Alternativ ist die Beleuchtungseinrichtung 104 ausgebildet, um den Innenraum mit Licht im nicht sichtbaren Wellenlängenbereich zu beleuchten. In dem Fahrzeug 100 befindet sich ein Fahrzeuginsasse 108, der durch die Beleuchtungseinrichtung 104 mit unterschiedlichen Beleuchtungseinstellungen beleuchtet wird. Die Beleuchtungseinstellungen unterscheiden sich beispielsweise darin voneinander, dass die Beleuchtungseinrichtung 104 ein zu beleuchtendes Objekt, hier beispielhaft den Fahrzeuginsassen 108, je nach Beleuchtungseinstellung aus unterschiedlichen Richtungen beleuchtet, sodass sich auf einer Oberflächenstruktur des Objekts, die in 1 durch das Gesicht des Fahrzeuginsassen 108 charakterisiert ist, unterschiedliche Schattenwürfe (d. h., die hier als unterschiedlichen Lichtintensitäten bzw. Anzahl von Photonen pro Flächeneinheit verstanden werden können) ausbilden. Je nach Ausführungsbeispiel unterscheiden sich die Beleuchtungseinstellungen zusätzlich oder alternativ in einer Leuchtintensität voneinander. Beispielsweise ist die Vorrichtung 102 ausgebildet, um die Beleuchtungseinrichtung 104 durch Ausgeben eines entsprechenden Steuersignals 110 derart anzusteuern, dass der Fahrzeuginsasse 108 nacheinander mit einer ersten Beleuchtungseinstellung und einer von der ersten Beleuchtungseinstellung abweichenden zweiten Beleuchtungseinstellung beleuchtet wird, sodass sich auf dem Gesicht des Fahrzeuginsassen 108 beim Beleuchten mit der ersten Beleuchtungseinstellung ein erster Schattenwurf und beim Beleuchten mit der zweiten Beleuchtungseinstellung ein zweiter Schattenwurf ausbildet. Die Bildaufnahmeeinrichtung 106 ist ausgebildet, um beim Beleuchten des Fahrzeuginsassen 108 mit der ersten Beleuchtungseinstellung zumindest ein erstes Bild 112 aufzunehmen und beim Beleuchten des Fahrzeuginsassen 108 mit der zweiten Beleuchtungseinstellung zumindest ein zweites Bild 114 aufzunehmen und die beiden Bilder 112, 114 an die Vorrichtung 102 zu übermitteln. Die Vorrichtung 102 verarbeitet die beiden Bilder 112, 114, um beispielsweise die das Gesicht des Fahrzeuginsassen 108 oder die ein Objekt repräsentierende Oberflächenstruktur anhand des im ersten Bild 112 abgebildeten ersten Schattenwurfs und des im zweiten Bild 114 abgebildeten zweiten Schattenwurfs in geeigneter Weise zu rekonstruieren („Structure from Shading“). Beispielsweise ist die Vorrichtung 102 ausgebildet, um anhand der beiden Schattenwürfe eine Objektklassifizierung bzw. persönliche/individuelle Identifizierung durchzuführen, durch die das in den beiden Bildern 112, 114 durch die Schattenwürfe repräsentierte Objekt eindeutig als Gesicht erkannt werden kann. Speziell bei einer persönlichen bzw. individuellen Identifizierung kann beispielsweise ein Rückhaltemittel ideal angepasst oder eingestellt werden.
  • Gemäß einem Ausführungsbeispiel ist die Vorrichtung 102 ausgebildet, um die Beleuchtungseinrichtung 104 so anzusteuern, dass der Fahrzeuginsasse 108 zusätzlich mit zumindest einer von der ersten und zweiten Beleuchtungseinstellung abweichenden dritten Beleuchtungseinstellung beleuchtet wird, sodass sich auf dem Gesicht des Fahrzeuginsassen 108 ein entsprechender dritter Schattenwurf ausbildet. Dementsprechend nimmt die Bildaufnahmeeinrichtung 106 beim Beleuchten des Fahrzeuginsassen 108 mit der dritten Beleuchtungseinstellung ein entsprechendes drittes Bild 116 des Fahrzeuginsassen 108 auf, auf dem demzufolge der dritte Schattenwurf abgebildet ist. Das dritte Bild 116 wird dann von der Vorrichtung 102 zusätzlich zu den beiden Bildern 112, 114 zur Erkennung des Fahrzeuginsassen 108 verwendet.
  • 2 zeigt eine schematische Darstellung einer Vorrichtung 102 gemäß einem Ausführungsbeispiel, etwa einer Vorrichtung, wie sie vorangehend anhand von 1 beschrieben ist. Die Vorrichtung 102 umfasst eine Einleseeinheit 210 zum Einlesen des ersten Bildes 112 und des zweiten Bildes 114 über eine Schnittstelle zu der auf den Fahrzeuginsassen ausgerichteten Bildaufnahmeeinrichtung. Die Einleseeinheit 210 ist ausgebildet, um die beiden Bilder 112, 114 an eine Verarbeitungseinheit 220 der Vorrichtung 102 zu senden, die ausgebildet ist, um die beiden Bilder 112, 114 derart zu verarbeiten, dass die Oberflächenstruktur des Gesichts des Fahrzeuginsassen anhand der auf den beiden Bildern 112, 114 abgebildeten Schattenwürfe eindeutig erkannt wird. Als Ergebnis des Verarbeitens gibt die Verarbeitungseinheit 220 eine entsprechende Erkennungsinformation 222 aus, die beispielsweise das Ergebnis einer Zuordnung des durch die Beleuchtungseinrichtung beleuchteten Objekts zu einer Klasse „Fahrzeuginsasse“, eine persönliche bzw. individuelle Identifizierung eines konkreten Fahrzeuginsassen beispielsweise zur Einstellung von Parametern von Rückhaltemitteln oder einer Klasse „Kindersitz“ repräsentiert. Die Erkennungsinformation 222 kann beispielsweise von einem Steuergerät des Fahrzeugs weiterverarbeitet werden, um Rückhaltemittel im Fall einer bevorstehenden Kollision gezielt, d. h. beispielsweise insassenabhängig, auslösen zu können.
  • Gemäß einem Ausführungsbeispiel umfasst die Vorrichtung 102 eine Ansteuereinheit 230 zum Ansteuern der Beleuchtungseinrichtung des Fahrzeugs durch Ausgeben des Steuersignals 110. Dabei liest die Einleseeinheit 210 die beiden Bilder 112, 114 etwa ansprechend auf das Ausgeben des Steuersignals 110 ein, was in 2 durch einen Pfeil zwischen den beiden Einheiten 210, 230 angedeutet ist.
  • Insbesondere ist die Ansteuereinheit 230 ausgebildet, um die Beleuchtungseinrichtung in Abhängigkeit von einer Stellung zumindest einer Tür des Fahrzeugs, beispielsweise in Abhängigkeit von einem geschlossenen oder geöffneten Zustand der zumindest einen Tür, anzusteuern.
  • Optional ist die Ansteuereinheit 230 ausgebildet, um zusätzlich die Bildaufnahmeeinrichtung des Fahrzeugs in geeigneter Weise anzusteuern.
  • 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 gemäß einem Ausführungsbeispiel. Das Verfahren 300 zum Erkennen eines Objekts in einem Fahrzeug kann beispielsweise unter Verwendung einer Vorrichtung, wie sie vorangehend anhand der 1 und 2 beschrieben ist, durchgeführt werden. Dabei werden in einem Schritt 310 das erste Bild und das zweite Bild eingelesen. In einem Schritt 320 erfolgt die Verarbeitung der beiden Bilder, um die Oberflächenstruktur des im Fahrzeug beleuchteten Objekts anhand der durch die beiden Bilder repräsentierten Schattenwürfe zu erkennen.
  • 4 zeigt ein Ablaufdiagramm eines Verfahrens 300 gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand von 3 beschriebenen Verfahrens. Gemäß diesem Ausführungsbeispiel wird das Verfahren 300 mit einem Schritt 400 gestartet. In einem weiteren Schritt 402 wird überprüft, ob alle Türen des Fahrzeugs geschlossen sind. Ergibt sich dabei, dass die Türen nicht geschlossen sind, so wird in einem Schritt 404 eine Vorabmessung durchgeführt, bei der das zu erkennende Objekt im Innenraum des Fahrzeugs bereits bei geöffneter Tür mit unterschiedlichen Beleuchtungseinstellungen mithilfe der Beleuchtungseinrichtung beleuchtet wird. Ergibt sich im Schritt 402 hingegen, dass die Türen geschlossen sind, so wird in einem Schritt 406 mittels der Beleuchtungseinrichtung eine bestimmte Lichtverteilung im Innenraum eingestellt, etwa indem die erste oder zweite Beleuchtungseinstellung der Beleuchtungseinrichtung aktiviert wird. In einem Schritt 408 erfolgt die Aufnahme entsprechender Bilder, etwa des ersten Bildes und des zweiten Bildes. In einem Schritt 410 werden die beiden Bilder miteinander verrechnet, etwa um die Oberflächenstruktur des beleuchteten Objekts durch Erzeugen eines entsprechenden 3D-Modells rechnerisch nachzubilden. Optional erfolgt in einem Schritt 412 die Ermittlung einer Anwesenheit oder eines Typs von Personen anhand des im Schritt 410 erzeugten 3D-Modells. Die beiden Schritte 410, 412 können beispielsweise Teilschritte des vorangehend anhand von 3 beschriebenen Verarbeitungsschrittes 320 sein.
  • Die beiden Schritte 406, 408 werden beispielsweise für alle einzustellenden Lichtverteilungen wiederholt, was in 4 durch einen entsprechenden Pfeil angedeutet ist.
  • Mit einem Schritt 414 wird das Verfahren 300 beendet.
  • Gemäß einem Ausführungsbeispiel startet die Auswertung, sobald die Türen des Fahrzeugs geschlossen sind. Dadurch ist sichergestellt, dass keine weiteren Personen hinzukommen. Nachdem die Türen geschlossen wurden, werden verschiedene Lichtverteilungen angefahren. Neben einem harten Ein- und Ausschalten von Lichtverteilungen ist ebenfalls ein Dimmen möglich, um die Insassen wenig zu stören. Da die Bildaufnahme in der Regel nur wenige Millisekunden in Anspruch nimmt, kann das Umschalten der Lichtverteilungen nahezu unbemerkt geschehen. Die Insassen bekommen dann von der Messung wenig mit. Durch die Wahl einer geschickten Reihenfolge beim Abschalten der Innenraumbeleuchtung kann die Messung noch unauffälliger gestaltet werden. Wenn alle Lichtverteilungen gemessen wurden, gegebenenfalls mit Wiederholungen, falls eine Messung nicht eindeutig war, werden die Lichtverteilungen miteinander verrechnet. Aus den beispielsweise zu einer dreidimensionalen Darstellung verrechneten Bildern wird dann die Anwesenheit einer Person auf einem Sitz abgeleitet.
  • Zusätzlich ist eine Klassifizierung möglich, beispielsweise in Kind, Babyschale oder Erwachsener. Solange die Türen noch geöffnet sind, wird beispielsweise eine Vorabmessung durchgeführt. Diese kann die gleichen Schritte wie nach dem Schließen der Türen umfassen. Vorteilhaft ist hierbei die lange Zeitdauer, die bei geöffneten Türen zur Verfügung steht. Die Person, die die Türe schließt, bewegt sich beim Schließen der Tür, wodurch die jeweilige Pose oder Mimik der Person mittels eines entsprechenden Bewegungsklassifikators erkannt werden kann. Durch die mögliche große Zeitdauer in der Vorabmessung ist eine Detektion gut möglich. Nach dem Schließen der Türe sollte lediglich gemessen werden, ob sich an der vorher aufgenommenen Szene etwas geändert hat.
  • 5 zeigt eine schematische Darstellung eines Gesichts 500 bei verschiedenen Beleuchtungsverhältnissen in einem Fahrzeug. Bei dem Gesicht 500 handelt es sich beispielsweise um das Gesicht des Fahrzeuginsassen aus 1. Gezeigt sind insgesamt zwölf Darstellungen des Gesichts, die in vier Spalten 502, 504, 506, 508 und drei Zeilen 510, 512, 514 angeordnet sind. Beispielsweise handelt es sich dabei um Aufnahmen einer Person, die in der Mitte einer hinteren Sitzreihe des Fahrzeugs sitzt. Die nachfolgend verwendeten Begriffe „vorne“, „hinten“, „links“ und „rechts“ sind in Fahrtrichtung zu verstehen (vorne links sitzt der Fahrer).
  • Bei den Aufnahmen in der ersten Spalte 502 ist eine linke hintere Innenraumbeleuchtung eingeschaltet, wodurch das Gesicht 500 von links oben beleuchtet wird. Die zweite Spalte 504 repräsentiert eine Beleuchtungssituation, in der eine rechte hintere Innenraumbeleuchtung aktiviert ist, wodurch das Gesicht 500 von rechts oben beleuchtet wird. In der dritten Spalte 506 ist sowohl die linke hintere Beleuchtung als auch die rechte hintere Beleuchtung aktiv, sodass das Gesicht 500 beidseitig von oben beleuchtet wird. In der vierten Spalte 508 ist eine vordere Beleuchtung aktiv, womit das Gesicht 500 von vorne beleuchtet wird.
  • Die sich je nach Beleuchtungssituation ausbildenden unterschiedlichen Schattenwürfe auf dem Gesicht 500 sind in den verschiedenen Aufnahmen des Gesichts 500 durch entsprechende Schattierungen schematisch angedeutet.
  • In der ersten Zeile 510 ist das Gesicht 500 so dargestellt, wie es beispielsweise von der Bildaufnahmeeinrichtung erfasst wird. Der Hell-dunkel-Übergang ist dabei weich und kontinuierlich. Zur Veranschaulichung der Beleuchtung wurde in der zweiten Zeile 512 eine Art Binarisierung des Grauwertverlaufs vorgenommen. In der Bildauswertung erfolgt dies etwa durch Schwellenwertbildung eines Helligkeitswertes. Zusätzlich ist in der zweiten Zeile 512 ein Schattenwurf einer Nase des Fahrzeuginsassen eingezeichnet, um die Möglichkeiten einer dreidimensionalen Auswertung der Aufnahmen zu verdeutlichen.
  • In der dritten Zeile 514 sind Linien gleicher Helligkeit eingezeichnet, wie sie bei einem kugelförmigen Objekt wie etwa einem Gesicht gemessen werden können. Statt einer Binarisierung sind auch mehrere Schwellenwerte zur Ermittlung der jeweiligen Schattenwürfe in Form entsprechender Helligkeitsverläufe möglich. Die Helligkeitsverläufe sind durch unterschiedliche Linien angedeutet.
  • 6 zeigt eine schematische Darstellung eines flachen, inhomogenen Objekts mit Schwellen gleicher Helligkeit. Gezeigt ist die dritte Zeile 514 aus 5. Im Unterschied zu 5 handelt es sich bei dem aufgenommenen Objekt jedoch nicht um ein Gesicht, sondern um ein flaches Objekt 600. Das Objekt 600 weist zwar einen Farb- und Grauwertverlauf auf, durch den Linien unterschiedlicher Helligkeit gefunden werden können, doch ergibt sich aufgrund der zweidimensionalen Oberfläche des Objekts 600 auch bei unterschiedlichen Beleuchtungsverhältnissen keine nennenswerte Änderung dieser Linien.
  • Nachfolgend werden verschiedene Ausführungsbeispiele des hier vorgestellten Ansatzes nochmals mit anderen Worten beschrieben.
  • Eine passive Beleuchtung des Fahrzeuginnenraums durch das Scheinwerferlicht anderer Fahrzeuge oder eine Straßenbeleuchtung reicht zur kontinuierlichen Auswertung in der Regel nicht aus, da die Anwesenheit des externen Lichts nicht ständig gegeben ist. Daher nutzt der hier vorgestellte Ansatz, etwa als Ergänzung für die kontinuierliche Auswertung, die Innenraumbeleuchtung des Fahrzeugs, insbesondere beispielsweise bei Stillstand oder kurz vor dem Starten des Fahrzeugs.
  • Gemäß einem Ausführungsbeispiel wird mithilfe der Beleuchtungseinrichtung eine Beleuchtungssituation im Fahrzeug variiert, wobei von jeder Beleuchtungssituation mindestens ein Bild aufgenommen wird. Durch die variierende Beleuchtungssituation ist der Schattenwurf immer ein wenig anders. Dies hat zum einen den Vorteil, dass für die Gesichtserkennung ein optimal belichtetes Bild ausgewählt und genutzt werden kann. Zum anderen wird eine genaue Rekonstruktion einer dreidimensionale Szene aus den Schattenwürfen ermöglicht.
  • Das Variieren der Helligkeit im Fahrzeuginnenraum erfolgt beispielsweise nach dem Einsteigen ins Fahrzeug, da man hier bereits gewohnt ist, dass die Innenraumbeleuchtung aktiviert wird.
  • Manche Gesichter werden von der Bildverarbeitung nur schwer als Gesicht erkannt. Dies ist insbesondere dann der Fall, wenn es sich um ein Einzelbild handelt oder nur sehr wenige Bilder bei gleicher Beleuchtung aufgenommen wurden. Durch Verändern der Beleuchtungssituation erhöht sich die Wahrscheinlichkeit, eine passende Kombination aus individuellem Gesicht, Pose und Mimik und Beleuchtung zu finden, da zwar Beleuchtungsparameter variiert werden, Gesicht und Pose des Fahrzeuginsassen aber im Wesentlichen unverändert bleiben. Ohne eine derartige Variation der Beleuchtung wären die Detektionsmöglichkeiten eingeschränkt. Falls bei einer Detektion die Erkennung unsicher war, etwa weil nur in einer von mehreren Beleuchtungssituationen ein Gesicht erkannt wurde, wird beispielsweise gezielt für die betreffende Sitzposition eine längere Beleuchtungsserie gestartet, wodurch die Wahrscheinlichkeit steigt, dass sich der Fahrzeuginsasse bewegt und seine Mimik oder Pose ändert.
  • Neben einer erhöhten Detektionsrate bei der Gesichtserkennung kann die unterschiedliche Beleuchtung auch bei der individuellen Identifikation einer Person im Kontext der individuellen Insassensicherheit, auch Individual Occupant Safety oder kurz IOS genannt, behilflich sein. So können durch die unterschiedliche Beleuchtung unterschiedliche Aspekte noch zuverlässiger ausgewertet werden, etwa eine Nase-Augen-Partie, was die Wahrscheinlichkeit einer korrekten Identifikation auch bei Dunkelheit ohne zusätzliche Infrarotbeleuchtung ermöglicht.
  • Bei der Rekonstruktion der 3D-Struktur aus dem Schattenwurf wird die Tatsache ausgenutzt, dass sich bei der Beleuchtung eines dreidimensionalen Objekts ein Schatten an der lichtabgewandten Seite bildet. Eine statische Beleuchtung hat den Nachteil, dass ein Schatten (geringe Reflexion durch wenig Lichteintrag) von einer dunklen Stelle (geringe Reflexion durch starke Lichtabsorption) nicht unterschieden werden kann. Daher könnte beispielsweise eine Fotografie für einen Menschen gehalten werden, da die dunkle Farbe des Schattens auf der Fotografie (erhöhte Absorption) nicht von einem realen Schatten (geringe Reflexion) unterschieden werden kann.
  • Da durch die Ansteuerung der Beleuchtungseinrichtung die Beleuchtungssituation bekannt ist, kann durch Variation der Beleuchtungsseite herausgefunden werden, was durch den Schattenwurf und was durch die Reflexion (Helligkeit) des Materials verursacht wurde.
  • Durch Variation der Beleuchtungsverhältnisse wird beispielsweise aus den (im kritischsten Fall sogar unbewegten) 2D-Aufnahmen ein 3D-Modell geschätzt und so das beleuchtete Objekt zuverlässig als Mensch oder auch als Babyschale o. Ä. erkannt.
  • Gemäß einem Ausführungsbeispiel wird durch Kenntnis einer Lichtverteilung der Innenraumbeleuchtung durch Vergleich der Isolux-Kurven ein Reflexionsgrad oder ein Abstand ermittelt, etwa als gemeinsame Kennziffer, beispielsweise als Leuchtdichte. Durch die Messung und Kenntnis einer zweiten Lichtverteilung werden Reflexionsgrad und Abstand voneinander getrennt. Der Abstand von der Beleuchtungseinrichtung wird dann zu jedem Pixel genau ermittelt, wodurch eine dreidimensionale Repräsentation des Objekts erzeugt wird. Unter einem Abstand kann sowohl ein longitudinaler Abstand zwischen Beleuchtungseinrichtung und Objekt verstanden werden, als auch ein Abstand von einer Bezugsachse, beispielsweise der Hauptabstrahlrichtung. Dies kann beispielsweise als eine Position im Raum als Polarkoordinaten dargestellt werden. Der Abstand kann hierbei als ein wichtiges Merkmal betrachtet werden, das auch von anderen Funktionen genutzt werden kann, beispielsweise zur Initialisierung von Objektverfolgungsmessung. Mit einer Kamera kann einfach eine Relativbewegung gemessen werden. Zur Einstellung von Airbagzündzeiten etc. ist die Kenntnis der absoluten Position wichtig, d.h., durch die Abstandsmessung kann mit dem hier vorgestellten Ansatz ein Initialwert für ein Personenschutzmitel ermittelt werden. Anschließend kann durch die Messung einer Relativbewegung die absolute Position ermittelt und die Ansteuerung des Personenschutzmitels angepasst werden.
  • Die dreidimensionale Repräsentation wird dann mit möglichen Positionen und einer möglichen Größe der zu erkennenden Personen verglichen, um eine Sitzbelegung im Fahrzeug zu ermitteln. Die Gurterkennung im Fahrzeug erfolgt beispielsweise mit klassischen Mitteln, etwa durch die Auswertung von 2D-Bildinformationen, kann jedoch zusätzlich durch die 3D-Messinformation gestützt werden, etwa bei der Auswahl möglicher Messbereiche.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (11)

  1. Verfahren (300) zum Erkennen eines Objekts (108; 500; 600) in einem Fahrzeug (100), wobei das Fahrzeug (100) eine Beleuchtungseinrichtung (104) zum Beleuchten des Objekts (108; 500; 600) mit unterschiedlichen Beleuchtungseinstellungen und eine Bildaufnahmeeinrichtung (106) zum Aufnehmen von Bildern (112, 114, 116) des Objekts (108; 500; 600) aufweist, wobei das Verfahren (300) folgende Schritte umfasst: Einlesen (310) eines ersten Bildes (112), das einen beim Beleuchten des Objekts (108; 500; 600) mit einer ersten Beleuchtungseinstellung erzeugten ersten Schattenwurf auf dem Objekt (108; 500; 600) repräsentiert, und eines zweiten Bildes (114), das einen beim Beleuchten des Objekts (108; 500; 600) mit einer zweiten Beleuchtungseinstellung erzeugten zweiten Schattenwurf auf dem Objekt (108; 500; 600) repräsentiert; und Verarbeiten (320) des ersten Bildes (112) und des zweiten Bildes (114), um anhand des ersten Schattenwurfs und des zweiten Schattenwurfs eine Oberflächenstruktur und/oder Position des Objekts (108; 500; 600) zu erkennen.
  2. Verfahren (300) gemäß Anspruch 1, bei dem im Schritt des Verarbeitens (320) ein dreidimensionales Modell des Objekts (108; 500; 600) erzeugt wird, um die Oberflächenstruktur anhand des dreidimensionalen Modells zu erkennen.
  3. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Verarbeitens (320) zumindest ein Helligkeitsschwellenwert verwendet wird, um einen den ersten Schattenwurf repräsentierenden ersten Helligkeitsverlauf und/oder einen den zweiten Schattenwurf repräsentierenden zweiten Helligkeitsverlauf zu ermitteln, wobei die Oberflächenstruktur anhand des ersten Helligkeitsverlaufes und/oder des zweiten Helligkeitsverlaufes erkannt wird.
  4. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Verarbeitens (320) ein Abstand zwischen dem Objekt (108; 500; 600) und der Beleuchtungseinrichtung (104) pixelweise ermittelt wird, um die Oberflächenstruktur zu erkennen.
  5. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Auswertens der Oberflächenstruktur, um einen Fahrzeuginsassen (108) und/oder einen Kindersitz als das Objekt (108; 500; 600) zu erkennen.
  6. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem das erste Bild (112) und/oder das zweite Bild (114) ein beim Beleuchten des Objekts (108; 500; 600) mit sichtbarem Licht aufgenommenes Bild des Objekts (108; 500; 600) repräsentiert.
  7. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Ansteuerns der Beleuchtungseinrichtung (104) und/oder der Bildaufnahmeeinrichtung (106) abhängig von einer Stellung zumindest einer Tür des Fahrzeugs (100).
  8. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (310) zumindest ein drittes Bild (116) eingelesen wird, wobei das dritte Bild (116) einen beim Beleuchten des Objekts (108; 500; 600) mit einer dritten Beleuchtungseinstellung erzeugten dritten Schattenwurf auf dem Objekt (108; 500; 600) repräsentiert, wobei im Schritt des Verarbeitens (320) das dritte Bild (116) verarbeitet wird, um die Oberflächenstruktur und/oder den Abstand und/oder die Position zu erkennen.
  9. Vorrichtung (102) mit Einheiten (210, 220, 230), die ausgebildet sind, um das Verfahren (300) gemäß einem der Ansprüche 1 bis 8 auszuführen und/oder anzusteuern.
  10. Computerprogramm, das ausgebildet ist, um das Verfahren (300) gemäß einem der Ansprüche 1 bis 8 auszuführen und/oder anzusteuern.
  11. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 10 gespeichert ist.
DE102017200607.2A 2017-01-17 2017-01-17 Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug Active DE102017200607B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017200607.2A DE102017200607B4 (de) 2017-01-17 2017-01-17 Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug
CN201810039961.1A CN108334818B (zh) 2017-01-17 2018-01-16 用于识别车辆中的对象的方法和设备
US15/873,233 US10579867B2 (en) 2017-01-17 2018-01-17 Method and device for detecting an object in a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017200607.2A DE102017200607B4 (de) 2017-01-17 2017-01-17 Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug

Publications (2)

Publication Number Publication Date
DE102017200607A1 true DE102017200607A1 (de) 2018-07-19
DE102017200607B4 DE102017200607B4 (de) 2024-02-15

Family

ID=62716402

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017200607.2A Active DE102017200607B4 (de) 2017-01-17 2017-01-17 Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug

Country Status (3)

Country Link
US (1) US10579867B2 (de)
CN (1) CN108334818B (de)
DE (1) DE102017200607B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020064801A1 (de) * 2018-09-28 2020-04-02 Continental Automotive Gmbh Verfahren und system zum ermitteln einer position eines nutzers eines kraftfahrzeugs
DE102019114707B4 (de) 2018-06-22 2021-12-23 GM Global Technology Operations LLC System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10988070B2 (en) * 2018-10-08 2021-04-27 GM Global Technology Operations LLC Frunk and trunk storage baggage retention and remainder
CN110705391B (zh) * 2019-09-17 2023-09-19 四川大学锦城学院 一种基于人体图像识别方法的座位分配系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6914526B2 (en) * 2002-03-22 2005-07-05 Trw Inc. Intrusion detection system using linear imaging
JP4756044B2 (ja) * 2004-09-06 2011-08-24 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 自動車シート上の対象物を検出するための装置
JP4623501B2 (ja) * 2005-02-18 2011-02-02 タカタ株式会社 検知システム、報知装置、駆動装置、車両
JP4438753B2 (ja) 2006-01-27 2010-03-24 株式会社日立製作所 車両内状態検知システム,車両内状態検知装置および方法
DE102011077038A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
CN104571511B (zh) * 2014-12-30 2018-04-27 青岛歌尔声学科技有限公司 一种3d场景中重现物体的系统和方法
KR102558737B1 (ko) * 2016-01-04 2023-07-24 삼성전자주식회사 3d 렌더링 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019114707B4 (de) 2018-06-22 2021-12-23 GM Global Technology Operations LLC System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug
WO2020064801A1 (de) * 2018-09-28 2020-04-02 Continental Automotive Gmbh Verfahren und system zum ermitteln einer position eines nutzers eines kraftfahrzeugs

Also Published As

Publication number Publication date
US20180204056A1 (en) 2018-07-19
CN108334818A (zh) 2018-07-27
US10579867B2 (en) 2020-03-03
CN108334818B (zh) 2023-06-27
DE102017200607B4 (de) 2024-02-15

Similar Documents

Publication Publication Date Title
DE102006024979B4 (de) Verfahren und Vorrichtung zum Detektieren der Anwesenheit eines Insassen innerhalb eines Fahrzeugs
DE102017200607B4 (de) Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug
DE102005031637B4 (de) Beleuchtungsvorrichtung für den Fahrgastraum eines Fahrzeugs
DE102008027194B4 (de) Gesichtsbildaufnahmevorrichtung
DE102006020192B4 (de) Vorrichtung und Verfahren zum Vorhersagen von Kollision
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
DE60106134T2 (de) Gesichtsaufnahmesensor zur Personenerkennung, -identifizierung und -beobachtung für Airbagsteuerung
US20040220705A1 (en) Visual classification and posture estimation of multiple vehicle occupants
DE102005060055A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugsitzes
DE19947062A1 (de) Vorrichtung zum Erfassen eines Objekts unter Verwendung eines Differentialbildes
DE19932520A1 (de) Vorrichtung zur Steuerung eines Sicherheitssystems
DE102013019210A1 (de) Beleuchtungsvorrichtung für den Fahrgastraum eines Kraftfahrzeugs und Verfahren zum Steuern der Beleuchtungsvorrichtung
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
DE102018206777A1 (de) Tiefenauswertung zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum
DE102020115779A1 (de) Abbildungssteuerungsvorrichtung
DE10226257A1 (de) Verfahren zur Detektion einer Person in einem Raum
DE102009014437A1 (de) Objekterkennungssystem und -verfahren
DE10321506B4 (de) Verfahren zur Bestimmung der aktuellen Kopfposition von Fahrzeuginsassen
DE102020214713A1 (de) Verfahren zum Unterscheiden einer realen Person von einem Surrogat
DE102008031697B4 (de) Vorrichtung und Verfahren zur Objektidentifikation
DE102016011246A1 (de) Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges
DE10133386A1 (de) Verfahren und Vorrichtung zum Erkennen einer Ist-Position einer Person innerhalb eines vorgebbaren Bereiches und Verwendung des Verfahrens und/oder der Vorrichtung
DE102006043433B4 (de) Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen
DE102021003728B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102022002766B4 (de) Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division