DE102011077038A1 - Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs Download PDF

Info

Publication number
DE102011077038A1
DE102011077038A1 DE102011077038A DE102011077038A DE102011077038A1 DE 102011077038 A1 DE102011077038 A1 DE 102011077038A1 DE 102011077038 A DE102011077038 A DE 102011077038A DE 102011077038 A DE102011077038 A DE 102011077038A DE 102011077038 A1 DE102011077038 A1 DE 102011077038A1
Authority
DE
Germany
Prior art keywords
image
vehicle
brightness
recognition algorithm
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011077038A
Other languages
English (en)
Inventor
Petko Faber
Gregor Schwarzenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011077038A priority Critical patent/DE102011077038A1/de
Priority to US14/124,971 priority patent/US10552688B2/en
Priority to EP12729369.4A priority patent/EP2718869A2/de
Priority to PCT/EP2012/059348 priority patent/WO2012168055A2/de
Priority to CN201280027459.XA priority patent/CN103782307A/zh
Priority to JP2014513977A priority patent/JP6175430B2/ja
Publication of DE102011077038A1 publication Critical patent/DE102011077038A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/11Linear movements of the vehicle
    • B60Q2300/112Vehicle speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • B60Q2300/3321Detection of streetlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Abstract

Die Erfindung betrifft ein Verfahren (500) zur Erkennung von Objekten (240, 250) in einem Umfeld (130) eines Fahrzeugs (100). Das Verfahren (500) umfasst einen Schritt des Einlesens (510) eines ersten Bildes (210) einer Fahrzeugkamera (110), das das Umfeld (130) des Fahrzeugs (100) repräsentiert und das mit einer ersten Belichtungszeit aufgenommen wurde und Einlesen eines zweiten Bildes (220) der Fahrzeugkamera (110), das nach dem ersten Bild (210) und mit einer zweiten Belichtungszeit aufgenommen wurde, wobei sich die zweite Belichtungszeit von der ersten Belichtungszeit unterscheidet. Ferner umfasst das Verfahren einen Schritt des Extrahierens (520) eines Bildausschnittes (230) aus dem zweiten Bild (220) der Fahrzeugkamera (110), wobei der Bildausschnitt (230) einen kleineren Bereich des Umfeldes (130) des Fahrzeugs (100) repräsentiert, als das erste Bild (210), wobei beim Extrahieren (520) eine Position des Bildausschnitts (230) im zweiten Bild (220) auf der Basis von zumindest einem Parameter bestimmt wird, der eine Information über eine Fahrt des Fahrzeugs und/oder eine Position einer Infrastrukturmaßnahme vor dem Fahrzeug repräsentiert und/oder der von einem sich bewegenden Objekt unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt (230) erkannt wurde. Schließlich umfasst das Verfahren einen Schritt des Anwendens (530) eines ersten Objekterkennungsalgorithmus auf das erste Bild (210), um zumindest ein Objekt (240) in dem ersten Bild (210) zu erkennen und Anwenden eines zweiten Objekterkennungsalgorithmus auf den Bildausschnitt (230), um zumindest ein weiteres Objekt (250) in dem Bildausschnitt (230) zu erkennen.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.
  • Um eine möglichst gute Erkennung von Objekten aus einem Bild einer Kamera eines Fahrzeugs zu erreichen, sollte eine möglichst detaillierte Auswertung von zur Verfügung stehenden Informationen erfolgen. Insbesondere bei Nacht sollte dabei jedoch berücksichtigt werden, dass es bei der Verwendung von Bildern einer Fahrzeugkamera zu Blendungen durch die „Überlichtung“ durch Scheinwerfer von nahen entgegenkommenden Fahrzeugen kommen kann, die eine Information überdecken, welche von vorausfahrenden Fahrzeugen ausgesandt werden, die sich beispielsweise weiter entfernt befinden. Zur Vermeidung von solchen Blendungen können beispielsweise Systeme verwendet werden, die eine Szene in der Fahrzeugumgebung mit ein oder mehreren Belichtungszeiten vermessen und für jedes Bild dieselbe Funktion oder jeweils nur eine Auswertungsfunktion durchführen.
  • Die DE 10 2007 001 099 A1 betrifft eine Auswerteeinrichtung für ein Fahrerassistenzsystem für ein Fahrzeug, mit einem Eingang zum Empfangen von einer Kamera aufgenommenen Bildinformationen, einem ersten Bestandteil zum Auffinden eines eine vorgegebene Form enthaltenden Bildausschnitts in ersten von der Kamera empfangenen Bildinformationen, einem zweiten Bestandteil zum Anfordern von zweiten Bildinformationen, wobei die zweiten Bildinformationen einer erneuten Aufnahme eines vom ersten Bestandteil aufgefundenen Bildausschnitts mit gegenüber den ersten Bildinformationen verbessertem Kontrast entsprechen. Weiterhin sind ein dritter Bestandteil vorhanden zum Identifizieren eines Verkehrszeichens in den zweiten Bildinformationen sowie ein Ausgang zum Ausgeben eines Signals, betreffend ein vom dritten Bestandteil identifiziertes Verkehrszeichen.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs, weiterhin eine Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Die vorliegende Erfindung schafft ein Verfahren zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs, wobei das Verfahren die folgenden Schritte aufweist:
    • – Einlesen eines ersten Bildes einer Fahrzeugkamera, das das Umfeld des Fahrzeugs repräsentiert und das mit einer ersten Belichtungszeit aufgenommen wurde und Einlesen eines zweiten Bildes der Fahrzeugkamera, das zu einem anderen Zeitpunkt als das erste Bild und mit einer zweiten Belichtungszeit aufgenommen wurde, die sich von der ersten Belichtungszeit unterscheidet;
    • – Extrahieren eines Bildausschnittes aus dem zweiten Bild der Fahrzeugkamera, wobei der Bildausschnitt vorzugsweise einen kleineren Bereich des Umfeldes des Fahrzeugs repräsentiert, als das erste Bild, wobei beim Extrahieren eine Position des Bildausschnitts im zweiten Bild auf der Basis von zumindest einem Parameter bestimmt wird, der eine Information über eine Fahrt des Fahrzeugs und/oder eine Position eines Infrastrukturelementes vor dem Fahrzeug repräsentiert und/oder der von einem sich bewegenden Objekt unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt erkannt wurde;
    • – Anwenden eines ersten Objekterkennungsalgorithmus auf das erste Bild, um zumindest ein Objekt in dem ersten Bild zu erkennen und Anwenden eines zweiten Objekterkennungsalgorithmus auf den Bildausschnitt des zweiten Bildes, um zumindest ein weiteres Objekt in dem Bildausschnitt zu erkennen.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Folglich schafft die vorliegende Erfindung eine Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs, wobei die Vorrichtung die folgenden Schritte aufweist:
    • – einen Schnittstelle zum Einlesen eines ersten Bildes einer Fahrzeugkamera, das das Umfeld des Fahrzeugs repräsentiert und das mit einer ersten Belichtungszeit aufgenommen wurde und Einlesen eines zweiten Bildes der Fahrzeugkamera, das nach dem ersten Bild und mit einer zweiten Belichtungszeit aufgenommen wurde, die sich von der ersten Belichtungszeit unterscheidet;
    • – eine Einheit zum Extrahieren eines Bildausschnittes aus dem zweiten Bild der Fahrzeugkamera, wobei der Bildausschnitt vorzugsweise einen kleineren Bereich des Umfeldes des Fahrzeugs repräsentiert, als das erste Bild, wobei beim Extrahieren eine Position des Bildausschnitts im zweiten Bild auf der Basis von zumindest einem Parameter bestimmt wird, der eine Information über eine Fahrt des Fahrzeugs und/oder eine Position eines Infrastrukturelementes vor dem Fahrzeug repräsentiert und/oder der von einem sich bewegenden Objekt unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt erkannt wurde;
    • – eine Einheit zum Anwenden eines ersten Objekterkennungsalgorithmus auf das erste Bild, um zumindest eine Objekt in dem ersten Bild zu erkennen und Anwenden eines zweiten Objekterkennungsalgorithmus auf den Bildausschnitt des zweiten Bildes, um zumindest ein weiteres Objekt in dem Bildausschnitt zu erkennen.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- oder Informationssignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Unter einer Fahrzeugkamera kann ein optischer Sensor verstanden werden, der eine Szene oder ein Umfeld des Fahrzeugs in ein Videobild überführt und dieses zur weiteren Verarbeitung an andere Komponenten bereitgestellt. Dabei kann dieser optische Sensor in mehreren Modi arbeiten, wobei sich jeder dieser Modi insbesondere durch eine unterschiedliche Belichtungszeit zur Aufnahme eines Bildes in diesem Modus auszeichnet. Unter einem Bildausschnitt kann ein Teilbereich eines Bildes der Fahrzeugkamera verstanden werden, bei dem ein kleinerer Teil der Umgebung des Fahrzeugs abgebildet ist, als in einem Bild der Fahrzeugkamera. Eine Position dieses Bildausschnitts kann vor dem Schritt des Extrahierens festgelegt werden, beispielsweise durch einen Parameter, der von einem sich bewegenden Objekt (wie beispielsweise einem Fahrzeug) unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt erkannt wurde oder das von einem Parameter abhängig ist, der Information über eine Fahrt des Fahrzeugs repräsentiert. Auch kann die Position des Bildausschnittes durch eine Position eines Infrastrukturelementes vor dem Fahrzeug abhängig sein, wobei unter einem Infrastrukturelement beispielsweise eine straßenbauliche Maßnahme wie eine Straßenlaterne oder ein Leitpfosten verstanden werden kann. Alternativ oder zusätzlich kann ein solcher Parameter auch von einem sich bewegenden Fahrzeug unabhängig sein, welches in einem vorausgegangenen Schritt in den Bildausschnitt erkannt wurde. Ein Parameter, der eine Information über eine Fahrt des Fahrzeugs repräsentiert, kann beispielsweise eine Information eines Sensors sein, der eine Bewegung des eigenen Fahrzeugs oder eine Einstellung von Bedienungselementen zur Steuerung des Fahrzeugs repräsentiert. Beispielsweise kann die Information über eine Fahrt des Fahrzeugs eine Geschwindigkeit des Fahrzeugs, ein Lenkwinkel, den das Lenkrad eingeschlagen ist oder ein prädizitierter oder ein beispielsweise aus einem Navigationsgerät ausgelesener, angenommener Straßenverlauf sein. Unter einem Objekt, das in dem ersten Bild erkannt wird oder einem weiteren Objekt, das in dem Bildausschnitt erkannt wird, kann beispielsweise ein Fahrzeug verstanden werden, das in dem betreffenden Bild oder Bildausschnitt erkannt wird. Alternativ oder zusätzlich kann auch das Objekt, das in dem ersten Bild erkannt wird, eine bauliche Maßnahme oder Einheit, insbesondere eine Infrastruktureinrichtung am Fahrbahnrand sein (beispielsweise ein Leitpfosten oder eine Straßenlaterne). Ebenfalls kann alternativ oder zusätzlich auch das zweite Objekt, das in dem Bildausschnitt erkannt wird, eine bauliche Maßnahme oder Einheit, insbesondere eine Infrastruktureinrichtung am Fahrbahnrand sein, beispielsweise ebenfalls ein Leitpfosten oder eine Straßenlaterne. Insbesondere kann ferner die zweite Belichtungszeit größer als die erste Belichtungszeit sein, so dass im Bildausschnitt Objekte erkannt werden können, die eine geringere Helligkeit aufweisen, als die Objekte, die im ersten Bild erkannt werden. Hierdurch wird es möglich, Objekte im Bildausschnitt zu erkennen, die entweder weiter vom Fahrzeug mit der Fahrzeugkamera entfernt sind und/oder die weniger oder andersfarbiges Licht als die Objekte ausstrahlen, die im ersten Bild erkannt werden. Der erste Objekterkennungsalgorithmus kann dabei identisch zum zweiten Objekterkennungsalgorithmus sein, jedoch separat ausgeführt werden. Alternativ kann der erste Objekterkennungsalgorithmus unterschiedliche Schritte des zweiten Objekterkennungsalgorithmus aufweisen. Auch kann der erste Objekterkennungsalgorithmus gleiche Schritte wie der zweite Objekterkennungsalgorithmus aufweisen jedoch unter Verwendung von unterschiedlichen Parametern ausgeführt werden. Dabei kann beispielsweise der Objekterkennungsalgorithmus unter Verwendung eines ersten Parametersatzes auf das erste Bild angewendet werden und der Objekterkennungsalgorithmus unter Verwendung eines zweiten Parametersatzes auf den Bildausschnitt angewendet werden.
  • Die vorliegende Erfindung basiert auf der Erkenntnis, dass Bilder von einer einzigen Kamera in einem Fahrzeug einerseits durch entsprechende Objekterkennungsalgorithmen ausgewertet werden können und andererseits unterschiedliche Bildregionen von mit unterschiedlichen Belichtungszeiten aufgenommenen Bildern ausgewählt werden können. Hierbei kann eine Nachführung von einem Bildausschnitt durch Parameter bedingt sein, die nicht auf sich bewegenden Objekten oder Fahrzeugen beruhen, die selbst im betreffenden Bildausschnitt zu einem vorangegangenen Zeitpunkt erkannt wurden. Auf diese Weise kann insbesondere ein Bereich vor dem Fahrzeug auch auf schwach leuchtende Objekte hin kontinuierlich überwacht werden, wobei dieser Bereich für die zukünftige Position des Fahrzeugs bei der Fahrt von besonderer Bedeutung ist. Insbesondere kann erkannt werden, ob in dem Fahrzeugumfeld, der durch den Bildausschnitt repräsentiert ist, ein Objekt oder ein Fahrzeug vorhanden ist, welches bei einer Einstellung der Lichtausstrahlung vor dem Fahrzeugs berücksichtigt werden sollte, um eine Blendung eines Fahrers in diesem Objekt oder Fahrzeug zu vermeiden.
  • Die vorliegende Erfindung bietet den Vorteil, dass nun durch die Trennung der Auswertung von Bildern, die mit unterschiedlichen Belichtungszeiten aufgenommenen wurden, durch jeweils einen eigenen Objekterkennungsalgorithmus vermieden werden kann, dass bei einer langen Belichtungszeit eines Bildes Objekte oder Fahrzeuge vor dem Fahrzeug nicht erkannt werden, die durch eine Lichtaussendung von anderen Objekten oder Fahrzeugen vor dem Fahrzeug überstrahlt werden. Zugleich kann die Anwendung von hochkomplexen Objekterkennungsalgorithmen vermieden werden, die aus einem Bild sowohl Objekte bzw. Fahrzeuge, die eine hohe Lichtintensität ausstrahlen als auch Objekte bzw. Fahrzeuge, die eine niedrige Lichtintensität ausstrahlen, erkennen. Auf diese Weise lässt sich eine Vereinfachung der Auswertung von Bildern einer einzigen Fahrzeugkamera erreichen, die in mehreren (zumindest zwei) Modi (insbesondere Belichtungsmodi) arbeitet und entsprechend belichtete Bilder zur Verfügung stellt. Zugleich kann jedoch die im Fahrzeug verbaute Kamera und damit eine einzige und meist bereits schon serienmäßig vorgesehene Hardware verwendet werden, um Eingangssignale zur Realisierung der vorliegenden Erfindung zur Verfügung zu stellen. Ferner kann durch ein technisch einfach realisierbares Verändern einer Auswertungssoftware und ein entsprechendes Umprogrammieren von bereits in Fahrzeugen vorgesehene Auswerteeinheiten eine Realisierung eines Zusatznutzens ermöglicht werden.
  • Günstig ist es, wenn im Schritt des Extrahierens der Bildausschnitt unter Verwendung einer Positionsinformation extrahiert wird, wobei die Positionsinformation ansprechend eine Information, die eine Fahrt des Fahrzeugs repräsentiert, veränderbar ist oder verändert wird. Unter einer Positionsinformation kann eine Information über eine Lokalisierung des Bildausschnitts im zweiten Bild und/oder eine Größe des Bildausschnitts in dem zweiten Bild verstanden werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass während der Fahrt des Fahrzeugs Bildausschnitte verarbeitet werden können, die an unterschiedlichen Positionen im zweiten Bild angeordnet sind oder die unterschiedlich große Bildbereiche des zweiten Bildes umfassen. Auf diese Weise wird eine Nachführung oder besser ein Vorausführen des Bildausschnitts insbesondere bei einer Kurvenfahrt möglich, wobei in dem Bildausschnitt Objekte oder Fahrzeuge vorhanden sind oder zu vermuten sind, die da einer Kurvenfahrt des Fahrzeugs für die Fahrzeugsicherheit oder eine Ausleuchtung eines Bereichs vor dem Fahrzeug relevant sind. Bei einer Autobahnfahrt des Fahrzeugs (oder allgemeiner bei einer schnellen Fahrt des Fahrzeugs) kann beispielsweise der Bildausschnitt vergrößert werden, um eine ausreichende Berücksichtigung von sich schnell bewegenden Objekten oder Fahrzeugen, insbesondere bei langen Belichtungszeiten, sicherzustellen.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann im Schritt des Einlesens als das erste Bild ein Bild eingelesen wird, das eine kürzere Belichtungszeit aufweist, als das Bild, das als zweites Bild eingelesen wird. Vorteilhafterweise kann auch im Schritt des Anwendens der erste Objekterkennungsalgorithmus auf das gesamte erste Bild angewandt werden. Insbesondere wird in einem derartigen Ausführungsbeispiel das gesamte Bild mit der kürzeren Belichtungszeit durch den ersten Objekterkennungsalgorithmus verarbeitet. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass Objekte im Nahbereich des Fahrzeugs, die sich insbesondere durch eine hohe ausgesandte Lichtintensität auszeichnen, möglichst schnell und eindeutig erkannt werden. Insbesondere solche Objekte oder Fahrzeuge im Nahbereich des Fahrzeugs erfordern erhöhte Sicherheitsvorkehrungen, um beispielsweise einen Fahrer von solchen Fahrzeugen im Nahbereich des eigenen Fahrzeugs nicht zu blenden. Würde andererseits ein Fahrer eines solchen Fahrzeugs im Nahbereich des eigenen Fahrzeugs geblendet, würde die Sicherheit des eigenen Fahrzeugs erheblich gefährdet.
  • Günstig ist es ferner, wenn im Schritt des Extrahierens ein Bildausschnitt des zweiten Bildes extrahiert wird, in dem Objekte im Bild der Fahrzeugkamera abgebildet werden, die eine vorbestimmte Mindestentfernung vor dem Fahrzeug angeordnet sind. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass auch Objekte oder Fahrzeuge im Umfeld des Fahrzeugs erkannt werden können, die sich weiter weg von dem Fahrzeug befinden. Insbesondere wenn in diesem Bildausschnitt keine Objekte oder Fahrzeuge zu erwarten sind, von denen eine hohe Lichtaussendung oder Reflexion zu erwarten ist, kann durch eine derartige Ausführungsform der vorliegenden Erfindung sichergestellt werden, dass kein Informationsverlust von Informationen über schwächer beleuchtete oder leuchtende Objekte oder Fahrzeuge durch eine „Überblendung“ durch eine Lichtaussendung von Objekten oder Fahrzeugen im Nahbereich des eigenen Fahrzeugs erfolgt.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann im Schritt des Anwendens der erste Objekterkennungsalgorithmus zur Erkennung von Objekten eines ersten Objekttyps verwendet werden und der zweite Objekterkennungsalgorithmus zur Erkennung von Objekten eines zweiten Objekttyps verwendet werden, der sich vom ersten Objekttyp unterscheidet. Beispielsweise kann der erste Objekttyp Frontscheinwerfer repräsentieren, während der zweite Objekttyp Rücklichter, Leitpfosten oder Straßenlaternen repräsentiert. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass unterschiedliche Objekttypen aus den Bildern der Fahrzeugkamera erkannt werden können, je nachdem welche Lichtaussendungseigenschaften von dem betreffenden Objekttyp zu erwarten sind.
  • Besonders vorteilhaft ist es, wenn im Schritt des Anwendens der erste Objekterkennungsalgorithmus ausgebildet ist, um ein Objekt im ersten Bild unter Verwendung eines Vergleichs der Helligkeit an einer Position im ersten Bild mit einer Helligkeit an einer entsprechenden Position im zweiten Bild, insbesondere im Bildausschnitt, zu erkennen. Auch kann im Schritt des Anwendens der zweite Objekterkennungsalgorithmus ausgebildet sein, um ein Objekt im zweiten Bild, insbesondere im Bildausschnitt, unter Verwendung eines Vergleichs der Helligkeit an einer Position im zweiten Bild, insbesondere im Bildausschnitt, mit einer Helligkeit an einer entsprechenden Position im ersten Bild zu erkennen. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil einer technisch besonders einfach umsetzbaren Unterscheidung oder Erkennung von Objekten, wobei die gemeinsame Information von Bildern verwendet werden kann, die mit unterschiedlichen Belichtungszeiten aufgenommen wurden.
  • Gemäß einer besonderen Ausführungsform der vorliegenden Erfindung kann im Schritt des Anwendens durch den ersten Objekterkennungsalgorithmus ein Objekt als pulsierende Lichtquelle erkannt werden, wenn die Helligkeit an der Position im ersten Bild innerhalb eines Toleranzbereichs gleich der Helligkeit an der entsprechenden Position im zweiten Bild, insbesondere im Bildausschnitt ist. Ferner kann auch durch den ersten Objekterkennungsalgorithmus ein Objekt als konstant Licht aussendende Lichtquelle erkannt werden, wenn sich die Helligkeit an der Position im ersten Bild um mehr als einen vorbestimmten Schwellwert (abhängig vom Unterschied der Belichtungszeiten) von der Helligkeit an der entsprechenden Position im zweiten Bild, insbesondere im Bildausschnitt, unterscheidet. Günstig ist es ferner, wenn durch den zweiten Objekterkennungsalgorithmus ein Objekt als pulsierende Lichtquelle erkannt wird, wenn die Helligkeit an der Position im zweiten Bild, insbesondere im Bildausschnitt, innerhalb eines Toleranzbereichs gleich der Helligkeit an der entsprechenden Position im ersten Bild ist. Denkbar ist auch eine Ausführungsform der vorliegenden Erfindung, bei der durch den zweiten Objekterkennungsalgorithmus ein Objekt als konstant Licht aussendende Lichtquelle erkannt wird, wenn sich die Helligkeit an der Position im zweiten Bild, insbesondere im Bildausschnitt, um mehr als einen vorbestimmten Schwellwert von der Helligkeit an einer entsprechenden Position im ersten Bild unterscheidet. Unter einem Toleranzbereich um einen Helligkeitswert kann dabei beispielsweise eine Helligkeitsabweichung von 10 Prozent verstanden werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass unterschiedliche Arten von Objekten sehr einfach durch einen Vergleich von Helligkeiten an einander entsprechenden Positionen im zweiten Bild, insbesondere im Bildausschnitt, und ersten Bild erkannt werden können. Insbesondere kann dabei ausgenutzt werden, dass unterschiedliche Objekte wie beispielsweise Straßenlaternen eine unterschiedliche Frequenz der Lichtaussendung haben, als beispielsweise Fahrzeuglichter oder LED- Fahrzeuglichter. Durch eine derartige Ausführungsform der vorliegenden Erfindung kann somit technisch sehr einfach auf einen Typ von Objekt geschlossen werden, dass an der jeweiligen Position im ersten Bild oder dem Bildausschnitt erkannt oder vermutet wird.
  • Günstig ist es ferner, wenn gemäß einer Ausführungsform der vorliegenden Erfindung ein Verfahren zur Regelung einer Fahrbahnausleuchtung vor einem Fahrzeug vorgesehen ist, das die folgenden Schritte aufweist:
    • – die Schnitte eines Verfahrens wie es vorstehend beschrieben wurde; und
    • – Ansteuern eines Veränderns der Lichtausstrahlung eines Scheinwerfers des Fahrzeugs ansprechend auf zumindest ein durch den ersten Objekterkennungsalgorithmus erkanntes Objekt und/oder ansprechend auf zumindest ein durch den zweiten Objekterkennungsalgorithmus erkanntes Objekt.
  • Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass die Erkennung eines Objektes gemäß einer vorstehend beschrieben Ausführungsform eine Regelung oder Ansteuerung einer Lichtausstrahlung eines Scheinwerfers des Fahrzeugs auf technisch sehr einfache Weise erleichtert wird. Insbesondere kann hierdurch eine Blendung eines Fahrers eines vorausfahrenden oder entgegenkommenden Fahrzeugs einfach vermieden oder zumindest verringert werden, da durch die Erkennung des Objekts, insbesondere eines Typs des Objekts die Lichtaussendung durch Scheinwerfer des eigenen Fahrzeugs entsprechend angepasst werden kann.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann auch im Bildausschnitt eine bauliche Maßnahme wie beispielsweise eine Infrastruktureinrichtung am Fahrbahnrand wie eine Straßenlaterne oder ein Leitpfosten erkannt werden. In einer derartigen Ausführungsform der vorliegenden Erfindung kann im Schritt des Ansteuerns ferner das Verändern der Lichtausstrahlung unabhängig von einem durch den zweiten Objekterkennungsalgorithmus erkannten Objekt erfolgt.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 ein Blockschaltbild eines Fahrzeugs, in dem ein Ausführungsbeispiel der vorliegenden Erfindung verwendet wird;
  • 2 eine Darstellung einer Szene um das Fahrzeug und den daraus gewonnenen Bildern durch die Fahrzeugkamera sowie einer Auswahl eines Bildausschnitts in einem Bild gemäß eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 3 Diagramme zur Veranschaulichung einer Bestimmung einer konstant Licht aussendenden Lichtquelle als Objekt;
  • 4 Diagramme zur Veranschaulichung einer Bestimmung einer pulsierend Licht aussendenden Lichtquelle als Objekt; und
  • 5 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • Bei der Fahrzeugdetektion bei Dunkelheit sind unterschiedlichste Anforderungen an ein Bildauswertungssystem gegeben, die sich bei einer einzelnen Belichtungszeit eines Bildes einer Kamera nur mit Kompromissen erfüllen lassen. Insbesondere sind entfernte und damit vergleichsweise dunkle Rücklichter von vorausfahrenden Fahrzeugen genauso zu erkennen, wie auch Gegenverkehr in unterschiedlichsten Entfernungen. Dies bedingt, dass einerseits das Auswertungssystem sehr sensitiv auf dunkle Objekte wie auch robust gegenüber Überstrahlung von nahem Gegenverkehr sein sollte. Diese beiden Grenzfälle lassen sich mit einer multimodalen, zumindest aber bimodalen Kameraregelung besonders vorteilhaft erfüllen: in einem Bild, das mit einer längeren Belichtungszeit aufgenommen wurde und bei dem eine zusätzliche Beschränkung der Bildauswertung auf einen speziellen Teilbereich des Bildes gewählt wird, können beispielsweise Rücklichter von weit entfernt fahrenden Fahrzeugen detektiert und klassifiziert werden. Dagegen kann auf Basis eines Bildes, das mit einer kurzen Belichtungszeit aufgenommen wurde, bei Gegenverkehr robust das Scheinwerferpaar eines nahen Fahrzeugs aufgelöst werden, ohne dass das Bild durch Überstrahlung von diesen hellen Scheinwerfern derart hell ist, dass dunklere Objekte und/oder die objekt-spezifische Struktur selbst nicht mehr erkannt werden können. Dieser Fall könnte als ein „Erblinden“ der Kamera durch eine Blendung durch sehr helle Scheinwerfer eines nahen entgegenkommenden Fahrzeugs interpretiert werden.
  • Bisherige Systeme arbeiten entweder
    • a) mit einer einzigen Belichtungszeit oder
    • b) bei Bildern mit mehreren Belichtungszeiten mit jeweils denselben Routinen für die Objektdetektion und -klassifikation.
  • Während bei Variante a) Kompromisse hinsichtlich Reichweite und Auflösungsvermögen im Nahbereich erforderlich sind, bedingt Variante b) eine komplexe Auswertestrategie, um die optimale Detektion und Klassifikation von regelrelevanten Objekten zu gewährleisten.
  • Generell sind jedoch die Anforderungen an eine Objekterkennung zur Steuerung des Lichtes bzw. der Lichtaussendung durch das eigene Fahrzeug, speziell bei Nacht und Dämmerung, sehr komplex und können mit diesen Ansätzen nur über Kompromisse erzielt werden. Durch eine multimodale, mindestens jedoch bimodale Belichtungssteuerung mit zumindest einer kurz- und einer lang belichteten Bildaufnahme und deren Auswertung können die jeweiligen Grenzfälle deutlich besser abgedeckt werden. Für die Auswertung der Bilder mit den jeweiligen Belichtungszeiten sind dabei explizit unterschiedliche Verarbeitungsschritte vorgesehen.
  • 1 zeigt ein Blockschaltbild eines Fahrzeugs 100, in dem ein Ausführungsbeispiel der vorliegenden Erfindung verwendet werden kann. Das Fahrzeug 100 umfasst eine Kamera 110, die ein Bild eines Sichtbereichs 120 eines Umfelds 130 vor dem Fahrzeug 100 generiert. Dabei ist die Kamera 110 ausgebildet, um Bilder in mehreren Modi aufzunehmen, wobei unterschiedliche Modi andere Belichtungszeiten bei der Aufnahme von Bildern in dem entsprechenden Modus aufweist. Von der Kamera 110 generierten Bilder werden in eine Auswerteeinheit 140 übertragen, in die entsprechend der nachfolgenden Beschreibung eine Auswertung der Bilder bzw. eines Bildausschnitts eines Bildes auf Objekte unter Anwendung von Objekterkennungsalgorithmen erfolgt. Werden nun bestimmte Objekte bestimmter Objektklassen im Sichtbereich 120 der Kamera 110 erkannt, wie beispielsweise Scheinwerfer von vorausfahrenden oder entgegenkommenden Fahrzeugen, wird eine entsprechende Information an eine Beleuchtungssteuereinheit 150 gesandt, um sicherzustellen, dass eine Lichtaussendung der von der Beleuchtungssteuereinheit 150 gesteuerten Scheinwerfer 160 des Fahrzeugs 100 kein Licht in die Umgebung 130 des Fahrzeugs 100 ausstrahlen, welches die vorausfahrenden oder entgegenkommenden Fahrzeug geblendet.
  • Die Belichtungszeiten für die unterschiedlichen von der Kamera aufzunehmenden Bilder sind vorzugsweise derart zu wählen, dass einerseits entfernte Rücklichter in einer Entfernung von mindestens 400 m und andererseits Scheinwerfer in einer Entfernung von mindestens 800 m detektiert werden können sowie naher Gegenverkehr nicht zu einer Überstrahlung des Bildes, d.h., Sättigung aller das Objekt charakterisierenden Pixel führt, was die Auflösung bzw. Detektion beider Scheinwerfer im Nahbereich erschwert. Des Weiteren sollte die Belichtungssteuerung derart ausgelegt sein, dass eine Erkennung von Rücklichtern im mittleren Entfernungsbereich (z.B. 100 m bis 300 m) durch mehrere Belichtungszeiten abgedeckt ist und damit eine robuste und schnelle Klassifikation in diesem, unter dem Aspekt einer möglichen Blendung kritischen Bereich, sichergestellt ist.
  • Für eine effiziente Verarbeitung der jeweiligen Bilder kann z.B. für ein länger belichtetes Bild der Verarbeitungs- bzw. Interessensbereich (region of interest) in Abhängigkeit von verschiedenen zusätzlichen Informationen eingeschränkt werden
  • 2 zeigt im oberen Teilbild eine Szene 200, die von der Kamera 110 aus 1 im Sichtbereich 120 des Fahrzeugs 100 aufgenommen wurde. Diese Szene 200 wird beispielsweise in einem ersten Modus mit einer ersten kürzeren Belichtungszeit erfasst, woraus das links unten dargestellte erste Bild 210 generiert und an die Auswerteeinheit 140 übertragen wird. In einem folgenden Schritt wird die Szene 200 in einem zweiten Modus mit einer längeren Belichtungszeit aufgenommen und ein zweites Bild 220 generiert, welches rechts unten in der 2 dargestellt ist. Weiterhin wird in dem zweiten Bild ein Bildausschnitt 230 extrahiert, der zur Verarbeitung an die Auswerteeinheit 140 übertragen wird. Auf ist es denkbar, dass das zweite Bild 220 selbst an die Auswerteeinheit 140 aus 1 übertragen wird und der Bildausschnitt 230 erst in der Auswerteeinheit 140 extrahiert wird.
  • In der Auswerteeinheit 140 kann das (gesamte) erste Bild auf helle (nahe) Objekte 240 wie beispielsweise ein Scheinwerferpaar eines entgegenkommenden Fahrzeugs durch die Anwendung eines ersten Objekterkennungsalgorithmus auf das erste Bild erkannt werden, das sich in großer räumlicher Nähe zum eigenen Fahrzeug 100, d.h. dem Fahrzeug 100 mit der Kamera 110 befindet. Durch die Auswertung des gesamten ersten Bildes kann sichergestellt werden, dass keine Objekte in großer Nähe des Fahrzeugs übersehen werden, die anderenfalls bei einer Nicht-Berücksichtigung der Steuerung der Lichtausstrahlung zu einer Blendung einer Person führen könnte, die dieses Objekt oder Fahrzeug führt, so dass eine Gefährdung der Fahrtsicherheit des eigenen Fahrzeugs zu befürchten ist.
  • Weiterhin wird auch in der Auswerteeinheit 140 ein zweiter Objekterkennungsalgorithmus auf den Bildausschnitt 230 des zweiten Bildes 220 angewandt, so dass auch Objekte 250 in diesem Bildausschnitt 230 erkannt werden. Beispielsweise kann dabei ferner eine Anwendung des zweiten Objekterkennungsalgorithmus, der auf den Bildausschnitt angewandt wird, auf Bereichen des zweiten Bildes außerhalb des Bildausschnittes unterbleiben. Bei diesen im Bildausschnitt 230 zu erkennenden Objekten 250 kann es sich um entfernte (d.h. dunkler erscheinende) Objekte 250 handeln, die beispielsweise Rückleuchten von vor dem Fahrzeug 100 fahrenden Fahrzeugen repräsentieren. Durch die Auswertung des Bildausschnittes 230, der günstigerweise derart gewählt werden sollte, dass keine nahen hellen Objekte 240 wie die in der linken unteren Darstellung aus 2 gezeigten Frontscheinwerfer von entgegenkommenden Fahrzeugen in der Objekterkennung des Bildausschnittes zu berücksichtigen sind, kann eine Überblendung des auszuwertenden Bildes durch diese hellen Objekte vermieden werden. Der Bildausschnitt, der einen eingeschränkten Bereich aus dem zweiten Bild mit der längeren Belichtungszeit repräsentiert, ermöglicht somit die Detektion entfernter Objekte, die gegenüber näheren Objekten meist dunkler erscheinen und somit durch die Aufnahme mit der längeren Belichtungszeit besser erkennbar sind, als in einem Bild, das zur Auswertung von nahen wie auch entfernten Objekten mit einer einzigen Belichtungszeit aufgenommen wurde.
  • Fährt nun das Fahrzeug auf einer kurvigen Straße, ist es vorteilhaft, wenn auch der Bildausschnitt nicht statisch aus einem vorbestimmten Bereich aus dem zweiten Bild entnommen wird. Insbesondere bei der Kurvenfahrt in eine Linkskurve ist es beispielsweise günstig, wenn auch derjenige Bereich, der als Bildausschnitt aus dem zweiten Bild entnommen wird, weiter an den linken Rand des zweiten Bildes verschoben wird. Auf diese Weise kann sichergestellt werden, dass beispielsweise vorausfahrende Fahrzeuge oder andere Objekte auf der vorausliegenden Linkskurve der Fahrbahn auch noch ausreichend erkannt werden können, da diese dann im auszuwertenden Bildausschnitt liegen. Um eine solche Veränderung der Position des Bildausschnittes in dem zweiten Bild zu ermöglichen, können unterschiedlichste Informationen verwendet werden. Zu diesen Informationen zählen beispielsweise die Geschwindigkeit des Fahrzeugs, der eingeschlagene Lenkwinkel des Fahrzeugs, ein prädizierter oder ein aus einer Auswertung eines Verlaufes von Straßenlaternen oder Leitpfosten (beispielsweise durch die hohen Lichtreflexionen, die aus dem ersten Bild erkannt werden können) angenommener Straßenverlauf. Ferner können auch Navigationsdaten, d.h. Daten aus Navigationssystemen, Modelannahmen über die Detektionswahrscheinlichkeit von verschiedenen Objekttypen in bestimmten Bereichen des Bildes, usw. als Informationen für die Verschiebung oder Veränderung der Position des Bildausschnitts im zweiten Bild verwendet werden.
  • Die unterschiedlichen Belichtungszeiten können des Weiteren die Erkennung von gepulsten Lichtquellen (wie z.B. Straßenlaternen bzw. LED-Rück-/Frontleuchten (50 Hz 160 Hz)) unterstützen. Ein Ausführungsbeispiel für die Erkennung von solchen gepulsten Lichtquellen ist in den 3 und 4 dargestellt.
  • 3 zeigt zwei Diagramme zur Erkennung einer gemessenen Helligkeit einer konstant leuchtenden Lichtquelle mit einer bimodal geregelten Kamera. In der oberen Darstellung aus 3 ist auf der Abszisse die Zeit (in Form von fortlaufenden Bildnummern) und auf der Ordinate die gemessene (auf einen Wert normierte) Lichtintensität 300 einer Lichtquelle (mit konstanter Lichtaussendung) gegenüber einer Messung 310 der Lichtintensität dieser Lichtquelle durch die Kamera dargestellt. Durch die Abtastung einer konstant leuchtenden Lichtquelle mit einer bimodal geregelten Kamera, d.h. durch die Aufnahme von unterschiedlichen Bildern nacheinander resultiert eine Darstellung, bei der die Lichtquelle als pulsendes Objekt in dem Bild erscheint. Die Eigenschaft des Pulsierens kann durch einen Vergleich der Helligkeit eines Objektes in verschiedenen Belichtungszeiten besser erkannt werden. Dabei wird beispielsweise die Helligkeit oder Lichtintensität des Objektes in dem ersten Bild mit einer Helligkeit oder Lichtintensität in dem Bildausschnitt verglichen. In diesem Fall sollte ein Objekt in dem ersten Bild an einer Position liegen, die einer Position entspricht, die auch im Bildausschnitt des zweiten Bildes liegt, damit eine Auswertung der Helligkeiten des Objektes mit unterschiedlichen Belichtungszeiten möglich wird. Auch kann die Helligkeit oder die Lichtintensität eines Objektes ausgewertet werden, das nicht in dem Bildausschnitt liegt, wobei dann in diesem Fall das zweite Bild statt dem Bildausschnitt für die Auswertung heranzuziehen ist.
  • Bei einer konstant Licht aussendenden Lichtquelle resultiert ein Helligkeitsverlauf, wie er in der 3 in der unteren Darstellung wiedergegeben ist. Dabei weist die konstant leuchtende Lichtquelle in den Bildern mit unterschiedlichen Belichtungszeiten unterschiedliche Helligkeitsintensitäten auf. Beispielsweise weist die Lichtquelle im Bild mit der kürzeren Belichtungszeit einen kleineren Helligkeitswert 320 auf, als im Bild mit der längeren Belichtungszeit, in dem ein größerer Helligkeitswert 330 für die konstant leuchtende Lichtquelle auftritt. Somit variiert die gemessene Lichtintensität oder Helligkeit einer konstant leuchtenden Lichtquelle mit einer bimodal geregelten Kamera entsprechend den unterschiedlichen Belichtungszeiten für die ausgewerteten Bilder. Eine konstant leuchtende Lichtquelle bildet sich für die jeweiligen Beleuchtungszeiten somit unterschiedlich ab. Somit kann die Veränderung der Helligkeit oder Lichtintensität bei einer Auswertung von Bildern, die bei unterschiedlicher Beleuchtungszeit aufgenommen wurden, als wichtige Information für die Klassifikation von selbstleuchtenden Objekten verwendet werden. Beispielsweise können auf diese Weise entfernte Straßenlaternen mit einer Lichtaussendungsfrequenz von 50 bis 60 Hz entsprechend der Frequenz des Energieversorgungsnetzes erkannt werden, bei denen die Scheinwerfer des eigenen Fahrzeugs nicht abgeblendet werden sollen. Auch können beispielsweise reflektierende Objekte erkannt werden, die durch eine Modulation der Frequenz der Lichtaussendung durch die Scheinwerfer des eigenen Fahrzeugs das entsprechend an dem Objekt reflektierte modulierte Licht erkannt werden kann.
  • Allgemein gilt, dass eine pulsierende Lichtquelle von einer unimodal geregelten Kamera nur als pulsierend wahrgenommen wird, wenn die Abtastfrequenz (z.B. 30 Bilder/Sekunde = 30 Hz) kein Vielfaches von der Pulsfrequenz der Lichtquelle ist. Mit einer 30 Hz-Kamera sieht man eine 60 Hz-Lichtquelle als konstant leuchtend an (bei den für Dunkelheit typischen Integrationszeiten pro Bild). Bei einer bimodal geregelten Kamera kann man diese Beschränkung umgehen, wie es durch die durch die folgend beschriebene Vorgehensweise näher dargestellt ist.
  • In der 4 ist dargestellt, wie eine gepulste Lichtquelle erkannt werden kann. Dabei sind in der oberen Darstellung aus 4 die Helligkeitswerte einer Abtastung einer mit 60 Hz gepulsten Lichtquelle mit einer bimodal geregelten Kamera wiedergegeben. Wiederum ist auf der Abszisse die Zeit (in Form von fortlaufenden Bildnummern) und auf der Ordinate die gemessene (auf einen Wert normierte) Lichtintensität 300 einer Lichtquelle (mit gepulster Lichtaussendung) gegenüber einer Messung 310 der Lichtintensität dieser Lichtquelle durch die Kamera dargestellt. Wie aus der oberen Darstellung aus 4 ersichtlich ist, überschneiden sich die Zeitpunkte bzw. Zeiträume der Lichtaussendung durch die gepulste Lichtquelle mit den Zeitpunkten oder Zeiträumen der Abtastung bzw. Belichtung der entsprechenden auszuwertenden Bilder durch die Kamera. Aus dem unteren Diagramm der 4 ist ersichtlich, dass eine derartige Abtastung von sich überscheidenden Belichtungszeiträumen mit Lichtaussendungszeiträumen der gepulsten Lichtquelle in Helligkeitswerten 400 für die Lichtquelle in beiden Bildern resultiert, die innerhalb eines Toleranzbereichs gleich sind. Somit bildet sich eine gepulste Lichtquelle für die unterschiedlichen Belichtungszeiten in verschiedenen Bildern mit sehr ähnlichen Helligkeitswerten ab. Die Messergebnisse der Lichtintensität der Lichtquelle, die aus den Bildern mit den unterschiedlichen Belichtungszeiten gewonnen wird, verändert sich also nicht entsprechend der Belichtungszeiten der jeweiligen ausgewerteten Bilder, wodurch das Pulsieren einer solchen Lichtquelle erkannt werden kann.
  • Ferner bewirkt eine längere Belichtungszeit eine stabilere Ausprägung der Eigenschaften von gepulsten Lichtquellen im Bild und wodurch eine validere Farbrekonstruktion und Formanalyse des Lichtobjektes möglich ist. Die Informationen aus dem kurz belichteten Bild stellen sich dagegen kontrastreicher dar, da die Bewegungsunschärfe geringer ausfällt, was besonders vorteilhaft bei der Schätzung der Bewegung und deren Richtung ist.
  • 5 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung als Verfahren 500 zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs. Das Verfahren 500 umfasse einen Schritt des Einlesens 510 eines ersten Bildes einer Fahrzeugkamera, das das Umfeld des Fahrzeugs repräsentiert und das mit einer ersten Belichtungszeit aufgenommen wurde, wobei um Schritt des Einlesens ferner ein Einlesen eines zweiten Bildes der Fahrzeugkamera erfolgt, das nach dem ersten Bild und mit einer zweiten Belichtungszeit aufgenommen wurde, wobei sich die zweite Belichtungszeit von der ersten Belichtungszeit unterscheidet. Weiterhin umfasst das Verfahren 500 einen Schritt des Extrahierens 520 eines Bildausschnittes aus dem zweiten Bild der Fahrzeugkamera, wobei der Bildausschnitt einen kleineren Bereich des Umfeldes des Fahrzeugs repräsentiert, als das zweite Bild, wobei beim Extrahieren eine Position des Bildausschnitts im zweiten Bild auf der Basis von zumindest einem Parameter bestimmt wird, der eine Information über eine Fahrt des Fahrzeugs und/oder eine Position einer Infrastrukturmaßnahme vor dem Fahrzeug repräsentiert und/oder der von einem sich bewegenden Objekt unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt erkannt wurde. Schließlich umfasst das Verfahren 500 einen Schritt des Anwendens 530 eines ersten Objekterkennungsalgorithmus auf das erste Bild, um zumindest ein Objekt in dem ersten Bild zu erkennen und Anwenden eines zweiten Objekterkennungsalgorithmus auf den Bildausschnitt, um zumindest ein weiteres Objekt in dem Bildausschnitt zu erkennen.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
  • Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007001099 A1 [0003]

Claims (12)

  1. Verfahren (500) zur Erkennung von Objekten (240, 250) in einem Umfeld (130) eines Fahrzeugs (100), wobei das Verfahren (500) die folgenden Schritte aufweist: – Einlesen (510) eines ersten Bildes (210) einer Fahrzeugkamera (110), das das Umfeld (130) des Fahrzeugs (100) repräsentiert und das mit einer ersten Belichtungszeit aufgenommen wurde und Einlesen eines zweiten Bildes (220) der Fahrzeugkamera (110), das nach dem ersten Bild (210) und mit einer zweiten Belichtungszeit aufgenommen wurde, wobei sich die zweite Belichtungszeit von der ersten Belichtungszeit unterscheidet; – Extrahieren (520) eines Bildausschnittes (230) aus dem zweiten Bild (220) der Fahrzeugkamera (110), wobei der Bildausschnitt (230) einen kleineren Bereich des Umfeldes (130) des Fahrzeugs (100) repräsentiert, als das erste Bild (210), wobei beim Extrahieren (520) eine Position des Bildausschnitts (230) im zweiten Bild (220) auf der Basis von zumindest einem Parameter bestimmt wird, der eine Information über eine Fahrt des Fahrzeugs und/oder eine Position einer Infrastrukturmaßnahme vor dem Fahrzeug repräsentiert und/oder der von einem sich bewegenden Objekt unabhängig ist, das in einem vorangegangenen Schritt in dem Bildausschnitt (230) erkannt wurde; – Anwenden (530) eines ersten Objekterkennungsalgorithmus auf das erste Bild (210), um zumindest ein Objekt (240) in dem ersten Bild (210) zu erkennen und Anwenden eines zweiten Objekterkennungsalgorithmus auf den Bildausschnitt (230), um zumindest ein weiteres Objekt (250) in dem Bildausschnitt (230) zu erkennen.
  2. Verfahren (500) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Extrahierens (520) der Bildausschnitt (230) unter Verwendung einer Positionsinformation extrahiert wird, wobei die Positionsinformation ansprechend auf eine Information, die eine Fahrt des Fahrzeugs (100) repräsentiert, veränderbar ist oder verändert wird.
  3. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (510) als das erste Bild (210) ein Bild eingelesen wird, das eine kürzere Belichtungszeit aufweist, als das Bild, das als zweites Bild (220) eingelesen wird.
  4. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Anwendens (530) der erste Objekterkennungsalgorithmus auf das gesamte erste Bild (210) angewandt wird.
  5. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Extrahierens (520) ein Bildausschnitt (230) des zweiten Bildes (220) extrahiert wird, in dem Objekte (250) im Bild der Fahrzeugkamera (110) abgebildet werden, die eine vorbestimmte Mindestentfernung vor dem Fahrzeug (100) angeordnet sind.
  6. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Anwendens (530) der erste Objekterkennungsalgorithmus zur Erkennung von Objekten (240) eines ersten Objekttyps verwendet wird und der zweite Objekterkennungsalgorithmus zur Erkennung von Objekten eines zweiten Objekttyps (250) verwendet wird, der sich vom ersten Objekttyp unterscheidet.
  7. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Anwendens (530) der erste Objekterkennungsalgorithmus ausgebildet ist, um ein Objekt (240) im ersten Bild (210) unter Verwendung eines Vergleichs der Helligkeit (320, 330; 400) an einer Position im ersten Bild (210) mit einer Helligkeit (320, 330; 400) an einer entsprechenden Position im zweiten Bild (220), insbesondere im Bildausschnitt (230), zu erkennen und/oder dass im Schritt des Anwendens (530) der zweite Objekterkennungsalgorithmus ausgebildet ist, um ein Objekt (250) im zweiten Bild (220), insbesondere im Bildausschnitt (230) unter Verwendung eines Vergleichs der Helligkeit (320, 330; 400) an einer Position im zweiten Bild (220), insbesondere im Bildausschnitt (230) mit einer Helligkeit (32, 330; 400) an einer entsprechenden Position im ersten Bild (210) zu erkennen.
  8. Verfahren (500) gemäß Anspruch 7, dadurch gekennzeichnet, dass im Schritt des Anwendens (530) durch den ersten Objekterkennungsalgorithmus ein Objekt (240) als pulsierende Lichtquelle erkannt wird, wenn die Helligkeit (400) an der Position im ersten Bild (210) innerhalb eines Toleranzbereichs gleich der Helligkeit (400) an der entsprechenden Position im zweiten Bild (220), insbesondere im Bildausschnitt (230) ist und/oder dass durch den ersten Objekterkennungsalgorithmus ein Objekt (240) als konstant Licht aussendende Lichtquelle erkannt wird, wenn sich die Helligkeit (320, 330) an der Position im ersten Bild (210) um mehr als einen vorbestimmten Schwellwert von der Helligkeit (320, 330) an der entsprechenden Position im zweiten Bild (220), insbesondere im Bildausschnitt (230) unterscheidet und/oder dass durch den zweiten Objekterkennungsalgorithmus ein Objekt (250) als pulsierende Lichtquelle erkannt wird, wenn die Helligkeit (400) an der Position im zweiten Bild (220), insbesondere im Bildausschnitt (230) innerhalb eines Toleranzbereichs gleich der Helligkeit (400) an der entsprechenden Position im ersten Bild (210) ist und/oder dass durch den zweiten Objekterkennungsalgorithmus ein Objekt (250) als konstant Licht aussendende Lichtquelle erkannt wird, wenn sich die Helligkeit (320, 330) an der Position im zweiten Bild (220), insbesondere im Bildausschnitt (230) um mehr als einen vorbestimmten Schwellwert von der Helligkeit (320, 330) an der entsprechenden Position im ersten Bild (210) unterscheidet.
  9. Verfahren zur Regelung einer Fahrbahnausleuchtung vor einem Fahrzeug, das die folgenden Schritte aufweist: – die Schnitte eines Verfahrens (500) gemäß einem der vorangegangenen Ansprüche; und – Ansteuern eines Veränderns der Lichtausstrahlung eines Scheinwerfers (160) des Fahrzeugs (100 ansprechend auf zumindest ein durch den ersten Objekterkennungsalgorithmus erkanntes Objekt (240) und/oder ansprechend auf zumindest ein durch den zweiten Objekterkennungsalgorithmus erkanntes Objekt (250).
  10. Verfahren gemäß Anspruch 9, dadurch gekennzeichnet, dass im Schritt des Ansteuerns ferner das Verändern der Lichtausstrahlung unabhängig von eine durch den zweiten oder zweiten Objekterkennungsalgorithmus erkannte Infrastruktureinrichtung am Fahrbahnrand erfolgt.
  11. Vorrichtung (140), die Einheiten aufweist, die ausgebildet sind, um die Schritte eines Verfahrens (500) gemäß einem der Ansprüche 1 bis 10 durchzuführen.
  12. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens (500) nach einem der Ansprüche 1 bis 10, wenn das Programm auf einer Vorrichtung (140) ausgeführt wird.
DE102011077038A 2011-06-07 2011-06-07 Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs Pending DE102011077038A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102011077038A DE102011077038A1 (de) 2011-06-07 2011-06-07 Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
US14/124,971 US10552688B2 (en) 2011-06-07 2012-05-21 Method and device for detecting objects in the surroundings of a vehicle
EP12729369.4A EP2718869A2 (de) 2011-06-07 2012-05-21 Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
PCT/EP2012/059348 WO2012168055A2 (de) 2011-06-07 2012-05-21 Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
CN201280027459.XA CN103782307A (zh) 2011-06-07 2012-05-21 用于识别车辆的环境中的对象的方法和设备
JP2014513977A JP6175430B2 (ja) 2011-06-07 2012-05-21 車両の周辺区域にある物体を認識する方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011077038A DE102011077038A1 (de) 2011-06-07 2011-06-07 Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102011077038A1 true DE102011077038A1 (de) 2012-12-13

Family

ID=46354158

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011077038A Pending DE102011077038A1 (de) 2011-06-07 2011-06-07 Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs

Country Status (6)

Country Link
US (1) US10552688B2 (de)
EP (1) EP2718869A2 (de)
JP (1) JP6175430B2 (de)
CN (1) CN103782307A (de)
DE (1) DE102011077038A1 (de)
WO (1) WO2012168055A2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2767924A3 (de) * 2013-02-15 2015-04-08 Hella KGaA Hueck & Co. Verfahren und Vorrichtung zur Erkennung pulsierender Lichtquellen
EP3036132A4 (de) * 2013-08-19 2016-10-05 Gentex Corp Fahrzeugabbildungssystem und verfahren zur unterscheidung von spiegelnden objekten aus den scheinwerfern eines anderen fahrzeugs
DE102019202377A1 (de) 2018-03-09 2019-09-12 Robert Bosch Gmbh Verfahren zum Verschlüsseln von Fahrzeugdefektmeldungen
US11450026B2 (en) 2017-12-27 2022-09-20 Sony Corporation Information processing apparatus, information processing method, and mobile object

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012221159A1 (de) * 2012-11-20 2014-05-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen von Wechselverkehrszeichen
DE102013115000A1 (de) * 2013-01-07 2014-07-10 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Blendungsminderung für dynamischen Rückspiegel
RU2655256C1 (ru) 2015-04-08 2018-05-24 Ниссан Мотор Ко., Лтд. Устройство обнаружения светофора и способ обнаружения светофора
JP6558735B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
GB201818058D0 (en) * 2015-05-18 2018-12-19 Mobileye Vision Technologies Ltd Safety system for a vehicle to detect and warn of a potential collision
DE102015219496A1 (de) * 2015-10-08 2017-04-13 Robert Bosch Gmbh Verfahren zum Bestimmen der Funktionsfähigkeit eines Fahrerassistenzsystems eines Fahrzeugs, Vorrichtung, Fahrerassistenzsystem, Kraftfahrzeug
JP6327719B2 (ja) * 2016-02-04 2018-05-23 株式会社Subaru 車両の走行制御装置
US9976284B2 (en) * 2016-07-18 2018-05-22 Caterpillar Inc. Control system for headlights of a machine
US11453365B2 (en) * 2016-08-26 2022-09-27 NetraDyne, Inc. Recording video of an operator and a surrounding visual field
DE102017200607B4 (de) * 2017-01-17 2024-02-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug
KR20180097966A (ko) * 2017-02-24 2018-09-03 삼성전자주식회사 자율 주행을 위한 영상 처리 방법 및 장치
US10453208B2 (en) * 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
DE102017215347A1 (de) * 2017-09-01 2019-03-07 Conti Temic Microelectronic Gmbh Verfahren zur vorhersehbaren Belichtungssteuerung zumindest einer ersten Fahrzeugkamera
CN108021877A (zh) * 2017-11-30 2018-05-11 北京文安智能技术股份有限公司 一种行驶车辆中的人脸识别方法、装置及系统
US11514789B2 (en) * 2018-01-05 2022-11-29 Arriver Software Llc Illumination-based object tracking within a vehicle
JPWO2019159764A1 (ja) * 2018-02-14 2021-04-01 株式会社小糸製作所 車載カメラシステム、車両用灯具
JP2019159772A (ja) * 2018-03-13 2019-09-19 株式会社小糸製作所 車両システム
JP7060676B2 (ja) 2018-03-23 2022-04-26 本田技研工業株式会社 物体認識装置、車両及び物体認識方法
JP7331483B2 (ja) * 2019-06-18 2023-08-23 株式会社アイシン 撮像制御装置
DE102019209152A1 (de) * 2019-06-25 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum sicheren Identifizieren von Objekten in Videobildern
CN112766026B (zh) * 2019-11-05 2024-02-02 大富科技(安徽)股份有限公司 交通灯的检测方法、计算机存储介质、车载终端和车辆
CN110971835A (zh) * 2019-12-24 2020-04-07 重庆紫光华山智安科技有限公司 一种基于双相曝光的监控方法及装置
CN113657427B (zh) * 2021-06-29 2024-01-23 东风汽车集团股份有限公司 一种车内多源图像融合识别方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007001099A1 (de) 2007-01-04 2008-07-10 Siemens Ag Fahrerassistenzsystem zur Verkehrszeichenerkennung

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5796094A (en) 1993-02-26 1998-08-18 Donnelly Corporation Vehicle headlight control using imaging sensor
JPH06274626A (ja) 1993-03-19 1994-09-30 Toyota Motor Corp 走行車両検出装置
US5837994C1 (en) * 1997-04-02 2001-10-16 Gentex Corp Control system to automatically dim vehicle head lamps
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
AU2003225228A1 (en) * 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
CN1120782C (zh) 2002-06-07 2003-09-10 北京龙浩亚安智能数码科技有限公司 车牌自动识别方法
JP4818609B2 (ja) 2002-08-21 2011-11-16 ジェンテックス コーポレイション 外部車両照明の自動制御のための画像取得及び処理方法
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
US7023454B1 (en) * 2003-07-07 2006-04-04 Knight Andrew F Method and apparatus for creating a virtual video of an object
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP3931891B2 (ja) * 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
DE102005033863A1 (de) * 2005-07-20 2007-01-25 Robert Bosch Gmbh Bildaufnahmesystem
JP4108706B2 (ja) * 2005-10-31 2008-06-25 三菱電機株式会社 車線逸脱防止装置
US8017898B2 (en) * 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
JP4571179B2 (ja) * 2007-12-07 2010-10-27 パナソニック株式会社 撮像装置
FR2936194B1 (fr) * 2008-09-23 2011-08-05 Valeo Vision Sas Procede d'ajustement de l'eclairage des projecteurs pour vehicule automobile.
EP3975138A1 (de) * 2008-10-06 2022-03-30 Mobileye Vision Technologies Ltd. Bündelung von fahrerassistenzsystemen
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
EP2539197B1 (de) * 2010-02-26 2020-12-16 Gentex Corporation Automatisches überwachungs-, warn- und steuersystem für eine fahrzeugausrüstung
JP5644451B2 (ja) * 2010-05-25 2014-12-24 株式会社リコー 画像処理装置および画像処理方法、ならびに、撮像装置
JP6011104B2 (ja) * 2012-07-24 2016-10-19 株式会社デンソー 車両用視界支援装置
DE102012217093A1 (de) * 2012-09-21 2014-04-17 Robert Bosch Gmbh Kamerasystem, insbesondere für ein Fahrzeug, und Verfahren zum Ermitteln von Bildinformationen eines Erfassungsbereichs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007001099A1 (de) 2007-01-04 2008-07-10 Siemens Ag Fahrerassistenzsystem zur Verkehrszeichenerkennung

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2767924A3 (de) * 2013-02-15 2015-04-08 Hella KGaA Hueck & Co. Verfahren und Vorrichtung zur Erkennung pulsierender Lichtquellen
EP3036132A4 (de) * 2013-08-19 2016-10-05 Gentex Corp Fahrzeugabbildungssystem und verfahren zur unterscheidung von spiegelnden objekten aus den scheinwerfern eines anderen fahrzeugs
US11450026B2 (en) 2017-12-27 2022-09-20 Sony Corporation Information processing apparatus, information processing method, and mobile object
DE102019202377A1 (de) 2018-03-09 2019-09-12 Robert Bosch Gmbh Verfahren zum Verschlüsseln von Fahrzeugdefektmeldungen
WO2019170530A1 (de) 2018-03-09 2019-09-12 Robert Bosch Gmbh Verfahren zum verschlüsseln von fahrzeugdefektmeldungen

Also Published As

Publication number Publication date
US20140098997A1 (en) 2014-04-10
WO2012168055A2 (de) 2012-12-13
US10552688B2 (en) 2020-02-04
JP2014525067A (ja) 2014-09-25
CN103782307A (zh) 2014-05-07
WO2012168055A3 (de) 2013-02-14
EP2718869A2 (de) 2014-04-16
JP6175430B2 (ja) 2017-08-02

Similar Documents

Publication Publication Date Title
DE102011077038A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
DE102011081428A1 (de) Verfahren zum Bestimmen einer Objektklasse eines Objekts, von dem aus Licht zu einem Fahrzeug ausgesandt und/oder reflektiert wird
DE102007034657B4 (de) Bildverarbeitungsvorrichtung
EP2062198B1 (de) Erkennung von fahrzeuglichtern mit einer kamera
EP2748032B1 (de) Verfahren und vorrichtung zur ansteuerung eines scheinwerfers eines fahrzeugs
DE102005014953A1 (de) Kraftfahrzeug mit einer Beleuchtungseinrichtung mit veränderbarem Ausleuchtvolumen
EP2691917A1 (de) Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
DE102011006564A1 (de) Verfahren zur Auswertung eines von einer Kamera eines Fahrzeugs aufgenommenen Bildes und Bildaufbereitungsvorrichtung
DE102011085689A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Gruppe aus zumindest zwei benachbart angeordneten Beleuchtungseinheiten während der Fahrt eines Fahrzeugs
EP2570964A2 (de) Verfahren und Vorrichtung zum Unterscheiden eines selbstleuchtenden Objekts von einem reflektierenden Objekt
DE102008034166A1 (de) Verfahren und Vorrichtung zum Emitteln einer geeigneten Lichtverteilung des durch mindestens einen Frontscheinwerfer eines Fahrzeugs abgestrahlten Lichts
DE102010025349A1 (de) Verfahren zum Betrieb einer Kraftfahrzeugbeleuchtungseinrichtung mit automatischer Abblendfunktion
DE102012214637A1 (de) Verfahren und Vorrichtung zur Einstellung einer Leuchtcharakteristik eines Scheinwerfers und Scheinwerfersystem
DE102013210097A1 (de) Fahrerinformationseinrichtung
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE10104734A1 (de) Verfahren zur Steuerung technischer Einrichtungen auf Grundlage von Bilddaten
DE102006004770B4 (de) Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs
DE102017204836A1 (de) Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
EP2131308B1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
DE102007008542B4 (de) Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE29825026U1 (de) Steuerungssystem, um Fahrzeugscheinwerfer automatisch zu dimmen
DE102006043433B4 (de) Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen
DE102011081363A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Information über eine Relativgeschwindigkeit zwischen einem Fahrzeug und einem Objekt
DE102008009263B3 (de) Verfahren zum automatischen Erkennen, insbesondere bei der Verkehrsüberwachung, von Fahrzeugen oder von Fahrzeugkennzeichen
DE102022113001A1 (de) Lichtassistenzsystem, Fahrzeug und Verfahren zum Steuern eines Scheinwerfers eines Fahrzeuges

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication