DE102012209488A1 - Erkennungsobjekt-Erfassungsvorrichtung - Google Patents

Erkennungsobjekt-Erfassungsvorrichtung Download PDF

Info

Publication number
DE102012209488A1
DE102012209488A1 DE102012209488A DE102012209488A DE102012209488A1 DE 102012209488 A1 DE102012209488 A1 DE 102012209488A1 DE 102012209488 A DE102012209488 A DE 102012209488A DE 102012209488 A DE102012209488 A DE 102012209488A DE 102012209488 A1 DE102012209488 A1 DE 102012209488A1
Authority
DE
Germany
Prior art keywords
brightness
vehicle
unit
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012209488A
Other languages
English (en)
Inventor
Toshikazu Murao
Takayuki Kimura
Kentarou Shiota
Noriaki Shirai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102012209488A1 publication Critical patent/DE102012209488A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Es wird eine Erkennungsobjekt-Erfassungsvorrichtung bereitgestellt, mit einer Bildgebungseinheit, die Bilddaten erzeugt, die ein aufgenommenes Bild darstellen, und einer Erfassungseinheit, die ein Erkennungsobjekt aus dem Bild erfasst, das durch die Bilddaten dargestellt wird. Die Bildgebungseinheit weist eine Charakteristik auf, bei der sich ein Verhältnis zwischen Helligkeit und Ausgangspixelwerten in Abhängigkeit eines Helligkeitsbereichs ändert. Die Erfassungseinheit binarisiert die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von mehreren Schwellenwerten, um mehrere binäre Bilder zu erzeugen, und erfasst das Erkennungsobjekt auf der Grundlage der mehreren binären Bilder.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Diese Anmeldung basiert auf und beansprucht die Priorität der am 06. Juni 2011 eingereichten japanischen Patentanmeldung Nr. 2011-126474 , auf deren Offenbarung hiermit vollinhaltlich Bezug genommen wird.
  • HINTERGRUND DER ERFINDUNG
  • (Technisches Gebiet)
  • Die vorliegende Erfindung betrifft eine Erkennungsobjekt-Erfassungsvorrichtung, die ein Erkennungsobjekt aus einem Bild erfasst, das von einer fahrzeugeigenen Kamera aufgenommen wird.
  • (Stand der Technik)
  • Bekannt ist ein Verfahren, gemäß dem ein vorbestimmtes Erkennungsobjekt aus einem Bild erfasst wird, das von einer fahrzeugeigenen Kamera aufgenommen wird. Die JP 2009-61812 A beispielsweise offenbart ein Verfahren, gemäß dem ein Bild einer Szene vor einem bei Nacht fahrenden Fahrzeug unter Verwendung einer fahrzeugeigenen Kamera aufgenommen wird. Anschließend werden Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs aus dem aufgenommenen Bild als ein Erkennungsobjekt erfasst. Unter Verwendung dieses Verfahrens wird eine Steuerung realisiert, gemäß der Scheinwerfer eines Eigenfahrzeugs auf Abblendlicht eingestellt werden, wenn ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug erfasst werden, und Scheinwerfer auf Fernlicht eingestellt werden, wenn ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug nicht erfasst werden (automatische Fernlichtsteuerung).
  • Es sollte beachtet werden, dass dann, wenn sich ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug in weiter Entfernung zu dem Eigenfahrzeug befinden, die Helligkeit der Rücklichter oder der Scheinwerfer in dem Bild, das von der fahrzeugeigenen Kamera aufgenommen wird, abnimmt und das Bild der Rücklichter oder der Scheinwerfer aufgrund von Rauschen und dergleichen leicht verschwindet, verglichen mit einem Fall, in dem sich das vorausfahrende Fahrzeug oder das entgegenkommende Fahrzeug in einer kurzen Entfernung zu dem Eigenfahrzeug befinden. Als Verfahren zur Erhöhung der Genauigkeit bei der Erfassung von Rücklichtern oder Scheinwerfern in einer weiten Entfernung (geringe Helligkeit) kann eine Erhöhung der Bildgebungsempfindlichkeit der fahrzeugeigenen Kamera in Frage kommen. Bei zunehmender Empfindlichkeit kommt das Bild der Rücklichter oder der Scheinwerfer, die in einer kurzen Entfernung vorhanden sind (große Helligkeit), in dem von der fahrzeugeigenen Kamera aufgenommenen Bild jedoch leicht in die Sättigung.
  • Um das obige Problem zu lösen, offenbart die JP 4034565 ein Verfahren, gemäß dem ein Bild zunächst bei einer niedrigen Empfindlichkeit aufgenommen wird und anschließend ein weiteres Bild bei einer hohen Empfindlichkeit aufgenommen wird, wenn Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs nicht in dem aufgenommenen Bild erfasst werden. D. h., indem die Bildgebung (Imaging) zwei Mal ausgeführt wird, wird die Genauigkeit bei der Erfassung des Erkennungsobjekts bei sowohl der niedrigen als auch der hohen Empfindlichkeit erhöht. Gemäß diesem Verfahren können die Lichter von Fahrzeugen in einer weiten Entfernung erfasst werden, obwohl Rauschen und dergleichen vorhanden ist, während verhindert werden kann, dass die Lichter von Fahrzeugen in einer kurzen Entfernung in den aufgenommenen Bildern in die Sättigung kommt.
  • Wenn die Bildgebung jedoch mehrere Male mit sich ändernder Bildgebungsempfindlichkeit ausgeführt wird, so wie es bei dem herkömmlichen Verfahren erfolgt, das vorstehend beschrieben wird, nimmt die Rechenlast deutlich zu. Die erhöhte Rechenlast verursacht dahingehend ein Problem, dass die Kosten zur Fertigung der Vorrichtung zunehmen, und dahingehend ein Problem, dass eine Verkleinerung der Vorrichtung verhindert wird, da der Betrag der Wärmeerzeugung zunimmt. Es sollte beachtet werden, dass solche Probleme nicht nur bei dem Verfahren auftreten können, bei dem Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs als Erkennungsobjekt erfasst werden, sondern ebenso bei einem Verfahren, bei dem andere Erkennungsobjekte erfasst werden.
  • ZUSAMMENFASSUNG
  • Eine Ausführungsform stellt eine Erkennungsobjekt-Erfassungsvorrichtung bereit, welche die Genauigkeit bei der Erfassung eines Erkennungsobjekts erhöht und gleichzeitig eine Rechenlast verringert.
  • Gemäß einem Aspekt der Ausführungsform wird eine Erkennungsobjekt-Erfassungsvorrichtung bereitgestellt, mit: einer Bildgebungseinheit, die Bilddaten erzeugt, die ein aufgenommenes Bild darstellen; und einer Erfassungseinheit, die ein Erkennungsobjekt aus dem Bild erfasst, das durch die Bilddaten dargestellt wird. Die Bildgebungseinheit weist eine Charakteristik auf, bei der sich ein Verhältnis zwischen Helligkeit und Ausgangspixelwerten in Anhängigkeit eines Helligkeitsbereichs ändert. Die Erfassungseinheit binarisiert die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von mehreren Schwellenwerten, um mehrere binäre Bilder zu erzeugen, und erfasst das Erkennungsobjekt auf der Grundlage der mehreren binären Bilder.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • In den beigefügten Zeichnungen zeigt:
  • 1 ein Blockdiagramm zur Veranschaulichung eines Aufbaus eines Scheinwerfersteuersystems gemäß einer Ausführungsform;
  • 2A ein Diagramm zur Veranschaulichung einer Helligkeitsverteilung;
  • 2B ein Diagramm zur Veranschaulichung einer Charakteristik eines Bildwandlers (Verhältnis zwischen Helligkeit und Ausgangspixelwerten);
  • 3 ein Diagramm zur Veranschaulichung einer weiteren Charakteristik eines Bildwandlers;
  • 4 ein Ablaufdiagramm eines Objekterkennungsprozesses;
  • 5 eine Abbildung zur Veranschaulichung eines Prozesses zum Extrahieren eines Bildes in einem Erfassungsbereich eines aufgenommenen Bildes als ein Verarbeitungsobjektbild;
  • 6A eine Abbildung zur Veranschaulichung eines binären Bildes mit einer Form, bei der zwei Lichtquellen miteinander verbunden sind;
  • 6B eine Abbildung zur Veranschaulichung eines binären Bildes, bei dem zwei Lichtquellen mit einem Abstand in der horizontalen Richtung zwischen ihnen angeordnet sind;
  • 6C eine Abbildung zur Veranschaulichung eines binären Bildes mit einer Lichtquelle;
  • 7 eine Abbildung zur Veranschaulichung eines Prozesses zum Schätzen eines Abstands zwischen einem Eigenfahrzeug und einer Lichtquelle auf der Grundlage der Helligkeit der Lichtquelle;
  • 8 ein Ablaufdiagramm zur Veranschaulichung eines Temperaturkorrekturprozesses;
  • 9A ein Diagramm zur Veranschaulichung einer Temperatur-Empfindlichkeits-Kennlinie;
  • 9B ein Diagramm zur Veranschaulichung einer Temperatur-Rauschen-Kennlinie; und
  • 9C ein Diagramm zur Veranschaulichung eines Verfahrens zum Korrigieren des Verhältnisses zwischen Helligkeit und Ausgangspixelwerten.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend wird eine Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • (1. Allgemeiner Aufbau)
  • 1 zeigt ein Blockdiagramm zur Veranschaulichung eines Aufbaus eines Scheinwerfersteuersystems 10 der Ausführungsform.
  • Das Scheinwerfersteuersystem 10 ist in einem vorbestimmten Fahrzeug installiert. Das Scheinwerfersteuersystem 10 führt eine automatische Fernlichtsteuerung aus, gemäß der der Beleuchtungszustand von Scheinwerfern 41 des Eigenfahrzeugs geändert wird, in Abhängigkeit davon, ob ein anderes Fahrzeug (vorausfahrendes Fahrzeug oder entgegenkommendes Fahrzeug) vor dem vorbestimmten Fahrzeug (Eigenfahrzeug) fährt oder nicht. Während die automatische Fernlichtsteuerung ausgeführt wird, wird der Beleuchtungszustand der Scheinwerfer 41 automatisch auf Abblendlicht gesetzt, wenn ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug vorhanden ist, und auf Fernlicht gesetzt, wenn weder ein vorausfahrendes Fahrzeug noch ein entgegenkommendes Fahrzeug vorhanden ist.
  • Um die automatische Fernlichtsteuerung zu realisieren, die vorstehend beschriebenen wird, weist das Scheinwerfersteuersystem 10 auf: eine fahrzeugeigene Kamera 20 (nachstehend einfach als „Kamera” bezeichnet), die ein Bild einer Szene vor dem Eigenfahrzeug aufnimmt, einen Controller 30, der Rücklichter eines vorausfahrenden Fahrzeugs und Scheinwerfer eines entgegenkommenden Fahrzeug als Erkennungsobjekte aus einem von der Kamera 20 aufgenommenen Bild erfasst, und einen Beleuchtungs-Controller 40, welcher den Beleuchtungszustand der Scheinwerfer 41 ändert.
  • Die Kamera 20 gibt Bilddaten aus, die ein Bild einer Szene vor dem Eigenfahrzeug darstellen. Die Kamera 20 ist an einer vorbestimmten Position des Eigenfahrzeugs angeordnet (wie beispielsweise an der Rückseite eines inneren Rückspiegels). Insbesondere weist die Kamera 20 auf: einen Bildwandler 21, der Bilddaten erzeugt, die ein aufgenommenes Bild darstellen, eine Bildschnittstelle 22, welche die die von dem Bildwandler 21 erzeugten Bilddaten an den Controller 30 gibt, und einen Temperatursensor 23, welcher die Temperatur des Bildwandlers 21 misst.
  • Der Bildwandler 21 weist einen Verstärker und einen A/D-Wandler zusätzlich zu einem bekannten CCD-Bildsensor oder einem CMOS-Bildsensor auf. Wenn der Bildsensor ein Bild aufnimmt, bewirken der Verstärker und der A/D-Wandler, dass ein analoges Signal, welches die Helligkeit (Leuchtdichte) jedes Pixels des Bildes darstellt, mit einer vorbestimmten Verstärkung verstärkt wird und die verstärkten analogen Werte anschließend in digitale Werte gewandelt werden. Der Bildwandler 21 gibt ein Signal der gewandelten digitalen Werte (Ausgangspixelwerte der Pixel) als Bilddaten von jeder Linie des Bildes aus.
  • Genauer gesagt, als der Bildwandler 21 der vorliegenden Ausführungsform wird eine Einheit verwendet, die einen hohen dynamischen Bereich (HDR) einstellen kann, welcher den dynamischen Bereich ausdehnen kann. 2B zeigt eine Charakteristik des Bildwandlers 21 (das Verhältnis zwischen Helligkeit und Ausgangspixelwerten). Gemäß der Charakteristik ist das Verhältnis zwischen Helligkeit und Ausgangspixelwerten über den gesamten Helligkeitsbereich nicht konstant (linear) und ändert sich in Abhängigkeit des Helligkeitsbereichs (Charakteristik des hohen dynamischen Bereichs). Insbesondere zeigt die Charakteristik des Bildwandlers 21 ein Liniendiagramm, das verschiedene Steigungen zwischen einem niedrigen Helligkeitsbereich und dem verbleibenden Bereich (hoher Helligkeitsbereich) aufweist (d. h. Linien zweier Steigungen werden kombiniert). Folglich kann der Bildwandler 21 eine Ausgabe über einen breiten Helligkeitsbereich vornehmen, während er die Auflösung in dem niedrigen Helligkeitsbereich auf einen hohen Wert setzt. Es sollte beachtet werden, dass das in der 2B gezeigte Verhältnis zwischen Helligkeit und Ausgangspixelwerten nur ein Beispiel ist. Die Charakteristik des Bildwandlers 21 kann eine Linie zeigen, bei der drei oder mehr als drei Steigungen kombiniert werden, wie durch eine durchgezogene Linie in der 3 gezeigt, oder eine logarithmische Charakteristik (Kurve) zeigen, wie durch eine gestrichelte Linie in der 3 gezeigt.
  • Der Controller 30 führt einen Prozess zur Erfassung von Rücklichtern eines vorausfahrenden Fahrzeugs und Scheinwerfern eines entgegenkommenden Fahrzeugs als Erkennungsobjekte aus einem von der Kamera 20 aufgenommenen Bild (Bild, dass durch Bilddaten dargestellt wird, die von dem Bildwandler 21 erzeugt werden) aus und gibt das Ergebnis des Prozesses an den Beleuchtungs-Controller 40. Insbesondere weist der Controller 30 eine CPU 31, einen Speicher 32 zur Speicherung von Daten und eine Kommunikationsschnittstelle 33 zur Kommunikation mit dem Beleuchtungs-Controller 40 auf.
  • Die CPU 31 speichert Bilddaten, die von der Kamera 20 empfangen werden, in dem Speicher 32 und führt einen Prozess zur Erfassung eines Erkennungsobjekts aus einem Bild, das durch die Bilddaten dargestellt wird, aus. Die CPU 31 gibt das Ergebnis des Prozesses (Information, die anzeigt, ob ein Erkennungsobjekt vorhanden ist oder nicht) über die Kommunikationsschnittstelle 33 an den Beleuchtungs-Controller 40.
  • Ferner gibt die CPU 31, zur Unterdrückung der Änderung in den Bilddaten (Ausgangspixelwerte) aufgrund der Änderung in der Temperatur des Bildwandlers 21, die durch die Umgebungstemperatur oder dergleichen beeinflusst wird, einen Kamerasteuerwert an die Kamera 20 (insbesondere den Bildwandler 21), in Abhängigkeit der Temperatur des Bildwandlers 21, die von dem Temperatursensor 23 gemessen wird, um so die Belichtung der Kamera 20 zu steuern (das Verhältnis zwischen Helligkeit und Ausgangspixelwerten zu korrigieren). Als der Kamerasteuerwert können beispielsweise die Belichtungszeit (Belichtungszeit), eine Rahmenrate, ein Anzeigewert zur Abstimmung der Verstärkung des Verstärkers und dergleichen ausgegeben werden. Es sollte beachtet werden, dass in der vorliegenden Ausführungsform die Belichtungssteuerung nicht ausgeführt wird, mit Ausnahme der Steuerung in Abhängigkeit der Temperatur des Bildwandlers 21 (das Verhältnis zwischen Helligkeit und Ausgangspixelwerten wird festgelegt).
  • Der Beleuchtungs-Controller 40 steuert die Scheinwerfer 41. Der Beleuchtungs-Controller 40 ändert den Beleuchtungszustand (Fernlicht/Abblendlicht) der Scheinwerfer 41 in Abhängigkeit der Information, die von dem Controller 30 empfangen wird.
  • (2. Prozesse)
  • Nachstehend werden die Prozesse, die von der CPU 31 in Übereinstimmung mit einem im Voraus gespeicherten Programm ausgeführt werden, beschrieben.
  • Zunächst wird ein Objekterkennungsprozess, der periodisch (wie beispielsweise in Intervallen von 100 ms) von der CPU 31 ausgeführt wird, unter Bezugnahme auf das in der 4 gezeigte Ablaufdiagramm beschrieben.
  • Wenn der in der 4 gezeigte Objekterkennungsprozess gestartet wird, erhält die CPU 31 zunächst Bilddaten, die ein Bild einer Szene vor dem Eigenfahrzeug beschreiben, von der Kamera 20 (S11). Anschließend extrahiert die CPU 31, wie in 5 gezeigt, ein Bild in einem Erfassungsbereich 50 aus einem aufgenommenen Bild, das durch die Bilddaten dargestellt wird, als Verarbeitungsobjektbild (S12). Der Erfassungsbereich 50 wird unter Berücksichtigung von Regulierungserfordernissen, einem Objekterkennungsvermögen, einer Rechenlast und dergleichen festgelegt.
  • Anschließend führt die CPU 31 eine Binarisierung für das Verarbeitungsobjektbild (ein Verarbeitungsobjektbild) unter Verwendung von vier Schwellenwerten aus, um vier binäre Bilder zu erzeugen (S13A, S13B, S13C und S13D). Die vier Schwellenwerte weisen einen ersten Schwellenwert für entfernte Rücklichter, einen zweiten Schwellenwert für entfernte Scheinwerfer, einen dritten Schwellenwert für nahe Rücklichter und einen vierten Schwellenwert für nahe Scheinwerfer auf.
  • Nachstehend wird der Grund dafür beschrieben, warum die vier Schwellenwerte verwendet werden. Da Rücklichter eines vorausfahrenden Fahrzeugs und Scheinwerfer eines entgegenkommenden Fahrzeugs eine Helligkeit aufweisen, die größer als diejenige der Umgebung des Fahrzeugs ist, kann ein Teil eines aufgenommenen Bildes mit Ausgangspixelwerten über einem Schwellenwert als die Rücklichter oder die Scheinwerfer erfasst werden. Es sollte beachtet werden, dass, da ein aufgenommenes Bild ein Objekt mit hoher Helligkeit (wie beispielsweise Straßenlampen, Schilder, die Licht reflektieren, oder dergleichen) als Störfleck bzw. Stördaten zusätzlich zu den Rücklichtern und den Scheinwerfern aufweisen kann, die Rücklichter und die Scheinwerfer bestimmt werden, indem die Form des Teils mit Ausgangspixelwerten über dem Schwellenwert analysiert wird. Um die Form eines Erkennungsobjekts genau zu erfassen, ist es erforderlich, dass ein Schwellenwert verwendet wird, der für die Helligkeit des Erkennungsobjekts geeignet ist. Es wird jedoch die Helligkeit der Rücklichter oder der Scheinwerfer erfasst, die abnimmt, wenn der Abstand zwischen den Rücklichtern oder den Scheinwerfern und dem Eigenfahrzeug zunimmt. Folglich werden dann, wenn Rücklichter und Scheinwerfer in großer Entfernung unter Verwendung eines Schwellenwerts erfasst werden, die Formen der Rücklichter und der Scheinwerfer in geringer Entfernung nicht genau erfasst. Ferner werden, da Rücklichter mit einer Helligkeit unter derjenigen von Scheinwerfern, die Rücklichter und die Schwellenwert vorzugsweise voneinander unterschieden, um die Erfassungsgenauigkeit zu erhöhen. Folglich werden, in der vorliegenden Ausführungsform, vier Schwellenwerte (erster bis vierter Schwellenwert) verwendet, die einen Schwellenwert für entfernte Rücklichter, einen Schwellenwert für entfernte Scheinwerfer, einen Schwellenwert für nahe Rücklichter und einen Schwellenwert für nahe Scheinwerfer aufweisen.
  • Diese vier Schwellenwerte werden in der Entwicklungsstufe festgelegt. Nachstehend wird ein Verfahren zum Festlegen von Schwellenwerten beschrieben.
  • Zunächst wird, als eine Untersuchung zur Gewinnung eines Referenzwerts für die Helligkeit eines Erkennungsobjekts, die Helligkeit des Erkennungsobjekts in Abhängigkeit des Abstands zu dem Eigenfahrzeug gemessen. Insbesondere wird, während der Fahrt entlang einer gewöhnlichen Straße oder einer Teststraße entsprechend einer tatsächlichen Fahrtumgebung, ein Bild eines Erkennungsobjekts (Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs) und eines Störflecks (Straßenlampe, Schild oder dergleichen) aufgenommen. Auf der Grundlage des aufgenommenen Bildes wird, wie in 2A gezeigt, eine Helligkeitsverteilung (Verteilung, welche das Verhältnis zwischen Helligkeit und Frequenz (Anzahl von Pixeln) zeigt) erzeugt. Auf der Grundlage der erzeugten Helligkeitsverteilung werden die Helligkeitsbereiche und die Frequenz der Rücklichter (entfernte Rücklichter) des vorausfahrenden Fahrzeugs in einer weiten Entfernung (erster Abstand) zu dem Eigenfahrzeug und der Scheinwerfer (entfernte Scheinwerfer) des entgegenkommenden Fahrzeugs in einer weiten Entfernung (erster Abstand) zu dem Eigenfahrzeug und die Helligkeitsbereiche und die Frequenz der Rücklichter (nahe Rücklichter) des vorausfahrenden Fahrzeugs in einer kurzen Entfernung (zweiter Abstand, der kürzer als der erste Abstand ist) zu dem Eigenfahrzeug und der Scheinwerfer (nahe Scheinwerfer) des entgegenkommenden Fahrzeugs in einer kurzen Entfernung (zweiter Abstand, der kürzer als der erste Abstand ist) zu dem Eigenfahrzeug bestimmt. Es sollte beachtet werden, dass, in der Helligkeitsverteilung, die in der 2A gezeigt ist, die Helligkeitsbereiche und die Frequenz der Rücklichter (Zwischen-Rücklichter) des vorausfahrenden Fahrzeugs in einem mittleren Abstand (dritter Abstand, die kleiner als der erste Abstand und größer als der zweite Abstand ist) zu dem Eigenfahrzeug und der Scheinwerfer (Zwischen-Scheinwerfer) des entgegenkommenden Fahrzeugs in einem mittleren Abstand (dritter Abstand, der kleiner als der erste Abstand und größer als der zweite Abstand ist) zu dem Eigenfahrzeug bestimmt werden.
  • Anschließend werden, auf der Grundlage des Helligkeitsbereichs und der Frequenz des Erkennungsobjekts, der Helligkeitsbereich und die Auflösung für die Bildgebung bestimmt, um einen genauen Erkennungsprozess auszuführen. D. h., ein Belichtungsbetrag des HDR wird für jedes Erkennungsobjekt bestimmt. Gemäß der Helligkeitsverteilung, die in der 2A gezeigt ist, neigt dann, wenn der Abstand zu dem Eigenfahrzeug zunimmt, die von der Lichtquelle erfasste Helligkeit dazu, abzunehmen, während der Helligkeitsbereich dazu neigt, abzunehmen. Folglich wird die Auflösung in dem niedrigen Helligkeitsbereich so bestimmt, dass sie über derjenigen in dem hohen Helligkeitsbereich liegt. D. h., die Auflösung wird derart festgelegt, dass die Breite der Ausgangspixelwerte in dem niedrigen Helligkeitsbereich bezüglich der Einheitshelligkeitsbreite größer als die Breite der Ausgangspixelwerte in dem hohen Helligkeitsbereich bezüglich der Einheitshelligkeitsbreite wird. In der vorliegenden Ausführungsform wird, wie in 2B gezeigt, das Verhältnis zwischen Helligkeit und Ausgangspixelwerten zu dem Verhältnis zwischen geraden Linien verschiedener Steigungen in einem niedrigen Helligkeitsbereich und einem hohen Helligkeitsbereich bestimmt. Die Grenzposition (Teilungspunkt) zwischen dem niedrigen Helligkeitsbereich und dem hohen Helligkeitsbereich wird auf der Grundlage der Helligkeitsverteilung bestimmt. Ferner werden Schwellenwerte zur Erfassung jedes Erkennungsobjekts (erster bis vierter Schwellenwert) in dem Nahbereich der unteren Grenze der Verteilung bestimmt, in welcher die Helligkeitsverteilung jedes Erkennungsobjekts in Ausgangspixelwerte gewandelt wird (so dass die Ausgangspixelwerte jedes Erkennungsobjekts über den Schwellenwerten liegen und die Ausgangspixelwerte von Störflecken mit einer Helligkeit unter derjenigen des Erkennungsobjekts nicht über den Schwellenwerten liegen) (siehe 7B).
  • Die CPU 31 führt eine Binarisierung für das Verarbeitungsobjektbild unter Verwendung von vier Schwellenwerten aus (erster bis vierter Scheinwerfer), die gemäß obiger Beschreibung bestimmt werden (S13A, S13B, S13C, S13D). Die CPU 31 führt die Erkennungsprozesse zur Erfassung von Erkennungsobjekten (S14A, S14B, S14C, S14D) auf der Grundlage von vier binären Bildern aus, die durch jeden Binarisierungsprozess erzeugt werden. Insbesondere wird, hinsichtlich der binären Bilder, die Form (Anordnung) einer Gruppe von Pixeln mit Ausgangspixelwerten über einem Schwellenwert mit einer vorbestimmtes Referenzform verglichen (die Eigenschaften von Scheinwerfern und Rücklichtern aufweist). Wenn die Form der Gruppe von Pixeln nicht gleich der Referenzform ist, wird bestimmt, dass die Gruppe von Pixeln nicht Scheinwerfer oder Rücklichter darstellt (sondern Störflecken darstellt). Im Falle von Scheinwerfern oder Rücklichtern wird, da zwei Lichtquellen in der horizontalen Richtung beabstandet voneinander angeordnet sind, solch eine Form als eine Referenzform bestimmt. Ferner ist, auch im Falle von Scheinwerfern oder Rücklichtern, da deren Form nicht genau aus einem binären Bild erfasst werden kann, das durch eine Binarisierung unter Verwendung eines ungeeigneten Schwellenwerts erhalten wird, die Form nicht gleich der Referenzform. Im Falle eines binären Bildes, das durch eine Binarisierung unter Verwendung eines geeigneten Schwellenwerts erhalten wird, ist die Form gleich der Referenzform. Folglich können ebenso der Abstand zwischen dem Erkennungsobjekt und dem Eigenfahrzeug (großer Abstand oder kleiner Abstand) und die Art des Lichtes (Scheinwerfer oder Rücklichter) angenommen werden.
  • Wenn ein Verarbeitungsobjektbild von nahen Scheinwerfern (Erkennungsobjekt hoher Helligkeit) unter Verwendung des ersten Schwellenwerts für entfernte Rücklichter (der niedrigste Scheinwerfer) binarisiert wird, überschreiten nicht nur Pixel eines Teils einer Lichtquelle, sondern ebenso Pixel um die Lichtquelle herum den Schwellenwert. Folglich wird, wie in 6A gezeigt, da ein binäres Bild erhalten wird, in dem zwei Lichtquellen miteinander verbunden sind, bestimmt, dass das Verarbeitungsobjektbild nicht Scheinwerfer oder Rücklichter darstellt. Ferner wird, wenn das gleiche Verarbeitungsobjektbild unter Verwendung des vierten Schwellenwerts für nahe Rücklichter (der größte Schwellenwert) binarisiert wird, da ein binäres Bild erhalten wird, in dem zwei Lichtquellen in der horizontalen Richtung voneinander beabstandet angeordnet sind, wie in 6B gezeigt, bestimmt, dass das Verarbeitungsobjektbild Scheinwerfer oder Rücklichter darstellt. Ferner kann dann, wenn ein Störfleck, wie beispielsweise eine Straßenlampe, von einer Lichtquelle erzeugt wird, wie in 6C gezeigt, dieser von Scheinwerfern oder Rücklichtern unterschieden werden.
  • Es sollte beachtet werden, dass der Abstand zwischen den zwei Lichtquellen und die Größe der Lichtquellen in Abhängigkeit des Abstands zu dem Eigenfahrzeug variieren. Folglich wird vorzugsweise der Abstand zu dem, d. h. von dem Eigenfahrzeug geschätzt und eine Referenzform in Abhängigkeit des Abstands verwendet (2B). Wenn der Abstand zu dem Eigenfahrzeug zunimmt, nimmt die Helligkeit, die von einer Lichtquelle erfasst wird, ab, was dazu verwendet werden kann, den Abstand auf der Grundlage der Ausgangspixelwerte zu schätzen. D. h., das Verhältnis zwischen Helligkeit und Ausgangspixelwerten wird, wie in 7A gezeigt, im Voraus erhalten. Es gibt, wie in 7B gezeigt, eine Korrelation zwischen den Abständen und der Helligkeit. Folglich kann der Abstand von dem Eigenfahrzeug auf der Grundlage der Verteilung der Ausgangspixelwerte der Lichtquelle geschätzt werden. Ferner kann auf der Grundlage der Position des Erkennungsobjekts in dem Verarbeitungsobjektbild angenommen werden, dass der Abstand kleiner ist, wenn das Erkennungsobjekt tiefer positioniert ist.
  • Anschließend bestimmt die CPU 31, ob das Erkennungsobjekt aus irgendeinem der binären Bilder erfasst wird oder nicht, auf der Grundlage des Ergebnisses des Erkennungsprozesses, der auf der Grundlage der binären Bilder ausgeführt wird (S15). Wenn bestimmt wird, dass das Erkennungsobjekt aus irgendeinem der binären Bilder erfasst wird (S15 = JA), wird der Beleuchtungszustand der Scheinwerfer 41 des Eigenfahrzeugs auf Abblendlicht gesetzt (S16). Wenn bestimmt wird, dass das Erkennungsobjekt nicht aus irgendeinem der binären Bilder erfasst wird (S15 = NEIN), wird der Beleuchtungszustand der Scheinwerfer 41 des Eigenfahrzeugs auf Fernlicht gesetzt (S17). Anschließend wird der in der 4 gezeigte Objekterkennungsprozess abgeschlossen.
  • Nachstehend wird ein Temperaturkorrekturprozess, der periodisch (wie beispielsweise in Intervallen von 100 ms) von der CPU 31 ausgeführt wird, unter Bezugnahme auf das in der 8 gezeigte Ablaufdiagramm beschrieben.
  • Zunächst bestimmt die CPU 31, ob sich die Temperatur des Bildwandlers 21, die von dem Temperatursensor 23 gemessen wird, über eine vorbestimmte Breite hinaus geändert hat (S21). Wenn bestimmt wird, dass sich die Temperatur nicht über die vorbestimmte Breite hinaus geändert hat (S21 = NEIN), beendet die CPU 31 den in der 8 gezeigten Temperaturkorrekturprozess.
  • Wenn bestimmt wird, dass sich die Temperatur über die vorbestimmte Breite hinaus geändert hat (S21 = JA), nimmt die CPU 31 auf eine Temperatur-Empfindlichkeits-Kennlinie Bezug (welche das Verhältnis zwischen Temperatur und Empfindlichkeitskorrekturwerten definiert), die in der 9A gezeigt ist, und berechnet einen Empfindlichkeitskorrekturwert entsprechend der gemessenen Temperatur (S22). Ferner nimmt die CPU 31 auf eine Temperatur-Rauschen-Kennlinie Bezug (welche das Verhältnis zwischen Temperatur und Rauschkorrekturwerten definiert), die in der 9B gezeigt ist, und berechnet einen Rauschkorrekturwert in Abhängigkeit der gemessenen Temperatur (S23). Anschließend multipliziert die CPU 31 den Empfindlichkeitskorrekturwert mit dem Rauschkorrekturwert, um einen Korrekturwert zu berechnen, und sendet einen Kamerasteuerwert, welcher den berechneten Korrekturwert widerspiegelt, an die Kamera 20 (S24).
  • Wenn der Kamerasteuerwert an die Kamera 20 gesendet wird, korrigiert die Kamera 20 das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten. Insbesondere wird, wie in 9C gezeigt, dann, wenn die Temperatur des Bildwandlers 21 zunimmt, die Korrektur derart ausgeführt, dass die Empfindlichkeit abnimmt. Wenn die Temperatur des Bildwandlers 21 abnimmt, wird die Korrektur derart ausgeführt, dass die Empfindlichkeit zunimmt. Ferner wird, da die niedrigen Ausgangspixelwerte auf einfache Weise durch Rauschen verdeckt werden, wenn die Temperatur des Bildwandlers 21 höher ist, die Korrektur derart ausgeführt, dass die Ausgangspixelwerte korrigiert werden, um höher zu sein, wenn die Temperatur höher ist. Dies führt dazu, dass eine Änderung der Bilddaten (Ausgangspixelwerte) in Abhängigkeit der Temperaturänderung des Bildwandlers 21 unterdrückt wird. D. h., in Abhängigkeit der Temperatur des Bildwandlers 21, die von dem Temperatursensor 23 gemessen wird, wird der Bildgebungszustand bzw. Abbildungszustand des Bildwandlers 21 (das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten) korrigiert.
  • (3. Vorteile)
  • Gemäß dem Scheinwerfersteuersystem 10 der vorliegenden Ausführungsform wird ein Bild, das von dem Bildwandler bzw. dem Bildgeber 21 aufgenommen wird, der eine Charakteristik eines hohen dynamischen Bereichs aufweist, unter Verwendung von vier Schwellenwerten analysiert, um ein Erkennungsobjekt zu erfassen. Folglich sind mehrere Zeitpunkte der Bildgebung mit sich ändernder Bildgebungsempfindlichkeit nicht erforderlich. Dementsprechend kann die Genauigkeit bei der Erfassung eines Erkennungsobjekts erhöht werden, während eine Rechenlast und ein Speicherverbrauch verringert werden können.
  • Ferner kann, da der Bildgebungszustand bzw. Abbildungszustand (das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten) in Abhängigkeit der Temperatur des Bildwandlers 21 korrigiert wird, die Änderung in den Ausgangspixelwerten auch in dem Bildwandler 21 unterdrückt werden, dessen Ausgangspixelwerte unter dem Einfluss der Temperatur einfach variieren.
  • Ferner wird die Breite der Ausgangspixelwerte bezüglich der Einheitshelligkeitsbreite in dem niedrigen Helligkeitsbereich bestimmt, um größer als die Breite der Ausgangspixelwerte bezüglich der Einheitshelligkeitsbreite in dem hohen Helligkeitsbereich zu sein. Folglich wird das Erkennungsobjekt geringer Helligkeit nicht einfach im Rauschen und dergleichen verdeckt bzw. „vergraben”, während das Erkennungsobjekt hoher Helligkeit in Bildern nicht einfach in die Sättigung kommt. Auf diese Weise kann ein breiter Helligkeitsbereich zum Ziel gesetzt werden. Insbesondere kann, da das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten durch mehrere gerade Linien dargestellt wird, das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten auf einfache Weise dargestellt werden.
  • Ferner werden vier Arten von binären Bildern unter Verwendung von vier Arten von Schwellenwerten erzeugt. Die vier Arten von Schwellenwerten weisen auf: einen ersten Schwellenwert und einen zweiten Schwellenwert, die festgelegt werden, um Rücklichter eines vorausfahrenden Fahrzeugs, das in großer Entfernung von dem Eigenfahrzeug angeordnet ist, bzw. Scheinwerfer eines entgegenkommenden Fahrzeugs, das in großer Entfernung zu dem Eigenfahrzeug angeordnet ist, zu erfassen, und einen dritten Schwellenwert und einen vierten Schwellenwert, die festgelegt werden, um Rücklichter eines vorausfahrenden Fahrzeugs, das sich in einer kurzen Entfernung zu dem Eigenfahrzeug befindet, und Scheinwerfer eines entgegenkommenden Fahrzeugs, das sich in einer kurzen Entfernung zu dem Eigenfahrzeug befindet, zu erfassen. Die Erkennungsobjekte werden auf der Grundlage der jeweiligen erzeugten vier binären Bilder erfasst. Folglich können die Rücklichter des vorausfahrenden Fahrzeugs und die Scheinwerfer des entgegenkommenden Fahrzeugs genau erfasst werden. Insbesondere können die erfassten Erkennungsobjekte in vier Arten klassifiziert werden, die weit entfernte Rücklichter, weit entfernte Scheinwerfer, nahe Rücklichter und nahe Scheinwerfer aufweisen. Folglich kann das Ergebnis des Prozesses durch den Controller 30 für eine genauere Steuerung verwendet werden.
  • Ferner kann, da das Erkennungsobjekt auf der Grundlage der Form einer Gruppe von Pixeln einschließlich einer Mehrzahl von Pixeln hoher Helligkeit in dem binären Bild erfasst wird, eine fehlerhafte Erfassung von Störflecken, wie beispielsweise Straßenlampen, vermieden werden.
  • Es sollte beachtet werden, dass in der vorliegenden Ausführungsform das Scheinwerfersteuersystem 10 einer Erkennungsobjekt-Erfassungsvorrichtung entspricht. Der Bildwandler 21 entspricht einem Bildgebungsmittel (Bildgebungseinheit). Der Temperatursensor 23 entspricht einem Messmittel (Messeinheit). Ferner entspricht der in der 4 gezeigte und von der CPU 31 ausgeführte Objekterkennungsprozess einem Prozess als ein Erfassungsmittel (Erfassungseinheit). Der in der 8 gezeigte und von der CPU 31 ausgeführte Temperaturkorrekturprozess entspricht einem Prozess als ein Bildgebungszustandskorrekturmittel (Bildgebungszustandskorrektureinheit).
  • Es sollte wahrgenommen werden, dass die vorliegende Erfindung nicht auf die vorstehend beschriebenen Konfigurationen beschränkt ist, sondern alle Modifikationen, Änderungen oder Äquivalente, die Fachleuten ersichtlich sein werden, als mit im Schutzumfang der vorliegenden Erfindung beinhaltet verstanden werden sollen.
  • (4. Weitere Ausführungsformen)
  • In dem Temperaturkorrekturprozess (8) der obigen Ausführungsform wird ein Bildgebungszustand (das Verhältnis zwischen der Helligkeit und den Ausgangspixelwerten) beispielsweise in Abhängigkeit der Temperatur des Bildwandlers 21 korrigiert. Es können jedoch die Schwellenwerte anstelle des Bildgebungszustands bzw. Abbildungszustands korrigiert werden. Insbesondere werden, in S24 der 8, der erste bis vierte Schwellenwert einer Offset-Korrektur unterzogen, unter Verwendung eines Wertes, der erhalten wird, indem der Empfindlichkeitskorrekturwert mit dem Rauschkorrekturwert multipliziert wird, als ein Korrekturwert. Folglich kann der Einfluss der Änderung der Ausgangspixelwerte des Bildwandlers 21 aufgrund der Temperatur verringert werden, ohne den Bildgebungszustand des Bildwandlers 21 zu korrigieren, wobei der Einfluss auf die Genauigkeit bei der Erfassung eines Erkennungsobjekts ausgeübt wird. Es sollte beachtet werden, dass in diesem Fall der in der 8 gezeigte und von der CPU 31 ausgeführte Temperaturkorrekturprozess einem Prozess als ein Schwellenwert-Korrekturmittel (Schwellenwert-Korrektureinheit) entspricht.
  • Ferner wird, in der obigen Ausführungsform, die Konfiguration beispielhaft aufgezeigt, die Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs als ein Erkennungsobjekt erfasst. Es kann jedoch beispielsweise ein Fahrzeug oder ein Schild bei Nacht als ein Erkennungsobjekt erfasst werden.
  • Nachstehend werden Aspekte der vorstehend beschriebenen Ausführungsformen zusammengefasst.
  • Bei der Erkennungsobjekt-Erfassungsvorrichtung der Ausführungsform erzeugt eine Bildgebungseinheit Bilddaten, die ein aufgenommenes Bild darstellen. Eine Erfassungseinheit erfasst ein Erkennungsobjekt aus dem Bild, das durch die Bilddaten dargestellt wird. Die Bildgebungseinheit weist insbesondere eine Charakteristik auf, bei der sich ein Verhältnis zwischen Helligkeit und Ausgangspixelwerten in Anhängigkeit eines Helligkeitsbereichs ändert. Die Erfassungseinheit binarisiert die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von mehreren Schwellenwerten, um mehrere binäre Bilder zu erzeugen, und erfasst das Erkennungsobjekt auf der Grundlage der mehreren binären Bilder.
  • D. h., gemäß der Erkennungsobjekt-Erfassungsvorrichtung wird ein Bild, das von der Bildgebungseinheit aufgenommen wird, die eine Charakteristik eines hohen dynamischen Bereichs aufweist, unter Verwendung von mehreren Schwellenwerten analysiert, um ein Erkennungsobjekt zu erfassen. Folglich sind mehrere Zeitpunkte der Bildgebung mit sich ändernder Bildgebungsempfindlichkeit nicht erforderlich. Dementsprechend kann die Genauigkeit bei der Erfassung eines Erkennungsobjekts erhöht werden, während eine Rechenlast und ein Speicherverbrauch verringert werden.
  • Zusätzlich zu der obigen Konfiguration kann eine Messeinheit eine Temperatur der Bildgebungseinheit messen. Eine Bildgebungszustandskorrektureinheit kann einen Bildgebungszustand der Bildgebungseinheit in Abhängigkeit der von der Messeinheit gemessenen Temperatur korrigieren. Folglich kann auch für den Fall, dass die Bildgebungseinheit, deren Ausgangspixelwerte aufgrund der Temperatur einfach variieren, der Bildgebungszustand korrigiert werden, um die Änderung zu unterdrücken.
  • Insbesondere kann die Bildgebungszustandskorrektureinheit das Verhältnis zwischen Helligkeit und Ausgangspixelwerten korrigieren. Folglich kann, indem im Voraus eine Charakteristik gespeichert wird, welche die Änderung des Verhältnisses zwischen der Helligkeit und den Ausgangspixelwerten in Abhängigkeit der Temperatur der Bildgebungseinheit zeigt, die Änderung in den Ausgangspixelwerten verringert werden.
  • Ferner kann anstelle der Bildgebungszustandskorrektureinheit eine Schwellenwertkorrektureinheit den Schwellenwert in Abhängigkeit der von der Messeinheit gemessenen Temperatur korrigieren. Folglich kann, ohne den Bildgebungszustand der Bildgebungseinheit zu korrigieren, der Einfluss der Änderung der Ausgangspixelwerte der Bildgebungseinheit aufgrund der Temperatur verringert werden, wobei der Einfluss auf die Genauigkeit bei der Erfassung eines Erkennungsobjekts ausgeübt wird.
  • In der Bildgebungseinheit kann eine Breite der Ausgangspixelwerte in einem ersten Helligkeitsbereich bezüglich einer Einheitshelligkeitsbreite größer als eine Breite der Ausgangspixelwerte in einem zweiten Helligkeitsbereich bezüglich der Einheitshelligkeitsbreite sein, wobei die Helligkeit des zweiten Helligkeitsbereichs größer als die Helligkeit des ersten Helligkeitsbereichs ist. Gemäß der Konfiguration kann ein breiter Helligkeitsbereich zum Ziel gesetzt werden, während die Genauigkeit bei der Erfassung eines Erkennungsobjekts geringer Helligkeit erhöht werden kann.
  • In der Bildgebungseinheit kann das Verhältnis zwischen Helligkeit und Ausgangspixelwerten durch ein Verhältnis zwischen mehreren geraden Linien verschiedener Steigungen dargestellt werden. Gemäß der Konfiguration kann das Verhältnis zwischen Helligkeit und Ausgangspixelwerten auf einfache Weise dargestellt werden.
  • Die Erfassungseinheit erfasst das Erkennungsobjekt auf der Grundlage einer Form von einer Gruppe von Pixeln einschließlich von mehreren Pixeln großer Helligkeit in dem binären Bild. Gemäß der Konfiguration wird ein Objekt, das sich von dem Erkennungsobjekt unterscheidet, weniger wahrscheinlich fehlerhaft als das Erkennungsobjekt erfasst.
  • Die Bildgebungseinheit kann ein Bild einer Szene vor einem Eigenfahrzeug aufnehmen, und die Erfassungseinheit kann Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs als das Erkennungsobjekt erfassen. Diese Konfiguration kann beispielsweise für eine automatische Fernlichtsteuerung verwendet werden.
  • Die Erfassungseinheit kann die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von vier Schwellenwerten binarisieren, die einen ersten Schwellenwert und einen zweiten Schwellenwert aufweisen, die festgelegt sind, um Rücklichter eines vorausfahrenden Fahrzeugs, das sich in einer weiten Entfernung zum Eigenfahrzeug befindet, bzw. Scheinwerfer eines entgegenkommenden Fahrzeugs, das sich in einer weiten Entfernung zu dem Eigenfahrzeug befindet, zu erfassen, und einen dritten Schwellenwert und einen vierten Schwellenwert aufweisen, die festgelegt sind, um Rücklichter eines vorausfahrenden Fahrzeugs, das sich in einer kurzen Entfernung zum Eigenfahrzeug befindet, bzw. Scheinwerfer eines entgegenkommenden Fahrzeugs, das sich in einer kurzen Entfernung zum Eigenfahrzeug befindet, zu erfassen, um vier der binären Bilder zu erzeugen, und das Erkennungsobjekt auf der Grundlage der vier binären Bilder erfassen. Gemäß der Konfiguration können die Rücklichter des vorausfahrenden Fahrzeugs und die Scheinwerfer des entgegenkommenden Fahrzeugs genau erfasst werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2011-126474 [0001]
    • JP 2009-61812 A [0003]
    • JP 4034565 [0005]

Claims (10)

  1. Erkennungsobjekt-Erfassungsvorrichtung mit: – einer Bildgebungseinheit, die Bilddaten erzeugt, die ein aufgenommenes Bild darstellen; und – einer Erfassungseinheit, die ein Erkennungsobjekt aus dem Bild erfasst, das durch die Bilddaten dargestellt wird, wobei – die Bildgebungseinheit eine Charakteristik aufweist, bei der sich ein Verhältnis zwischen Helligkeit und Ausgangspixelwerten in Abhängigkeit eines Helligkeitsbereichs ändert, und – die Erfassungseinheit die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von mehreren Schwellenwerten binarisiert, um mehrere binäre Bilder zu erzeugen, und das Erkennungsobjekt auf der Grundlage der mehreren binären Bilder erfasst.
  2. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass sie ferner aufweist: – eine Messeinheit, die eine Temperatur der Bildgebungseinheit misst; und – eine Bildgebungszustands-Korrektureinheit, die einen Bildgebungszustand der Bildgebungseinheit in Abhängigkeit der von der Messeinheit gemessenen Temperatur korrigiert.
  3. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Bildgebungszustands-Korrektureinheit das Verhältnis zwischen Helligkeit und Ausgangspixelwerten korrigiert.
  4. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass sie ferner aufweist: – eine Messeinheit, die eine Temperatur der Bildgebungseinheit misst; und – eine Schwellenwert-Korrektureinheit, welche den Schwellenwert in Abhängigkeit der von der Messeinheit gemessenen Temperatur korrigiert.
  5. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass, in der Bildgebungseinheit, eine Breite der Ausgangspixelwerte in einem ersten Helligkeitsbereich bezüglich einer Einheitshelligkeitsbreite größer als eine Breite der Ausgangspixelwerte in einem zweiten Helligkeitsbereich bezüglich der Einheitshelligkeitsbreite ist, wobei die Helligkeit des zweiten Helligkeitsbereichs größer als die Helligkeit des ersten Helligkeitsbereichs ist.
  6. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass, in der Bildgebungseinheit, das Verhältnis zwischen Helligkeit und Ausgangspixelwerten durch ein Verhältnis zwischen mehreren geraden Linien verschiedener Steigungen dargestellt wird.
  7. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Erfassungseinheit das Erkennungsobjekt auf der Grundlage einer Form von einer Gruppe von Pixeln einschließlich von mehreren Pixeln großer Helligkeit in dem binären Bild erfasst.
  8. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass – die Bildgebungseinheit ein Bild einer Szene vor einem Eigenfahrzeug aufnimmt; und – die Erfassungseinheit Rücklichter eines vorausfahrenden Fahrzeugs oder Scheinwerfer eines entgegenkommenden Fahrzeugs als das Erkennungsobjekt erfasst.
  9. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Erfassungseinheit die Ausgangspixelwerte des Bildes, das durch die Bilddaten dargestellt wird, unter Verwendung von vier Schwellenwerten binarisiert, die einen ersten Schwellenwert und einen zweiten Schwellenwert aufweisen, die festgelegt sind, um Rücklichter eines vorausfahrenden Fahrzeugs, das sich in einer weiten Entfernung zum Eigenfahrzeug befindet, bzw. Scheinwerfer eines entgegenkommenden Fahrzeugs, das sich in einer weiten Entfernung zu dem Eigenfahrzeug befindet, zu erfassen, und einen dritten Schwellenwert und einen vierten Schwellenwert aufweisen, die festgelegt sind, um Rücklichter eines vorausfahrenden Fahrzeugs, das sich in einer kurzen Entfernung zum Eigenfahrzeug befindet, bzw. Scheinwerfer eines entgegenkommenden Fahrzeugs, das sich in einer kurzen Entfernung zum Eigenfahrzeug befindet, zu erfassen, um vier der binären Bilder zu erzeugen, und das Erkennungsobjekt auf der Grundlage der vier der binären Bilder erfasst.
  10. Erkennungsobjekt-Erfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Erfassungseinheit die Ausgangspixelwerte von einem Bild, das durch die Bilddaten dargestellt wird, unter Verwendung von mehreren Schwellenwerten binarisiert.
DE102012209488A 2011-06-06 2012-06-05 Erkennungsobjekt-Erfassungsvorrichtung Withdrawn DE102012209488A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-126474 2011-06-06
JP2011126474A JP5370413B2 (ja) 2011-06-06 2011-06-06 認識対象検出装置

Publications (1)

Publication Number Publication Date
DE102012209488A1 true DE102012209488A1 (de) 2012-12-06

Family

ID=47173600

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012209488A Withdrawn DE102012209488A1 (de) 2011-06-06 2012-06-05 Erkennungsobjekt-Erfassungsvorrichtung

Country Status (3)

Country Link
US (1) US8953839B2 (de)
JP (1) JP5370413B2 (de)
DE (1) DE102012209488A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021005330A1 (de) 2021-10-26 2021-12-30 Daimler Ag Bestimmung einer Position von Fahrzeugen und Verfahren zur automatischen Leuchtweitenregulierung

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840852B1 (ko) * 2011-10-10 2018-03-22 삼성전자주식회사 모바일 장치의 표면 온도 관리 방법 및 멀티칩 패키지의 메모리 열관리 방법
JP5722266B2 (ja) * 2012-03-30 2015-05-20 日立オートモティブシステムズ株式会社 光点検出装置
US20140022431A1 (en) * 2012-07-19 2014-01-23 Nanyang Innovation & Enterprise Office Cmos image sensor
RU2571367C1 (ru) * 2012-07-27 2015-12-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов
DE102012024658A1 (de) * 2012-12-17 2014-06-18 Connaught Electronics Ltd. Verfahren zum Einstellen einer Bildrate einer Kamera, Kamera und Kraftfahrzeug
FR3002824A1 (fr) * 2013-03-04 2014-09-05 St Microelectronics Grenoble 2 Procede et dispositif de generation d'images a grande gamme dynamique
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
JP6227898B2 (ja) * 2013-05-29 2017-11-08 株式会社Subaru 画像処理装置
US9654738B1 (en) * 2013-08-07 2017-05-16 Waymo Llc Using multiple exposures to improve image processing for autonomous vehicles
JP6214290B2 (ja) * 2013-09-09 2017-10-18 株式会社Subaru 前照灯制御装置
JP6118695B2 (ja) * 2013-09-27 2017-04-19 富士フイルム株式会社 電子内視鏡装置
DE102015220884B4 (de) 2014-10-27 2022-03-31 Denso Corporation Bildverarbeitungsvorrichtung
JP6493087B2 (ja) 2015-08-24 2019-04-03 株式会社デンソー 車載カメラ装置
JP6527455B2 (ja) * 2015-12-02 2019-06-05 株式会社Subaru 車外環境認識装置
JP6645394B2 (ja) 2016-10-03 2020-02-14 株式会社デンソー 画像センサ
JP6693387B2 (ja) * 2016-11-07 2020-05-13 株式会社デンソー 画像処理装置
WO2018110389A1 (ja) * 2016-12-15 2018-06-21 株式会社小糸製作所 車両用照明システムおよび車両
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
WO2019186863A1 (ja) 2018-03-29 2019-10-03 三菱電機株式会社 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
CN111902315B (zh) 2018-03-29 2023-04-28 三菱电机株式会社 车辆照明控制装置、车辆照明控制方法和计算机能读取的存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0434565A (ja) 1990-05-31 1992-02-05 Toshiba Corp 画像形成装置
JP2009061812A (ja) 2007-09-04 2009-03-26 Hitachi Ltd 配光等の自動車の制御装置
JP2011126474A (ja) 2009-12-21 2011-06-30 Jatco Ltd パーキング機構

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3112325B2 (ja) * 1991-12-20 2000-11-27 ミノルタ株式会社 画像入力方法及び装置
JP3014895B2 (ja) * 1993-06-02 2000-02-28 株式会社日立製作所 ビデオカメラ
US6204881B1 (en) * 1993-10-10 2001-03-20 Canon Kabushiki Kaisha Image data processing apparatus which can combine a plurality of images at different exposures into an image with a wider dynamic range
JP3503230B2 (ja) * 1994-12-15 2004-03-02 株式会社デンソー 夜間用車両認識装置
JPH10269352A (ja) 1997-03-26 1998-10-09 Oji Paper Co Ltd 画像処理装置および方法
US6611610B1 (en) 1997-04-02 2003-08-26 Gentex Corporation Vehicle lamp control
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP4314979B2 (ja) * 2003-11-25 2009-08-19 株式会社デンソー 白線検出装置
JP4853160B2 (ja) 2006-08-02 2012-01-11 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
JP4894824B2 (ja) * 2008-07-09 2012-03-14 株式会社デンソー 車両検出装置、車両検出プログラム、およびライト制御装置
JP4482599B2 (ja) 2008-10-24 2010-06-16 本田技研工業株式会社 車両の周辺監視装置
JP2010141583A (ja) * 2008-12-11 2010-06-24 Ricoh Co Ltd 撮像装置、画像データ補正方法、プログラム及び記録媒体
US8493446B2 (en) * 2009-04-17 2013-07-23 International Business Machines Corporation Intelligent headlight control using camera sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0434565A (ja) 1990-05-31 1992-02-05 Toshiba Corp 画像形成装置
JP2009061812A (ja) 2007-09-04 2009-03-26 Hitachi Ltd 配光等の自動車の制御装置
JP2011126474A (ja) 2009-12-21 2011-06-30 Jatco Ltd パーキング機構

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021005330A1 (de) 2021-10-26 2021-12-30 Daimler Ag Bestimmung einer Position von Fahrzeugen und Verfahren zur automatischen Leuchtweitenregulierung

Also Published As

Publication number Publication date
JP5370413B2 (ja) 2013-12-18
US8953839B2 (en) 2015-02-10
US20120308082A1 (en) 2012-12-06
JP2012250668A (ja) 2012-12-20

Similar Documents

Publication Publication Date Title
DE102012209488A1 (de) Erkennungsobjekt-Erfassungsvorrichtung
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
DE102008053472B4 (de) Objekt-Erfassungssystem
DE112010002047B4 (de) Objekterfassungsvorrichtung
DE102008063122B4 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
DE102011004006A1 (de) Spurmarkierungserkennungssystem mit verbessertem Erkennungsverhalten
DE102013100327A1 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
DE102014104613A1 (de) Objekterfassungsvorrichtung
DE112015006032B4 (de) Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium
DE102009000005A1 (de) Kameraanordnung und Verfahren zur Erfassung einer Fahrzeugumgebung
DE102014118779A1 (de) Pfeilsignal-Erkennungsvorrichtung
DE102008030555A1 (de) Vorrichtung zur Verarbeitung von Stereobildern
DE102009048849A1 (de) Fahrzeugerfassungseinrichtung, Fahrzeugerfassungsprogramm und Lichtregelungseinrichtung
DE102014103136A1 (de) Objektdetektionsvorrichtung
DE112017005447T5 (de) Objekterfassungsvorrichtung
DE102008063121A1 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
DE102008064411A1 (de) Belichtungssteuerungsvorrichtung und Belichtungssteuerungsprogramm für eine in einem Fahrzeug installierte elektronische Kamera
EP3046076B1 (de) Verfahren zum Kalibrieren einer Bilderfassungseinrichtung
DE102011004463A1 (de) Spurmarkierungserkennungssystem mit verbessertem erkennungsverhalten
DE102017116849A1 (de) Indirektes Sichtsystem für ein Fahrzeug
DE102013115000A1 (de) Blendungsminderung für dynamischen Rückspiegel
EP2181414A2 (de) Verfahren und anordnung zur auswertung von helligkeitswerten in sensorbildern bei bildauswertenden umfelderkennungssystemen
DE112014000910T5 (de) Straßenzeichenerkennungsvorrichtung
DE102016208768A1 (de) Bilderzeugungsvorrichtung
DE112012001606T5 (de) Bildverarbeitungsvorrichtung für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140910

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee