DE102014107488B4 - Vorrichtung zur bestimmung der umgebung - Google Patents

Vorrichtung zur bestimmung der umgebung Download PDF

Info

Publication number
DE102014107488B4
DE102014107488B4 DE102014107488.2A DE102014107488A DE102014107488B4 DE 102014107488 B4 DE102014107488 B4 DE 102014107488B4 DE 102014107488 A DE102014107488 A DE 102014107488A DE 102014107488 B4 DE102014107488 B4 DE 102014107488B4
Authority
DE
Germany
Prior art keywords
environment
vehicle
determination
image
urban area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014107488.2A
Other languages
English (en)
Other versions
DE102014107488A1 (de
Inventor
Genya Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Publication of DE102014107488A1 publication Critical patent/DE102014107488A1/de
Application granted granted Critical
Publication of DE102014107488B4 publication Critical patent/DE102014107488B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/11Linear movements of the vehicle
    • B60Q2300/112Vehicle speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/14Other vehicle conditions
    • B60Q2300/142Turn signal actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • B60Q2300/3321Detection of streetlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

Vorrichtung zur Bestimmung der Umgebung, wobei die Vorrichtung Folgendes aufweist:- eine Bildaufnahmevorrichtung (2), die ein Bild erzeugt, in dem ein Bereich vor einem Fahrzeug aufgenommen wird;- einen Detektionsprozessor (3), der zumindest eine Straßenlampe für jede Detektions-Einzelbildeinheit des Bildes detektiert; und- einen Umgebungs-Bestimmungsprozessor (3H), der einen Stadtgebiet-Bestimmungsvorgang für die Bestimmung, ob es sich bei der Umgebung des Fahrzeugs um ein urbanes Gebiet handelt oder nicht, auf der Basis sowohl eines Straßenlampen-Detektionsresultats einer aktuellen Detektions-Einzelbildeinheit als auch eines Straßenlampen-Detektionsresultats einer vorhergehenden Detektions-Einzelbildeinheit des Bildes ausführt,- wobei in einer Periode, nachdem das Fahrzeug nach rechts oder links abbiegt, der Umgebungs-Bestimmungsprozessor (3H) das Bestimmungsansprechen hinsichtlich der Bestimmung, ob es sich bei der Umgebung um das urbane Gebiet oder um ein nicht-urbanes Gebiet handelt, gegenüber einer anderen Periode als der Periode nach dem Abbiegen nach rechts oder links steigert.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zur Bestimmung der Umgebung, um die Umgebung eines Fahrzeugs zu bestimmen, insbesondere zur Bestimmung, ob es sich bei der Umgebung um ein urbanes Gebiet oder um ein nicht-urbanes Gebiet handelt.
  • Einschlägiger Stand der Technik
  • Wenn ein Fernlicht eines Frontscheinwerfers eines Fahrzeugs auf ein vorausfahrendes Fahrzeug und ein entgegenkommendes Fahrzeug abgestrahlt wird, werden die Fahrer des vorausfahrenden Fahrzeugs und des entgegenkommenden Fahrzeugs durch das Fernlicht geblendet, und dies kann die Fahrer in ihrem Fahrvorgang möglicherweise beeinträchtigen. Um dies zu verhindern, sind ein sogenanntes automatisches Fernlicht bzw. ein Fernlichtassistent (FLA) und ein adaptives Fahrlicht (AFL) als Lichtverteilungssteuerung des Frontscheinwerfers bekannt.
  • Bei der Ausführung dieser Lichtverteilungssteuerung des Frontscheinwerfers ist es erforderlich, das vorausfahrende Fahrzeug und das entgegenkommende Fahrzeug zu erkennen, die sich vor dem eigenen Fahrzeug befinden, sowie zu erkennen, ob es sich bei der Umgebung um ein Fahrumfeld handelt, in dem das Fernlicht des Frontscheinwerfers akzeptabel ist.
  • Ein Kriterium für die Bestimmung, ob das Fernlicht in dem Fahrumfeld verwendet werden kann oder nicht, ist, ob die Umgebung ein urbanes Gebiet bzw. Stadtgebiet oder ein nicht-urbanes Gebiet ist oder nicht. Beispielsweise betrachtet der Fernlichtassistent, durch den das Fernlicht automatisch eingeschaltet und ausgeschaltet wird, das Fernlicht in urbanen Gebieten (einem Umfeld, in dem es in der Umgebung ausreichend hell ist) für nicht erforderlich und verhindert ein Blenden von Fahrern von Fahrzeugen in dieser Umgebung.
  • Gemäß einer Technik, die in der japanischen ungeprüften Patentanmeldungs-veröffentlichung JP 2009-061 812 A beschrieben ist, detektiert eine Kamera eine Straßenlampe. Wenn die Anzahl der innerhalb einer bestimmten Zeit detektierten Straßenlampen eine bestimmte Anzahl übersteigt und wenn eine Zeitdauer, in der die Straßenlampen innerhalb einer bestimmten Periode detektiert werden, eine bestimmte Zeitdauer überschreitet, wird die Feststellung getroffen, dass es sich bei der Umgebung um ein urbanes Gebiet und somit um ein Umfeld handelt, in dem kein Fernlicht erforderlich ist.
  • Wenn sich dabei die Fahrumgebung, wie z.B. ein urbanes Gebiet und ein nicht-urbanes Gebiet, ändert, ist es bevorzugt, eine Bestimmung so schnell wie möglich vorzunehmen, um dadurch in rascher Weise eine exakte Lichtverteilungssteuerung des Frontscheinwerfers vorzunehmen.
  • In einem Fall dagegen, in dem das Ansprechen bei der Bestimmung, ob es sich bei der Fahrumgebung um ein urbanes Gebiet oder um ein nicht-urbanes Gebiet handelt, zu schnell eingestellt ist, kommt es bei einem vorübergehenden Durchfahren eines Gebiets, in dem viele Straßenlampen und dergleichen in dem nicht-urbanen Gebiet vorhanden sind, sowie beim Eintreten einer Situation, in der die Straßenlampen in dem urbanen Gebiet zeitweise nicht detektiert werden können, möglicherweise zu einem unnötigen Schwanken eines Bestimmungsresultats und somit zu einer nicht angemessenen Situation.
  • Die ungeprüfte japanische Patentanmeldungs-Veröffentlichung JP 2012-020662 A betrifft eine Scheinwerfersteuerung mit einem Fahrzeugdetektor. Daraus ist ein Verfahren zur Beleuchtungssteuerung in einem Fahrzeug bekannt, bei dem mittels einer Kamera kontinuierlich Lichtquellen vor dem Fahrzeug detektiert werden und ermittelt wird, ob es sich dabei um Lichtquellen von anderen Fahrzeugen oder um feststehende Lichtquellen von Gebäuden, Straßenlaternen usw. handelt. Dabei ist vorgesehen, anhand der Positionierung im Bildausschnitt bzw. in Bildbereichen und der Anzahl sowie der Anordnung der feststehenden Lichtquellen zu detektieren, ob sich das Fahrzeug in einem urbanen oder suburbanen Umfeld befindet.
  • Die US 2010/0 052 550 A1 betrifft eine Scheinwerfer-Steuerungsvorrichtung und einen Scheinwerfer mit einer solchen Scheinwerfer-Steuerungsvorrichtung. Daraus ist ein Verfahren zur Lichtsteuerung eines Fahrzeugs bekannt, wobei das Beobachtungsfeld vor dem Fahrzeug in verschiedene Bereiche aufgeteilt wird, unter anderem auch in Bereiche seitlich der Fahrbahn, und wobei mittels einer Kamera bzw. eines Bildsensors Helligkeitswerte für die in diesen Bereichen befindlichen Objekte bzw. die Bereiche an sich ermittelt werden. Diese Daten werden dann benutzt, um die Fahrzeugbeleuchtung an ungünstige bzw. wechselnde Beleuchtungssituationen, beispielsweise entgegenkommende Fahrzeuge, dunkel gekleidete Fußgänger, abrupte Lichtwechsel usw. anzupassen.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist in Anbetracht der vorstehend beschriebenen Umstände erfolgt, und die Aufgabe der vorliegenden Erfindung besteht darin, eine Bestimmung dahingehend, ob es sich bei einer Fahrumgebung um ein urbanes Gebiet oder um ein nicht-urbanes Gebiet handelt, in stabiler und rascher Weise in Abhängigkeit von einer Änderung der Umgebung vorzunehmen.
  • Gemäß einem Aspekt schafft die vorliegende Erfindung eine Vorrichtung zur Bestimmung der Umgebung, die Folgendes aufweist: eine Bildaufnahmevorrichtung, die ein Bild erzeugt, in dem ein Bereich vor einem Fahrzeug aufgenommen wird; einen Detektionsprozessor, der zumindest eine Straßenlampe für jede Detektions-Einzelbildeinheit des Bildes detektiert; und einen Umgebungs-Bestimmungsprozessor, der einen Stadtgebiet-Bestimmungsvorgang für die Bestimmung, ob es sich bei der Umgebung des Fahrzeugs um ein urbanes Gebiet handelt oder nicht, auf der Basis sowohl eines Straßenlampen-Detektionsresultats einer aktuellen Detektions-Einzelbildeinheit als auch eines Straßenlampen-Detektionsresultats einer vorhergehenden Detektions-Einzelbildeinheit des Bildes ausführt.
  • In einer Periode, nachdem das Fahrzeug nach rechts oder links abgebogen ist, steigert der Umgebungs-Bestimmungsprozessor das Bestimmungsansprechen hinsichtlich der Bestimmung, ob es sich bei der Umgebung um das urbane Gebiet oder um ein nicht-urbanes Gebiet handelt, gegenüber einer anderen Periode als der Periode nach dem Abbiegen nach rechts oder links.
  • Vorzugsweise sollte der Umgebungs-Bestimmungsprozessor ein Stadtgebiet-Bestimmungsresultat nicht aktualisieren, während das Fahrzeug gestoppt ist.
  • Vorzugsweise sollte der Umgebungs-Bestimmungsprozessor das Bestimmungsansprechen durch Absenken eines Pegels der Widerspiegelung des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit in der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder links steigern.
  • Vorzugsweise sollte der Umgebungs-Bestimmungsprozessor das Bestimmungsansprechen durch Absenken eines Schwellenwerts steigern, der mit einem Wert des Straßenlampen-Detektionsresultats in der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder links zu vergleichen ist.
  • Vorzugsweise sollte in dem Stadtgebiet-Bestimmungsvorgang die Umgebung als urbanes Gebiet bestimmt werden, wenn ein Wert, der durch eine mit einer vorbestimmten Wichtung ausgeführte Mittelung eines Werts des Straßenlampen-Detektionsresultats der aktuellen Detektions-Einzelbildeinheit sowie eines Werts des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit gebildet wird, gleich einem oder höher als ein vorbestimmter Schwellenwert ist.
  • Vorzugsweise sollte in dem Stadtgebiet-Bestimmungsvorgang die Umgebung als nicht-urbanes Gebiet bestimmt werden, wenn die Umgebung als urbanes Gebiet bestimmt worden ist und anschließend in aufeinander folgender Weise für eine vorbestimmte Anzahl von Malen der Wert des Straßenlampen-Detektionsresultats jeder Detektions-Einzelbildeinheit gleich einem oder geringer als ein Schwellenwert für die Bestimmung des nicht-urbanen Gebiets ist.
  • Vorzugsweise sollte die Vorrichtung zur Bestimmung der Umgebung ferner eine Lichtverteilungssteuerung zum Ausführen einer derartigen Steuerung beinhalten, dass kein Abstrahlen des Fernlichts von einem Frontscheinwerfer ausgeführt wird, wenn der Umgebungs-Bestimmungsprozessor die Feststellung trifft, dass es sich bei einer aktuellen Umgebung eines Fahrzeugs um das urbane Gebiet handelt.
  • Figurenliste
  • In den Zeichnungen zeigen:
    • 1 ein Blockdiagramm eines Fahrzeugsteuersystems gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 2 eine Darstellung zur Erläuterung einer Funktionskonfiguration eines Bildprozessors und einer Fahrassistenzsteuerung eines Fahrzeugsteuersystems gemäß dem Ausführungsbeispiel;
    • 3A und 3B Darstellungen zur Erläuterung eines hellen Bildes und eines dunklen Bildes zur Verwendung bei dem Ausführungsbeispiel;
    • 4A und 4B Darstellungen zur Erläuterung eines Detektionsbereichs bei dem Ausführungsbeispiel;
    • 5 ein Ablaufdiagramm einer Umgebungsbestimmung und Frontscheinwerfersteuerung gemäß dem Ausführungsbeispiel;
    • 6A und 6B Darstellungen zur Erläuterung einer Elementgruppe und einer Objektgruppe gemäß dem Ausführungsbeispiel;
    • 7 ein Ablaufdiagramm eines Umfeld-Bestimmungsvorgangs gemäß dem Ausführungsbeispiel;
    • 8 ein Ablaufdiagramm eines Bestimmungsvorgangs, ob das Fahrzeug nach rechts oder nach links abbiegt, gemäß dem Ausführungsbeispiel;
    • 9 ein Ablaufdiagramm eines Stadtgebiet-Bestimmungsvorgangs gemäß dem Ausführungsbeispiel;
    • 10 ein Ablaufdiagramm eines Vorgangs zur Berechnung von Steuerinformation gemäß dem Ausführungsbeispiel;
    • 11A und 11B Darstellungen zur Erläuterung einer Fernlichtsteuerung gemäß dem Ausführungsbeispiel;
    • 12 eine Darstellung zur Erläuterung eines Vorgangs, wenn ein Fahrzeug an einem entgegenkommenden Fahrzeug vorbeifährt, gemäß dem Ausführungsbeispiel; und
    • 13A bis 13C Darstellungen zur Erläuterung eines sich ändernden Ansprechens beim Abbiegen nach rechts oder nach links bei einem Stadtgebiet-Bestimmungsvorgang gemäß dem Ausführungsbeispiel.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Gesamtkonfiguration des Systems
  • 1 veranschaulicht eine Konfiguration eines Fahrzeugsteuersystems 1, das eine Vorrichtung zur Bestimmung der Umgebung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung beinhaltet. 1 veranschaulicht lediglich die Hauptkomponenten des Fahrzeugsteuersystems 1. Die Vorrichtung zur Bestimmung der Umgebung gemäß dem Ausführungsbeispiel ist in der Zeichnung in erster Linie durch eine Bildaufnahmevorrichtung 2 und einen Bildprozessor 3 verwirklicht.
  • Das Fahrzeugsteuersystem 1 weist Folgendes auf: die Bildaufnahmevorrichtung 2, den Bildprozessor 3, einen Speicher 4, eine Fahrassistenzsteuerung 5, eine Anzeigesteuerung 6, eine Motorsteuerung 7, eine Getriebesteuerung 8, eine Bremssteuerung 9, eine Lichtsteuerung 10, eine Anzeige 11, einen dem Motor zugeordneten Aktor bzw. Motor-Aktor 12, einen dem Getriebe zugeordneten Aktor bzw. Getriebe-Aktor 13, einen der Bremse zugeordneten Aktor bzw. Brems- Aktor 14, einen Frontscheinwerfer 15, einen adaptiven Fahrlicht- (AFL-)Aktor 16, Sensoren und Betätigungselemente 17 sowie einen Bus 18. Diese Komponenten sind in einem Fahrzeug installiert.
  • Die Bildaufnahmevorrichtung 2 beinhaltet eine erste Kamera 2A und eine zweite Kamera 2B, die derart installiert sind, dass sie einen Bereich in Fahrtrichtung eines Fahrzeugs (vor einem Fahrzeug) aufnehmen können.
  • Die erste Kamera 2A und die zweite Kamera 2B sind z.B. in einem vorbestimmten Abstand in Fahrzeugbreitenrichtung in einem oberen Bereich einer Windschutzscheibe des Fahrzeugs derart angeordnet, dass eine Bereichserfassung durch ein sogenanntes Stereoverfahren ermöglicht ist. Die optischen Achsen der ersten Kamera 2A und der zweiten Kamera 2B sind parallel angeordnet, und die Brennweiten der ersten Kamera 2A und der zweiten Kamera 2B sind mit dem gleichen Wert vorgegeben. Einzelbildperioden derselben sind synchronisiert, und Bildraten derselben sind aneinander angepasst. Die Pixelanzahl von ihren Abbildungseinrichtungen beträgt z.B. etwa 640 x 480.
  • Die elektrischen Signale (Bildsignale), die von der jeweiligen Abbildungseinrichtung der ersten Kamera 2A und der zweiten Kamera 2B gebildet werden, werden jeweils von einem analogen Signal in ein digitales Signal umgewandelt, um ein digitales Bildsignal (Bilddaten) zu schaffen, das einen Leuchtdichtewert in einer vorbestimmten Graustufenskala pro Pixeleinheit anzeigt.
  • Bei dem vorliegenden Ausführungsbeispiel handelt es sich bei den Bilddaten jeweils um Farbbilddaten, und aus diesem Grund können drei Arten von Daten (Leuchtdichtewerte) von R (Rot), G (Grün) und B (Blau) pro Pixel erzielt werden. Die Graustufen der Leuchtdichtewerte sind z.B. mit 256 Abstufungen vorgegeben.
  • Nachfolgend werden durch die erste Kamera 2A gebildete Bilddaten als „erste Bilddaten“ bezeichnet, und durch die zweite Kamera 2B gebildete Bilddaten werden als „zweite Bilddaten“ bezeichnet.
  • Die Bildaufnahmevorrichtung 2 bei dem vorliegenden Ausführungsbeispiel besitzt eine automatische Einstellfunktion für eine Blendengeschwindigkeit und eine Verstärkung (ISO-Empfindlichkeit) von jeder von der ersten Kamera 2A und der zweiten Kamera 2B. Ferner ist die Bildaufnahmevorrichtung 2 dazu ausgebildet, dass sie die Blendengeschwindigkeit sowie die Verstärkung von jeder von der ersten Kamera 2A und der zweiten Kamera 2B auf der Basis eines Befehls von dem Bildprozessor 3 einstellen kann.
  • Der Bildprozessor 3 besitzt in erster Linie einen Mikrocomputer, der z.B. eine zentrale Verarbeitungseinheit (CPU), einen Arbeitsspeicher (ROM) und einen Speicher mit wahlfreiem Zugriff (RAM) aufweist, die als Arbeitsbereich dienen, wobei der Mikrocomputer verschiedene Arten von Prozessen in Abhängigkeit von einem in dem ROM gespeicherten Programm ausführt.
  • Der Bildprozessor 3 verwendet den Speicher 4 zum Speichern der jeweiligen Einzelbilddaten als die ersten Bilddaten und die zweiten Bilddaten, die durch Aufnehmen eines Bereichs vor dem Fahrzeug durch die Bildaufnahmevorrichtung 2 gebildet werden. Anschließend führt der Bildprozessor 3 verschiedene Arten von Prozessen zum Erkennen eines Objekts, das in dem Bereich vor dem Fahrzeug als äußere Umgebung vorhanden ist, auf der Basis der ersten Bilddaten und der zweiten Bilddaten jedes Einzelbilds aus.
  • Der von dem Bildprozessor 3 ausgeführte Prozess wird nachfolgend ausführlich beschrieben.
  • Die Fahrassistenzsteuerung 5 weist z.B. einen Mikrocomputer auf und führt verschiedene Arten von Steuervorgängen zur Fahrassistenz auf der Basis eines Resultats der Bildverarbeitung durch den Bildprozessor 3 sowie Detektionsinformation, Betriebseingangsinformation und dergleichen aus, die durch die Sensoren und Betätigungselemente 17 ermittelt werden.
  • Die Fahrassistenzsteuerung 5 ist mit jeder Steuerung von der Anzeigesteuerung 6, der Motorsteuerung 7, der Getriebesteuerung 8, der Bremssteuerung 9 und der Lichtsteuerung 10 über den Bus 18 verbunden, wobei jede dieser Steuerungen ebenfalls einen Mikrocomputer aufweist; die Fahrassistenzsteuerung 5 ist derart ausgebildet, dass sie eine Zweiwege-Datenkommunikation mit jeder dieser Steuerungen ausführen kann. Die Fahrassistenzsteuerung 5 weist eine erforderliche Steuerung der Steuerungen zum Ausführen eines mit der Fahrassistenz in Beziehung stehenden Vorgangs an.
  • Bei dem vorliegenden Ausführungsbeispiel steuert die Fahrassistenzsteuerung 5 die Lichtverteilung für den Frontscheinwerfer 15. In den Zeichnungen ist eine in der Fahrassistenzsteuerung 5 enthaltene Prozessfunktion zum Steuern der Lichtverteilung durch einen Funktionsblock „Lichtverteilungs-Steuerprozessor 5A“ dargestellt. Der Lichtverteilungs-Steuerprozessor 5A gibt Anweisungen für die adaptive Fahrlicht-Steuerung und die automatische Fernlicht-Steuerung an die Lichtsteuerung 10 auf der Basis von Steuerinformation ab, die von dem Bildprozessor 3 aus einem Erkennungsresultat eines entgegenkommenden Fahrzeugs, eines vorausfahrenden Fahrzeugs, einer Straßenlampe und dergleichen generiert wird.
  • Die Sensoren und Betätigungselemente 17 bezeichnen kollektiv verschiedene Arten von Sensoren und Betätigungselemente, die in dem Fahrzeug installiert sind. Die Sensoren von diesen Sensoren und Betätigungselementen 17 beinhalten beispielsweise einen Motordrehzahlsensor, einen Luftansaugmengensensor zum Detektieren einer Luftansaugmenge, einen Gaspedalpositionssensor zum Detektieren einer Gaspedalposition aus einem Niederdrück-Ausmaß eines Gaspedals, einen in einem Luftansaugweg installierten Drosselklappen-Positionssensor zum Detektieren einer Position einer Drosselklappen, die eine jedem Zylinder eines Motors zuzuführende Luftansaugmenge einstellt, einen Wassertemperatursensor zum Detektieren einer Kühlmitteltemperatur, die eine Motortemperatur anzeigt, sowie einen Außenluft-Temperatursensor zum Detektieren einer Lufttemperatur außerhalb des Fahrzeugs.
  • Ferner beinhalten die Betätigungselemente einen Zündschalter zum Anweisen eines Startens und Stoppens des Motors, einen Wählhebel zum Wählen zwischen einem automatischen Gangumschaltmodus und einem manuellen Gangumschaltmodus sowie zum Anweisen eines Hochschaltens und Herunterschaltens in dem manuellen Gangumschaltmodus eines Fahrzeugs mit Automatikgetriebe, einen Anzeigewählschalter zum Auswählen von Anzeigeinformation in einer Multifunktionsanzeige (MFA), die in der noch zu beschreibenden Anzeige 11 installiert ist, und dergleichen.
  • Insbesondere beinhalten die Sensoren und Betätigungselemente 17 gemäß dem vorliegenden Ausführungsbeispiel einen Fahrzeuggeschwindigkeitssensor 17A, einen Lenkwinkelsensor 17B, einen Gaspedalpositionssensor 17C, einen Frontscheinwerferschalter 17D und einen Blinksignalschalter 17E.
  • Der Frontscheinwerferschalter 17D bezeichnet eine Betätigungseinrichtung zum Geben von Anweisungen zum Einschalten und Ausschalten eines Abblendlichts sowie zum Einschalten und Ausschalten des Fernlichts des Frontscheinwerfers 15. Bei dem vorliegenden Beispiel wird die adaptive Fahrlichtfunktion auch in Abhängigkeit von einer Betätigung zum Einschalten und Ausschalten des Fernlichts ein- und ausgeschaltet.
  • Die Anzeige 11 bezeichnet insgesamt verschiedene Arten von Messgeräten, wie z.B. einen Tachometer und einen Drehzahlmesser, die in einem vor einem Fahrer angebrachten Armaturenbrett vorgesehen sind, eine Multifunktionsanzeige sowie weitere Anzeigevorrichtungen, um den Fahrer mit Informationen zu versorgen. Die Multifunktionsanzeige ist derart ausgebildet, dass sie verschiedene Arten von Informationen, wie z.B. den Gesamtkilometerstand, eine Außenlufttemperatur sowie eine momentane Kraftstoffersparnis des Fahrzeugs, gleichzeitig oder durch Umschalten der einzelnen Informationen anzeigen kann.
  • Die Anzeigesteuerung 6 steuert einen Anzeigevorgang der Anzeige 11 auf der Basis eines Detektionssignals von einem vorbestimmten Sensor von den Sensoren und Betätigungselementen 17, Betätigungseingabeinformation von den Betätigungselementen und dergleichen.
  • Die Motorsteuerung 7 steuert verschiedene Arten von Aktoren, die als Motor-Aktoren 12 installiert sind, auf der Basis eines Detektionssignals von einem vorbestimmten Sensor von den Sensoren und Betätigungselementen 17, Betätigungseingabeinformation durch ein Betätigungselement und dergleichen. Der Motor-Aktor 12 beinhaltet beispielsweise einen Drosselklappensteller zum Antreiben einer Drosselklappe sowie verschiedene Arten von Aktoren, die mit dem Antrieb des Motors in Beziehung stehen, wie z.B. eine Einspritzeinrichtung zum Einspritzen von Kraftstoff.
  • Beispielsweise steuert die Motorsteuerung 7 das Starten und Stoppen des Motors ansprechend auf die Betätigung des vorstehend beschriebenen Zündschalters. Ferner steuert die Motorsteuerung 7 auch den Kraftstoff-Einspritzzeitpunkt, eine Kraftstoffeinspritz-Pulsbreite, eine Drosselklappenposition und dergleichen auf der Basis eines Detektionssignals von einem vorbestimmten Sensor, wie z.B. dem Motordrehzahlsensor und dem Gaspedalpositionssensor.
  • Die Getriebesteuerung 8 steuert verschiedene Arten von Aktoren, die als getriebebezogene Aktoren 13 dienen, auf der Basis eines Detektionssignals von einem vorbestimmten Sensor von den Sensoren und Betätigungselementen 17, Betätigungseingabeinformation von einem Betätigungselement und dergleichen. Die getriebebezogenen Aktoren 13 beinhalten beispielsweise verschiedene Arten von Aktoren, die mit einem Getriebe in Beziehung stehen, wie z.B. ein Steuerventil zum Ausführen einer Gangumschaltsteuerung eines Automatikgetriebes sowie einen Überbrückungs-Aktor zum Veranlassen einer Überbrückungskupplung, einen Überbrückungsvorgang auszuführen.
  • Beispielsweise führt die Getriebesteuerung 8 einen Gangumschaltsteuervorgang durch Abgeben eines Gangumschaltsignals an das Steuerventil in Abhängigkeit von einem vorbestimmten Gangumschaltmuster aus, wenn der automatische Gangumschaltmodus durch den vorstehend beschriebenen Wählhebel ausgewählt ist. Ferner führt die Getriebesteuerung 8 einen Gangumschaltsteuervorgang aus, indem an das Steuerventil ein Gangumschaltsignal abgegeben wird, und zwar in Abhängigkeit von einem Hochschaltbefehl und Herunterschaltbefehl von dem Wählhebel, wenn der manuelle Gangumschaltmodus vorgegeben ist.
  • Die Bremssteuerung 9 steuert verschiedene Arten von Aktoren, die als Brems-Aktoren 14 dienen, auf der Basis eines Detektionssignals von einem vorbestimmten Sensor von den Sensoren und Betätigungselementen 17, Betätigungseingabeinformation von einem Betätigungselement und dergleichen. Die bremsbezogenen Aktoren 14 beinhalten verschiedene Arten von Sensoren, die mit einer Bremse in Beziehung stehen, wie z.B. einen hydraulischen Steuer-Aktor zum Steuern eines Ausgangsfluiddrucks von einem Bremsverstärker zu einem Hauptzylinder sowie eines Hydraulikdrucks in einem Bremsfluidrohr.
  • Wenn z.B. die Fahrassistenzsteuerung 5 eine Anweisung zum Einschalten einer Bremse gibt, steuert die Bremssteuerung 9 den vorstehend beschriebenen hydraulischen Steuer-Aktor zum Bremsen des Fahrzeugs. Ferner berechnet die Bremssteuerung 9 ein Schlupfverhältnis eines Rads aufgrund von Detektionsinformation eines vorbestimmten Sensors (z.B. einem Achsen-Drehzahlsensor und einem Fahrzeuggeschwindigkeitssensor), und sie erhöht und vermindert einen Hydraulikdruck mittels des vorstehend beschriebenen hydraulischen Steuer-Aktors in Abhängigkeit von dem Schlupfverhältnis, um hierdurch eine sogenannte Antiblockier-Bremssteuerung (ABS) zu realisieren.
  • Die Lichtsteuerung 10 steuert den einzuschaltenden und auszuschaltenden Frontscheinwerfer 15 sowie den AFL-Aktor 16 auf der Basis eines Detektionssignals von einem vorbestimmten Sensor von den Sensoren und Betätigungselementen 17, Betätigungseingangsinformation durch ein Betätigungselement und dergleichen.
  • Insbesondere führt die Lichtsteuerung 10 eine automatische Frontscheinwerfersteuerung zum Einschalten und Ausschalten des Frontscheinwerfers 15 auf der Basis eines Detektionssignals von einem vorbestimmten Sensor, wie z.B. einem Leuchtdichtesensor, aus. Außerdem steuert die Lichtsteuerung 10 auch das Einschalten und das Ausschalten des Abblendlichts und des Fernlichts des Frontscheinwerfers 15 auf der Basis von Betätigungseingangsinformation durch den vorstehend beschriebenen Frontscheinwerferschalter 17D.
  • Insbesondere realisiert die Lichtsteuerung 10 bei dem vorliegenden Ausführungsbeispiel die adaptive Fahrlichtfunktion (AFL) durch Steuern des adaptiven Fahrlicht-Aktors 16 auf der Basis eines Befehls von dem Lichtverteilungs-Steuerprozessors 5A in der Fahrassistenzsteuerung 5. Der adaptive Fahrlicht-Aktor 16 gemäß dem vorliegenden Ausführungsbeispiel ist z.B. ein Aktor zum Ansteuern eines Dousers bzw. einer Abdunkelungseinrichtung, und der Douser wird auf der Basis eines Steuervorgangs von der Lichtsteuerung 10 angesteuert, um dadurch einen abgedunkelten Bereich in einem Teil eines Lichtverteilungsbereichs des Fernlichts zu bilden oder um keinen abgedunkelten Bereich zu bilden (d.h. das Fernlicht wird voll abgestrahlt).
  • Zusammenfassung der Prozesse, die bei dem vorliegenden Ausführungsbeispiel ausgeführt werden
  • Eine Zusammenfassung der verschiedenen Arten von Prozessen, die bei dem vorliegenden Ausführungsbeispiel ausgeführt werden, wird unter Bezugnahme auf 2 beschrieben.
  • 2 veranschaulicht verschiedene Arten der Bildverarbeitung, die von dem Bildprozessor 3 auf der Basis der ersten Bilddaten und der zweiten Bilddaten ausgeführt werden, in Form von Blöcken unter Klassifizierung der verschiedenen Arten der Bildverarbeitung nach ihrer Funktion. 2 veranschaulicht auch den Lichtverteilungs-Steuerprozessor 5A, der in der Fahrassistenzsteuerung 5 enthalten ist.
  • Wie in der Zeichnung dargestellt, beinhaltet bei grober Klassifizierung nach der Funktion der Bildprozessor 3 einen Distanzbild-Erzeugungsprozessor 3A, einen Fahrspur-Detektionsprozessor 3B, einen Fahrspurmodell-Erzeugungsprozessor 3C, einen Rücklicht-Detektionsprozessor 3D, einen Frontscheinwerfer-Detektionsprozessor 3E, einen Straßenlampen-Detektionsprozessor 3F, einen Objekterkennungs- und Identifizierungsprozessor 3G, einen Umfeld-Bestimmungsprozessor 3H sowie einen Steuerinformations-Berechnungsprozessor 3I.
  • In dem Bildprozessor 3 erzeugt ein durch den Distanzbild-Erzeugungsprozessor 3A ausgeführter Distanzbild-Erzeugungsvorgang ein Distanzbild auf der Basis der ersten Bilddaten und der zweiten Bilddaten, die in dem Speicher 4 gespeichert sind. Insbesondere werden in dem Distanzbild-Erzeugungsvorgang Distanzbilddaten erzeugt durch Detektieren von entsprechenden Punkten der ersten Bilddaten und der zweiten Bilddaten (mit anderen Worten ein durch Stereoabbildung gebildetes Bilddaten-Paar) durch Musterabgleich, Berechnen einer Abweichung von Koordinaten zwischen den detektierten entsprechenden Punkten als Parallaxe sowie Anzeigen einer Distanz bis zu dem Punkt in einem realen Raum auf einem Bild in Abhängigkeit von einem Triangulationsprinzip unter Verwendung der Parallaxe M.
  • Ein von dem Fahrspur-Detektionsprozessor 3B ausgeführter Fahrspur-Detektionsvorgang führt zur Detektion einer Fahrspur auf einer Straßenoberfläche, auf der das Fahrzeug fährt, auf der Basis eines Referenzbildes (mit anderen Worten auf der Basis von vorab vorgegebenen Bilddaten von den ersten Bilddaten und den zweiten Bilddaten) sowie der Distanzbilddaten (Distanzinformation pro Pixel als entsprechender Punkt), die in dem vorstehend beschriebenen Distanzbild-Erzeugungsvorgang erzeugt werden.
  • Insbesondere werden in dem Fahrspur-Detektionsvorgang als erstes Fahrspurlinien-Kandidatenpunkte auf dem Referenzbild auf der Basis eines Leuchtdichtewerts von jedem Pixel des Referenzbildes sowie einer Distanz jedes Pixels im realen Raum detektiert, und Positionen der rechten und linken Fahrspurlinien von dem Fahrzeug werden auf der Basis der detektierten Fahrspurlinien-Kandidatenpunkte detektiert.
  • Beispielsweise wird eine Suche ausgeführt, bei der eine Versetzung von einer Pixelbreite auf dem Referenzbild um jeweils ein Pixel nach rechts und nach links auf einer horizontalen Linie ausgeführt wird, wobei ein Pixel, das eine Bedingung erfüllt, dass ein Leuchtdichtedifferenzwert (= Kantenstabilität) von jedem Pixel sich stärker ändert als ein Schwellenwert, als Fahrspurlinien-Kandidatenpunkte auf der Basis eines Leuchtdichtewerts von jedem Pixel des Referenzbildes detektiert wird.
  • Dieser Prozess wird der Reihe nach ausgeführt, während die vorstehende, zu suchende horizontale Linie jeweils um eine Pixelbreite beispielsweise von der Unterseite des Referenzbildes nach oben versetzt wird. Somit werden die Fahrspurlinien-Kandidatenpunkte jeweils in einem Bereich auf der rechten Seite des Fahrzeugs und einem Bereich auf der linken Seite des Fahrzeugs detektiert.
  • Ein Fahrspurmodell-Erzeugungsprozess, der von dem Fahrspurmodell-Erzeugungsprozessor 3C ausgeführt wird, erzeugt ein Fahrspurmodell in einem dreidimensionalen Raum, der jeweils durch eine Achse X, Y und Z definiert ist (wobei die X-Achse in der horizontalen Richtung verläuft, die Y-Achse in Richtung der Höhe verläuft und die Z-Achse in der Fahrtrichtung des Fahrzeugs verläuft), und zwar auf der Basis von Information über die rechten und linken Fahrspurlinien-Kandidatenpunkte, die bei der vorstehend beschriebenen Fahrspurdetektion detektiert werden.
  • Insbesondere wird das Fahrspurmodell in dem dreidimensionalen Raum durch Anwendung einer kollinearen Approximation an eine Position (X, Y und Z) in dem realen Raum des Fahrspur-Kandidatenpunkts gebildet, der durch einen Fahrspur-Detektor z.B. mittels einer Methode der kleinsten Quadrate detektiert wird.
  • Mit dem in dieser Weise gebildeten Fahrspurmodell erhält man auch Höheninformation bezüglich der Straßenoberfläche, auf der das Fahrzeug fährt.
  • Das Verfahren des Distanzbild-Erzeugungsprozesses, des Fahrspur-Detektionsprozesses und des Fahrspurmodell-Erzeugungsprozesses, wie diese vorstehend beschrieben worden sind, ist jeweils ähnlich dem in der JP 2008-033 750 A offenbarten Verfahren, wobei hinsichtlich weiterer Details auf dieses Dokument verwiesen wird.
  • Der Rücklicht-Detektionsprozessor 3D, der Frontscheinwerfer-Detektionsprozessor 3E, der Straßenlampen-Detektionsprozessor 3F, der Objekterkennungs- und Identifizierungsprozessor 3G, der Umfeld-Bestimmungsprozessor 3H und der Steuerinformations-Berechnungsprozessor 3I führen einen Rücklicht-Detektionsvorgang, einen Frontscheinwerfer-Detektionsvorgang, einen Straßenlampen-Detektionsvorgang, einen Objekterkennungs- und Identifizierungsvorgang, einen Umfeld-Bestimmungsvorgang bzw. einen Steuerinformations-Berechnungsvorgang aus.
  • Diese Vorgänge sind Vorgänge für die Bestimmung der Umgebung sowie die Frontscheinwerfersteuerung gemäß dem vorliegenden Ausführungsbeispiel. Die jeweiligen Vorgänge werden im Folgenden noch ausführlich beschrieben.
  • Helles Bild und dunkles Bild sowie Detektionsbereich
  • Vor der Erläuterung der Prozesse für die Bestimmung der Umgebung sowie die Frontscheinwerfersteuerung gemäß dem vorliegenden Ausführungsbeispiel werden zwei Arten von bei der Bilderkennung verwendeten Bildern (Einzelbilder) sowie ein Detektionsbereich eines jeweiligen Objekts beschrieben.
  • Wie nachfolgend noch beschrieben wird, werden bei dem vorliegenden Ausführungsbeispiel das vorausfahrende Fahrzeug und das entgegenkommende Fahrzeug als Objekte erkannt, die nicht mit dem Fernlicht angestrahlt werden sollten. Das vorausfahrende Fahrzeug wird auf der Basis eines Detektionsresultats eines Rücklichts desselben erkannt, und das entgegenkommende Fahrzeug wird auf der Basis eines Detektionsresultats des Frontscheinwerfers desselben erkannt.
  • Das Lichtvolumen des Frontscheinwerfers unterscheidet sich stark von dem Lichtvolumen des Rücklichts. In manchen Fällen, in denen mit der gleichen Blendengeschwindigkeit aufgenommene Bilder verwendet werden, werden möglicherweise keine klaren Bilder sowohl für den Frontscheinwerfer als auch für das Rücklicht detektiert. Beispielsweise kann in einem Bild, das mit einer an das Rücklicht angepassten Blendengeschwindigkeit aufgenommen wird, die Leuchtdichte des Frontscheinwerfers gesättigt sein.
  • Daher wird bei dem vorliegenden Ausführungsbeispiel die Blendengeschwindigkeit für jedes Einzelbild geändert, und ein Detektionsvorgang für jedes Objekt wird mittels eines Bildes, das mit der an das Rücklicht angepassten Blendengeschwindigkeit aufgenommen wird, sowie eines Bildes, das mit der an den Frontscheinwerfer angepassten Blendengeschwindigkeit aufgenommen wird, ausgeführt.
  • Im Folgenden werden mit der Blendengeschwindigkeit für das Rücklicht (für das die Blendengeschwindigkeit langsamer ist als für den Frontscheinwerfer) aufgenommene Bilddaten als „helles Bild G1“ bezeichnet, und mit der Blendengeschwindigkeit für den Frontscheinwerfer (für den die Blendengeschwindigkeit schneller ist als für das Rücklicht) aufgenommene Bilddaten als „dunkles Bild G2“ bezeichnet.
  • Beispiele für das helle Bild G1 sowie das dunkle Bild G2, die für ein gleiches Umfeld aufgenommen sind, sind in 3A bzw. 3B veranschaulicht.
  • Der Bildprozessor 3 weist die Bildaufnahmevorrichtung 2 derart an, dass die erste Kamera 2A und die zweite Kamera 2B jeweils abwechselnd das helle Bild G1 und das dunkle Bild G2 abgeben. Somit wechseln die von der ersten Kamera 2A erzeugten ersten Bilddaten und die von der zweiten Kamera 2B erzeugten zweiten Bilddaten jeweils abwechselnd für jede Einzelbilddauer zwischen dem hellen Bild G1 und dem dunklen Bild G2.
  • Das helle Bild G1 wird mit einer Blendengeschwindigkeit aufgenommen, die durch die vorstehend beschriebene automatische Einstellfunktion vorgegeben ist. Das dunkle Bild G2 wird mit einer Blendengeschwindigkeit aufgenommen, die unter Anwendung eines vorbestimmten Offset gegenüber der Blendengeschwindigkeit des hellen Bildes G1 gebildet wird.
  • Das vorstehend beschriebene Distanzbild wird auf der Basis des hellen Bildes G1 erzeugt.
  • In diesem Fall wird das dunkle Bild G2 zum Detektieren des Frontscheinwerfers und auch für den Straßenlampen-Detektionsvorgang durch den Straßenlampen-Detektionsprozessor 3F verwendet. Unter Berücksichtigung dieses Punktes besitzt das dunkle Bild G2 bei dem vorliegenden Ausführungsbeispiel einen Offset in Richtung nach oben gegenüber dem hellen Bild G1.
  • Da jedoch die Leuchtdichte der Straßenlampe auf dem Bild irgendwo zwischen der Leuchtdichte des Frontscheinwerfers und der Leuchtdichte des Rücklichts liegt, kann die Straßenlampendetektion unter Verwendung des hellen Bildes G1 und nicht notwendigerweise auch unter Verwendung des dunklen Bildes G2 ausgeführt werden.
  • Bei dem vorliegenden Ausführungsbeispiel wird ein Detektionsbereich für das Rücklicht (das vorausfahrende Fahrzeug), den Frontscheinwerfer (das entgegenkommende Fahrzeug) und die Straßenlampe definiert. Das bedeutet, ein Detektionsvorgang für jedes dieser Objekte wird nicht für alle Pixel des hellen Bildes G1 und des dunklen Bildes G2 ausgeführt, sondern dieser wird jeweils für einen Rücklicht-Detektionsbereich As als Bereich für den Rücklicht-Detektionsvorgang, für einen Frontscheinwerfer-Detektionsbereich At als Bereich für den Frontscheinwerfer-Detektionsvorgang, sowie für einen Straßenlampen-Detektionsbereich Ag als Bereich für den Straßenlampen-Detektionsvorgang ausgeführt.
  • 4A veranschaulicht ein Beispiel des für das helle Bild G1 definierten Rücklicht-Detektionsbereichs As, und 4B veranschaulicht ein Beispiel des Frontscheinwerfer-Detektionsbereichs At und des Straßenlampen-Detektionsbereichs Ag, die für das dunkle Bild G2 definiert sind. Diese Detektionsbereiche sind jeweils als rechteckige Bereiche vorgegeben. Eine Position von jedem Detektionsbereich ist derart vorgegeben, dass sich eine Region, in dem ein Objekt vorhanden ist, innerhalb eines Bildes befindet.
  • Da jeder Detektionsbereich von dem Rücklicht-Detektionsbereich As, dem Frontscheinwerfer-Detektionsbereich At und dem Straßenlampen-Detektionsbereich Ag, wie diese vorstehend beschrieben worden sind, vorgegeben wird, ist ein Bereich, in dem ein Objekt detektiert wird, begrenzt, die Prozesszeit ist verkürzt, die Prozessbelastung ist vermindert, und eine falsche Detektion an einem Ort, an dem kein Detektionsvorgang vorhanden ist, kann verhindert werden.
  • Gesamtablauf des Prozesses
  • 5 zeigt ein Ablaufdiagramm zur Erläuterung des Gesamtablaufs eines Prozesses in Bezug auf die Bilderkennung bei dem Ausführungsbeispiel. Eine in 5 veranschaulichte Prozessreihe wird durch den Bildprozessor 3 für jede Einzelbildperiode wiederholt ausgeführt.
  • Als erstes bestimmt der Bildprozessor 3 in einem Schritt S101, ob es Nacht ist oder nicht. Wenn es nicht Nacht ist, besteht keine Notwendigkeit zum Detektieren und Erkennen eines Objekts, und daher wird durch einen Bestimmungsprozess in dem Schritt S101 festgestellt, ob eine Notwendigkeit zum Detektieren und Erkennen eines Objekts besteht oder nicht.
  • Ob Nacht ist oder nicht, wird auf der Basis der Blendengeschwindigkeit und eines Verstärkungswerts der Bilddaten bestimmt. Eine Bestimmung, ob Nacht ist oder nicht, kann alternativ auch auf der Basis eines Resultats der Bestimmung erfolgen, ob das Fernlicht eingeschaltet ist oder nicht.
  • Wenn in dem Schritt S101 ein negatives Resultat erzielt wird, dass es nicht Nacht ist, wird der Prozess in einer aktuellen Einzelbildperiode beendet, und wenn ein positives Resultat erzielt wird, dass es Nacht ist, fährt der Ablauf mit einem Schritt S102 fort.
  • In dem Schritt S102 wird ein Bildtyp bestimmt. D.h. es wird bestimmt, ob es sich bei den von der Bildaufnahmevorrichtung 2 in der aktuellen Einzelbildperiode geladenen Bilddaten um das helle Bild G1 oder um das dunkle Bild G2 handelt.
  • Wenn es sich bei dem Bildtyp um das helle Bild G1 handelt, wird in einem Schritt S103 der Rücklicht-Detektionsvorgang ausgeführt, und anschließend wird der Prozess in der aktuellen Einzelbildperiode beendet.
  • Wenn dagegen festgestellt wird, dass es sich bei dem Bildtyp um das dunkle Bild G2 handelt, wird in einem Schritt S104 der Frontscheinwerfer-Detektionsvorgang ausgeführt, und anschließend wird in einem Schritt S105 der Straßenlampen-Detektionsvorgang ausgeführt.
  • In einem anschließenden Schritt S106 wird der Objekterkennungs- und Identifizierungsvorgang ausgeführt. Der Objekterkennungs- und Identifizierungsvorgang, der im Folgenden noch ausführlich beschrieben wird, erkennt und identifiziert das vorausfahrende Fahrzeug, das entgegenkommende Fahrzeug sowie die Straßenlampe auf der Basis von einem Resultat des in dem Schritt S103 ausgeführten Rücklicht-Detektionsvorgangs sowie auf der Basis von Resultaten des in den Schritten S104 und S105 ausgeführten Frontscheinwerfer-Detektionsvorgangs bzw. Straßenlampen-Detektionsvorgangs.
  • Nach der Ausführung des Objekterkennungs- und Identifizierungsvorgangs werden der Umfeld-Bestimmungsvorgang und der Steuerinformation-Berechnungsvorgang in einem Schritt S107 bzw. einem Schritt S108 ausgeführt, und anschließend endet der Ablauf.
  • Nachfolgend werden die als Schritte S103 bis S108 ausgeführten Prozesse beschrieben, bei denen es sich um den Rücklicht-Detektionsvorgang, den Frontscheinwerfer-Detektionsvorgang, den Straßenlampen-Detektionsvorgang, den Objekterkennungs- und Identifizierungsvorgang, den Umgebungs-Bestimmungsvorgang sowie die Steuerinformationsberechnung handelt.
  • Rücklicht-Detektionsvorgang
  • In dem Rücklicht-Detektionsvorgang wird ein Bereich detektiert, von dem man annimmt, dass es sich um ein Rücklicht des vorausfahrenden Fahrzeugs (eine Rücklichtregion) handelt. Bei diesem Rücklicht-Detektionsvorgang wird als erstes der Rücklicht-Detektionsbereich As für das helle Bild G1 vorgegeben, und anschließend werden die roten Pixel aus den Pixeln in dem Rücklicht-Detektionsbereich As detektiert. Danach werden die detektierten Pixel gruppiert, um eine Elementgruppe zu bilden. Insbesondere werden Pixel gruppiert, bei denen eine Distanz zwischen den detektierten Pixeln gleich oder weniger als A1 Pixel beträgt. Beispielsweise ist A1 = 1,5 Pixel.
  • Anschließend wird ein grundlegender charakteristischer Betrag der Elementgruppe berechnet. Der grundlegende charakteristische Betrag beinhaltet:
    • - vertikale und horizontale Koordinaten der Elementgruppe (eine Position auf jeder Seite von einem die Elementgruppe umschließenden Rechteck);
    • - die Pixelanzahl in der Elementgruppe;
    • - den maximalen Leuchtdichtewert und den minimalen Leuchtdichtewert in der Elementgruppe; und
    • - eine durchschnittliche Parallaxe in der Elementgruppe (einen Durchschnittswert von Parallaxen M von jeweiligen Pixeln in der Elementgruppe).
  • Für die Parallaxe M wird ein Wert verwendet, der durch den vorstehend beschriebenen Distanzbild-Erzeugungsvorgang gebildet wird.
  • Danach werden Elementgruppen auf der Basis der Information über den grundlegenden charakteristischen Betrag der Elementgruppe sortiert. Mit anderen Worten, eine Elementgruppe mit anderen grundlegenden charakteristischen Beträgen als den nachfolgend angegebenen Vorgabebedingungen wird gelöscht:
  • Bedingung 1): eine in Längsrichtung vorhandene Größe sowie eine in Querrichtung vorhandene Größe der Elementgruppe ist gleich oder geringer als B1 Pixel. B1 ist z.B. 2 Pixel.
  • Bedingung 2): eine Pixelanzahl in der Elementgruppe ist gleich oder geringer als C1 Pixel. C1 ist z.B. 2 Pixel.
  • Alternativ hierzu kann eine Elementgruppe gelöscht werden, wenn die Größe einer Elementgruppe extrem groß ist. Jedoch wird in diesem Fall ein Schwellenwert in Abhängigkeit von einer Distanz (der Parallaxe M) geändert.
  • 6A veranschaulicht eine schematische Darstellung einer Elementgruppe, die durch einen solchen Rücklicht-Detektionsvorgang detektiert wird (abschließend sortiert).
  • Eine Region, die in der Zeichnung in grau dargestellt ist, bezeichnet eine einem vorausfahrenden Fahrzeug entsprechende Region (Region des vorausfahrenden Fahrzeugs) in dem Rücklicht-Detektionsbereich As, und jede der schwarz dargestellten Regionen bezeichnet eine Region, die als rotes Pixel detektiert worden ist. In Abhängigkeit von dem vorstehend beschriebenen Rücklicht-Detektionsvorgang werden Rechteckregionen, die in der Zeichnung in gestrichelten Linien dargestellt sind, als Elementgruppen gruppiert.
  • Auf diese Weise detektiert der Rücklicht-Detektionsvorgang Regionen, die Rücklichtbereichen des vorausfahrenden Fahrzeugs entsprechen, als Elementgruppen.
  • Wie aus der vorstehenden Beschreibung erkennbar ist, kann die Elementgruppe als Gruppe definiert werden, die durch Gruppieren von charakteristischen Teilen gebildet wird, die in einem zu erkennenden Objekt enthalten sind. In dem Objekterkennungs- und Identifizierungsvorgang, der im Folgenden noch beschrieben wird, werden Bereiche von zu erkennenden Objekten auf der Basis eines Detektionsresultats dieser Elementgruppen als Objektgruppe gruppiert (siehe 6B).
  • Frontscheinwerfer-Detektionsvorgang
  • In dem Frontscheinwerfer-Detektionsvorgang wird eine Region detektiert, von der angenommen wird, dass es sich um einen Frontscheinwerfer eines entgegenkommenden Fahrzeugs handelt (Frontscheinwerferregion).
  • Der grundlegende Ablauf des Frontscheinwerfer-Detektionsvorgangs ist wie folgt:
    1. i) Es wird ein Pixel detektiert, bei dem der Leuchtdichtewert gleich einem oder größer als ein Schwellenwert D2 ist.
    2. ii) Die detektierten Pixel werden gruppiert, um eine Elementgruppe zu bilden.
    3. iii) Es wird ein grundlegender charakteristischer Betrag der Elementgruppe berechnet.
    4. iv) Die Elementgruppen werden sortiert.
  • In dem Prozess i) wird der Frontscheinwerfer-Detektionsbereich At für das dunkle Bild G2 vorgegeben, und ein Pixel, bei dem der Leuchtdichtewert in diesem Frontscheinwerfer-Detektionsbereich At gleich oder größer als D2 ist, wird als Kandidat für die Frontscheinwerferregion ermittelt. Dabei wird der Wert D2 als niedriger Wert von beispielsweise etwa 5 bis 10 bei einer Leuchtdichte mit 256 Abstufungen vorgegeben. Der Grund hierfür liegt darin, dass der Frontscheinwerfer auch an einem entfernt gelegenen Ort (z.B. mehrere Hundert Meter entfernt) detektiert werden muss, an dem die Leuchtdichte entsprechend gering ist.
  • Wenn in dieser Weise das Pixel als Kandidat für die Frontscheinwerferregion detektiert wird, werden die Prozesse ii) bis iv) in der gleichen Weise ausgeführt wie im Fall des Rücklicht-Detektionsvorgangs. Infolgedessen wird eine dem Frontscheinwerferbereich des entgegenkommenden Fahrzeugs entsprechende Region als Elementgruppe detektiert.
  • Straßenlampen-Detektionsvorgang
  • In dem Straßenlampen-Detektionsvorgang wird eine Region detektiert, von der angenommen wird, dass es sich um eine Straßenlampe handelt (Straßenlampenregion).
  • Der Straßenlampen-Detektionsvorgang wird in der vorstehend beschriebenen Reihenfolge i) bis iv) in ähnlicher Weise wie der Frontscheinwerfer-Detektionsvorgang ausgeführt. In dem Prozess i) besteht jedoch ein Unterschied darin, dass der Straßenlampen-Detektionsbereich Ag für das dunkle Bild G2 vorgegeben wird, und ein Pixel, bei dem der Leuchtdichtewert in diesem Straßenlampen-Detektionsbereich Ag gleich einem oder höher als ein vorbestimmter Wert ist, wird als Kandidat für die Straßenlampenregion ermittelt.
  • Wenn das Pixel als Kandidat für die Straßenlampenregion detektiert wird, werden die Prozesse i) bis iv) in ähnlicher Weise ausgeführt, und infolgedessen wird eine der Straßenlampe entsprechende Region als Elementgruppe detektiert.
  • Objekterkennungs- und Identifizierungsvorgang
  • Der Objekterkennungs- und Identifizierungsvorgang erkennt und identifiziert die Objekte (das vorausfahrende Fahrzeug, das entgegenkommende Fahrzeug und die Straßenlampe) auf der Basis der Resultate des Rücklicht-Detektionsvorgangs, des Frontscheinwerfer-Detektionsvorgangs sowie des Straßenlampen-Detektionsvorgangs, wie diese vorstehend beschrieben worden sind.
  • Unter dem vorstehend genannten Begriff „Erkennung“ ist die Erkennung eines Objektbereichs zu verstehen. Der Begriff „Identifizierung“ bezeichnet die Berechnung einer Wahrscheinlichkeit (z.B. einer im Folgenden noch zu beschreibenden Zuverlässigkeit), ob ein Gegenstand, der innerhalb eines „erkannten“ Bereichs vorhanden ist, das Objekt ist, sowie das auf der Basis der Wahrscheinlichkeit erfolgende Treffen einer Entscheidung dahingehend, ob der Gegenstand das Objekt ist oder nicht.
  • Der „Erkennungsvorgang“ des Objekts erfolgt dadurch, dass die jeweiligen Elementgruppen, die durch den Rücklicht-Detektionsvorgang, den Frontscheinwerfer-Detektionsvorgang und den Straßenlampen-Detektionsvorgang auf der Basis von Information über den grundlegenden charakteristischen Betrag gebildet worden sind, als Objektgruppe gruppiert werden.
  • Wenn es sich bei Werten der durchschnittlichen Parallaxen der Elementgruppen um nahezu die gleichen Werte handelt, ist es sehr wahrscheinlich, dass diese Elementgruppen ein gleiches Objekt bilden. Wenn diese Elementgruppen das gleiche Objekt bilden, kann man ferner sagen, dass eine vertikale und eine horizontale Trennungsdistanz dieser Elementgruppen innerhalb eines vorbestimmten Bereichs liegen.
  • In dem „Erkennungsvorgang“ des Objekts werden die Elementgruppen, bei denen die Werte der durchschnittlichen Parallaxen als einander gleich betrachtet werden und die vertikale und die horizontale Trennungsdistanz dieser Elementgruppen innerhalb eines vorbestimmten Bereichs liegen, als Objektgruppe gruppiert. Der „vorbestimmte Bereich“ für die vorstehend beschriebenen Trennungsdistanzen wird in Abhängigkeit von dem Wert der durchschnittlichen Parallaxe variabel vorgegeben, und zwar unter Berücksichtigung der Tatsache, dass sich die Größe eines Objekts in dem Bild in Abhängigkeit von der Distanz von dem Fahrzeug zu dem Objekt ändert.
  • Ein solcher Erkennungsvorgang führt zu einer Gruppierung von Objektgruppen, wie es in 6B veranschaulicht ist. Beispielsweise werden Bereiche, die leuchtende Teile (jeweilige Elementgruppe) auf der rechten und der linken Seite des vorausfahrenden Fahrzeugs oder des entgegenkommenden Fahrzeugs beinhalten, als eine Objektgruppe gruppiert.
  • Da hinsichtlich der Straßenlampe die eigentliche Elementgruppe als leuchtendes Teil das zu erkennende Objekt bildet, wird für die Straßenlampe der vorstehend beschriebene „Erkennungsvorgang“ nicht ausgeführt, und die Elementgruppe kann sowie sie ist als Objektgruppe behandelt werden.
  • In dem „Identifizierungsvorgang“ des Objekts wird die Zuverlässigkeit für jede der Objektgruppen berechnet, die in dem vorstehend beschriebenen Erkennungsvorgang gruppiert worden sind, und es wird eine Objektgruppe extrahiert, bei der die Zuverlässigkeit gleich einem oder größer als ein vorbestimmter Schwellenwert ist.
  • Bei dem vorliegenden Ausführungsbeispiel wird die Zuverlässigkeit für jedes Einzelbild berechnet. In dem „Identifizierungsvorgang“ wird für jedes Einzelbild die Zuverlässigkeit mit dem vorstehend beschriebenen vorbestimmten Schwellenwert verglichen, und die Objektgruppe wird extrahiert.
  • Die Zuverlässigkeit wird z.B. auf der Basis von Information über die Anzahl von Elementgruppen, die die Objektgruppe bilden, die Größe der Objektgruppe sowie eine Höhe über der Straßenoberfläche berechnet. Für die Höhe über der Straßenoberfläche wird ein Wert verwendet, der durch den vorstehend beschriebenen Fahrspurmodell-Erzeugungsvorgang ermittelt wird.
  • Durch einen solchen „Identifizierungsvorgang“ können auch andere Gegenstände (ein Kennzeichen, ein Schild, ein Reflektor und dergleichen, die mit dem Licht des Fahrzeugs angestrahlt werden) als solche Objekte wie das vorausfahrende Fahrzeug und das entgegenkommende Fahrzeug abgeklärt werden.
  • Das bedeutet, eine in dem Detektionsbereich As für das vorausfahrende Fahrzeug erkannte Objektgruppe wird als das Rücklicht des vorausfahrenden Fahrzeugs oder als anderer Gegenstand identifiziert.
  • Ferner wird eine in dem Detektionsbereich At für das entgegenkommende Fahrzeug erkannte Objektgruppe als der Frontscheinwerfer des entgegenkommenden Fahrzeugs oder als anderer Gegenstand identifiziert.
  • Für die Straßenlampe ist der Identifizierungsvorgang nicht erforderlich, und die Objektgruppe kann als „Straßenlampe“ behandelt werden. Die Straßenlampe kann jedoch von einer Verkehrsampel und von einer Objektgruppe mit einer Eigenschaft unterschieden werden, die als Eigenschaft eines anderen Gegenstands als der Straßenlampe betrachtet wird.
  • Umfeld-Bestimmungsvorgang
  • Die 7 bis 9 veranschaulichen in detaillierter Weise den Umfeld-Bestimmungsvorgang, der in 5 als Schritt S107 ausgeführt wird. Dieser Umfeld-Bestimmungsvorgang trifft letztendlich die Entscheidung, ob es sich bei der aktuellen Umgebung und Fahrsituation des Fahrzeugs um ein Umfeld handelt, in dem kein Fernlicht erforderlich ist, wobei für die Umgebungsbestimmung festgestellt wird, ob es sich bei der Umgebung um ein Stadtgebiet bzw. urbanes Gebiet oder um ein nicht-urbanes Gebiet handelt.
  • Der Grund dafür ist, dass das urbane Gebiet ausreichend hell ist und daher als das Fernlicht nicht erforderndes Gebiet erachtet wird. Da hinsichtlich der Fahrbedingungen eine Fahrt mit niedriger Geschwindigkeit keine Notwendigkeit darstellt, Licht auf einen entfernt gelegenen Ort zu richten, wird die Fahrsituation mit niedriger Geschwindigkeit als das Fernlicht nicht erforderndes Umfeld festgestellt. Da ferner bei einem Abbiegen nach rechts oder nach links kein Licht auf einen entfernt gelegenen Ort gerichtet werden muss, werden auch die Abbiegesituationen als das Fernlicht nicht erfordernde Umfelder festgestellt.
  • 7 veranschaulicht einen Umfeld-Bestimmungsvorgang, der von dem Bildprozessor 3 mit einer Funktion als Umfeld-Bestimmungsprozessor 3H ausgeführt wird. In einem Schritt S201 stellt der Bildprozessor 3 fest, ob die Fahrgeschwindigkeit des Fahrzeugs derzeit gleich einer oder höher als eine bestimmte Geschwindigkeit ist oder nicht. Beispielsweise wird Erfassungsinformation des Fahrzeuggeschwindigkeitssensors 17A überprüft, und es wird überprüft, ob die Geschwindigkeit gleich oder mehr als z.B. 20 km/h als vorgegebene Geschwindigkeit ist oder nicht.
  • Wenn die Fahrgeschwindigkeit geringer ist als die vorgegebene Geschwindigkeit, fährt der Bildprozessor 3 mit einem Schritt S205 fordert, in dem das das Fernlicht nicht erfordernde Umfeld festgestellt wird, und ein Flag für ein nicht erforderliches Fernlicht wird auf 1 gesetzt.
  • Vorzugsweise sollte eine Hysterese vorgesehen sein, um ein „Nachjagen“ bei der Bestimmung zu verhindern. Beispielsweise wird in einer Situation, in der das Flag für ein nicht erforderliches Fernlicht auf 1 gesetzt ist, die vorgegebene Geschwindigkeit bei der Bestimmung in dem Schritt S201 von 20 km/h auf 18 km/h geändert, um dadurch ein häufiges Schwanken eines Bestimmungsresultats („1“ und „0“ des Flags für ein nicht erforderliches Fernlicht) zu verhindern.
  • Bei der Detektion, dass die Fahrgeschwindigkeit gleich einer oder höher als eine vorgegebene Geschwindigkeit ist, stellt der Bildprozessor 3 in einem Schritt S202 fest, ob das Fahrzeug derzeit nach rechts oder nach links abbiegt. Wenn z.B. eine Blinkdauer eines Blinksignals gemessen wird und das Aufleuchten (Blinken) des Blinksignals für eine bestimmte Zeitdauer anhält, wird die Feststellung getroffen, dass das Fahrzeug nach rechts oder nach links abbiegt. Es ist bevorzugt, dass diese Feststellung eine Hysterese beinhaltet.
  • 8 veranschaulicht ein Beispiel eines in dem Schritt S202 ausgeführten Vorgangs zum Bestimmen, ob das Fahrzeug nach rechts oder nach links abbiegt. Parallel zu diesem Vorgang in 8 wird davon ausgegangen, dass der Bildprozessor 3 einen Vorgang zum Inkrementieren eines internen Zählers (aus Gründen der Einfachheit wird dieser als „Blinksignalzähler“ bezeichnet) ausführt, wenn das Blinksignal blinkt, sowie einen Vorgang zum Inkrementieren ausführt (es sei darauf hingewiesen, dass der kleinste Wert 0 beträgt), wenn das Blinksignal aus ist.
  • In einem Schritt S210 prüft der Bildprozessor 3, ob die Feststellung getroffen wird oder nicht, dass das Fahrzeug derzeit nach rechts oder nach links abbiegt (ob sich dieses in einer Periode nach der Bestimmung in einem noch zu beschreibenden Schritt S213 befindet).
  • Wenn das Fahrzeug derzeit nach rechts oder nach links abbiegt, wird in einem Schritt S211 geprüft, ob ein Wert des Blinksignalzählers einen Schwellenwert R1 für das Abbiegen nach rechts oder nach links überschreitet oder nicht. Der Schwellenwert R1 für das Abbiegen nach rechts oder nach links wird z.B. als Zählwert vorgegeben, der 5 Sekunden entspricht.
  • Wenn der Wert des Blinksignalzählers den Schwellenwert R1 für das Abbiegen nach rechts oder nach links nicht überschreitet, trifft der Bildprozessor 3 in einem Schritt S215 die Feststellung, dass das Fahrzeug derzeit nicht nach rechts oder nach links abbiegt.
  • Wenn dagegen der Wert des Blinksignalzählers den Schwellenwert R1 für das Abbiegen nach rechts oder nach links überschreitet, wird in einem Schritt S213 ein Flag für eine Periode nach einem Abbiegen nach rechts oder nach links eingeschaltet, und in einem Schritt S214 wird die Feststellung getroffen, dass das Fahrzeug derzeit nach rechts oder nach links abbiegt.
  • Das Flag für eine Periode nach einem Abbiegen nach rechts oder nach links bezeichnet eine Zeitdauer nach einem Abbiegen nach rechts oder nach links (eine bestimmte Zeitdauer nach dem Abbiegen nach rechts oder nach links), die bei der noch zu beschreibenden Stadtgebiet-Bestimmung zu überprüfen ist, und dieses Flag für eine Periode nach einem Abbiegen nach rechts oder nach links bleibt für eine bestimmte Zeitdauer (z.B. 20 Sekunden) eingeschaltet.
  • Wenn der Schritt S202 in 7 ausgeführt wird, nachdem in dem Schritt S214 festgestellt worden ist, dass das Fahrzeug nach rechts oder nach links abbiegt, fährt der Ablauf in 8 von dem Schritt S210 mit einem Schritt S212 fort. In dem Schritt S212 prüft der Bildprozessor 3, ob der Wert des Blinksignalzählers unter einen Schwellenwert R2 für die Feststellung eines Abbiegens nach rechts oder nach links fällt oder nicht. Der Schwellenwert R2 für die Feststellung eines Abbiegens nach rechts oder nach links ist z.B. ein Zählwert, der 2 Sekunden entspricht.
  • Wenn der Wert des Blinksignalzählers nicht unter den Schwellenwert R2 für die Feststellung eines Abbiegens nach rechts oder nach links fällt, wird die Feststellung, ob das Fahrzeug nach rechts oder nach links abbiegt, in dem Schritt S214 fortgesetzt. Wenn der Wert des Blinksignalzählers unter den Schwellenwert R2 für die Feststellung eines Abbiegens nach rechts oder nach links fällt, wird in einem Schritt S215 die Feststellung getroffen, dass das Fahrzeug nicht nach rechts oder nach links abbiegt, mit anderen Worten, es wird die Feststellung getroffen, dass das Abbiegen nach rechts oder nach links abgeschlossen ist.
  • Wie z.B. in 8 veranschaulicht ist, wird festgestellt, ob das Fahrzeug einen Abbiegevorgang ausführt. Der zum Feststellen eines Abbiegens nach rechts oder nach links dienende Schwellenwert beträgt R1 > R2, und bei dem Bestimmungsvorgang wird eine Hysterese verwendet, so dass häufige Schwankungen bei der Bestimmung, ob das Fahrzeug nach rechts oder nach links abbiegt, verhindert werden. In der Zeichnung wird ein Abbiegen nach rechts oder nach links durch die Aufleuchtdauer bzw. Blinkdauer des Blinksignals bestimmt.
  • Alternativ hierzu kann die Feststellung, ob das Fahrzeug nach rechts oder nach links abbiegt, z.B. durch Information von dem Lenkwinkelsensor 17B oder durch eine Kombination aus der Blinksignal-Aufleuchtdauer und der Information von dem Lenkwinkelsensor 17B erfolgen. In weiterer alternativer Weise kann ein Gierraten-Detektionsresultat für die Bestimmung verwendet werden, ob das Fahrzeug nach rechts oder nach links abbiegt.
  • In dem Schritt S202 der 7 erfolgt die Bestimmung, ob das Fahrzeug nach rechts oder nach links abgelegt, gemäß der Darstellung in der vorstehend beschriebenen 8, und wenn die Feststellung getroffen wird, dass das Fahrzeug nach rechts oder nach links abbiegt, fährt der Bildprozessor 3 mit einem Schritt S205 fort, in dem die Feststellung getroffen wird, dass es sich bei der Umgebung um ein das Fernlicht nicht erforderndes Umfeld handelt, und das Flag für ein nicht erforderliches Fernlicht wird auf 1 gesetzt.
  • Wenn die Feststellung getroffen wird, dass das Fahrzeug nicht nach rechts oder nach links abbiegt, führt der Bildprozessor 3 in dem Schritt S203 den Stadtgebiet-Bestimmungsvorgang aus, um dadurch festzustellen, ob es sich bei der aktuellen Umgebung um das urbane Gebiet handelt oder nicht. Wenn in dem Stadtgebiet-Bestimmungsvorgang die Feststellung getroffen wird, dass es sich bei der Umgebung um das urbane Gebiet handelt, fährt der Bildprozessor 3 mit dem Schritt S205 fort, in dem die Feststellung getroffen wird, dass es sich bei der Umgebung um das das Fernlicht nicht erfordernde Umfeld handelt, und das Flag für ein nicht erforderliches Fernlicht wird auf 1 gesetzt.
  • Wenn in dem Stadtgebiet-Bestimmungsvorgang nicht die Feststellung getroffen wird, dass es sich bei der Umgebung um das urbane Gebiet handelt, wird die Feststellung getroffen, dass es sich bei der Umgebung nicht um ein das Fernlicht nicht erforderndes Umfeld handelt, und in einem Schritt S204 wird das Flag für ein nicht erforderliches Fernlicht auf 0 gesetzt.
  • Mit anderen Worten, in dem Umfeld-Bestimmungsvorgang in 7 wird in jedem der Fälle, in dem die Fahrgeschwindigkeit geringer als eine bestimmte Geschwindigkeit ist, in dem das Fahrzeug nach rechts oder nach links abbiegt, oder in dem Fall, in dem beim Stadtgebiet-Bestimmungsvorgang die Umgebung als das urbane Gebiet festgestellt wird, das Flag für ein nicht erforderliches Fernlicht auf 1 gesetzt, d.h., es wird die Feststellung getroffen, dass es sich bei der Umgebung um das das Fernlicht nicht erfordernde Umfeld handelt.
  • Wenn dagegen keine der Bedingungen erfüllt ist, wird das das Fernlicht nicht erfordernde Flag auf 0 gesetzt, mit anderen Worten, es wird die Feststellung getroffen, dass es sich bei der Umgebung nicht um ein das Fernlicht nicht erforderndes Umfeld handelt.
  • In dem Stadtgebiet-Bestimmungsvorgang in dem Schritt S203 wird die Bestimmung, ob es sich bei der Umgebung des Fahrzeugs um das urbane Gebiet handelt, unter Berücksichtigung der Zeitreihen-Schwankung ausgeführt, und zwar unter Verwendung sowohl des Straßenlampen-Detektionsresultats der aktuellen Detektions-Einzelbildeinheit als auch des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit des Bildes.
  • Es ist darauf hinzuweisen, dass unter der „Einzelbild-Detektionseinheit“ ein oder mehrere Einzelbilder als Einheit zum Erzielen eines für den Umfeld-Bestimmungsvorgang verwendeten Detektionsresultats zu verstehen ist. Daher ist die „aktuelle Detektions-Einzelbildeinheit“ nicht auf das eine, letzte Einzelbild des Bildes beschränkt. Wenn der Detektionsvorgang an dem hellen Bild G1 und dem dunklen Bild G2 ausgeführt wird, wie dies vorstehend beschrieben ist, bezeichnet die Einzelbild-Detektionseinheit eine aus zwei Einzelbildern gebildete Periode des hellen Bildes G1 und des dunklen Bildes G2. Ferner entsprechen z.B. bei einer Mittelung von Detektionsresultaten von zwei Einzelbildern und drei Einzelbildern, um dadurch einen einmaligen Umfeld-Bestimmungsvorgang auszuführen, die mehreren Einzelbilder der „Einzelbild-Detektionseinheit“.
  • Im Folgenden wird eine solche Stadtgebiet-Bestimmung ausführlich beschrieben.
  • Bei dem Stadtgebiet-Bestimmungsvorgang wird als erstes für die Bestimmung, dass das Fahrzeug von einem nicht-urbanen Gebiet in das urbane Gebiet einfährt, ein Bestimmungswert S bereitgestellt und folgendermaßen aktualisiert: S = T × ( letztmaliger S ) + ( 1 T ) X
    Figure DE102014107488B4_0001
  • X = (Anzahl der Objektgruppen, die in dem Straßenlampen-Detektionsbereich Ag als Straßenlampe identifiziert worden sind + U x die Anzahl von Objektgruppen, die in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug nicht als vorausfahrendes Fahrzeug identifiziert worden sind + U x die Anzahl der Objektgruppen, die in dem Detektionsbereich At für ein entgegenkommendes Fahrzeug nicht als entgegenkommendes Fahrzeug identifiziert worden sind).
  • Bei dem Parameter „X“ handelt es sich um die Anzahl von Objektgruppen als Detektionsresultat der aktuellen Detektions-Einzelbildeinheit. Mit anderen Worten, „X“ ist die Summe aus der Anzahl von Straßenlampen-Objektgruppen sowie Objektgruppen, die weder als vorausfahrendes Fahrzeug noch als entgegenkommendes Fahrzeug identifiziert werden, d.h. bei denen es sich um die Straßenlampe handeln kann, in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug und dem Detektionsbereich At für ein entgegenkommendes Fahrzeug.
  • Bei dem Parameter „U“ handelt es sich um einen Gewichtungsparameter, der dem Detektionsresultat zugeordnet wird. Um in erster Linie die Anzahl von Objektgruppen zu bestimmen, die als Straßenlampe identifiziert werden, wird der Wert von „U“ auf 1 oder weniger (z.B. 0,5) festgesetzt. Somit handelt es sich bei „X“ um einen Wert, in dem sich die Anzahl von Gegenständen, bei denen es sich um Straßenlampen handeln kann, geringfügig in der Anzahl von Gegenständen widerspiegelt, die als Straßenlampen erkannt werden. Aus Gründen der Vereinfachung wird der Wert „X“ als „die Straßenlampenanzahl widerspiegelnder Wert“ bezeichnet.
  • Bei „T“ handelt es sich um einen Parameter, der zwischen 0 und 1 vorgegeben ist (wobei dieser im Folgenden auch als „Koeffizient T“ bezeichnet wird), und diese ist dazu ausgebildet, eine Wichtung beim Widerspiegeln des Detektionsresultats von jeder Detektions-Einzelbildeinheit in einer Zeitreihe vorzunehmen. „T“ ist ein Koeffizient des letztmaligen Bestimmungswerts S, und „1 - T“ ist ein Koeffizient der Anzahl X von Straßenlampen in der aktuellen Detektions-Einzelbildeinheit.
  • Somit ist bei dem Bestimmungswert S mit zunehmender Nähe des Koeffizienten T zu 0 das Gewicht des Detektionsresultats der aktuellen Detektions-Einzelbildeinheit größer, und mit zunehmender Nähe des Koeffizienten T zu 1 ist das Gewicht des Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit höher. Gemäß der vorstehend genannten Gleichung beinhaltet der „letztmalige Bestimmungswert S“ auch ein Element der Bestimmungswerte S vor dem letztmaligen Zeitpunkt, und somit reflektiert der Bestimmungswert S ein kurzfristiges Detektionsresultat, wenn der Koeffizient T näher bei 0 ist, und reflektiert ein langfristiges Detektionsresultat, wenn der Koeffizient T näher bei 1 ist.
  • Der Koeffizient T kann unter Annahme einer Zeitdauer vorgegeben werden, die z.B. im Bereich von einigen zehn Sekunden liegt.
  • Für eine bestimmte Zeitdauer nach dem Abbiegen nach rechts oder nach links (während das Flag für die Periode nach dem Abbiegen nach rechts oder nach links ein ist) wird jedoch der Koeffizient T kleiner vorgegeben als zur Zeit einer Geradeausfahrt (der Bestimmungswert S wird zum Wiedergeben eines relativ kurzzeitigen Detektionsresultats vorgegeben). Beispielsweise wird der Koeffizient T auf einen Wert eingestellt, den man unter Annahme einer Zeitdauer von in etwa einigen Sekunden erhält.
  • Der vorstehend beschriebene Bestimmungswert S reflektiert sowohl das Detektionsresultat der aktuellen Detektions-Einzelbildeinheit als auch das Detektionsresultat der vorhergehenden Detektions-Einzelbildeinheit.
  • Wenn dieser Bestimmungswert S gleich einem oder größer als ein vorbestimmter Schwellenwert thA ist (wobei z.B. thA = 3 beträgt), wird die Feststellung getroffen, dass das Fahrzeug von dem nicht-urbanen Gebiet in das urbane Gebiet eingefahren ist, mit anderen Worten in ein das Fernlicht nicht erforderndes Umfeld eingetreten ist. Wenn der Bestimmungswert S geringer ist als der Schwellenwert thA, wird die Feststellung getroffen, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt, mit anderen Worten, dass es sich nicht um ein das Fernlicht nicht erforderndes Umfeld handelt.
  • Der Bestimmungswert S wird während eines Stopps des Fahrzeugs nicht aktualisiert. Der Grund dafür besteht darin, eine Verschiebung des Bestimmungsresultats von dem nicht-urbanen Gebiet zu dem urbanen Gebiet aufgrund eines Fehlers zu verhindern, wenn das Fahrzeug zufällig an einem Ort gestoppt wird, an dem eine Lichtquelle lokal in dem nicht-urbanen Gebiet vorhanden ist.
  • Der vorstehend beschriebene die Straßenlampenanzahl widerspiegelnde Wert X wird für die Bestimmung verwendet, dass das Fahrzeug von dem urbanen Gebiet in das nicht-urbane Gebiet eingefahren ist. Wenn ein Zustand, in dem der die Straßenlampenanzahl widerspiegelnde Wert X gleich einem oder geringer als ein Schwellenwert thB ist (wobei z.B. thB = 3 beträgt), für eine vorbestimmte Anzahl von Malen oder mehr anhält, wird das Bestimmungsresultat auf das nicht-urbane Gebiet verlagert.
  • Insbesondere wird die Anzahl von aufeinanderfolgenden Malen für den die Straßenlampenanzahl widerspiegelnden Wert X bei dem Schwellenwert thB oder weniger als „Y“ bezeichnet, und wenn die Anzahl von aufeinanderfolgenden Malen Y gleich einem oder größer als ein Schwellenwert V ist, wird die Feststellung getroffen, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt.
  • Der Schwellenwert V wird normalerweise derart vorgegeben, dass er in etwa einem Wert von 10 Sekunden entspricht. Für eine bestimmte Zeitdauer nach einem Abbiegen nach rechts oder nach links (während das Flag für die Periode nach dem Abbiegen nach rechts oder nach links ein ist), wird der Schwellenwert V jedoch kürzer als normal vorgegeben (wobei er z.B. einen Wert von etwa 3 Sekunden entspricht).
  • 9 veranschaulicht ein spezielles Beispiel eines solchen Stadtgebiet-Bestimmungsvorgangs.
  • In dem Stadtgebiet-Bestimmungsvorgang wird in einem Schritt S250 in 9 von dem Bildprozessor 3 geprüft, ob das Fahrzeug derzeit gestoppt ist oder nicht. Wenn das Fahrzeug gestoppt ist, wird die letztmalige Bestimmung in einem Schritt S266 beibehalten. Außerdem wird der Bestimmungswert S nicht aktualisiert.
  • Wenn das Fahrzeug nicht gestoppt ist, wird in einem Schritt S251 überprüft, ob das Flag für die Periode nach dem Abbiegen nach rechts oder nach links ein ist oder nicht. Das bedeutet, es wird überprüft, ob die Periode nach dem Abbiegen nach rechts oder nach links vorliegt (z.B. eine Periode von 20 Sekunden nach der Detektion, dass das Fahrzeug nach rechts oder nach links abbiegt), wie dies in 8 beschrieben worden ist.
  • Wenn das Flag für die Periode nach dem Abbiegen nach rechts oder nach links aus ist, wird in einem Schritt S252 der Koeffizient T auf T1 gesetzt, und der Schwellenwert V wird auf V1 gesetzt. Wenn das Flag für die Periode nach dem Abbiegen nach rechts oder nach links ein ist, wird in einem Schritt S253 der Koeffizient T auf T2 gesetzt, und der Schwellenwert V wird auf V2 gesetzt. Es sei erwähnt, dass T1 > T2 ist und V1 > V2 ist.
  • Hierdurch sollen der Koeffizient T1 und der Schwellenwert V in der Periode nach dem Abbiegen nach rechts oder nach links niedrig vorgegeben werden, so dass das Bestimmungsansprechen hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das urbane Gebiet handelt, sowie hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt, höher als normal (in einer anderen Periode als der Periode nach dem Abbiegen nach rechts oder nach links) ist.
  • In einem Schritt S254 berechnet der Bildprozessor 3 den die Straßenlampenanzahl widerspiegelnden Wert X auf der Basis des Detektionsresultats der aktuellen Detektions-Einzelbildeinheit.
  • In einem Schritt S255 führt der Bildprozessor 3 dann eine Berechnung (Aktualisierung) des Bestimmungswerts S auf der Basis der Anzahl X der Straßenlampen, des Koeffizienten T sowie des letztmaligen Bestimmungswerts S aus.
  • In einem Schritt S256 überprüft der Bildprozessor 3, ob es sich bei der letztmaligen Bestimmung um das urbane Gebiet gehandelt hat oder nicht. Wenn es sich bei der letztmaligen Bestimmung um das nicht-urbane Gebiet gehandelt hat, wird dieses Mal festgestellt, ob das Fahrzeug in dem nicht-urbanen Gebiet geblieben ist oder in das urbane Gebiet eingefahren ist. In diesem Fall fährt der Bildprozessor 3 mit einem Schritt S257 fort, um den Bestimmungswert S mit dem Schwellenwert thA zu vergleichen.
  • Wenn der Bestimmungswert S gleich dem oder höher als der Schwellenwert thA ist, wird in einem Schritt S258 die Feststellung getroffen, dass das Fahrzeug in das urbane Gebiet eingefahren ist, d.h. dass es sich bei der Umgebung um das urbane Gebiet handelt. Wenn der Bestimmungswert S geringer als der Schwellenwert thA ist, wird in einem Schritt S259 die Feststellung getroffen, dass das Fahrzeug auch dieses Mal in dem nicht-urbanen Gebiet geblieben ist, d.h. es wird festgestellt, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt.
  • Wenn es sich dagegen bei der letztmaligen Bestimmung um das urbane Gebiet gehandelt hat, wird dieses Mal festgestellt, ob das Fahrzeug in dem urbanen Gebiet geblieben ist oder in das nicht-urbane Gebiet eingefahren ist. Für die Bestimmung fährt der Bildprozessor 3 als erstes von dem Schritt S256 mit einem Schritt S260 fort, um den die Anzahl der Straßenlampen widerspiegelnden Wert X mit dem Schwellenwert thB zu vergleichen.
  • Wenn der die Anzahl der Straßenlampen widerspiegelnde Wert X gleich dem oder geringer als der Schwellenwert thB ist, wird der Wert der Anzahl von aufeinanderfolgenden Malen Y in einem Schritt S261 inkrementiert, und wenn der die Anzahl der Straßenlampen widerspiegelnde Wert X den Schwellenwert thB überschreitet, wird der Wert der Anzahl von aufeinanderfolgenden Malen Y in einem Schritt S262 auf Null zurückgesetzt.
  • Somit bezeichnet der Wert der Anzahl von aufeinanderfolgenden Malen Y die Anzahl der aufeinanderfolgenden Male, die der die Anzahl der Straßenlampen widerspiegelnde Wert X in dem Schritt S260 als gleich dem oder geringer als der Schwellenwert thB festgestellt wird. Wenn diese Anzahl von aufeinanderfolgenden Malen Y in dem Schritt S263 mit dem Schwellenwert V verglichen wird und die Anzahl der aufeinanderfolgenden Male Y den Schwellenwert V übersteigt, wird in dem Schritt S265 die Feststellung getroffen, dass das Fahrzeug in das nicht-urbane Gebiet eingefahren ist, d.h., dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt.
  • Wenn die Anzahl von aufeinanderfolgenden Malen Y den Schwellenwert V nicht übersteigt, wird in dem Schritt S264 die Feststellung getroffen, dass das Fahrzeug dieses Mal in dem urbanen Gebiet geblieben ist, d.h., dass es sich bei der Umgebung um das urbane Gebiet handelt.
  • Im Fall einer Periode nach einem Abbiegen nach rechts wird in einem Schritt S253 der Koeffizient T auf T2 gesetzt, und der Schwellenwert V wird auf V2 gesetzt.
  • Da der Koeffizient T auf T2 gesetzt ist, wird der in dem Schritt S255 gebildete Bestimmungswert S stärker gewichtet, da die Einzelbild-Detektionseinheit näher bei der aktuellen Detektions-Einzelbildeinheit liegt und eine relativ kurzzeitige Zeitreihenverschiebung widerspiegelt. Mit anderen Worten, der Pegel der Widerspiegelung des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheiten ist vermindert, und das aktuelle Straßenlampen-Detektionsresultat wird gewichtet, und dadurch wird der Bestimmungswert S in dem Schritt S257 beim Einfahren in das urbane Gebiet aus dem nicht-urbanen Gebiet in einfacherer Weise gleich dem oder höher als der Schwellenwert thA festgestellt. Mit anderen Worten, das Bestimmungsansprechen zu dem Zeitpunkt, wenn sich die Umgebung von dem nicht-urbanen Gebiet in das urbane Gebiet ändert, ist gesteigert.
  • Da ferner der Schwellenwert V auf V2 gesetzt ist, wird in dem Schritt S263 festgestellt, dass die Umgebung das nicht-urbane Gebiet ist, selbst wenn die Anzahl von aufeinanderfolgenden Malen Y weniger als normal ist. Wenn sich die Umgebung von dem urbanen Gebiet in das nicht-urbane Gebiet ändert, wird somit das nicht-urbane Gebiet relativ schnell festgestellt. Mit anderen Worten, das Bestimmungsansprechen zu dem Zeitpunkt, wenn sich die Umgebung von dem urbanen Gebiet in das nicht-urbane Gebiet ändert, ist gesteigert.
  • Auf diese Weise ist in der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder nach links das Bestimmungsansprechen hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das urbane Gebiet handelt, sowie hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt, höher als normal (in einer anderen Periode als der Periode nach dem Abbiegen nach rechts oder nach links).
  • Steuerinformations-Berechnungsvorgang
  • Der in dem Schritt S108 der 5 ausgeführte Steuerinformations-Berechnungsvorgang berechnet Steuerinformation des adaptiven Fahrlichts auf der Basis des Erkennungs- und Identifizierungsresultats des vorausfahrenden Fahrzeugs und des entgegenkommenden Fahrzeugs durch den Erkennungs- und Identifizierungsvorgang sowie auf der Basis des Resultats des Umfeld-Bestimmungsvorgangs. Dieser Vorgang wird unter Bezugnahme auf das Ablaufdiagramm der 10 ausführlich beschrieben.
  • In 10 stellt der Bildprozessor 3 in einem Schritt S301 fest, ob es sich bei der Umgebung um ein das Fernlicht nicht erforderndes Umfeld handelt oder nicht (ob das Flag für ein nicht erforderliches Fernlicht „1“ oder „0“ ist), und zwar auf der Basis des Resultats des vorstehend beschriebenen Umfeld-Bestimmungsvorgangs. Wenn ein positives Resultat erzielt wird, dass es sich bei der Umgebung um ein das Fernlicht nicht erforderndes Umfeld handelt, wird in einem Schritt S305 Steuerinformation erzeugt, die anzeigt, dass das Fernlicht aus ist, und die Steuerinformation wird in einem Schritt S306 an die Fahrassistenzsteuerung 5 (den Lichtverteilungs-Steuerprozessor 5A) abgegeben. Anschließend endet der Prozess.
  • Wenn dagegen ein negatives Resultat erzielt wird, dass es sich bei der Umgebung nicht um ein das Fernlicht nicht erforderndes Umfeld handelt, wird in einem Schritt S302 festgestellt, ob eines von einem vorausfahrenden Fahrzeug und einem entgegenkommenden Fahrzeug vorhanden ist oder nicht. Das bedeutet, auf der Basis des Resultats des vorstehend beschriebenen Erkennungs- und Identifizierungsvorgangs wird die Feststellung getroffen, ob eines von dem vorausfahrenden Fahrzeug und dem entgegenkommenden Fahrzeug vorhanden ist oder nicht.
  • Wenn ein negatives Resultat erzielt wird, dass weder ein vorausfahrendes Fahrzeug noch ein entgegenkommendes Fahrzeug vorhanden ist, wird in einem Schritt S303 Steuerinformation zum Abstrahlen des vollen Fernlichts erzeugt, und die Steuerinformation wird in einem Schritt S306 an die Fahrassistenzsteuerung 5 abgegeben. Anschließend endet der Prozess.
  • Wenn ein positives Resultat erzielt wird, dass eines von einem vorausfahrenden Fahrzeugs und einem entgegenkommenden Fahrzeug vorhanden ist, wird ferner in dem Schritt S303 Steuerinformation zum Abstrahlen des Fernlichts auf einen anderen Gegenstand erzeugt als die Objekte, auf die es gerichtet ist. Zu diesem Zeitpunkt berechnet der Bildprozessor 3 auf der Basis des Resultats des Erkennungs- und Identifizierungsvorgangs einen Bereich, auf den das Fernlicht abgestrahlt werden kann (im Folgenden wird Information über diesen Bereich als „Strahlungsbereichsinformation“ bezeichnet). Der Bereich, auf den das Fernlicht abgestrahlt werden kann, wird unter Verwendung von horizontaler Koordinateninformation über das vorausfahrende Fahrzeug und das entgegenkommende Fahrzeug berechnet.
  • Der Bildprozessor 3 gibt die in dem Schritt S304 erzeugte Steuerinformation (einschließlich der Strahlungsbereichsinformation) in einem Schritt S306 an die Fahrassistenzsteuerung 5 ab. Anschließend endet der Prozess.
  • Lichtverteilungssteuerung auf der Basis der Steuerinformation
  • Die Fahrassistenzsteuerung 5 (der Lichtverteilungs-Steuerprozessor 5A) führt die Lichtverteilungssteuerung auf der Basis der vorstehend beschriebenen Steuerinformation als Lichtverteilungs-Steuervorgang aus. Insbesondere gibt die Fahrassistenzsteuerung 5, ansprechend auf die Steuerinformation zum Ausschalten des Fernlichts, die Anweisung an die Lichtsteuerung 10, das Fernlicht auszuschalten. In Reaktion auf die Steuerinformation zum Einschalten des vollen Fernlichts gibt die Fahrassistenzsteuerung 5 die Anweisung an die Lichtsteuerung 10, das volle Fernlicht einzuschalten.
  • In Reaktion auf die Information zum Abstrahlen des Fernlichts auf einen anderen Gegenstand als das Objekt gibt die Fahrassistenzsteuerung 5 der Lichtsteuerung 10 die Anweisung zum Abstrahlen des Fernlichts nur auf einen Bereich gemäß der in der Steuerinformation enthaltenen Strahlungsbereichsinformation.
  • 11A und 11B zeigen Ansichten zur Erläuterung eines Modus zum Abstrahlen des Fernlichts, der in Abhängigkeit von der Steuerinformation realisiert wird, um das Fernlicht auf andere Dinge abzustrahlen als das Objekt. In der Zeichnung stellt die Richtung nach oben die Vorwärtsrichtung des Fahrzeugs dar.
  • Wie in 11A dargestellt, wird das Fernlicht auf einen anderen Bereich abgestrahlt als die Bereiche (schraffierte Flächen in der Zeichnung), in denen das vorausfahrende Fahrzeug und das entgegenkommende Fahrzeug vorhanden sind.
  • Das adaptive Fahrlicht bzw. AFL kann derart konfiguriert werden, dass es nur einen Teil von dem Fernlicht abschattet. In diesem Fall wird dann, wenn mehrere Objekte vorhanden sind, die nicht mit dem Fernlicht angestrahlt werden sollten, und wenn ein Bereich ohne ein Objekt zwischen den Objekten vorhanden ist, wie dies in 11A gezeigt ist, die Lichtverteilung gemäß der Darstellung in 11B derart gesteuert, dass der Bereich zwischen den Objekten (dem vorausfahrenden Fahrzeug und dem entgegenkommenden Fahrzeug), der nicht von dem Fernlicht angestrahlt werden sollte, ebenfalls als Bereich vorgegeben wird, auf den das Fernlicht nicht abgestrahlt werden sollte.
  • Um dies zu erreichen, werden z.B. in dem vorstehend beschriebenen Steuerinformation-Berechnungsvorgang, wenn mehrere Objekte vorhanden sind, die nicht mit dem Fernlicht angestrahlt werden sollten, diese Objekte gruppiert, und Strahlungsbereichsinformation wird auf der Basis der maximalen Koordinaten in der horizontalen Richtung der Gruppe berechnet.
  • Hinsichtlich der Objekte, die nicht mit dem Fernlicht angestrahlt werden sollten, verlässt das entgegenkommende Fahrzeug in einem gewissen Maß den Frontscheinwerfer-Detektionsbereich At, wenn es dem Fahrzeug nahekommt (siehe 12). Wenn es sich bestätigt, dass das entgegenkommende Fahrzeug einer bestimmten Distanz nahekommt (z.B. 50 m, unter der Voraussetzung, dass sich die Distanz innerhalb einer Distanz befindet, die in dem Frontscheinwerfer-Detektionsbereich At detektiert werden kann), wird somit das Abstrahlen des Fernlichts in der Richtung, in der das entgegenkommende Fahrzeug erwartungsgemäß an dem Fahrzeug vorbeifährt, für eine bestimmte Zeitdauer (z.B. 1 Sekunde) ausgeschaltet.
  • Zusammenfassung und Modifikationen
  • Wie vorstehend beschrieben, wird bei dem Ausführungsbeispiel die Konfiguration der Vorrichtung zur Bestimmung der Umgebung in erster Linie durch die Funktionen der Bildaufnahmevorrichtung 2 und des Bildprozessors 3 realisiert. Die Bildaufnahmevorrichtung 2 erzeugt ein Bild durch Aufnehmen eines Bereichs vor dem Fahrzeug.
  • Der Bildprozessor 3 beinhaltet den Straßenlampen-Detektionsprozessor 3F zum Ausführen zumindest der Straßenlampen-Detektion für jede Detektions-Einzelbildeinheit des Bildes sowie den Umfeld-Bestimmungsprozessor 3H (den Umgebungs-Bestimmungsprozessor) zum Ausführen des Stadtgebiet-Bestimmungsvorgangs für die Bestimmung, ob es sich bei der Umgebung des Fahrzeugs um das urbane Gebiet handelt oder nicht, unter Verwendung sowohl des Straßenlampen-Detektionsresultats der aktuellen Detektions-Einzelbildeinheit als auch des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit des Bildes.
  • Daher erfolgt die Stadtgebiet-Bestimmung unter Berücksichtigung der Zeitreihen-Schwankung grundsätzlich auch unter Widerspiegelung des Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit sowie der aktuellen Detektions-Einzelbildeinheit. Dies ermöglicht eine stabile Bestimmung des urbanen Gebiets sowie des nicht-urbanen Gebiets.
  • Das bedeutet, es ist möglich, fehlerhafte Bestimmungen zu vermeiden, dass das nicht-urbane Gebiet aufgrund eines vorübergehenden Anstiegs bei der Anzahl von Straßenlampen und dergleichen als urbanes Gebiet bestimmt wird, und andererseits das urbane Gebiet aufgrund einer vorübergehenden Verminderung bei der Anzahl von Straßenlampen als nicht-urbanes Gebiet bestimmt wird. Auch kann eine häufige Schwankung der Bestimmungsresultate vermieden werden.
  • Die Umgebung (das urbane Gebiet und das nicht-urbane Gebiet) können sich nach einem Abbiegen des Fahrzeugs nach rechts oder nach links abrupt ändern. In dem Stadtgebiet-Bestimmungsvorgang, der von dem Umfeld-Bestimmungsprozessor 3H ausgeführt wird, wird somit das Bestimmungsansprechen hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das urbane Gebiet handelt, sowie hinsichtlich der Bestimmung, dass es sich bei der Umgebung um das nicht-urbane Gebiet handelt, in der vorbestimmten Periode nach einem Abbiegen des Fahrzeugs nach rechts oder nach links größer gemacht als während anderer Perioden.
  • Beispielsweise sind normalerweise der Koeffizient T auf T1 gesetzt und der Schwellenwert V auf V1 gesetzt, während in der Periode nach einem Abbiegen des Fahrzeugs nach rechts oder nach links der Koeffizient T auf T2 gesetzt wird und der Schwellenwert V auf V2 gesetzt wird, so dass das Bestimmungsansprechen verbessert ist. Infolgedessen wird eine rasche Bestimmung ansprechend auf eine Änderung in der Umgebungssituation nach dem Abbiegen nach rechts oder nach links ausgeführt.
  • 13A veranschaulicht in schematischer Weise Straßenlampen, die entlang einer Zeitachse detektiert werden; 13B veranschaulicht einen Fall, in dem das Bestimmungsansprechen in der Periode nach dem Abbiegen nach rechts oder links nicht verändert ist, und 13C veranschaulicht einen Fall, in dem das Bestimmungsansprechen in der Periode nach dem Abbiegen nach rechts oder links verändert ist, wie dies bei dem vorliegenden Ausführungsbeispiel der Fall ist.
  • Jeder der Zeitpunkte t1 und t2 stellt einen Zeitpunkt dar, zu dem sich eine Straßensituation nach dem Abbiegen nach rechts oder nach links ändert. Im Fall der 13B, in dem das Bestimmungsansprechen nicht verändert ist, tritt eine Reaktionsverzögerung auf, wie diese durch Pfeile P4 und P5 veranschaulicht ist. Wenn das Bestimmungsansprechen verändert ist, wird die Reaktionsverzögerung verbessert, wie dies in 13C durch Pfeile P4' und P5' dargestellt ist.
  • Wenn sich z.B. ein Fahrumfeld derart ändert, dass das Fahrzeug von einer urbanen Straße, auf der das Fernlicht nicht erforderlich ist, nach einem Abbiegen nach rechts oder links in eine Straße einfährt, auf der das Fernlicht erforderlich ist, hat ein Fahrer den Wunsch, dass das Fernlicht so rasch wie möglich verwendet wird.
  • Daher ist es bevorzugt, die Bestimmung des urbanen Gebiets oder des nicht-urbanen Gebiets rascher auszuführen als zu Zeiten einer normalen Fahrt. Einem solchen Umstand kann dadurch Rechnung getragen werden, dass das Bestimmungsansprechen in der Periode nach dem Abbiegen nach rechts oder links gesteigert wird.
  • Ferner wird bei dem Ausführungsbeispiel der Bestimmungswert S bei gestopptem Fahrzeugs nicht aktualisiert, und daher wird das letzte Bestimmungsresultat beibehalten. Dadurch kann eine fehlerhafte Bestimmung in einem Fall vermieden werden, in dem das Fahrzeug zufälligerweise an einem Ort mit einer Lampe in dem nicht nicht-urbanen Gebiet gestoppt wird, so dass die Bestimmungsgenauigkeit verbessert ist.
  • Ferner wird bei dem Ausführungsbeispiel das Bestimmungsansprechen gesteigert durch Vermindern des Pegels der Widerspiegelung des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit in der Periode, nachdem das Fahrzeug nach rechts oder links abbiegt. Insbesondere wird der Koeffizient T auf T1 und T2 geändert. Mit anderen Worten, bei Feststellung der Zeitreihen-Schwankung wird das aktuelle Straßenlampen-Detektionsresultat gewichtet, so dass es möglich ist, eine relativ kurzfristige Bestimmung auszuführen und auf diese Weise das Bestimmungsansprechen verbessert werden kann.
  • Ferner wird bei dem Ausführungsbeispiel das Bestimmungsansprechen verbessert, indem der Schwellenwert vermindert wird, der mit dem Wert des Straßenlampen-Detektionsresultats der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder links zu vergleichen ist. Insbesondere wird der Schwellenwert V auf V1 und V2 geändert. Das Bestimmungsansprechen kann durch Vermindern des Schwellenwerts V als Vergleichsreferenzwert verbessert werden.
  • Es kann auch weitere Verfahren zum Verbessern des Bestimmungsansprechens durch Vorgegeben eines Schwellenwerts nach dem Abbiegen nach rechts oder links geben. Beispielsweise können in den Schritten S252 und S253 in 9 der in dem Schritt S257 verwendete Schwellenwert thA sowie der in dem Schritt S260 verwendete Schwellenwert thB variabel vorgegeben werden.
  • Es versteht sich von selbst, dass sowohl der Koeffizient T als auch der Schwellenwert thA sowie auch sowohl der Schwellenwert V als auch der Schwellenwert thB in der Periode nach dem Abbiegen nach rechts oder nach links geändert werden können
  • Ferner wird in dem Stadtgebiet-Bestimmungsvorgang des Ausführungsbeispiels die Umgebung als urbanes Gebiet bestimmt, wenn der Wert, der durch Mittelung mit einer vorbestimmten Wichtung von jedem von dem Wert des Straßenlampen-Detektionsresultats der aktuellen Detektions-Einzelbildeinheit sowie von dem Wert des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit (mit anderen Worten der Bestimmungswert S) erzielt wird, gleich dem oder größer als der vorbestimmte Schwellenwert thA ist (Schritt S257).
  • Der Bestimmungswert S wird generiert durch Vornehmen einer vorbestimmten Wichtung und Mittelung von den Werten der Straßenlampen-Detektionsresultate in der aktuellen und der vorhergehenden Detektions-Einzelbildeinheit, und wird mit dem Schwellenwert thA verglichen, so dass eine Bestimmung realisiert werden kann, die Elemente der Zeitreihen-Schwankung beinhaltet, wobei dies zur Bestimmungsstabilität sowie zur Verbesserung der Zuverlässigkeit beiträgt.
  • Ferner wird in dem Stadtgebiet-Bestimmungsvorgang des Ausführungsbeispiels die Umgebung als nicht-urbanes Gebiet bestimmt, wenn der Wert des Straßenlampen-Detektionsresultats jeder Detektions-Einzelbildeinheit gleich dem oder geringer ist als der Schwellenwert für die Bestimmung (thB) des nicht-urbanen Gebiets in aufeinander folgender Weise für die vorbestimmte Anzahl von Malen (Y > V), nachdem die Umgebung als urbanes Gebiet bestimmt worden ist. Dadurch wird verhindert, dass die Umgebung automatisch als nicht-urbanes Gebiet bestimmt wird, nachdem die Umgebung als urbanes Gebiet bestimmt worden ist, so dass die Stabilität bei der Bestimmung gewährleistet ist.
  • Ferner verwendet das Ausführungsbeispiel die Lichtverteilungs-Steuerung (den Steuerinformations-Berechnungsprozessor 31 und die Lichtverteilungs-Steuerprozessor 5A) zum Ausführen einer derartigen Steuerung, dass das Abstrahlen des Fernlichts von dem Frontscheinwerfer nicht ausgeführt wird, wenn die aktuelle Umgebung des Fahrzeugs als das urbane Gebiet festgestellt wird.
  • Dies ermöglicht ein Ausschalten des Fernlichts, wenn festgestellt wird, dass es sich bei dem Fahrumfeld um ein urbanes Gebiet handelt, so dass eine angemessene Fernlichtverteilung im Betrieb des automatischen Fernlichts und des adaptiven Fahrlichts realisiert werden kann.
  • Bei dem Ausführungsbeispiel wird die Anzahl der Straßenlampen, die in dem Straßenlampen-Detektionsbereich Ag detektiert werden, der in dem Einzelbild des Bildes vorgegeben ist, als Straßenlampen-Detektionsresultat verwendet (siehe den Wert X, der die Anzahl der Straßenlampen widerspiegelt). Anstelle der Anzahl oder zusätzlich zu der Anzahl kann auch das Verhältnis der Straßenlampenregion in dem Straßenlampen-Detektionsbereich Ag als Straßenlampen-Detektionsresultat verwendet werden und
  • Die Anzahl der Straßenlampen sowie das Verhältnis der Straßenlampenregion in dem Bild sind wichtige Elemente zum Unterscheiden des urbanen Gebiets von dem nicht-urbanen Gebiet, und somit ist eine akkurate Stadtgebiet-Bestimmung unter Verwendung eines derartigen Straßenlampen-Detektionsresultats möglich.
  • Ferner werden auch die Anzahl der detektierten Objekte, die in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug nicht als vorausfahrendes Fahrzeug identifiziert werden, sowie die Anzahl der detektierten Objekte, die in dem Detektionsbereich At für ein entgegenkommendes Fahrzeug nicht als entgegenkommendes Fahrzeug identifiziert werden, als Elemente des Werts X betrachtet, der die Anzahl der Straßenlampen widerspiegelt.
  • Ein detektiertes Objekt, bei dem es sich nicht um ein vorausfahrendes Fahrzeug in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug handelt (z.B. ein Objekt mit hoher Leuchtdichte), und ein detektiertes Objekt, bei dem es sich nicht um ein entgegenkommendes Fahrzeug in dem Detektionsbereich At für ein entgegenkommendes Fahrzeug handelt (z.B. das Objekt mit hoher Leuchtdichte), und dergleichen werden in dem urbanen Gebiet als Licht betrachtet und können ein Element zum Unterscheiden des urbanen Gebiets von dem nicht-urbanen Gebiet bilden. Eine Bestimmung unter Berücksichtigung dieser Elemente kann die Genauigkeit bei der Stadtgebiet-Bestimmung verbessern.
  • Das Verhältnis einer Region eines detektierten Objekts in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug sowie das Verhältnis einer Region eines detektierten Objekts in dem Detektionsbereich At für ein entgegenkommendes Fahrzeug können als zusätzliche Bestimmungselemente verwendet werden.
  • In dem Stadtgebiet-Bestimmungsvorgang kann es einen Fall geben, in dem Detektionsresultatinformation (detektierte Objektgruppen-Information) in dem Detektionsbereich As für ein vorausfahrendes Fahrzeug und dem Detektionsbereich At für ein entgegenkommendes Fahrzeug nicht genutzt wird. Das bedeutet, es kann nur eine Objektgruppe in dem Straßenlampen-Detektionsbereich Ag verwendet werden.
  • Beispielsweise kann für den Bestimmungswert S = T × ( letztmaliger S ) + ( 1 T ) X ,
    Figure DE102014107488B4_0002
    der in dem Stadtgebiet-Bestimmungsvorgang vorstehend beschrieben worden ist, der Wert X, der die Anzahl der Straßenlampen widerspiegelt, durch die Gleichung ermittelt werden, wobei X = (Anzahl der Objektgruppen, die in dem Straßenlampen-Detektionsbereich Ag als Straßenlampe identifiziert werden).
  • Ferner können noch weitere Variationen von Modifikationen für eine spezielle Konfiguration und Ausführungsweise der vorliegenden Erfindung aufgegriffen werden.
  • Bei dem vorstehend beschriebenen Ausführungsbeispiel dient ein die erste Kamera 2A und die zweite Kamera 2B verwendendes Stereokamerasystem in 1 als Bildaufnahmevorrichtung zum Erzeugen eines Bildes, das durch Aufnehmen eines Bereichs vor dem Fahrzeug gebildet wird. Alternativ hierzu kann die Bestimmung des urbanen Gebiets unter Verwendung einer Bildaufnahmevorrichtung mit nur einer Kamera ausgeführt werden.
  • Während das helle Bild G1 und das dunkle Bild G2 nacheinander gebildet werden, um bei dem Ausführungsbeispiel die Straßenlampen, das Rücklicht und den Frontscheinwerfer zu detektieren, können solche Bilder mit verschiedenen Blendengeschwindigkeiten möglicherweise nicht gebildet werden. Von der Bildaufnahmevorrichtung 2 können ferner ein Bild zum Detektieren der Straßenlampe, ein Bild zum Detektieren des Rücklichts sowie ein Bild zum Detektieren des Frontscheinwerfers, die mit verschiedenen Blendengeschwindigkeiten aufgenommen werden, erzielt werden.
  • Ein spezielles Verfahren zum Ausführen des Stadtgebiet-Detektionsvorgangs ist nicht auf den anhand von 9 veranschaulichten Vorgang begrenzt.
  • Die vorliegende Erfindung kann bei einem beliebigen Vorgang angewendet werden, vorausgesetzt dass dabei eine Bestimmung unter Verwendung der Straßenlampen-Detektionsresultate in der aktuellen sowie vorhergehenden Einzelbild-Detektionseinheiten ausgeführt wird.
  • In dem Vorgang für die Bestimmung, dass es sich bei der Umgebung um das urbane Gebiet handelt, wenn die Anzahl der Straßenlampen, die in einer Zeitdauer einer Vielzahl von Detektions-Einzelbildeinheiten als vorgegebener Zeit detektiert werden, eine vorbestimmte Anzahl überschreitet, kann z.B. die vorstehend beschriebene vorbestimmte Anzahl in der Periode nach einem Abbiegen nach rechts oder links reduziert, und der Wert der vorstehend beschriebenen vorbestimmten Zeit in der Periode nach dem Abbiegen nach rechts oder links kann verkürzt werden. Beide dieser Fälle sind möglich, sofern das Ansprechen der Bestimmung in der Periode nach dem Abbiegen nach rechts oder links höher gemacht wird.
  • Bei dem Ausführungsbeispiel ist die Periode nach dem Abbiegen nach rechts oder links als eine Zeitdauer von 20 Sekunden ab der Detektion angenommen, dass das Fahrzeug nach rechts oder links abbiegt (der Periode, während der das Flag für die Periode nach dem Abbiegen nach rechts oder links ein ist), jedoch ist die Zeitdauer nicht auf 20 Sekunden beschränkt. Die Länge der Zeitdauer nach dem Abbiegen nach rechts oder links kann situationsabhängig variiert werden. Z.B. kann die Zeitdauer nach dem Abbiegen nach rechts oder links in Abhängigkeit von der Fahrzeuggeschwindigkeit, den Beschleunigungsbedingungen und dergleichen in der Periode nach dem Abbiegen nach rechts oder links geändert werden.
  • Bei dem Ausführungsbeispiel werden als Umfeld-Bestimmungsvorgang der Geschwindigkeits-Bestimmungsvorgang, der Vorgang zur Bestimmung, ob das Fahrzeug nach rechts oder links abbiegt, sowie der Stadtgebiet-Bestimmungsvorgang in der in 7 veranschaulichten Weise ausgeführt. Jedoch ist es für die Vorrichtung zur Bestimmung der Umgebung gemäß der vorliegenden Erfindung ausreichend, wenn zumindest der Stadtgebiet-Bestimmungsvorgang ausgeführt wird.
  • Während 10 den Fall veranschaulicht, in dem das Umfeld-Bestimmungsresultats bei dem adaptiven Fahrlicht zur Anwendung kommt, kann das Umfeld-Bestimmungsresultat auch bei dem automatischen Fernlicht (AFL) angewendet werden, d.h. bei der Steuerung zum Ausschalten des Fernlichts in dem Fall, in dem ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug in dem das Fernlicht nicht erfordernden Umfeld vorhanden ist. Insbesondere kann bei dem automatischen Fernlicht, wenn eines von dem vorausfahrenden Fahrzeug und dem entgegenkommenden Fahrzeug in dem Schritt S302 der 10 detektiert wird, die Steuerung zum Ausschalten des Fernlichts in dem Schritt S305 ausgeführt werden (der Schritt S304 wird nicht ausgeführt).
  • Bezugszeichenliste
  • 1
    Fahrzeug-Steuersystem
    2
    Bildaufnahmevorrichtung
    2A
    erste Kamera
    2B
    zweite Kamera
    3
    Bildprozessor
    3A
    Distanzbild-Erzeugungsprozessor
    3B
    Fahrspur-Detektionsprozessor
    3C
    Fahrspurmodell-Erzeugungsprozessor
    3D
    Rücklicht-Detektionsprozessor
    3E
    Frontscheinwerfer-Detektionsprozessor
    3F
    Straßenlampen-Detektionsprozessor
    3G
    Objekterkennungs- und Identifizierungsprozessor
    3H
    Umfeld-Bestimmungsprozessor
    3I
    Steuerinformations-Berechnungsprozessor
    4
    Speicher
    5
    Fahrassistenzsteuerung
    6
    Anzeigesteuerung
    7
    Motorsteuerung
    8
    Getriebesteuerung
    9
    Bremssteuerung
    10
    Lichtsteuerung
    11
    Anzeige
    12
    dem Motor zugeordneter Aktor
    13
    dem Getriebe zugeordneter Aktor
    14
    der Bremse zugeordneter Aktor
    15
    Frontscheinwerfer
    16
    adaptiver Fahrlicht-Aktor (AFL-Aktor)
    17
    Sensoren und Betätigungselemente
    17A
    Fahrzeuggeschwindigkeitssensor
    17B
    Lenkwinkelsensor
    17C
    Gaspedal-Positionssensor
    17D
    Frontscheinwerferschalter
    17E
    Blinksignalschalter
    18
    Bus

Claims (7)

  1. Vorrichtung zur Bestimmung der Umgebung, wobei die Vorrichtung Folgendes aufweist: - eine Bildaufnahmevorrichtung (2), die ein Bild erzeugt, in dem ein Bereich vor einem Fahrzeug aufgenommen wird; - einen Detektionsprozessor (3), der zumindest eine Straßenlampe für jede Detektions-Einzelbildeinheit des Bildes detektiert; und - einen Umgebungs-Bestimmungsprozessor (3H), der einen Stadtgebiet-Bestimmungsvorgang für die Bestimmung, ob es sich bei der Umgebung des Fahrzeugs um ein urbanes Gebiet handelt oder nicht, auf der Basis sowohl eines Straßenlampen-Detektionsresultats einer aktuellen Detektions-Einzelbildeinheit als auch eines Straßenlampen-Detektionsresultats einer vorhergehenden Detektions-Einzelbildeinheit des Bildes ausführt, - wobei in einer Periode, nachdem das Fahrzeug nach rechts oder links abbiegt, der Umgebungs-Bestimmungsprozessor (3H) das Bestimmungsansprechen hinsichtlich der Bestimmung, ob es sich bei der Umgebung um das urbane Gebiet oder um ein nicht-urbanes Gebiet handelt, gegenüber einer anderen Periode als der Periode nach dem Abbiegen nach rechts oder links steigert.
  2. Vorrichtung nach Anspruch 1, wobei der Umgebungs-Bestimmungsprozessor (3H) ein Stadtgebiet-Bestimmungsresultat nicht aktualisiert, während das Fahrzeug gestoppt ist.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei der Umgebungs-Bestimmungsprozessor (3H) das Bestimmungsansprechen durch Absenken eines Pegels der Widerspiegelung des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit in der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder links steigert.
  4. Vorrichtung nach Anspruch 1 oder 2, wobei der Umgebungs-Bestimmungsprozessor (3H) das Bestimmungsansprechen durch Absenken eines Schwellenwerts steigert, der mit einem Wert des Straßenlampen-Detektionsresultats der Periode nach dem Abbiegen des Fahrzeugs nach rechts oder links zu vergleichen ist.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei in dem Stadtgebiet-Bestimmungsvorgang die Umgebung als urbanes Gebiet bestimmt wird, wenn ein Wert, der durch eine mit einer vorbestimmten Wichtung ausgeführte Mittelung eines Werts des Straßenlampen-Detektionsresultats der aktuellen Detektions-Einzelbildeinheit sowie eines Werts des Straßenlampen-Detektionsresultats der vorhergehenden Detektions-Einzelbildeinheit gebildet wird, gleich einem oder höher als ein vorbestimmter Schwellenwert ist.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei in dem Stadtgebiet-Bestimmungsvorgang die Umgebung als nicht-urbanes Gebiet bestimmt wird, wenn die Umgebung als urbanes Gebiet bestimmt ist und anschließend in aufeinander folgender Weise für eine vorbestimmte Anzahl von Malen der Wert des Straßenlampen-Detektionsresultats jeder Detektions-Einzelbildeinheit gleich einem oder geringer als ein Schwellenwert für die Bestimmung des nicht-urbanen Gebiets ist.
  7. Vorrichtung nach einem der Ansprüche 1 bis 5, die weiterhin Folgendes aufweist: - eine Lichtverteilungs-Steuerung (5A) zum Ausführen einer derartigen Steuerung, dass kein Abstrahlen des Fernlichts von einem Frontscheinwerfer (15) ausgeführt wird, wenn der Umgebungs-Bestimmungsprozessor (3H) die Feststellung trifft, dass es sich bei einer aktuellen Umgebung eines Fahrzeugs um das urbane Gebiet handelt.
DE102014107488.2A 2013-05-29 2014-05-27 Vorrichtung zur bestimmung der umgebung Active DE102014107488B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-112595 2013-05-29
JP2013112595A JP5820843B2 (ja) 2013-05-29 2013-05-29 周囲環境判定装置

Publications (2)

Publication Number Publication Date
DE102014107488A1 DE102014107488A1 (de) 2014-12-04
DE102014107488B4 true DE102014107488B4 (de) 2019-05-23

Family

ID=51899575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014107488.2A Active DE102014107488B4 (de) 2013-05-29 2014-05-27 Vorrichtung zur bestimmung der umgebung

Country Status (4)

Country Link
US (1) US9336447B2 (de)
JP (1) JP5820843B2 (de)
CN (1) CN104210421B (de)
DE (1) DE102014107488B4 (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6314666B2 (ja) * 2014-06-02 2018-04-25 株式会社デンソー 前照灯制御装置
US10252663B2 (en) * 2014-06-02 2019-04-09 Denso Corporation Headlight control apparatus
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
DE102015212104A1 (de) * 2015-06-30 2017-01-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Fahrtrichtungsanzeigers eines Fahrzeugs
JP6200481B2 (ja) 2015-11-25 2017-09-20 株式会社Subaru 車外環境認識装置
JP6310899B2 (ja) 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
JP6539191B2 (ja) * 2015-11-25 2019-07-03 株式会社Subaru 車外環境認識装置
JP6527456B2 (ja) * 2015-12-02 2019-06-05 株式会社Subaru 車外環境認識装置
JP6756507B2 (ja) * 2016-04-01 2020-09-16 日立オートモティブシステムズ株式会社 環境認識装置
US9928433B1 (en) * 2016-06-14 2018-03-27 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for determining when a vehicle operator is texting while driving
US9928434B1 (en) * 2016-06-14 2018-03-27 State Farm Mutual Automobile Insurance Company Appartuses, systems, and methods for determining when a vehicle occupant is using a mobile telephone
DE102016005458A1 (de) * 2016-07-29 2018-02-01 Daimler Ag Betreiben eines Scheinwerfers
WO2019159765A1 (ja) * 2018-02-15 2019-08-22 株式会社小糸製作所 車両検出装置および車両用灯具システム
US11202055B2 (en) * 2018-02-28 2021-12-14 Blackberry Limited Rapid ground-plane discrimination in stereoscopic images
US11092480B2 (en) * 2018-09-27 2021-08-17 International Business Machines Corporation Light obstruction sensor
JP7241772B2 (ja) * 2018-12-18 2023-03-17 日立Astemo株式会社 画像処理装置
US11204417B2 (en) * 2019-05-08 2021-12-21 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
DE102019209152A1 (de) * 2019-06-25 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum sicheren Identifizieren von Objekten in Videobildern
CN112149476A (zh) * 2019-06-28 2020-12-29 北京海益同展信息科技有限公司 目标检测方法、装置、设备和存储介质
US11436876B2 (en) * 2019-11-01 2022-09-06 GM Global Technology Operations LLC Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data
CN110774975B (zh) * 2019-11-13 2022-10-14 上海智驾汽车科技有限公司 一种基于图像识别的智能灯光控制方法及装置
FR3104674B1 (fr) * 2019-12-16 2021-11-26 Valeo Vision Procédé de commande d’un système d’éclairage d’un véhicule automobile
CN113954736B (zh) * 2021-11-19 2023-06-23 东风悦享科技有限公司 一种智能大灯自适应交通环境控制系统方法、系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033750A (ja) 2006-07-31 2008-02-14 Fuji Heavy Ind Ltd 物体傾き検出装置
JP2009061812A (ja) 2007-09-04 2009-03-26 Hitachi Ltd 配光等の自動車の制御装置
US20100052550A1 (en) 2008-08-28 2010-03-04 Koito Manufacturing Co., Ltd. Headlamp control device and vehicle headlamp having headlamp control device
JP2012020662A (ja) 2010-07-15 2012-02-02 Koito Mfg Co Ltd 車両検出装置及びこれを備えた前照灯制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005225317A (ja) * 2004-02-12 2005-08-25 Ichikoh Ind Ltd 配光制御システム
JP4775658B2 (ja) * 2006-12-27 2011-09-21 アイシン・エィ・ダブリュ株式会社 地物認識装置・自車位置認識装置・ナビゲーション装置・地物認識方法
JP5626114B2 (ja) * 2011-05-18 2014-11-19 株式会社デンソー 車載レーザレーダ装置
CN102848968B (zh) * 2011-06-29 2016-03-02 比亚迪股份有限公司 一种远近光灯控制方法
CN102424016B (zh) * 2011-10-19 2013-11-06 清华大学 一种基于机器视觉的汽车前照灯自动控制系统
CN103042968A (zh) * 2012-12-21 2013-04-17 深圳职业技术学院 一种汽车车灯控制方法及控制系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033750A (ja) 2006-07-31 2008-02-14 Fuji Heavy Ind Ltd 物体傾き検出装置
JP2009061812A (ja) 2007-09-04 2009-03-26 Hitachi Ltd 配光等の自動車の制御装置
US20100052550A1 (en) 2008-08-28 2010-03-04 Koito Manufacturing Co., Ltd. Headlamp control device and vehicle headlamp having headlamp control device
JP2012020662A (ja) 2010-07-15 2012-02-02 Koito Mfg Co Ltd 車両検出装置及びこれを備えた前照灯制御装置

Also Published As

Publication number Publication date
US9336447B2 (en) 2016-05-10
DE102014107488A1 (de) 2014-12-04
CN104210421B (zh) 2016-10-26
CN104210421A (zh) 2014-12-17
JP2014232408A (ja) 2014-12-11
US20140355827A1 (en) 2014-12-04
JP5820843B2 (ja) 2015-11-24

Similar Documents

Publication Publication Date Title
DE102014107488B4 (de) Vorrichtung zur bestimmung der umgebung
DE102007057316B4 (de) Fahrzeugleuchtsystem
DE102016117780B4 (de) Fahrzeugaussenumgebung-Erkennungsvorrichtung
DE102012110883B4 (de) Außenumgebungserkennungsvorrichtung und Außenumgebungserkennungsverfahren
DE69736764T2 (de) Lokales Positionierungsgerät und Verfahren dafür
DE102009015824B4 (de) Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
DE102014115017B4 (de) Fahrzeugsteuerungssystem
DE102016111307B4 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
DE102016111304B4 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102016121526A1 (de) Fahrzeugaußenumgebung-Erkennungsvorrichtung
DE102015109564B4 (de) Bildverarbeitungsvorrichtung
DE102014110206B4 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
EP2718869A2 (de) Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
DE102014112601A1 (de) Fahrzeugumgebungerkennungsvorrichtung
EP1757485A1 (de) Verfahren zur Steuerung der Leuchtweite der Scheinwerfer eines Kraftfahrzeuges
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
DE102013102144A1 (de) Vorrichtung zum Steuern von Fahrzeugscheinwerfern
EP2691917A1 (de) Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
DE102013112171A1 (de) Außenumgebungserkennungsvorrichtung
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE102009005184A1 (de) Fahrzeugabtastsystem
DE102011088136A1 (de) Verfahren und Vorrichtung zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102011081392A1 (de) Verfahren zur Bestimmung einer Leuchtweite zumindest eines Scheinwerfers und Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102012206736A1 (de) Fahrzeugscheinwerfervorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: SUBARU CORPORATION, JP

Free format text: FORMER OWNER: FUJI JUKOGYO KABUSHIKI KAISHA, TOKYO, JP

R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final