DE202016008786U1 - Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung - Google Patents

Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung Download PDF

Info

Publication number
DE202016008786U1
DE202016008786U1 DE202016008786.0U DE202016008786U DE202016008786U1 DE 202016008786 U1 DE202016008786 U1 DE 202016008786U1 DE 202016008786 U DE202016008786 U DE 202016008786U DE 202016008786 U1 DE202016008786 U1 DE 202016008786U1
Authority
DE
Germany
Prior art keywords
vehicle
camera system
vehicle camera
brightness
lights
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016008786.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE202016008786U1 publication Critical patent/DE202016008786U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Exposure Control For Cameras (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Fahrzeugkamerasystem, aufweisend:
einen Bildsensor, der dazu ausgebildet ist, in einem Fahrzeug montiert zu werden, um Umgebungen des Fahrzeugs aufzunehmen und ein aufgenommenes Bild bereitzustellen; und
Steuerschaltkreise, die dazu ausgebildet sind, eine Belichtungssteuerung auf Grundlage eines Helligkeitshorizontalprofils, das durch Verwenden eines Abschnitts des aufgenommenen Bildes, der einem Erkennungsbereich entspricht, der innerhalb des aufgenommenen Bildes festgelegt ist, erstellt wurde, derart vorzunehmen, dass Lichter eines anderen Fahrzeugs separat, vorzugsweise als separate Punkte, auf einer Anzeigevorrichtung angezeigt werden.

Description

  • [Querverweis zu verwandten Anmeldungen]
  • Diese Anmeldung beansprucht den Nutzen der japanischen Prioritätspatentanmeldung JP 2015-114084 , die am 4. Juni 2015 eingereicht wurde und deren vollständiger Inhalt hierin bezugnehmend enthalten ist.
  • [Technisches Gebiet]
  • Die vorliegende Technologie betrifft ein Fahrzeugkamerasystem, das eine Belichtungssteuerung an einer in einem Fahrzeug montierten Kamera vornimmt, sowie eine Bildverarbeitungsvorrichtung, die eine Belichtungssteuerung auf Grundlage von Bildern, die von der Fahrzeugkamera fotografiert wurden, vornimmt.
  • [Stand der Technik]
  • Eine zunehmende Anzahl an Fahrzeugen wird neuerdings mit Kameras ausgestattet. Bilder, die von der Fahrzeugkamera fotografiert wurden, können verwendet werden, um eine Fahrunterstützung und eine Sichtfeldunterstützung bereitzustellen. So können beispielsweise auf Grundlage der Bilder, die von der Fahrzeugkamera fotografiert wurden, der Standort und die Richtung des Fahrzeugs erkannt werden und für Leitinformationen verwendet werden, und entgegenkommende Fahrzeuge, vorausfahrende Fahrzeuge, Fußgänger, Hindernisse und Anderes können zur Unfallvermeidung erkannt werden. Zusätzlich können bei Nachtfahrten die Bilder, die von der Fahrzeugkamera fotografiert wurden, verarbeitet werden, um die Frontscheinwerfer des entgegenkommenden Fahrzeugs (oder nachfolgenden Fahrzeugs) und die Schlussleuchten des vorausfahrenden Fahrzeugs zu erfassen und Informationen zu den anderen Fahrzeugen in der Umgebung zu erkennen (zu Beispielen siehe PTL 1 und 2).
  • [Liste der Anführungen]
  • [Patentliteratur]
    • [PTL 1] JP 2005-92857 A
    • [PTL 2] JP 2010-272067 A
    • [PTL 3] JP 2004-23226 A
    • [PTL 4] JP 2013-205867 A
  • [Kurzdarstellung]
  • [Technische Aufgabe]
  • Es ist erstrebenswert, ein Fahrzeugkamerasystem, das eine Belichtungssteuerung an einer in einem Fahrzeug montierten Kamera vornimmt, sowie eine Bildverarbeitungsvorrichtung, die eine Belichtungssteuerung auf Grundlage von Bildern, die von der Fahrzeugkamera fotografiert wurden, vornimmt, bereitzustellen.
  • [Technische Lösung]
  • Die in der vorliegenden Spezifikation offenbarte Technologie wurde angesichts des vorstehenden Problems entwickelt, und ein erster Aspekt der vorliegenden Technologie stellt ein Fahrzeugkamerasystem bereit, das Folgendes aufweist: eine in einem Fahrzeug montierte Fahrzeugkamera, die dazu ausgebildet ist, eine Umgebung des Fahrzeugs aufzunehmen, und Steuerschaltkreise, die dazu ausgebildet sind, einen Belichtungspegel eines Bildes, das von der Fahrzeugkamera aufgenommen wurde, zu steuern, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist, und dazu ausgebildet sind, das Bild mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung auszugeben.
  • Der Terminus „System“ bezieht sich hierbei auf eine logische Anordnung mehrerer Vorrichtungen (oder funktionaler Module, die spezifische Funktionen umsetzen), unabhängig davon, ob sich die Vorrichtungen oder funktionalen Module innerhalb eines einzelnen Gehäuses befinden.
  • Nach einem zweiten Aspekt der Technologie wird eine Bildverarbeitungsvorrichtung bereitgestellt, die Folgendes aufweist: Steuerschaltkreise, die dazu ausgebildet sind, einen Belichtungspegel eines Bildes, das von einer Fahrzeugkamera aufgenommen wurde, zu steuern, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist, und dazu ausgebildet sind, das Bild mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung auszugeben.
  • Nach einem dritten Aspekt der Technologie wird ein Bildverarbeitungsverfahren bereitgestellt, das Folgendes aufweist: Steuern, unter Verwendung von Steuerschaltkreisen, eines Belichtungspegels eines Bildes, das von einer Fahrzeugkamera aufgenommen wurde, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist, und Ausgeben des Bildes mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung.
  • [Vorteilhafte Wirkungen der Erfindung]
  • Nach einer Ausführungsform der hierin offenbarten Technologie ist es möglich, ein Fahrzeugkamerasystem, das eine Belichtungssteuerung an einer in einem Fahrzeug montierten Kamera vornimmt, sowie eine Bildverarbeitungsvorrichtung, die eine Belichtungssteuerung auf Grundlage von Bildern, die von der Fahrzeugkamera fotografiert wurden, vornimmt, bereitzustellen.
  • Die hierin beschriebenen vorteilhaften Wirkungen dienen lediglich als Beispiele, und die vorteilhaften Wirkungen der vorliegenden Technologie sind nicht auf diese beschränkt. Zusätzlich kann die vorliegende Technologie neben den vorstehend beschriebenen weitere vorteilhafte Wirkungen aufweisen.
  • Andere Ziele, Merkmale und Vorteile der hierin offenbarten Technologie werden durch ausführlichere Beschreibungen der nachstehenden Ausführungsformen und der begleitenden Figuren verdeutlicht.
  • Figurenliste
    • 1 ist ein Schaubild, das ein Beispiel darstellt, in dem Kameras im Innenraum eines Kraftfahrzeugs 100 montiert sind.
    • 2 ist ein Schaubild, das ein Beispiel darstellt, in dem Kameras außerhalb des Innenraums eines Kraftfahrzeugs 200 montiert sind.
    • 3 ist ein Schaubild, das einen Vorgang vor oder hinter dem Fahrzeug (in der Nacht oder in einem Tunnel) darstellt.
    • 4 ist ein Schaubild, das ein Bild 401 eines Vorgangs in einer dunklen Fahrumgebung darstellt, das von der Fahrzeugkamera mit einer (langen) Belichtungszeit für geringe Ausleuchtung wie in 3 dargestellt fotografiert wurde.
    • 5 ist ein Schaubild, das ein Bild 501 eines Vorgangs in einer dunklen Fahrumgebung darstellt, das von der Fahrzeugkamera mit einer (kurzen) Belichtungszeit für starke Ausleuchtung wie in 3 dargestellt fotografiert wurde.
    • 6 ist ein Schaubild, das ein Konfigurationsbeispiel eines Fahrzeugkamerasystems 600 darstellt.
    • 7 ist ein Ablaufdiagramm für einen Prozess zur automatischen Belichtungssteuerung der Fahrzeugkamera.
    • 8 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 9 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 10 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 11 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 12 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 13 ist ein Schaubild zur Beschreibung einer Positionsbeziehung zwischen einem fernen Straßenfluchtpunkt und einem Referenzpunkt in der Fahrtrichtung des Fahrzeugs.
    • 14 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 15 ist ein Schaubild, das eine Scanzeile 1501 an einer vertikalen Pixelposition v innerhalb eines fernen kleinen Bildfelds 1500 darstellt.
    • 16 ist ein Schaubild, das eine Helligkeitsverteilung auf einer Scanzeile (Horizontalrichtung) innerhalb eines fernen kleinen Bildfelds darstellt.
    • 17 ist ein Schaubild, das Gewichtungen einzelner Scanzeilen (Vertikalrichtung) darstellt.
    • 18 ist ein Schaubild, das ein Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt.
    • 19 ist ein Ablaufdiagramm eines Prozesses zum Bestimmen, ob in einen Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll.
    • 20 ist ein Schaubild zum Beschreiben eines Verfahrens zum Schätzen eines fernen Straßenfluchtpunkts auf einer Kurvenstraße.
    • 21 ist ein Schaubild zum Beschreiben eines Verfahrens zum Schätzen eines fernen Straßenfluchtpunkts auf einer Straße mit sich ändernder Neigung.
    • 22 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs definiert wird.
    • 23 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs definiert wird.
    • 24 ist ein Ablaufdiagramm eines Prozesses zum Definieren eines fernen kleinen Bildfelds zum Priorisieren der Erkennung der Leuchten eines Kraftfahrzeugs.
    • 25A ist ein Ablaufdiagramm für einen Prozess zum Erzeugen eines Helligkeitshorizontalprofils innerhalb eines fernen kleinen Bildfelds.
    • 25B ist ein Ablaufdiagramm des Prozesses zum Erzeugen eines Helligkeitshorizontalprofils innerhalb eines fernen kleinen Bildfelds.
    • 26A ist ein Ablaufdiagramm für einen weiteren Prozess zum Erzeugen eines Helligkeitshorizontalprofils innerhalb eines fernen kleinen Bildfelds.
    • 26B ist ein Ablaufdiagramm des weiteren Prozesses zum Erzeugen eines Helligkeitshorizontalprofils innerhalb eines fernen kleinen Bildfelds.
    • 27 ist ein Schaubild, das nebeneinander liegende Höchstwerte und einen Tiefstwert zwischen den Höchstwerten in einem Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt.
    • 28A ist ein Ablaufdiagramm für einen Prozess zum Bestimmen auf Grundlage eines Helligkeitshorizontalprofils, ob sich die Leuchten eines Kraftfahrzeugs innerhalb eines fernen kleinen Bildfelds befinden.
    • 28B ist ein Ablaufdiagramm für den Prozess zum Bestimmen auf Grundlage eines Helligkeitshorizontalprofils, ob sich die Leuchten eines Kraftfahrzeugs innerhalb eines fernen kleinen Bildfelds befinden.
    • 29 ist ein Ablaufdiagramm für einen Prozess zum Vornehmen einer automatischen Belichtungssteuerung der Fahrzeugkamera auf Grundlage der Höchstwerte und des Tiefstwerts im Helligkeitshorizontalprofil.
    • 30A ist ein Schaubild, das ein Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt, wenn ein Bewertungswert F für eine automatische Belichtungssteuerung hoch ist.
    • 30B ist ein Schaubild, das ein Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt, wenn der Bewertungswert F für eine automatische Belichtungssteuerung niedrig ist.
    • 31 ist ein Schaubild, das ein Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt (im Fall des Fotografierens unter Belichtungsbedingungen, die für die Trennung von Lichtpunkten optimiert sind).
    • 32 ist ein Schaubild, das ein Helligkeitshorizontalprofil innerhalb eines fernen kleinen Bildfelds darstellt (im Fall des Fotografierens unter Belichtungsbedingungen, die für die Trennung von Lichtpunkten unzureichend sind).
    • 33 ist ein Ablaufdiagramm für einen Prozess zum Vornehmen einer automatischen Belichtungssteuerung der Fahrzeugkamera, die auf Grundlage der Form des Helligkeitshorizontalprofils innerhalb eines fernen kleinen Bildfelds für Lichtpunkttrennung optimiert ist.
    • 34 ist ein Schaubild, das eine Frontscheinwerferform 3401 darstellt, wenn ein nachfolgendes Fahrzeug oder ein entgegenkommendes Fahrzeug von der Fahrzeugkamera bei dem Vorgang in einer dunklen Fahrumgebung fotografiert wird.
    • 35 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 36 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 37 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 38 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 39 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
    • 40 ist ein Schaubild, das ein Beispiel dafür darstellt, wie ein fernes kleines Bildfeld basierend auf einem fernen Straßenfluchtpunkt in der Fahrtrichtung eines Objektfahrzeugs definiert wird.
  • [Beschreibung der Ausführungsformen]
  • Ausführungsformen der hierin offenbarten Technologie werden untenstehend bezugnehmend auf die Figuren ausführlicher beschrieben.
  • 1 stellt ein Beispiel dafür dar, wie Kameras in einem Kraftfahrzeug (Personenkraftwagen in Standardgröße) 100 montiert sind. Bezugnehmend auf 1 sind zwei Kameras 101 und 102 im Innenraum des Kraftfahrzeugs 100 montiert. Eine Kamera 101 weist eine Abbildungsrichtung auf, die dem Bereich vor dem Kraftfahrzeug 100 (Fahrtrichtung) zugewandt ist, und ist beispielsweise in der Nähe der Frontscheibe (Rückspiegel) platziert. Die andere Kamera 102 weist eine Fotografierrichtung auf, die dem Bereich hinter dem Kraftfahrzeug 100 zugewandt ist, und ist beispielsweise in der Nähe der Heckscheibe im hinteren Bereich des Innenraums platziert. Bei dem in 1 dargestellten Beispiel ist die andere Kamera 102 im Fahrzeuginnenraum angeordnet, um den Bereich hinter dem Kraftfahrzeug 100 durch die Heckscheibe zu fotografieren (alternativ hierzu kann der Bereich hinter dem Kraftfahrzeug 100 von einer Kamera 202 fotografiert werden, die außerhalb des Fahrzeugs angeordnet ist, wie in 2 dargestellt (im späteren Verlauf beschrieben)). Die Blickwinkel der Kameras 101 und 102 sind durch die jeweiligen Bezugszeichen 111 und 112 angegeben. Die Kamera 101 kann ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug in dem Bereich vor dem Objektfahrzeug in der Fahrtrichtung fotografieren. Die Kamera 102 kann zudem ein nachfolgendes Fahrzeug in dem Bereich hinter dem Objektfahrzeug in der Fahrtrichtung fotografieren. Die Kameras 101 und 102 können durch ein beliebiges Verfahren an ihren Positionen im Fahrzeug befestigt werden.
  • 2 stellt ein weiteres Beispiel dafür dar, wie Kameras in einem Kraftfahrzeug (Personenkraftwagen in Standardgröße) 200 montiert sind. Bezugnehmend auf 2 sind vier Kameras 201 bis 204 außerhalb des Innenraums des Kraftfahrzeugs 200 montiert. Die Kamera 201 ist am Frontende des Kraftfahrzeugs 200 (beispielsweise in der Nähe des Kühlergrills oder der Frontstoßfängerverkleidung) platziert, um den Bereich vor dem Objektfahrzeug (in der Fahrtrichtung) zu fotografieren. Die Kamera 202 ist am Heck des Kraftfahrzeugs 200 (beispielsweise in der Nähe der Heckstoßfängerverkleidung) platziert, um den Bereich hinter dem Objektfahrzeug zu fotografieren. Die Kameras 203 und 204 sind in der Nähe der Vorderenden der rechten und linken Außenspiegel platziert, wobei ihre Fotografierrichtungen dem Bereich hinter dem Kraftfahrzeug 200 zugewandt sind. Die Kameras 203 und 204 können in Kombination mit den rechten und linken Außenspiegeln verwendet werden. Alternativ hierzu können die Kameras 203 und 204 die rechten und linken Außenspiegel ersetzen. Die Blickwinkel der Kameras 201 bis 204 sind durch die jeweiligen Bezugszeichen 211 bis 214 angegeben. Die Kamera 201 kann ein vorausfahrendes Fahrzeug und ein entgegenkommendes Fahrzeug in dem Bereich vor dem Objektfahrzeug in der Fahrtrichtung fotografieren. Die Kameras 202 bis 204 können zudem ein nachfolgendes Fahrzeug in dem Bereich hinter dem Objektfahrzeug in der Fahrtrichtung fotografieren. Die Kameras 201 bis 204 können durch ein beliebiges Verfahren an ihren Positionen im Fahrzeug befestigt werden.
  • Die hierin offenbarte Technologie basiert auf der Annahme, dass eine oder mehrere Kameras (Fahrzeugkameras) in einem Kraftfahrzeug montiert sind. Die Platzierungspositionen der in den 1 und 2 dargestellten Fahrzeugkameras sind lediglich beispielhaft. Die Fahrzeugkameras können an anderen Positionen als den vorstehenden im Fahrzeug platziert sein. Es können zwei oder mehr Fahrzeugkameras kombiniert werden. Die Fahrzeuge, in denen die Fahrzeugkameras montiert sind, sind nicht auf Personenkraftwagen in Standardgröße beschränkt, sondern können Mittelklassewagen, großräumige Fahrzeuge oder zweirädrige Fahrzeuge wie Motorräder sein.
  • In dunklen Fahrumgebungen wie bei Nacht oder in einem Tunnel können Bilder, die von der Fahrzeugkamera fotografiert wurden, verarbeitet werden, um die Frontscheinwerfer eines nachfolgenden Fahrzeugs (oder eines entgegenkommenden Fahrzeugs) und die Schlussleuchten eines vorausfahrenden Fahrzeugs zu erfassen und Informationen zu den anderen Fahrzeugen in der Umgebung zu erkennen (wie vorstehend beschrieben). Beispielsweise ist es notwendig, das ferne nachfolgende Fahrzeug zu überprüfen, um auf einer Schnellstraße die Spur zu wechseln. In dunklen Umgebungen wie bei Nacht ist es jedoch schwierig, die Form des Fahrzeugs in der Umgebung deutlich auszumachen. Im Allgemeinen nimmt ein Fahrer den Zustand der Annäherung des Fahrzeugs in der Umgebung über die rechten und linken Leuchten oder Ähnliches wahr. Dementsprechend ist es notwendig, die Kamera zu steuern, um die Trennung der rechten und linken Lichtquellen visuell zu überprüfen.
  • Die Belichtungssteuerungstechnologie, die auf normale (oder gewöhnliche) Fotoaufnahmen oder bei Videoaufnahmen in Innenräumen angewandt wird, dient grundsätzlich dazu, den vollständigen Bildschirm einer durchschnittlichen Belichtungssteuerung zu unterziehen. Beispielsweise existiert ein Belichtungssteuerungsverfahren, bei dem der Bildschirm lediglich in mehrere Abschnitte als Helligkeitserkennung-Bildfelder geteilt wird, und die Summen des Einfallslichts in den einzelnen Erkennungsbildfeldern werden integriert, um die Lichtmenge zu erhalten, und die Belichtung der Kamera wird auf Grundlage der Lichtmenge automatisch gesteuert (siehe beispielsweise PTL 3). Darüber hinaus existiert ein Belichtungssteuerungsverfahren, durch das die Lichtmengen für die optimale Belichtung einzelner Vorgänge in den einzelnen Erkennungsbildfeldern gewichtet und integriert werden, und eine automatische Belichtungs- und Verstärkungsanpassung der Kamera wird gemäß der tatsächlichen Vorgänge vorgenommen.
  • Fotografiert die Fahrzeugkamera jedoch ein nachfolgendes oder vorausfahrendes Fahrzeug (nachstehend als „fernes Fahrzeug“ bezeichnet) in einer vorgegebenen Entfernung L (beispielsweise L = etwa 150 m) vom Objektfahrzeug, ist das Größenverhältnis der Frontscheinwerfer (oder Schlussleuchten) als Lichtquellen des fernen Fahrzeugs im Sichtfeld der Fahrzeugkamera gering. Dementsprechend würde die Anwendung des Verfahrens, bei dem die Belichtungssteuerung im Durchschnitt für den gesamten Bildschirm vorgenommen wird, zu einer (langen) Belichtungszeit für geringe Ausleuchtung führen, was voraussichtlich eine Überbelichtung bewirken würde. Wird beispielsweise der Bildschirm lediglich in mehrere Bereiche als Erkennungsbildfelder geteilt und werden die Helligkeitswerte in den Erkennungsbildfeldern gewichtet, ist das Größenverhältnis des bemerkten Fahrzeugs im Erkennungsbildfeld zu gering. Daher wird, auch wenn das anwendbare Erkennungsbildfeld zunehmend gewichtet wird, der Ausdruck der durchschnittlichen Helligkeit auf dem Bildschirm priorisiert, um das Vornehmen einer stabilen automatischen Belichtungssteuerung zu erschweren.
  • Der Fall, in dem die Fahrzeugkamera einen Vorgang vor oder hinter dem Fahrzeug (sichtbar in einem Außenspiegel oder einem Rückspiegel) in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel fotografiert, wie in 3 dargestellt, wird erörtert werden. Es wird angenommen, dass bei dem in 3 dargestellten Vorgang ein nachfolgendes Fahrzeug 301 auf einer Straße (linke Spur) 302 hinter dem Objektfahrzeug fährt. In einer dunklen Fahrumgebung sind bei dem nachfolgenden Fahrzeug 301 die zwei rechten und linken Frontscheinwerfer eingeschaltet.
  • 4 stellt ein Bild des Vorgangs in einer dunklen Fahrumgebung wie in 3 dargestellt dar, das von der Fahrzeugkamera mit einer (langen) Belichtungszeit für geringe Ausleuchtung fotografiert wurde. Da die Frontscheinwerfer des nachfolgenden Fahrzeugs 301 eine starke Ausleuchtung bieten, wird eine Überbelichtung bewirkt, um selbst bei Randpixeln in weiß eine Pixelsättigung zu erreichen, wie durch das Bezugszeichen 401 angegeben. In diesem Fall ist es schwierig, die Frontscheinwerfer als zwei Lichtpunkte einzufangen. Wird die normale automatische Belichtungssteuerung auf die Fahrzeugkamera angewendet, neigt die Fahrzeugkamera dazu, mit einer (langen) Belichtungszeit für geringe Ausleuchtung zu fotografieren, und als Ergebnis ist das Auftreten einer Überbelichtung wie in 4 dargestellt wahrscheinlich.
  • 5 stellt ein Bild eines Vorgangs in einer dunklen Fahrumgebung wie in 3 dargestellt dar, das von der Fahrzeugkamera mit einer (kurzen) Belichtungszeit für starke Ausleuchtung fotografiert wurde. Durch Unterdrücken der Belichtung ist es möglich, die rechten und linken Frontscheinwerfer mit starker Ausleuchtung des nachfolgenden Fahrzeugs 301 als zwei Lichtpunkte wie durch das Bezugszeichen 501 angegeben einzufangen.
  • Wie in 34 dargestellt wird, wenn ein nachfolgendes Fahrzeug oder ein entgegenkommendes Fahrzeug von der Fahrzeugkamera in einer dunklen Fahrumgebung fotografiert wird, die laterale Breite einer Frontscheinwerferform 3401 als Wh, der Durchschnitt der lateralen Helligkeitswerte der Frontscheinwerfer als Yh, die engste vertikale Breite der Frontscheinwerferform 3401 als Wv und der Durchschnitt der Helligkeitswerte im engsten Abschnitt Yv bezeichnet. Der Anmelder der Anmeldung nimmt an, dass Wh·Yh/Wv·Yv etwa 2 oder 3 wird, wie dies durch den nachstehenden mathematischen Ausdruck (1) ausgedrückt wird (A steht für eine Konstante von etwa 2 oder 3).
    [Mathematische Formel 1] W h Y h W v Y v > A
    Figure DE202016008786U1_0001
  • Durch Steuern der Belichtungszeit wie vorstehend beschrieben kann der Benutzer (Fahrer) die Breite des nachfolgenden Fahrzeugs 301 und die Entfernung zum nachfolgenden Fahrzeug 301 aus den zwei Lichtpunkten veranschlagen und einfach bestimmen, ob die Spur gewechselt werden soll, selbst wenn das Fahrzeug mit einem elektronischen Spiegel ausgestattet ist, bei dem ein Rückspiegel oder Seitenspiegel durch eine Anzeigevorrichtung ersetzt sind. Darüber hinaus ist es möglich, durch Anwenden der vorstehenden Belichtungssteuerung auf die Frontkamera 101, die Breite des vorausfahrenden Fahrzeugs 302 oder des entgegenkommenden Fahrzeugs aus den zwei Lichtpunkten zu bestimmen. Mit Hilfe von Informationen zum Blickwinkel der Frontscheinwerfer des nachfolgenden Fahrzeugs 301 ist es möglich, die Entfernung zwischen dem Objektfahrzeug und dem nachfolgenden Fahrzeug 301 auf Grundlage der Prinzipien der Triangulation zu berechnen. Ferner ist es möglich, die Entfernung zu einem entgegenkommenden Fahrzeug aus den zwei Lichtpunkten der Frontscheinwerfer des entgegenkommenden Fahrzeugs zu berechnen. Die vorstehenden Informationen können auf ein Frontscheinwerfer-Steuersystem angewendet werden, bei dem die Frontscheinwerfer des Objektfahrzeugs beispielsweise abhängig von der Entfernung zu dem entgegenkommenden Fahrzeug automatisch zwischen Fernlicht und Abblendlicht umgeschaltet werden.
  • Beispielsweise kann, wenn auf einer Schnellstraße gefahren wird, das Objektfahrzeug ein vorausfahrendes Fahrzeug zügig einholen und von einem nachfolgenden Fahrzeug eingeholt werden. Dementsprechend ist eine fernes Sichtfeld-Unterstützung für einen sicheren Spurwechsel wichtig. Die Fahrzeugkamera, die einer Fahrunterstützung und einer fernes Sichtfeld-Unterstützung zugeordnet ist, muss ferne Fahrzeuge, die sich dem Objektfahrzeug möglicherweise nähern, genauer einfangen. Bei in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel besteht jedoch das Problem, dass mit großer Wahrscheinlichkeit eine Überbelichtung auftritt, wenn die Leuchten mit starker Ausleuchtung (Schlussleuchten) von Fahrzeugen in der Umgebung wie vorstehend beschrieben von der Fahrzeugkamera fotografiert werden. Insbesondere ist das Größenverhältnis der Frontscheinwerfer des fernen Fahrzeugs als Lichtquellen im Sichtfeld gering. Dementsprechend ist, wenn die normale automatische Belichtungssteuerung angewendet wird, um eine durchschnittliche Belichtungssteuerung für den gesamten Bildschirm vorzunehmen, das Auftreten einer Überbelichtung wahrscheinlich, um selbst für Randpixel in weiß eine Pixelsättigung zu erreichen, und es ist schwierig, die Frontscheinwerfer als zwei Lichtpunkte einzufangen.
  • Auf einer normalen Stadtstraße nähern sich andere Fahrzeuge dem Objektfahrzeug selten aus einer weiten Entfernung. Daher ist es nicht notwendigerweise erstrebenswert, eine einheitliche Sichtprüfung von Lichtquellen des fernen Fahrzeugs zu priorisieren. Somit ist je nach Zweck ein Umschalten zwischen verschiedenen Belichtungssteuerungsmodi notwendig.
  • Der Belichtungssteuerungsmodus kann abhängig von Änderungen der umgebenden Lichtquellen in Fahrumgebungen wie Stadtgebieten, Tunnel, Nachtfahrten, Straßen ohne Straßenbeleuchtung, Schnellstraßen und Dämmerung sowie der durchschnittlichen Fahrzeuggeschwindigkeit auf Straßen bestimmt werden.
  • Dementsprechend ist hierin eine Belichtungssteuerungstechnologie vorgesehen, um vorzugsweise ein fernes Fahrzeug mit eingeschalteten Frontscheinwerfern mit starker Ausleuchtung mit der Fahrzeugkamera zu fotografieren, ohne dass eine Überbelichtung in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel auftritt. Kurz gesagt ermöglicht die hierin offenbarte Technologie eine optimale Belichtungssteuerung durch das Vornehmen einer Analyse des Wellenformprofils des fernen Fahrzeugs mit bei Nacht eingeschalteten Frontscheinwerfern innerhalb eines kleines Bildfelds, das in dem Bild, das von der Kamera fotografiert wurde, festgelegt ist, um die Frontscheinwerfer des fernen Fahrzeugs leicht sichtbar zu machen.
  • 6 stellt ein Konfigurationsbeispiel eines Fahrzeugkamerasystems 600, das eine automatische Belichtungssteuerung der Fahrzeugkamera ermöglicht, schematisch dar.
  • Das Zielfahrzeug ist mit mehreren Sensoren wie einem Bildsensor 601, einer Gierwinkel-Erkennungseinheit 602, einer Nickwinkel-Erkennungseinheit 603 und einem GPS-Sensor für das globale Positionsbestimmungssystem GPS 604 ausgestattet.
  • Der Bildsensor 601 entspricht einer Fahrzeugkamera, die im Objektfahrzeug montiert ist, um die umgebenden Fahrzeuge und Anderes zu fotografieren und ist beispielsweise in einer beliebigen der in 1 oder 2 dargestellten Positionen platziert. Der Bildsensor 601 kann zwei oder mehr Fahrzeugkameras aufweisen. Alternativ hierzu kann der Bildsensor 601 ein anderer Sensor als eine Fahrzeugkamera sein.
  • Die Gierwinkel-Erkennungseinheit 602 erkennt den Rotationswinkel θ des Objektfahrzeugs um die Gierung. Fährt das Objektfahrzeug beispielsweise um eine Kurve, erkennt die Gierwinkel-Erkennungseinheit 602 kurzzeitige Änderungen δθ des Rotationswinkels des Objektfahrzeugs um die Gierung, die dem Biegungswinkel der Straße entsprechen. Die Gierwinkel-Erkennungseinheit 602 besteht beispielsweise aus einem Gierratensensor und einem Ruderwinkelsensor. Der von der Gierwinkel-Erkennungseinheit 602 erkannte Gierwinkel θ entspricht beispielsweise dem Einschlagwinkel des Objektfahrzeugs bezogen auf die Geradeaus-Fahrrichtung des Objektfahrzeugs.
  • Die Nickwinkel-Erkennungseinheit 603 erkennt den Rotationswinkel Φ und die Winkelgeschwindigkeit des Objektfahrzeugs bezogen auf das Nicken. Fährt das Fahrzeug beispielsweise auf einer einen Berg hinauf oder hinab führenden Straße, erkennt die Nickwinkel-Erkennungseinheit 603 kurzzeitige Änderungen δΦ in der Neigung der Steigung. Die Nickwinkel-Erkennungseinheit 603 besteht beispielsweise aus einem Nickratensensor und einem Gyro-Sensor. Der erkannte Nickwinkel ϕ entspricht der Neigung des Objektfahrzeugs, das auf einer einen Berg hinauf oder hinab führenden Straße fährt, wobei sich die Neigung der Fahrzeugkarosserie beispielsweise aus einer Fracht oder Ähnlichem im Fahrzeuginnenraum ergibt oder sich die Neigung der Fahrzeugkarosserie aus einer Trägheitskraft aufgrund der Beschleunigung oder Verlangsamung des Objektfahrzeugs ergibt.
  • Der GPS-Sensor 604 empfängt Funkwellen (GPS-Signale) von GPS-Satelliten im Weltraum. Eine Positionsbestimmung wird auf Grundlage von GPS-Signalen von vier GPS-Satelliten vorgenommen, um die Empfangszeit und die Empfängerkoordinaten (ein Punkt in einem dreidimensionalen Raum) zum selben Zeitpunkt zu bestimmen (wie weithin bekannt ist).
  • Eine Verarbeitungseinheit 605 weist einen Speicher 606 auf, der als Arbeitsbereich oder zum Speichern von Daten und Programmen auf nichtflüchtige Weise verwendet wird, um verschiedene Prozesse auszuführen. Beispielsweise führt die Verarbeitungseinheit 605 einen Prozess zum Steuern einer automatischen Belichtung in der Fahrzeugkamera aus. Die Verarbeitungseinheit 605 führt zudem Prozesse zum Aufzeichnen eines Fahrverlaufs des Objektfahrzeugs, Bestimmen der Fahrtrichtung und Steuern des Modusübergangs bei der automatischen Belichtungssteuerung auf Grundlage von Erkennungssignalen von dem Bildsensor 601, der Gierwinkel-Erkennungseinheit 602, der Nickwinkel-Erkennungseinheit 603 und dem GPS-Sensor 604 aus. Der Speicher 606 weist einen ROM (Nurlesespeicher) auf, der im Voraus Informationen speichert, die für die automatische Belichtungssteuerung verwendet werden, beispielsweise Gewichtungsinformationen (im späteren Verlauf beschrieben) und verschiedene Einstellwerte.
  • Eine Einstellungseingabeeinheit 607 besteht beispielsweise aus einem berührungsempfindlichen Bedienfeld oder Operatoren wie Knöpfen oder Schaltern, um Eingabeoperationen vom Benutzer (beispielsweise dem Fahrer des Objektfahrzeugs) anzunehmen, um die Prozesse mit der Verarbeitungseinheit 605 auszuführen. Der Benutzer kann Einstellungen für den Modusübergang bei der automatischen Belichtungssteuerung der Fahrzeugkamera über die Einstellungseingabeeinheit 607 vornehmen.
  • Eine Bildausgabeeinheit 608 und eine Tonausgabeeinheit 609 geben die Ergebnisse der Ausführung der Prozesse durch die Verarbeitungseinheit 605 mittels jeweils eines Bildes bzw. eines Tons aus. Die Bildausgabeeinheit 608 verfügt über einen Überwachungsbildschirm, der vom Fahrersitz des Objektfahrzeugs aus beobachtbar ist, um beispielsweise über einen Moduswechsel in der automatischen Belichtungssteuerung der Fahrzeugkamera visuell zu benachrichtigen und die Ergebnisse der Erkennung eines fernen Fahrzeugs anzuzeigen. Die Tonausgabeeinheit 609 besteht aus einem Lautsprecher, um beispielsweise mittels eines Tons über einen Moduswechsel in der automatischen Belichtungssteuerung der Fahrzeugkamera und die Ergebnisse der Erkennung eines fernen Fahrzeugs zu benachrichtigen.
  • 7 gibt ein Ablaufdiagramm eines Prozesses für die automatische Belichtungssteuerung der Fahrzeugkamera wieder, die von dem Fahrzeugkamerasystem 600, das in 6 dargestellt ist, ausgeführt wird. Die in der Figur dargestellte automatische Belichtungssteuerung wird von der Verarbeitungseinheit 605 gestartet, wenn die Fahrzeugkamera (Bildsensor 601) eingeschaltet wird.
  • Zuerst nimmt die Verarbeitungseinheit 605 ein Bild des gesamten Bildschirms, der von der Fahrzeugkamera fotografiert wurde, auf und unterzieht das Bild einem Rasterscan (Schritt S701).
  • Dann nimmt die Verarbeitungseinheit 605 eine normale automatische Belichtungssteuerung der Fahrzeugkamera vor (Schritt S702). Die auf normale (oder gewöhnliche) Fotoaufnahmen oder Videoaufnahmen in Innenräumen angewandte Belichtungssteuerungstechnologie dient grundsätzlich dazu, den gesamten Bildschirm einer durchschnittlichen Belichtungssteuerung zu unterziehen. Beispielsweise existiert ein Belichtungssteuerungsverfahren, bei dem der Bildschirm lediglich in mehrere Abschnitte als Helligkeitserkennung-Bildfelder geteilt wird, und die Summen des Einfallslichts in den einzelnen Erkennungsbildfeldern werden integriert, um die Lichtmenge zu erhalten, und die Belichtung der Kamera wird auf Grundlage der Lichtmenge automatisch gesteuert (siehe beispielsweise PTL 3).
  • Dann bestimmt die Verarbeitungseinheit 605, ob in einen Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll (Schritt S703). Der Fahrzeuglichtquelle-Erkennungsmodus bezieht sich hierbei auf einen Betriebsmodus, in dem das Vorhandensein oder die Abwesenheit der Leuchten eines Kraftfahrzeugs (Frontscheinwerfer oder Schlussleuchten eines fernen Fahrzeugs) in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel erkannt werden. Die Erkennung der Fahrzeuglichtquelle wird lediglich in einem im späteren Verlauf beschriebenen fernen kleinen Bildfeld vorgenommen. Um in einen für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus (im späteren Verlauf beschrieben) zu wechseln, der dahingehend optimiert ist, dass zwei Lichtpunkte eines fernen Fahrzeugs visuell getrennt werden können (oder eine Belichtungssteuerung vorgenommen wird, bei der die Trennung von zwei Lichtpunkten eines fernen Fahrzeugs Priorität hat), wird zuvor die Fahrzeuglichtquellenerkennung innerhalb des fernen kleinen Bildfelds vorgenommen. Die Einzelheiten eines Prozesses zum Bestimmen, ob in den Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll, werden im späteren Verlauf beschrieben.
  • Wird bestimmt, dass nicht in den Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll (Schritt S703: Nein), kehrt die Verarbeitungseinheit 605 zu Schritt S701 zurück, um die normale automatische Belichtungssteuerung der Fahrzeugkamera dauerhaft vorzunehmen.
  • Wird jedoch bestimmt, dass in den Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll (Schritt S703: Ja), nimmt die Verarbeitungseinheit 605 dann einen Prozess zum Korrigieren eines fernen Straßenfluchtpunkts in der Fahrtrichtung des Objektfahrzeugs innerhalb des Bilds, das die Fahrzeugkamera fotografiert hat, vor (Schritt S704) .
  • Der Fluchtpunkt bezieht sich auf einen Punkt, an dem gerade Linien in einem Bild, die parallelen Linien in einem dreidimensionalen Raum entsprechen, die auf das Bild mittels Perspektiventransformation projiziert werden, zusammenlaufen (siehe beispielsweise PTL 4). Der Fluchtpunkt ist ein theoretischer Fernpunkt in der Unendlichkeit. Der Ausdruck „Fluchtpunkt“ kann sich auf zwei Arten von Punkten beziehen: ein Fluchtpunkt in einem Bild, das von der Fahrzeugkamera aufgenommen wurde (Fernpunkt in der Unendlichkeit) und ein Fluchtpunkt, an dem sich Kantenlinien der Straße überkreuzen. Der Einfachheit halber wird der Fluchtpunkt (Fernpunkt in der Unendlichkeit) des von der Fahrzeugkamera fotografierten Bilds hierin als „Referenzpunkt“ bezeichnet, und der Fluchtpunkt, an dem sich die Kantenlinien der Straße überkreuzen, wird hierin als „ferner Straßenfluchtpunkt in der Fahrtrichtung“ (oder einfach als „Fluchtpunkt“) bezeichnet. Der Referenzpunkt in dem von der Fahrzeugkamera fotografierten Bild ist ein Festwert, der durch Kameraparameter oder Ähnliches bestimmt ist und zuvor im Speicher (ROM) 606 gespeichert wird. 8 stellt die Beziehung zwischen dem fernen Straßenfluchtpunkt 802 in der Fahrtrichtung des Objektfahrzeugs und dem Referenzpunkt 801 dar, wenn der Bereich hinter dem Objektfahrzeug, das auf einer geraden Straße fährt, durch die in dem Objektfahrzeug montierte Fahrzeugkamera fotografiert wird. Beispielsweise tritt, wenn der Bereich hinter dem Objektfahrzeug, das auf einer geraden Straße fährt, durch die in dem Objektfahrzeug montierte Fahrzeugkamera fotografiert wird, bei dem Bild, das von der Kamera mit einer optischen Achse in der Fahrtrichtung des Fahrzeugs, die wie in 8 dargestellt zur Straße parallel ist, eine Überschneidung zwischen dem Fluchtpunkt (Fernpunkt in der Unendlichkeit) in dem von der Fahrzeugkamera fotografierten Bild und einer zur Straße parallelen unendlichen Entfernung auf, an der sich die Kantenlinien einer Fahrbahn 803 in einer Entfernung kreuzen, und die Fluchtpunkte decken sich nahezu. Je nach Position und Winkel, in der bzw. dem die Fahrzeugkamera am Objektfahrzeug angebracht ist, sind jedoch der Referenzpunkt 801 und der ferne Straßenfluchtpunkt 802 in der Fahrtrichtung zueinander um ein geringes Ausmaß verschoben.
  • Wie in 9 dargestellt, wird, wenn der Bereich hinter dem Objektfahrzeug durch die in dem Objektfahrzeug montierte Fahrzeugkamera zum Zeitpunkt des Durchfahrens einer rechtsseitigen Kurvenstraße 903 fotografiert wird, ein ferner Straßenfluchtpunkt 902 in der Fahrtrichtung bezogen auf einen Referenzpunkt 901 nach links verschoben (oder wenn der Bereich vor dem Objektfahrzeug von der Fahrzeugkamera zum Zeitpunkt des Durchfahrens durch eine Linkskurve fotografiert wird, wird ein ferner Straßenfluchtpunkt in der Fahrtrichtung ebenfalls bezogen auf einen Referenzpunkt nach links verschoben).
  • Im Gegensatz hierzu wird, wenn der Bereich hinter dem Objektfahrzeug durch die in dem Objektfahrzeug montierte Fahrzeugkamera zum Zeitpunkt des Durchfahrens einer linksseitigen Kurvenstraße 1003 fotografiert wird, ein ferner Straßenfluchtpunkt 1002 in der Fahrtrichtung bezogen auf den Referenzpunkt 1001 nach rechts verschoben (oder wenn der Bereich vor dem Objektfahrzeug von der Fahrzeugkamera zum Zeitpunkt des Durchfahrens durch eine linksseitige Kurvenstraße 1003 fotografiert wird, wird ein ferner Straßenfluchtpunkt in der Fahrtrichtung ebenfalls bezogen auf einen Referenzpunkt nach rechts verschoben), wie in 10 dargestellt.
  • Die Verarbeitungseinheit 605 kann auf Grundlage eines Fahrverlaufs einschließlich der Gierwinkelinformationen, die von der Gierwinkel-Erkennungseinheit 602 erkannt wurden, erkennen, in welchem Ausmaß die Straße, auf der das Objektfahrzeug fährt, Links- oder Rechtskurven aufweist. Anderweitig kann die Verarbeitungseinheit 605 auf Grundlage von momentanen Positionsinformationen und Karteninformationen, die von dem GPS-Sensor 604 erhalten werden, vorhersagen, in welchem Umfang die Straße, auf der das Objektfahrzeug fährt, von nun an Links- oder Rechtskurven aufweist.
  • Ändert sich die Neigung der Straße, auf der das Objektfahrzeug fährt, kann der ferne Straßenfluchtpunkt in der Fahrtrichtung bezogen auf den Referenzpunkt vertikal verschoben werden. 11 stellt ein Profil der Straße, auf der das Objektfahrzeug fährt, dar (die Links-Rechts-Richtung in der Zeichnung ist die Fahrtrichtung des Objektfahrzeugs). Das Bezugszeichen 1101 kennzeichnet ein Profil einer flachen (oder einheitlich geneigten) Straße, das Bezugszeichen 1102 kennzeichnet ein Profil einer Abwärtsstrecke, die an einer Stelle 1110 endet, und ein Bezugszeichen 1103 kennzeichnet ein Profil einer Aufwärtsstrecke, die an der Stelle 1110 endet.
  • Während des Fahrens auf einer flachen (oder einheitlich geneigten) Straße wie durch Bezugszeichen 1101 gekennzeichnet, deckt sich, wenn der Bereich hinter dem Objektfahrzeug durch die in dem Objektfahrzeug montierte Fahrzeugkamera fotografiert wird, der ferne Straßenfluchtpunkt in der Fahrtrichtung nahezu mit dem Fluchtpunkt (Fernpunkt in der Unendlichkeit) in dem durch die Fahrzeugkamera fotografierten Bild, wie in 8 dargestellt.
  • Im Gegensatz hierzu wird, wenn der Bereich an der Rückseite einer Straße 1203 durch die in dem Objektfahrzeug an der Stelle 1110 montierte Fahrzeugkamera am Ende der Abwärtsstrecke mit dem Bezugszeichen 1102 fotografiert wird, der ferne Straßenfluchtpunkt 1202 in der Fahrtrichtung bezogen auf einen Referenzpunkt 1201 wie in 12 dargestellt aufwärts verschoben (oder wenn der Bereich auf der Vorderseite der Straße 1203 durch die Fahrzeugkamera am Beginn einer Aufwärtsstrecke fotografiert wird, wird ein ferner Straßenfluchtpunkt in der Fahrtrichtung bezogen auf einen Referenzpunkt ebenfalls aufwärts verschoben).
  • Wird der Bereich an der Rückseite einer Straße 1303 durch die in dem Objektfahrzeug an der Stelle 1110 montierte Fahrzeugkamera am Ende der Aufwärtsstrecke, wie durch das Bezugszeichen 1103 gekennzeichnet, fotografiert, wie in 13 dargestellt, wird ein ferner Straßenfluchtpunkt 1302 in der Fahrtrichtung bezogen auf einen Referenzpunkt 1301 abwärts verschoben (oder wenn der Bereich auf der Vorderseite der Straße durch die Fahrzeugkamera am Beginn einer Abwärtsstrecke fotografiert wird, wird ein ferner Straßenfluchtpunkt in der Fahrtrichtung bezogen auf einen Referenzpunkt ebenfalls abwärts verschoben).
  • Als Zusammenfassung der Beschreibungen in den 8 bis 13 wird im Bereich hinter dem Objektfahrzeug der ferne Straßenfluchtpunkt auf Grundlage der Richtung der Fahrstrecke des Objektfahrzeugs korrigiert, und in dem Bereich vor dem Objektfahrzeug wird der ferne Straßenfluchtpunkt auf Grundlage der prognostizierten Fahrtrichtung des Objektfahrzeugs (der Fahrbahnoberflächenrichtung entlang der Straße, auf der das Objektfahrzeug fährt) korrigiert.
  • Die Verarbeitungseinheit 605 kann Änderungen in der Neigung der Straße, auf der das Fahrzeug gefahren ist, auf Grundlage eines Fahrverlaufs einschließlich der Nickwinkelinformationen, die von der Nickwinkel-Erkennungseinheit 603 erkannt wurden, erkennen. Anderweitig kann die Verarbeitungseinheit 605 auf Grundlage der momentanen Positionsinformationen und der Karteninformationen, die von dem GPS-Sensor 604 erlangt wurden, voraussagen, dass eine Aufwärts- oder Abwärtsstrecke der Straße, auf der das Objektfahrzeug fährt, beginnt.
  • Daher legt in Schritt S704 die Verarbeitungseinheit 605 den fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs auf Grundlage der Befestigungsposition und des Befestigungswinkels der Fahrzeugkamera und des Fahrverlaufs (Änderungen der Fahrtrichtung des Objektfahrzeugs, die von der Gierwinkel-Erkennungseinheit 602 erlangt wurden, Neigung des Objektfahrzeugs, die von der Nickwinkel-Erkennungseinheit 603 erlangt wurde, und momentane Positionsinformationen, die von dem GPS-Sensor 604 erlangt wurden) fest (das bedeutet, die Verarbeitungseinheit 605 korrigiert die Position des fernen Straßenfluchtpunkts auf Grundlage des Referenzpunkts).
  • Als nächstes definiert die Verarbeitungseinheit 605 ein fernes kleines Bildfeld, um die Erkennung der Leuchten eines Kraftfahrzeugs (die eingeschalteten Frontscheinwerfer oder Schlussleuchten eines fernen Fahrzeugs) auf dem Bildschirm nach der Korrektur des fernen Straßenfluchtpunkts (Schritt S705) zu priorisieren.
  • Beispielsweise muss die einer fernes Sichtfeld-Unterstützung zugeordnete Fahrzeugkamera auf einer Schnellstraße ein fernes Fahrzeug, das sich dem Objektfahrzeug möglicherweise nähert, genauer einfangen. Die Größenverhältnisse der Frontscheinwerfer des fernen Fahrzeugs als Lichtquellen im Sichtfeld sind jedoch klein, und die Anwendung der normalen automatischen Belichtungssteuerung könnte leicht eine Überbelichtung bewirken. Dies liegt daran, dass das ferne kleine Bildfeld definiert ist, um die Erkennung von Leuchten zu priorisieren.
  • Es wird angenommen, dass das ferne Fahrzeug, das sich dem Objektfahrzeug möglicherweise nähert, in der Richtung der Fahrstrecke des Objektfahrzeugs im Bereich hinter dem Objektfahrzeug fährt oder in der prognostizierten Fahrtrichtung des Objektfahrzeugs (der Fahrbahnoberflächenrichtung entlang der Straße, auf der das Objektfahrzeug fährt) in dem Bereich vor dem Objektfahrzeug fährt. Daher ist zu erwarten, dass durch Definieren des fernen kleinen Bildfelds bezogen auf den fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs das gewünschte ferne Fahrzeug innerhalb des fernen kleinen Bildfelds eingefangen werden kann.
  • An Schritt S705 wird das ferne kleine Bildfeld auf Grundlage des fernen Straßenfluchtpunkts, der im vorhergehenden Schritt S704 korrigiert wurde, definiert. 14 stellt ein Beispiel dafür dar, wie ein fernes kleines Bildfeld 1401 bezogen auf einen fernen Straßenfluchtpunkt 1402 in dem von der Fahrzeugkamera fotografierten Bild definiert wird. Die Leuchten (die eingeschalteten Frontscheinwerfer oder Schlussleuchten eines fernen Fahrzeugs) werden lediglich innerhalb des fernen kleinen Bildfelds erkannt, da die Größenverhältnisse der Frontscheinwerfer oder Schlussleuchten der fernen Fahrzeuge als Lichtquellen im Sichtfeld der Fahrzeugkamera klein sind. Das ferne kleine Bildfeld 1401 ist aus dem naheliegenden Grund, dass ein fernes Fahrzeug 1404 auf der Fahrbahnoberfläche unterhalb des fernen Straßenfluchtpunkts im fotografierten Bild fährt, im Wesentlichen an oder in der Nähe einer Position unterhalb des fernen Straßenfluchtpunkts 1402 gesetzt. Dies ist zudem so, weil im Allgemeinen davon auszugehen ist, dass sich die Straßenbeleuchtung weiter oben befindet als die Kamera im Objektfahrzeug und oberhalb des fernen Fluchtpunkts im fotografierten Bild positioniert ist, und somit soll die Straßenbeleuchtung aus dem Bildfeld ausgeschlossen werden. Zudem ist es durch Eingrenzen der Position und Größe des fernen kleinen Bildfelds 1401 auf den Nahbereich des fernen Straßenfluchtpunkts 1402 wie vorstehend beschrieben möglich, andere Lichtquellen als die Fahrzeuge, beispielsweise die Straßenbeleuchtung 1405 zu beiden Seiten einer Straße 1403, aus dem Erkennungsziel auszuschließen.
  • Die Größe und Form (rechteckig, trapezartig oder Ähnliches) des fernen kleinen Bildfelds kann vordefiniert sein. In der nachstehenden Beschreibung werden die Größe und Form des vordefinierten fernen kleinen Bildfelds im Voraus in dem Speicher (ROM) 606 gespeichert. Alternativ hierzu können die Position, Größe und Form des fernen kleinen Bildfelds abhängig von der Position des fernen Straßenfluchtpunkts geändert werden, da sich der ferne Straßenfluchtpunkt aufgrund von Kurven oder Wellen in der Straße, auf der das Objektfahrzeug fährt, vom Referenzpunkt bewegt (siehe die vorstehende Beschreibung und siehe 8 bis 13). Die Einzelheiten eines Prozesses zum Definieren des fernen kleinen Bildfelds, der in Schritt S705 vorgenommen wird, werden im späteren Verlauf beschrieben.
  • Anschließend erstellt die Verarbeitungseinheit 605 ein Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds, das im vorherigen Schritt S705 definiert wurde (Schritt S706). Namentlich werden auf Grundlage der Summe (oder des Durchschnitts) von Helligkeitswerten der Pixel in der Scanzeilenrichtung im fernen kleinen Bildfeld Gewichtungen einzelner Scanzeilen festgelegt, und die Helligkeitswerte der Pixel in der Scanrichtung werden geglättet, indem die Gewichtungen der einzelnen Scanzeilen an einzelnen horizontalen Pixelpositionen innerhalb des fernen kleinen Bildfelds addiert werden, und somit wird ein Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds erstellt.
  • 15 stellt eine Scanzeile 1501 an einer vertikalen Pixelposition v innerhalb eines fernen kleinen Bildfelds 1500 dar. 16 stellt eine horizontale Helligkeitsverteilung innerhalb der Scanzeile 1501 an der vertikalen Pixelposition v dar. In 16 gibt die Querachse die horizontale Pixelposition u innerhalb des fernen kleinen Bildfelds an, und die Längsachse gibt den Helligkeitswert Y(u, v) an jeder horizontalen Pixelposition u an. 17 stellt Gewichtungen einzelner Scanzeilen (v) (Vertikalrichtung) dar, die durch Addieren der Helligkeitswerte der Pixel an derselben Horizontalposition innerhalb des fernen kleinen Bildfelds erlangt wurden. In 17 gibt die Längsachse die Scanposition (vertikale Pixelposition v) innerhalb des fernen kleinen Bildfelds an, und die Querachse gibt die Gewichtung W(v) (die sich aus der Summe der Helligkeitswerte der Pixel ergibt) an jeder Scanposition (= ΣY(ui, v)) an. Wie in 15 dargestellt, wird, wenn das ferne kleine Bildfeld ein fernes Fahrzeug mit eingeschalteten Frontscheinwerfern aufweist, prognostiziert, dass die Summe der Helligkeitswerte, das heißt, die Gewichtung in der Nähe der Scanposition der Frontscheinwerfer größer wird. 18 stellt ein Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds dar, das durch Addieren der Gewichtungen der einzelnen Scanzeilen zu den Helligkeitswerten der Pixel in der Scanrichtung an den einzelnen horizontalen Pixelpositionen (u) innerhalb des fernen kleinen Bildfelds erlangt wird. In 18 gibt die Querachse die horizontale Pixelposition u innerhalb des fernen kleinen Bildfelds an, und die Längsachse gibt den Summenwert Ysum(u) der gewichteten Helligkeit an, der durch Gewichten der Helligkeitswerte der Pixel an der horizontalen Pixelposition u erlangt wird. Der ausführliche Prozess zum Erstellen des Helligkeitshorizontalprofils innerhalb des fernen kleinen Bildfelds, der in Schritt S706 vorgenommen wird, wird im späteren Verlauf beschrieben.
  • Dann überprüft die Verarbeitungseinheit 605 auf Grundlage des Helligkeitshorizontalprofils, das im vorhergehenden Schritt S706 erstellt wurde, ob Leuchten eines Fahrzeugs (das heißt, die Frontscheinwerfer eines fernen entgegenkommenden Fahrzeugs (oder nachfolgenden Fahrzeugs) oder die Schlussleuchten eines vorausfahrenden Fahrzeugs) innerhalb des fernen kleinen Bildfelds, das im vorhergehenden Schritt S705 definiert wurde, vorhanden sind (Schritt S707). Wie in 15 dargestellt, wird im fernen kleinen Bildfeld 1500, das zwei Lichtpunkte (die Frontscheinwerfer eines fernen Fahrzeugs) aufweist, angenommen, dass ein Helligkeitshorizontalprofil mit zwei Spitzenwerten (Höchstpunkten) wie in 18 dargestellt erstellt wird. Das ausführliche Verfahren eines Prozesses zum Überprüfen des Vorhandenseins oder der Abwesenheit der Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds, das in Schritt S707 vorgenommen wird, wird im späteren Verlauf beschrieben.
  • Existieren keine Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds (Schritt S707: Nein), kehrt die Verarbeitungseinheit 605 zu Schritt S701 zurück, um eine normale automatische Belichtungssteuerung der Fahrzeugkamera vorzunehmen. Die Fahrzeugkamera hat jedoch bereits in den für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus (im späteren Verlauf beschrieben) gewechselt. Um dies in den normalen automatischen Belichtungssteuerungsmodus (Schritt S711: Ja) zu ändern, wird der Fahrer des Objektfahrzeugs im Voraus über die Bildausgabeeinheit 608 oder die Tonausgabeeinheit 609 (Schritt S712) über die Modusänderung benachrichtigt.
  • Existieren Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds (Schritt S707: Ja), optimiert die Verarbeitungseinheit 605 die automatische Belichtungssteuerung der Fahrzeugkamera, so dass die zwei Lichtpunkte (die rechten und linken Frontscheinwerfer eines entgegenkommenden Fahrzeugs (oder nachfolgenden Fahrzeugs) oder die rechten und linken Schlussleuchten eines vorausfahrenden Fahrzeugs) im für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus getrennt werden können (Schritt S710). Um den Modus von dem normalen automatischen Belichtungssteuerungsmodus in den für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus zu ändern (Schritt S708: Ja), wird der Fahrer des Objektfahrzeugs jedoch im Voraus über die Bildausgabeeinheit 608 oder die Tonausgabeeinheit 609 über die Modusänderung benachrichtigt (Schritt S709).
  • Die Belichtungssteuerungsmodi sind nicht notwendigerweise auf den normalen automatischen Belichtungssteuerungsmodus und den für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus beschränkt, sondern können einen Zwischenmodus aufweisen. Beispielsweise können die Belichtungssteuerung × α im normalen automatischen Belichtungssteuerungsmodus und die Belichtungssteuerung × β im für die Lichtpunkttrennung optimierten automatischen Belichtungssteuerungsmodus derart vorgenommen werden (α + β = 1), dass α und β abhängig von Straßenumgebungen und Außenlichtquellenumgebungen gesteuert werden.
  • Bei dieser Ausführungsform wird in Schritt S707 bestimmt, ob die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, und dann wird in Schritt S710 die Belichtungssteuerung vorgenommen. Alternativ hierzu kann umgekehrt die Belichtungssteuerung vorgenommen werden, und dann kann das Vorhandensein oder die Abwesenheit der Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds bestimmt werden.
  • 19 gibt ein Ablaufdiagramm für einen Prozess zum Bestimmen, ob in den Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll, der in Schritt S703 des in 7 dargestellten Ablaufdiagramms vorgenommen wird, an.
  • Zuerst überprüft die Verarbeitungseinheit 605, ob ein Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus aktiviert ist (Schritt S1901). Der Benutzer (beispielsweise der Fahrer des Objektfahrzeugs) darf eine Moduseinstellung über die Einstellungseingabeeinheit 607 machen und den Bestimmungsprozess abhängig von den Einstellungsbedingungen und anderen vornehmen. Ist der Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus nicht aktiviert (Schritt S1901: Nein), liefert die Verarbeitungseinheit 605 das negative Bestimmungsergebnis zum Wechsel des Fahrzeuglichtquelle-Erkennungsmodus zurück (Schritt S1905).
  • Wenn es nicht notwendig ist, die Leuchten eines fernen Fahrzeugs aus dem von der Fahrzeugkamera fotografierten Bild zu erkennen, kann der Fahrer den Wechsel in die Fahrzeuglichtquellenerkennung über den Bildsensor 601 deaktivieren, so dass die normale automatische Belichtungssteuerung dauerhaft auf die Fahrzeugkamera angewandt wird. Beispielsweise kann der Fahrer den Wechsel in die Fahrzeuglichtquellenerkennung deaktivieren, um nicht nur das ferne Fahrzeug, sondern auch die ganze Landschaft mit der Fahrzeugkamera zu fotografieren.
  • Ist der Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus aktiviert (Schritt S1901: Ja), überprüft die Verarbeitungseinheit 605 ferner, ob das Objektfahrzeug momentan auf einer Schnellstraße fährt (Schritt S1902).
  • Die Verarbeitungseinheit 605 kann auf Grundlage der Positionsinformationen, die vom GPS-Sensor 604 erlangt werden, überprüfen, ob das Objektfahrzeug momentan auf einer Schnellstraße fährt. Alternativ hierzu kann die Verarbeitungseinheit 605 durch Analyse des Bilds, das vom Bildsensor 601 fotografiert wurde, bestimmen, ob die Straße, auf der das Objektfahrzeug fährt, eine Schnellstraße ist. Alternativ hierzu kann die Verarbeitungseinheit 605 auf Grundlage dessen, ob das Objektfahrzeug mittels eines elektronischen Maut-Bezahlsystems ETC eine Schnellstraßenmaut bezahlen muss (wenn das Objektfahrzeug beispielsweise über Zufahrtsinformationen verfügt, die von einer fahrzeugseitigen Maut-Bezahlvorrichtung an einer Mautstationsantenne auf einer Schnellstraße empfangen wurden) bestimmen, ob das Objektfahrzeug momentan auf einer Schnellstraße fährt.
  • Auf einer Schnellstraße ist davon auszugehen, dass das Objektfahrzeug und die umgebenden Fahrzeuge mit hohen Geschwindigkeiten fahren. Die Schnellstraße ist gerade oder weist leichte Kurven auf und ist übersichtlich. Will das Objektfahrzeug beispielsweise auf einer Schnellstraße in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel die Spur wechseln, kann sich ein fernes nachfolgendes Fahrzeug dem Objektfahrzeug schnell nähern, oder das Objektfahrzeug kann sich einem fernen vorausfahrenden Fahrzeug schnell nähern. Dementsprechend ist es notwendig, eine automatische Belichtungssteuerung vorzunehmen, die für eine Fahrzeuglichtquellenerkennung und Trennung von Lichtpunkten (rechte und linke Frontscheinwerfer) des fernen Fahrzeugs optimiert ist (oder es wird eine Belichtungssteuerung vorgenommen, bei der der Trennung von Lichtpunkten des fernen Fahrzeugs Priorität eingeräumt wird). im Gegensatz dazu ist es auf einer Landstraße oder einer Stadtstraße unwahrscheinlich, dass sich das Objektfahrzeug und ein fernes Fahrzeug schnell aneinander annähern. Stattdessen muss Fahrzeugen und Fußgängern in der Nähe des Objektfahrzeugs Aufmerksamkeit geschenkt werden. Zudem sind die meisten solcher Straßen gekrümmt und bieten schlechte Sichtverhältnisse. Daher besteht auf anderen Straßen als Schnellstraßen keine Notwendigkeit für eine automatische Belichtungssteuerung, die für Fahrzeuglichtquellenerkennung und Trennung von Lichtpunkten eines fernen Fahrzeugs optimiert ist.
  • Fährt das Objektfahrzeug momentan nicht auf einer Schnellstraße (Schritt S1902: Nein), ist es nicht notwendig, in den Fahrzeuglichtquelle-Erkennungsmodus zu wechseln. Dementsprechend liefert die Verarbeitungseinheit 605 das negative Bestimmungsergebnis über den Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus zurück (Schritt S1905).
  • Fährt das Objektfahrzeug momentan auf einer Schnellstraße (Schritt S1902: Ja), überprüft die Verarbeitungseinheit 605 ferner, ob das Objektfahrzeug momentan in einer dunklen Fahrumgebung fährt (Schritt S1903).
  • Beispielsweise können die Nachtzeit und das Innere eines Tunnels als dunkle Fahrumgebungen bezeichnet werden. Die Verarbeitungseinheit 605 kann beispielsweise auf Grundlage von Zeitinformationen einer Systemuhr bestimmen, ob momentan Nacht ist. Alternativ hierzu kann die Verarbeitungseinheit 605 auf Grundlage der momentanen Positionsinformationen und der Karteninformationen, die von dem GPS-Sensor 604 erlangt werden, bestimmen, ob das Objektfahrzeug in einem Tunnel fährt. Alternativ hierzu kann die Verarbeitungseinheit 605 auf Grundlage von Helligkeitsinformationen des Bilds, das von dem Bildsensor 601 fotografiert wurde, bestimmen, ob das Objektfahrzeug in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel fährt.
  • Fährt das Objektfahrzeug nicht in einer dunklen Fahrumgebung (Schritt S1903: Nein), ist es möglich, ein fernes Fahrzeug selbst mit der normalen Belichtungssteuerung, bei der der gesamte Bildschirm einer durchschnittlichen Belichtungssteuerung unterzogen wird, präzise einzufangen. Das bedeutet, es besteht keine Notwendigkeit, in den Fahrzeuglichtquelle-Erkennungsmodus zu wechseln, und daher liefert die Verarbeitungseinheit 605 das negative Bestimmungsergebnis über den Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus zurück (Schritt S1905).
  • Im Gegensatz dazu liefert die Verarbeitungseinheit 605, wenn der Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus aktiviert ist und für das Objektfahrzeug bestimmt wurde, dass es in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel fährt (Schritt S1903: Ja), das Bestätigungsergebnis der Bestimmung über den Wechsel in den Fahrzeuglichtquelle-Erkennungsmodus zurück (Schritt S1904).
  • Bei der Bestimmung mittels des in 19 gezeigten Prozesses, ob in den Fahrzeuglichtquelle-Erkennungsmodus gewechselt werden soll, nimmt die Verarbeitungseinheit 605 im nächsten Schritt S704 einen Prozess vor, um den fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs in dem von der Fahrzeugkamera fotografierten Bild zu korrigieren.
  • Bezugnehmend auf die 8 bis 12 wurde bereits erläutert, dass der ferne Straßenfluchtpunkt in der Fahrtrichtung abhängig von Kurven oder Änderungen der Neigung der Straße, auf der das Objektfahrzeug fährt, korrigiert werden muss. Der ferne Straßenfluchtpunkt in der Fahrtrichtung bezieht sich hierin auf einen Punkt, an dem die Kantenlinien der Straße zusammenlaufen. Der Fluchtpunkt ist theoretisch ein Fernpunkt in der Unendlichkeit. Der ferne Straßenfluchtpunkt kann als ein Punkt, an dem sich gerade Linien, die ausgehend vom optischen Fluss (Bewegungsvektoren) verlängert werden, in dem fotografierten Bild überkreuzen, exakt bestimmt werden.
  • In der Realität ist nicht notwendig, das Vorhandensein eines nachfolgenden Fahrzeugs in der Unendlichkeit zu überprüfen, wenn das Objektfahrzeug auf einer Schnellstraße die Spur wechseln möchte. Im Bereich hinter dem Objektfahrzeug kann der Ort in einer vorgegebenen Entfernung L (beispielsweise L = etwa 150 Meter) hintendran in der Richtung der Fahrstrecke des Objektfahrzeugs als ein ungefährer ferner Straßenfluchtpunkt festgelegt werden. In ähnlicher Weise kann in dem Bereich vor dem Objektfahrzeug der Ort in der vorgegebenen Entfernung L davor in der prognostizierten Fahrtrichtung des Objektfahrzeugs (der Fahrbahnoberflächenrichtung entlang der Straße, auf der das Objektfahrzeug fährt) als ein geeigneter Straßenfluchtpunkt festgelegt werden.
  • Bezugnehmend auf 20 wird ein Verfahren zum Berechnen eines ungefähren fernen Straßenfluchtpunkts an einer Fahrzeugposition 2002 in der vorgegebenen Entfernung L hinter einer momentanen Objektfahrzeugposition 2001 auf einer Schnellstraße 2000, die leicht nach rechts gekurvt ist, erläutert. Krümmt sich die Straße in einem Winkel δθ an einer Stelle in einer Entfernung 51 hinter der momentanen Fahrzeugposition 2001, ist es möglich, einen Winkel θL der Krümmung zu der Fahrzeugposition 2002 in der vorgegebenen Entfernung L hinter dem Objektfahrzeug zu berechnen, indem die Winkel δθ zwischen der momentanen Fahrzeugposition 2001 und der Fahrzeugposition 2002 in der vorgegebenen Entfernung L hinter der momentanen Fahrzeugposition 2001 integriert werden, und den fernen Straßenfluchtpunkt auf Grundlage der Entfernung L und des Winkels θL zu schätzen, wie durch den nachstehenden mathematischen Ausdruck (2) gezeigt ist. Der Krümmungswinkel δθ der Straße in einer Entfernung δ1 hinter dem Objektfahrzeug kann beispielsweise durch die Gierwinkel-Erkennungseinheit 602 als Gierrate des Objektfahrzeugs gemessen werden. Alternativ hierzu kann, um den fernen Straßenfluchtpunkt in dem Bereich vor der Fahrtrichtung zu schätzen, der Krümmungswinkel δθ der Straße in der Entfernung 51 vor dem Objektfahrzeug auf Grundlage der momentanen Positionsinformationen und der Karteninformationen, die von dem GPS-Sensor 504 erlangt wurden, bestimmt werden.

    [Mathematische Formel 2] θ L = 0 L δ θ l δ l
    Figure DE202016008786U1_0002
  • Bezugnehmend auf 21 wird ein Verfahren zum Berechnen des ungefähren fernen Straßenfluchtpunkts an einer Fahrzeugposition 2102 in der vorgegebenen Entfernung L hinter einer momentanen Objektfahrzeugposition 2101 an einer Stelle am Ende einer Aufwärtsstrecke 2100 erläutert. Wird eine Änderung des Neigungswinkels der Straße an einer Stelle in der Entfernung 51 hinter der momentanen Fahrzeugposition 2101 als δϕ bezeichnet, ist es möglich, einen Neigungswinkel ϕL zu der Fahrzeugposition 2102 in der vorgegebenen Entfernung L hinter dem Objektfahrzeug zu berechnen, indem die Änderungen δϕ des Neigungswinkels zwischen der momentanen Fahrzeugposition 2101 und der Fahrzeugposition 2102 in der vorgegebenen Entfernung L hinter der momentanen Fahrzeugposition 2101 integriert werden, und den fernen Straßenfluchtpunkt auf Grundlage der Entfernung L und des Neigungswinkels ϕL zu schätzen, wie durch den nachstehenden mathematischen Ausdruck (3) gezeigt. Die Änderung δΦ des Neigungswinkels der Straße in der Entfernung δ1 hinter dem Objektfahrzeug kann beispielsweise durch die Nickwinkel-Erkennungseinheit 603 als Nickrate des Objektfahrzeugs gemessen werden.

    [Mathematische Formel 3] ϕ L = 0 L δ ϕ l δ l
    Figure DE202016008786U1_0003
  • Die Verarbeitungseinheit 605 definiert ein fernes kleines Bildfeld zum Erkennen von Fahrzeuglichtquellen (Leuchten eines Fahrzeugs) auf Grundlage des korrigierten fernen Straßenfluchtpunkts im nächsten Schritt S705. 14 stellt ein Beispiel dafür dar, wie das ferne kleine Bildfeld im allereinfachsten Fall definiert ist, das heißt, das ferne kleine Bildfeld ist im Bereich hinter dem Objektfahrzeug in der Fahrtrichtung auf einer geraden Straße definiert. Die 22 und 23 stellen andere Beispiele zum Definieren des fernen kleinen Bildfelds dar. Die Bildhöhe einer Kamera variiert abhängig von ihrem optischen Projektionssystem. Solange es sich jedoch nicht um eine Weitwinkelkamera handelt, nimmt die Kamera in vielen Fällen eine Lochprojektion als Zentralprojektion vor, und der Winkel der Kamera wird gemäß der Bildhöhe des Bildschirms bestimmt. Dementsprechend wird die Richtung der Straßenspezifikation durch die Bildhöhe des Bildschirms entschieden.
  • 22 stellt ein Beispiel dafür dar, wie das ferne kleine Bildfeld im Bereich hinter dem Objektfahrzeug in der Fahrtrichtung während des Durchfahrens einer rechtsseitigen Kurvenstraße definiert ist. Wie vorstehend zu 9 beschrieben wird in diesem Fall ein ferner Straßenfluchtpunkt 2202 in der Fahrtrichtung von einem Referenzpunkt 2201 nach links verschoben. Ein fernes kleines Bildfeld 2204 ist vorzugsweise an einer Position definiert, die von einer Position direkt unterhalb des fernen Straßenfluchtpunkts 2202 geringfügig nach rechts verschoben ist und so die Situationen berücksichtigt, in denen ein fernes Fahrzeug 2203 sich entlang einer Straße 2200 nach rechts bewegt und verhindert, dass die Straßenbeleuchtung (nicht dargestellt) an den Seiten der Straße in das ferne kleine Bildfeld eintritt. Die nachstehende Beschreibung wird auch auf den Fall angewandt, in dem die prognostizierte Fahrtrichtung des Objektfahrzeugs Kurven nach links aufweist.
  • 23 stellt ein Beispiel dafür dar, wie das ferne kleine Bildfeld im Bereich hinter dem Objektfahrzeug in der Fahrtrichtung während Durchfahrens einer linksseitigen Kurvenstraße definiert ist. Wie vorstehend bezugnehmend auf 10 beschrieben, wird in diesem Fall ein ferner Straßenfluchtpunkt 2302 in der Fahrtrichtung von einem Referenzpunkt 2301 nach rechts verschoben. Ein fernes kleines Bildfeld 2304 ist vorzugsweise an einer Position definiert, die von einer Position direkt unterhalb des fernen Straßenfluchtpunkts 2302 geringfügig nach links verschoben ist und so die Situation berücksichtigt, in der ein fernes Fahrzeug 2303 sich entlang einer Straße 2300 nach links bewegt und verhindert, dass die Straßenbeleuchtung (nicht dargestellt) an den Seiten der Straße in das ferne kleine Bildfeld eintritt. Die nachstehende Beschreibung wird auch auf den Fall angewandt, in dem die prognostizierte Fahrtrichtung des Objektfahrzeugs Kurven nach links aufweist.
  • Bei den in den 14, 22 und 23 dargestellten Beispielen wird das rechteckige ferne kleine Bildfeld definiert. Alternativ hierzu kann das ferne kleine Bildfeld in einer beliebigen sonstigen Form wie einem Dreieck, einem Kreissektor oder einem Trapez definiert sein. Wenn die Kantenlinien der Straße in Richtung der Entfernung (das heißt, des Fluchtpunkts) beim Fahren enger werden, enthält das rechteckige ferne kleine Bildfeld nutzlose Bereiche außerhalb der Straße (mit anderen Worten, die Bereiche außerhalb der Fahrzeugscheinwerfer), wenn es definiert wird. Im Gegensatz hierzu kann die Verwendung des sich verjüngenden fernen kleinen Bildfelds, das in einer dreieckigen, kreissektorförmigen oder trapezartigen Form gebildet ist, das Auftreten nutzloser Bereiche ausblenden.
  • 35 stellt ein Beispiel dafür dar, wie ein dreieckiges fernes kleines Bildfeld 3501 bezogen auf einen fernen Straßenfluchtpunkt 3502 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Zuerst wird einer der Scheitelpunkte des Dreiecks zum fernen Straßenfluchtpunkt 3502 ausgerichtet. Dann werden die beiden Seiten des Dreiecks vom fernen Straßenfluchtpunkt 3502 ausgehend entlang rechter und linker Kantenlinien 3503 und 3504 der Straße verlängert, und das Dreieck in diesem Zustand wird als fernes kleines Bildfeld 3501 definiert. Die rechten und linken Kantenlinien 3503 und 3504 der Straße werden von einer Fahrspur-Erkennungseinheit erkannt. Die Fahrspur-Erkennungseinheit erkennt die Kantenlinien der Straße, die Fahrspurmarkierungen und weißen Linien in der Nähe von Randstreifen und sonstige durch die Verwendung eines Kantenerkennungsalgorithmus und erkennt die rechten und linken Kantenlinien 3503 und 3504 der Straße auf Grundlage der erkannten Linien und Markierungen. Durch das Definieren des dreieckigen fernen kleinen Bildfelds 3501 ist es möglich, zu vermeiden, dass Lichtquellen wie Straßenbeleuchtung in das ferne kleine Bildfeld 3501 eintreten, und die auf der Straße vorhandenen Fahrzeugleuchten zuverlässig zu erkennen. Darüber hinaus ist es durch das Definieren des dreieckigen fernen kleinen Bildfelds 3501 möglich, den Bereich des fernen kleinen Bildfelds 3501 zu erweitern, während gleichzeitig vermieden wird, dass die Straßenbeleuchtung in das ferne kleine Bildfeld 3501 eintritt.
  • 36 stellt ein weiteres Beispiel dafür dar, wie ein dreieckiges fernes kleines Bildfeld 3601 bezogen auf einen fernen Straßenfluchtpunkt 3602 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Der Unterschied zu dem in 35 dargestellten Beispiel liegt darin, dass das dreieckige ferne kleine Bildfeld 3601 für Regionen, in denen Fahrer auf der linken Seite der Straße fahren, entlang der linken Spur definiert ist. Zuerst wird einer der Scheitelpunkte des Dreiecks zum fernen Straßenfluchtpunkt 3602 ausgerichtet. Dann wird, wenn die Fahrspur-Erkennungseinheit (vorstehend beschrieben) eine linke Kantenlinie (oder Fahrspurmarkierung in der Nähe des linken Randstreifens) 3603 und eine Mittellinie 3604 erkennt, ein Dreieck gebildet, so dass der ferne Straßenfluchtpunkt 3602 an der oberen Spitze gesetzt ist, und zwei Seiten des Dreiecks werden entlang der linken Kantenlinie (oder Fahrspurmarkierung) 3603 und der Mittellinie 3604 verlängert, und dann wird das Dreieck in diesem Zustand als fernes kleines Bildfeld 3601 definiert. Obwohl dies nicht dargestellt ist, kann für Regionen, in denen Fahrer auf der rechten Seite der Straße fahren, ein Dreieck gebildet werden, bei dem der ferne Straßenfluchtpunkt an der oberen Spitze gesetzt ist und die beiden Seiten entlang der rechten Kantenlinie (oder Fahrspurmarkierung in der Nähe des rechten Randstreifens) und der Mittellinie der Straße verlängert werden, und das Dreieck in diesem Zustand kann als ein fernes kleines Bildfeld definiert werden. Auf diese Weise ist es, indem das dreieckige ferne kleine Bildfeld so definiert wird, dass es nur die linke (oder rechte) Fahrspur aufweist, möglich, einen zusätzlichen Vorzug des Vermeidens falscher Erkennung (oder unnötiger Erkennung) der Schlussleuchten von Fahrzeugen, die auf der gegenüberliegenden Fahrspur fahren, hervorzubringen.
  • 37 stellt ein Beispiel dafür dar, wie ein kreissektorförmiges fernes kleines Bildfeld 3701 bezogen auf einen fernen Straßenfluchtpunkt 3702 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Das Beispiel in 37 richtet sich wie beim Beispiel in 36 an Regionen, in denen Fahrer auf der linken Seite der Straße fahren. Zuerst wird der Mittelpunkt des Kreissektors zu dem fernen Straßenfluchtpunkt 3702 ausgerichtet. Dann erkennt die Fahrspur-Erkennungseinheit (vorstehend beschrieben) eine linke Kantenlinie (oder Fahrspurmarkierung in der Nähe des linken Randstreifens) 3703 und eine Mittellinie 3704 der Straße, der Kreissektor wird so gebildet, dass der ferne Straßenfluchtpunkt 3702 zentriert ist, und zwei Radiallinien werden entlang der linken Kantenlinie (oder Fahrspurmarkierung) 3703 und der Mittellinie 3704 der Straße gezogen, und dann wird der Kreissektor in diesem Zustand als fernes kleines Bildfeld 3701 definiert. Obwohl dies nicht dargestellt ist, kann für Regionen, in denen Fahrer auf der rechten Seite der Straße fahren, ein Kreissektor gebildet werden, bei dem der ferne Straßenfluchtpunkt zentriert ist und die beiden Radiallinien entlang der rechten Kantenlinie (oder Fahrspurmarkierung in der Nähe des rechten Randstreifens) und der Mittellinie der Straße gezogen werden, und der Kreissektor in diesem Zustand kann als fernes kleines Bildfeld definiert werden. Auf diese Weise ist es durch Definieren nicht des dreieckigen fernen kleinen Bildfelds, sondern des kreissektorförmigen fernen kleinen Bildfelds möglich, den Bereich des fernen kleinen Bildfelds weiter auszuweiten (ohne nutzlose Bereiche aufzuweisen) und die Wahrscheinlichkeit der Erkennung der Frontscheinwerfer von nachfolgenden Fahrzeugen (oder der Schlussleuchten von vorausfahrenden Fahrzeugen) weiter zu verstärken.
  • 38 stellt ein Beispiel dafür dar, wie ein trapezförmiges fernes kleines Bildfeld 3801 bezogen auf einen fernen Straßenfluchtpunkt 3802 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Zuerst werden die obere und die untere Basis eines Trapezes in vorgegebenen Positionen vor dem fernen Straßenfluchtpunkt 3802 gesetzt. Dann wird, wenn die Fahrspur-Erkennungseinheit (vorstehend beschrieben) rechte und linke Kantenlinien der Straße (oder Fahrspurmarkierungen in der Nähe des rechten und linken Seitenstreifens) 3803 und 3804 erkennt, das Trapez, das aus den oberen und unteren Basen und einem Paar Schenkel entlang der rechten und linken Kantenlinie 3803 und 3804 der Straße besteht, als fernes kleines Bildfeld 3801 definiert. Auf diese Weise ist es durch Definieren des trapezförmigen fernen kleinen Bildfelds möglich, ausschließlich die Frontscheinwerfer des Fahrzeugs zu erkennen, das dem Objektfahrzeug unmittelbar folgt (oder ausschließlich die Schlussleuchten des Fahrzeugs zu erkennen, das dem Objektfahrzeug unmittelbar vorausfährt), um eine falsche Erkennung der Frontscheinwerfer von Fahrzeugen, die dem unmittelbar nachfolgenden Fahrzeug folgen (oder der Schlussleuchten von Fahrzeugen, die dem unmittelbar vorausfahrenden Fahrzeug vorausfahren) zu vermeiden.
  • 39 stellt ein weiteres Beispiel dafür dar, wie ein trapezförmiges fernes kleines Bildfeld 3901 bezogen auf einen fernen Straßenfluchtpunkt 3902 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Der Unterschied zu dem in 38 dargestellten Beispiel liegt darin, dass das ferne kleine Bildfeld 3901 für Regionen, in denen Fahrer auf der linken Seite der Straße fahren, entlang der linken Spur definiert ist. Zuerst werden die obere und die untere Basis eines Trapezes in vorgegebenen Positionen vor dem fernen Straßenfluchtpunkt 3902 gesetzt. Dann wird, wenn die Fahrspur-Erkennungseinheit (vorstehend beschrieben) eine linke Kantenlinie (oder Fahrspurmarkierung in der Nähe des linken Randstreifens) 3903 und eine Mittellinie 3904 oder Straße erkennt, das Trapez, das aus den oberen und unteren Basen und einem Paar Schenkel entlang der linken Kantenlinie 3903 und der Mittellinie 3904 der Straße besteht, als fernes kleines Bildfeld 3901 definiert. Obwohl dies nicht dargestellt ist, kann für Regionen, in denen Fahrer auf der rechten Seite der Straße fahren, das Trapez, das aus den oberen und unteren Basen, die an vorgegebenen Positionen bezogen auf den fernen Straßenfluchtpunkt gesetzt sind, und einem Paar Schenkel entlang der rechten Kantenlinie (oder Fahrspurmarkierung in der Nähe des rechten Randstreifens) und der Mittellinie der Straße besteht, als fernes kleines Bildfeld definiert werden.
  • 40 stellt ein weiteres Beispiel eines fernen kleinen Bildfelds dar, das bezogen auf einen fernen Straßenfluchtpunkt 4000 in einem von der Fahrzeugkamera fotografierten Bild definiert wird. Bei dem dargestellten Beispiel sind definiert: ein erstes fernes kleines Bildfeld 4001, das aus einem Kreissektor besteht, bei dem der Mittelpunkt zum fernen Straßenfluchtpunkt 4000 ausgerichtet ist; und ein ringförmiges zweites fernes kleines Bildfeld 4002, das zum ersten fernen kleinen Bildfeld 4001 konzentrisch ist (mit anderen Worten, bei dem der Mittelpunkt zum fernen Straßenfluchtpunkt 4000 ausgerichtet ist). Zuerst wird der Mittelpunkt des Kreissektors zu dem fernen Straßenfluchtpunkt 4000 ausgerichtet. Dann wird, wenn die Fahrspur-Erkennungseinheit (vorstehend beschrieben) eine linke Kantenlinie (oder Fahrspurmarkierung in der Nähe des linken Randstreifens) 4003 und eine Mittellinie 4004 der Straße erkennt, der Kreissektor so gebildet, dass der ferne Straßenfluchtpunkt 4000 zentriert ist, und zwei Radiallinien werden entlang der linken Kantenlinie (oder Fahrspurmarkierung) 4003 und der Mittellinie 4004 gezogen, und dann wird der Kreissektor in diesem Zustand als ein erstes fernes kleines Bildfeld 4001 definiert. Zusätzlich wird das ringförmige zweite ferne kleine Bildfeld 4002 außerhalb des ersten fernen kleinen Bildfelds 4001 definiert, um einen Innendurchmesser und einen Außendurchmesser in vorgegebenen Abständen vom fernen Straßenfluchtpunkt 4000 zu erhalten und zum ersten fernen kleinen Bildfeld 4001 konzentrisch zu sein. Obwohl dies nicht dargestellt ist, können für Regionen, in denen die Fahrer auf der rechten Seite der Straße fahren, die ersten und zweiten fernen kleinen Bildrahmen so definiert sein, dass sie bezogen auf die vorhergehenden zweiseitig symmetrisch sind.
  • Als Zusammenfassung der Beschreibungen in den 22, 23 und 35 bis 40 sollte das ferne kleine Bildfeld auf Grundlage der relativen Position des fernen Straßenfluchtpunkts in der Fahrtrichtung des Objektfahrzeugs zum Referenzpunkt (Fernpunkt in der Unendlichkeit in dem von der Fahrzeugkamera fotografierten Bild) definiert werden. Durch Anpassen der Position des fernen kleinen Bildfelds auf der Grundlage der relativen Position des fernen Straßenfluchtpunkts in der Fahrtrichtung des Objektfahrzeugs zum Referenzpunkt besteht der Vorzug, dass selbst wenn unnötige Lichtquellen wie die Straßenbeleuchtung an den Seiten der Straße, auf der das Objektfahrzeug fährt, in das Sichtfeld der Fahrzeugkamera eintreten, die Lichtquellen aus dem fernen kleinen Bildfeld ausgeschlossen werden können.
  • 24 zeigt ein Ablaufdiagramm eines Prozesses zum Definieren des fernen kleinen Bildfelds, um die Erkennung von Kraftfahrzeugleuchten, die in Schritt S705 des in 7 gezeigten Ablaufdiagramms ausgeführt wird, zu priorisieren.
  • Die Verarbeitungseinheit 605 liest zuerst den fernen Straßenfluchtpunkt, der im vorhergehenden Schritt S704 korrigiert wurde (Schritt S2401).
  • Als nächstes liest die Verarbeitungseinheit 605 die Position des Referenzpunkts aus dem Speicher (ROM) 606 (Schritt S2402). Dann vergleicht die Verarbeitungseinheit 605 die Positionen des Referenzpunkts und des fernen Straßenfluchtpunkts (Schritt S2403) und legt die Mittenposition des fernen Straßenfluchtpunkts auf Grundlage der Ergebnisse des Vergleichs fest (Schritt S2404). Beispielsweise legt, wie in den 22 und 23 dargestellt, wenn der ferne Straßenfluchtpunkt vom Referenzpunkt nach rechts verschoben wird, die Verarbeitungseinheit 605 die Mittenposition des fernen kleinen Bildfelds, das von einer Position direkt unterhalb des fernen Straßenfluchtpunkts nach links verschoben wurde, fest. Im Gegensatz hierzu legt, wenn der ferne Straßenfluchtpunkt vom Referenzpunkt nach links verschoben wird, die Verarbeitungseinheit 605 die Mittenposition des fernen kleinen Bildfelds, das von einer Position direkt unterhalb des fernen Straßenfluchtpunkts nach rechts verschoben wurde, fest.
  • Als nächstes liest die Verarbeitungseinheit 605 die Größe und Form des fernen kleinen Bildfelds aus dem Speicher (ROM) 606 (Schritt S2405) und legt die Positionen des Ausgangspunkts (links oben) und Endpunkts (rechts unten) des fernen kleinen Bildfelds fest (Schritt S2406).
  • Die Form des fernen kleinen Bildfelds ist im Wesentlichen ein Rechteck im Querformat. Das ferne kleine Bildfeld kann jedoch abhängig von der Position des fernen Straßenfluchtpunkts oder Ähnlichem in eine andere Form wie ein Dreieck, einen Kreissektor oder ein Trapez geändert werden (siehe 35 bis 40).
  • Der Umfang des fernen kleinen Bildfelds ist vorzugsweise so festgelegt, dass keine anderen Lichtquellen als ein fernes Fahrzeug, beispielsweise die Straßenbeleuchtung an den Seiten der Straße, in das Bildfeld eintreten. Wie vorstehend beschrieben wird, wenn der ferne Straßenfluchtpunkt vom Referenzpunkt nach rechts verschoben wird, die Mittenposition des fernen kleinen Bildfelds an einer Position festgelegt, die von einer Position direkt unterhalb des fernen Straßenfluchtpunkts nach links verschoben ist (siehe 23), und im Gegensatz hierzu wird, wenn der ferne Straßenfluchtpunkt vom Referenzpunkt nach links verschoben wird, die Mittenposition des fernen kleinen Bildfelds an einer Position festgelegt, die von einer Position direkt unterhalb des fernen Straßenfluchtpunkts (siehe 22) nach rechts verschoben wird, wodurch verhindert wird, dass die Straßenbeleuchtung in das ferne kleine Bildfeld eintritt. Zusätzlich kann das ferne kleine Bildfeld in eine andere Form wie ein Dreieck, einen Kreissektor oder ein Trapez geändert werden, so dass die Straßenbeleuchtung nicht in das ferne kleine Bildfeld eintritt.
  • Alternativ hierzu kann die Mittenposition des fernen kleinen Bildfelds bezogen nicht auf den fernen Straßenfluchtpunkt, der auf dem von der Fahrzeugkamera fotografierten Bild genau festgelegt ist, sondern auf einen fernen Straßenfluchtpunkt, der auf Grundlage eines Fahrverlaufs des Objektfahrzeugs (Informationen zu Änderungen von Gierwinkel und Nickwinkel) geschätzt wird, festgelegt werden, wie vorstehend bezugnehmend auf die 20 und 21 beschrieben.
  • Die Verarbeitungseinheit 605 erstellt ein Helligkeitshorizontalprofil innerhalb des definierten fernen kleinen Bildfelds im nächsten Schritt S706. Wie vorstehend bezugnehmend auf die 15 bis 18 beschrieben, wird das Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds erstellt, indem die Gewichtungen der einzelnen Scanzeilen auf Grundlage der Summe der Helligkeitswerte der Pixel in der Scanzeilenrichtung festgelegt werden, so dass die Gewichtungen der einzelnen Scanzeilen zu den Helligkeitswerten der Pixel in der Scanrichtung der einzelnen horizontalen Pixelpositionen innerhalb des fernen kleinen Bildfelds addiert werden, um die Helligkeitswerte zu glätten.
  • Die 25A und 25B zeigen ein Ablaufdiagramm eines Prozesses zum Erstellen des Helligkeitshorizontalprofils innerhalb des fernen kleinen Bildfelds. Bei dem in den Figuren beschriebenen Prozess werden Helligkeitsinformationen für eine Scanzeile, die gerade gelesen wird, im Speicher aufgezeichnet, und die Helligkeitsinformationen werden auf Grundlage der Summe der Helligkeitswerte in derselben Scanzeile gewichtet, wodurch die Helligkeitswerte in der Scanrichtung gewichtet werden.
  • Die Verarbeitungseinheit 605 setzt zuerst einen Vertikalzeilenhelligkeitssignal-Kumulationsspeicher Ysum(U) zum Kumulieren eines gewichteten Helligkeitssummenwerts an einer Horizontalpixelposition U innerhalb des fernen kleinen Bildfelds, einen horizontale Einzelzeile-Helligkeitssignal-Kumulationsspeicher W und einen horizontale Einzelzeile-Speicher Ytmp(U) auf ihre Ausgangswerte 0 zurück (Schritt S2501).
  • Dann nimmt die Verarbeitungseinheit 605 Daten von Pixeln, die im vorhergehenden Schritt S701 einen Rasterscan durchlaufen haben, auf (Schritt S2502).
  • Wenn die Scanposition (U, V) innerhalb des Umfangs des fernen kleinen Bildfelds liegt (Schritt S2503: Ja), fügt die Verarbeitungseinheit 605 die Helligkeit Y(U,V) an dieser Scanposition dem Horizontalzeilenhelligkeitssignal-Kumulationsspeicher W fortlaufend hinzu (Schritt S2504) und zeichnet die Helligkeit Y(U, V) im horizontale Einzelzeile-Speicher Ytmp(U) auf (Schritt S2508).
  • Die Verarbeitungseinheit 605 fügt die Helligkeit Y (U,V) mit Gewichtung dem Vertikalzeilenhelligkeitssignal-Kumulationsspeicher Ysum(U) hinzu (Schritt S2505).
  • Als nächstes überprüft die Verarbeitungseinheit 605, ob eine horizontale (U) Koordinate an der Scanposition eine Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds erreicht hat (Schritt S2506).
  • Wenn die horizontale (U) Koordinate an der Scanposition die Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds nicht erreicht hat (Schritt S2506: Nein), kehrt die Verarbeitungseinheit 605 zu Schritt S2502 zurück, um den vorstehenden Prozess an den nächsten Scandaten wiederholt vorzunehmen.
  • Wenn die horizontale (U) Koordinate an der Scanposition die Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds erreicht hat (Schritt S2506: Ja), setzt die Verarbeitungseinheit 605 sowohl den horizontale Einzelzeile-Helligkeitssignal-Kumulationsspeicher W als auch den horizontale Einzelzeile-Speicher Ytmp(U) auf ihre Ausgangswerte 0 zurück (Schritt S2507) und kehrt zu Schritt S2502 zurück, um den vorstehenden Prozess an den nächsten Scandaten wiederholt vorzunehmen.
  • Liegt hingegen die Scanposition (U, V) außerhalb des Umfangs des fernen kleinen Bildfelds (Schritt S2503: Nein), verwirft die Verarbeitungseinheit 605 das Signal (Schritt S2509). Dann kehrt, wenn die letzte Scanposition (Ulast, Vlast) innerhalb des Bildfelds nicht erreicht wurde (Schritt S2510: Nein), die Verarbeitungseinheit 605 zu Schritt S2502 zurück, um den vorstehenden Prozess an den nächsten Scandaten wiederholt vorzunehmen. Wenn die letzte Scanposition (Ulast, Vlast) innerhalb des Bildfelds erreicht wurde (Schritt S2510: Ja), wird das Helligkeitshorizontalprofil (siehe 18) abgeschlossen, und die Routine dieses Prozesses ist beendet.
  • Die 26A und 26B zeigen ein Ablaufdiagramm eines weiteren Prozesses zum Erstellen des Helligkeitshorizontalprofils innerhalb des fernen kleinen Bildfelds. Bei dem in den Figuren gezeigten Prozess wird im Gegensatz zu dem in den 25A und 25B gezeigten Prozess eine Gewichtung auf Grundlage des Helligkeitssummenwerts in einer vorhergehenden Scanzeile vorgenommen, und die Helligkeitswerte werden in der Scanrichtung gewichtet. Dieser Prozess spart Speicherplatz zum Aufzeichnen von Helligkeitsinformationen einer Scanzeile.
  • Die Verarbeitungseinheit 605 setzt zuerst den Vertikalzeilenhelligkeitssignal-Kumulationsspeicher Ysum(U) zum Kumulieren eines gewichteten Helligkeitssummenwerts an der Horizontalpixelposition U innerhalb des fernen kleinen Bildfelds, den horizontale Einzelzeile-Helligkeitssignal-Kumulationsspeicher W und den horizontale Einzelzeile-Speicher WO auf ihre Ausgangswerte 0 zurück (Schritt S2601).
  • Dann nimmt die Verarbeitungseinheit 605 Daten von Pixeln, die im vorhergehenden Schritt S701 einen Rasterscan durchlaufen haben, auf (Schritt S2602).
  • Wenn die Scanposition (U, V) innerhalb des Umfangs des fernen kleinen Bildfelds liegt (Schritt S2603: Ja), fügt die Verarbeitungseinheit 605 die Helligkeit Y(U,V) an dieser Scanposition fortlaufend dem Horizontalzeilenhelligkeitssignal-Kumulationsspeicher W hinzu (Schritt S2604).
  • Die Verarbeitungseinheit 605 fügt die Helligkeit Y(U,V) mit der im horizontale Einzelzeile-Helligkeitssignal-Kumulationsspeicher WO aufgezeichneten Gewichtung dem Vertikalzeilenhelligkeitssignal-Kumulationsspeicher Ysum(U) hinzu (Schritt S2605). Der Speicher WO zeichnet die Gewichtung auf Grundlage des Helligkeitssummenwerts in einer vorhergehenden Scanzeile auf.
  • Als nächstes überprüft die Verarbeitungseinheit 605, ob eine horizontale (U) Koordinate an der Scanposition eine Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds erreicht hat (Schritt S2606).
  • Wenn die horizontale (U) Koordinate an der Scanposition die Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds nicht erreicht hat (Schritt S2606: Nein), kehrt die Verarbeitungseinheit 605 zu Schritt S2602 zurück, um den vorstehenden Prozess an den nächsten Scandaten wiederholt vorzunehmen.
  • Wenn die horizontale (U) Koordinate an der Scanposition die Horizontalzeile-Endposition U = Uend(V) innerhalb des fernen kleinen Bildfelds erreicht hat (Schritt S2506: Ja), ersetzt die Verarbeitungseinheit 605 den Wert im horizontale Einzelzeile-Helligkeitssignal-Kumulationsspeicher W im Speicher WO und setzt den Speicher auf seinen Ausgangswert 0 zurück (Schritt S2607) und kehrt dann zu Schritt S2602 zurück, um den Prozess an den nächsten Scandaten wiederholt vorzunehmen.
  • Liegt hingegen die Scanposition (U, V) außerhalb des Umfangs des fernen kleinen Bildfelds (Schritt S2603: Nein), verwirft die Verarbeitungseinheit 605 das Signal (Schritt S2608). Dann kehrt, wenn die letzte Scanposition (Ulast, Vlast) innerhalb des Bildfelds nicht erreicht wurde (Schritt S2609: Nein), die Verarbeitungseinheit 605 zu Schritt S2602 zurück, um den vorstehenden Prozess an den nächsten Scandaten wiederholt vorzunehmen. Wenn die letzte Scanposition (Ulast, Vlast) innerhalb des Bildfelds erreicht wurde (Schritt S2609: Ja), wird das Helligkeitshorizontalprofil (siehe 18) abgeschlossen, und die Routine dieses Prozesses ist beendet.
  • Im nächsten Schritt S707 überprüft die Verarbeitungseinheit 605 auf Grundlage des Helligkeitshorizontalprofils, ob die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds (das heißt, die Frontscheinwerfer eines fernen entgegenkommenden Fahrzeugs (oder nachfolgenden Fahrzeugs) oder die Schlussleuchten eines nachfolgenden Fahrzeugs)) innerhalb des fernen kleinen Bildfelds vorhanden sind. Wie vorstehend bezugnehmend auf 18 beschrieben, ist davon auszugehen, dass zwei Spitzenwerte (Höchstpunkte) im Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds, das die beiden Lichtpunkte (die Frontscheinwerfer des fernen Fahrzeugs) aufweist, erscheinen. Wie in 27 dargestellt ist es möglich, das Vorhandensein oder die Abwesenheit der Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds auf Grundlage von Helligkeitsinformationen und Positionsbeziehung bezogen auf nebeneinander liegende Höchstwerte 2701 und 2702 und einen Tiefstwert 2703 zwischen diesen Höchstwerten in einem Helligkeitshorizontalprofil 2700 innerhalb des fernen kleinen Bildfelds leicht zu bestimmen.
  • Die 28A und 28B zeigen ein Ablaufdiagramm eines detaillierten Prozesses zum Bestimmen auf Grundlage des Helligkeitshorizontalprofils, ob sich die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds befinden.
  • Die Verarbeitungseinheit 605 liest zuerst das Helligkeitshorizontalprofil, das im vorhergehenden Schritt S706 erstellt wurde (Schritt S2801). Dann analysiert die Verarbeitungseinheit 605 das gelesene Helligkeitshorizontalprofil, um die beiden nebeneinander liegenden Höchstwerte, den Tiefstwert zwischen den Höchstwerten und ihre Positionen (horizontale Pixelpositionen) zu erkennen (Schritt S2802).
  • Als nächstes berechnet die Verarbeitungseinheit 605 das Intervall zwischen den X-Koordinaten der zwei nebeneinander liegenden Höchstwerte und dem Durchschnitt derselben (Schritt S2803). Dann überprüft die Verarbeitungseinheit 605, ob das Intervall zwischen den X-Koordinaten der nebeneinander liegenden Höchstwerte innerhalb eines vorgegebenen Umfangs liegt (Schritt S2804) .
  • Liegt das Intervall zwischen den X-Koordinaten der nebeneinander liegenden Höchstwerte außerhalb des vorgegebenen Umfangs (Schritt S2804: Nein), bestimmt die Verarbeitungseinheit 605, dass Lichtpunkte, die den zwei Höchstwerten entsprechen, nicht die Leuchten (Frontscheinwerfer oder Schlussleuchten) eines fernen Fahrzeugs sind, und liefert das Ergebnis der Bestimmung, dass keine Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurück (Schritt S2808). Neben den Leuchten eines Kraftfahrzeugs können die Höchstwerte beispielsweise die Straßenbeleuchtung an den Seiten der Straße oder die Beleuchtung von Gebäuden rund um die Straße kennzeichnen.
  • Liegt das Intervall zwischen den X-Koordinaten der nebeneinander liegenden Höchstwerte jedoch innerhalb des vorgegebenen Umfangs (Schritt S2804: Ja), überprüft die Verarbeitungseinheit 605 ferner, ob der Durchschnitt der nebeneinander liegenden Höchstwerte um ein vorgegebenes Vielfaches oder mehr größer als der Tiefstwert zwischen den Höchstwerten ist (Schritt S2808).
  • Wenn der Durchschnitt der nebeneinander liegenden Höchstwerte um das vorgegebene Vielfache oder mehr größer als der Tiefstwert zwischen den Höchstwerten ist (Schritt S2805: Ja), können die zwei nebeneinander liegenden Höchstwerte als zwei Lichtpunkte (Frontscheinwerfer oder Schlussleuchten) bezeichnet werden. Die Verarbeitungseinheit 605 liefert das Ergebnis der Bestimmung, dass die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurück (Schritt S2806).
  • Wenn der Durchschnitt der nebeneinander liegenden Höchstwerte um das vorgegebene Vielfache oder mehr größer als der Tiefstwert ist (Schritt S2805: Ja), überprüft die Verarbeitungseinheit 605 ferner, ob der Durchschnitt der nebeneinander liegenden Höchstwerte einem vorgegebenen Wert gleich oder größer als dieser ist (Schritt S2807).
  • Ist der Durchschnitt der nebeneinander liegenden Höchstwerte nicht um das vorgegebene Vielfache oder mehr größer als der Tiefstwert zwischen den nebeneinander liegenden Höchstwerten, aber der Durchschnitt der nebeneinander liegenden Höchstwerte ist gleich dem oder höher als der vorgegebene Wert (Schritt S2807: Ja), können die nebeneinander liegenden Höchstwerte als zwei Lichtpunkte (Frontscheinwerfer oder Schlussleuchten) bezeichnet werden. In diesem Fall liefert die Verarbeitungseinheit 605 das Ergebnis der Bestimmung, dass die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurück (Schritt S2806) .
  • Ist der Durchschnitt der nebeneinander liegenden Höchstwerte nicht gleich dem vorgegebenen Wert oder höher (Schritt S2807: Ja), bestimmt die Verarbeitungseinheit 605, dass die Lichtpunkte, die den zwei Höchstwerten entsprechen, nicht die Leuchten (Frontscheinwerfer oder Schlussleuchten) eines fernen Fahrzeugs sind, und liefert das Ergebnis der Bestimmung, dass keine Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurück (Schritt S2808).
  • Wird das Ergebnis der Bestimmung, dass keine Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurückgeliefert, steuert die Verarbeitungseinheit 605 eine Belichtung der Fahrzeugkamera im normalen automatischen Belichtungssteuerungsmodus. Wird das Ergebnis der Bestimmung, dass die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, zurückgeliefert, wendet die Verarbeitungseinheit 605 die automatische Belichtungssteuerung, die so optimiert ist, dass die zwei Lichtpunkte im Helligkeitshorizontalprofil getrennt werden (oder dass eine Belichtungssteuerung vorgenommen wird, bei der der Trennung von Lichtpunkten eines fernen Fahrzeugs Priorität eingeräumt wird), auf die Fahrzeugkamera an.
  • Beim Bestimmen, dass die Leuchten eines Kraftfahrzeugs innerhalb des fernen kleinen Bildfelds vorhanden sind, wendet die Verarbeitungseinheit 605 die automatische Belichtungssteuerung, die so optimiert ist, dass die zwei Lichtpunkte im Helligkeitshorizontalprofil getrennt werden können (oder eine Trennung der Lichtpunkte priorisiert ist) als einen Prozess in Schritt S710 auf die Fahrzeugkamera an.
  • Die für Lichtpunkttrennung optimierte automatische Belichtungssteuerung, wie sie anhand des in 27 dargestellten Beispiels beschrieben ist, ist ein Prozess, der eine leichte Trennung der nebeneinander liegenden Höchstwerte 2701 und 2702 mit dem Tiefstwert 2703 zwischen den Höchstwerten im Helligkeitshorizontalprofil 2700 innerhalb des fernen kleinen Bildfelds ermöglicht.
  • 29 zeigt ein Ablaufdiagramm für einen Prozess zum Vornehmen einer automatischen Belichtungssteuerung der Fahrzeugkamera, die für Lichtpunkttrennung optimiert ist (oder bei der der Lichtpunkttrennung Priorität eingeräumt wird). Das Ziel der automatischen Belichtungssteuerung ist es, zu ermöglichen, dass die Form der Frontscheinwerfer den vorstehenden mathematischen Ausdruck (1) erfüllt, wenn die Fahrzeugkamera ein nachfolgendes Fahrzeug oder ein entgegenkommendes Fahrzeug in dem Vorgang in einer dunklen Fahrumgebung fotografiert.
  • Die Verarbeitungseinheit 605 liest zuerst das Helligkeitshorizontalprofil, das im vorhergehenden Schritt S706 erstellt wurde (Schritt S2901).
  • Dann analysiert die Verarbeitungseinheit 605 das gelesene Helligkeitshorizontalprofil, um die beiden nebeneinander liegenden Höchstwerte und den Tiefstwert zwischen den Höchstwerten zu erkennen (Schritt S2902). Alternativ hierzu kann die Verarbeitungseinheit 605 die Höchstwerte und den Tiefstwert, die in dem Prozess, der in Schritt S707 vorgenommen wurde, innerhalb des fernen kleinen Bildfelds entdeckt wurden, direkt lesen.
  • Dann teilt die Verarbeitungseinheit 605 den Durchschnitt der nebeneinander liegenden Höchstwerte durch den Tiefstwert, um einen Schätzwert F für die automatische Belichtungssteuerung zu berechnen (Schritt S2903).
  • Als nächstes vergleicht die Verarbeitungseinheit 605 den berechneten Schätzwert F mit einem vorgegebenen Schwellenwert Fth (Schritt S2904). Der Schwellenwert Fth ist im Speicher (ROM) 606 gespeichert, die Verarbeitungseinheit 605 liest den Schwellenwert Fth aus dem Speicher 606 in Schritt S2904.
  • Ist der Schätzwert F größer als der Schwellenwert Fth (Schritt S2905: Ja) ist der Tiefstwert niedrig, wie in 30A dargestellt. Dies liegt möglicherweise daran, dass die Belichtung der Fahrzeugkamera zu gering ist, und es ist anzunehmen, dass das fotografierte Bild vollständig dunkel erscheint, und die Lichtpunkte, die den Leuchten (Frontscheinwerfer oder Schlussleuchten) eines fernen Fahrzeugs entsprechen, sind nur dunkel zu sehen. Somit erhöht die Verarbeitungseinheit 605 die Belichtungszeit oder die Verstärkung der Fahrzeugkamera (Schritt S2906).
  • Ist der Schätzwert F jedoch nicht größer als der Schwellenwert Fth (Schritt S2905: Nein) ist der Tiefstwert hoch. Im Helligkeitshorizontalprofil ist der Unterschied zwischen den Höchstwerten und dem Tiefstwert gering, wie in 30B dargestellt. Dies liegt möglicherweise daran, dass die Belichtung der Fahrzeugkamera zu hoch ist, und die Lichtpunkte, die den Leuchten (Frontscheinwerfer oder Schlussleuchten) des fernen Fahrzeugs entsprechen, erscheinen unscharf, und ihr Vorhandensein ist undeutlich. Somit verringert die Verarbeitungseinheit 605 die Belichtungszeit oder die Verstärkung der Fahrzeugkamera (Schritt S2907).
  • Der Schwellenwert Fth kann ein Festwert oder ein Schwellenumfang in einer vorgegebenen Breite sein. Beispielsweise können ein Schwellenwert Fth1 und ein Schwellenwert Fth2, der kleiner als der Schwellenwert Fth1 ist, festgelegt werden, und die Belichtungszeit oder die Verstärkung der Fahrzeugkamera können verringert werden, wenn der Schätzwert F größer als der Schwellenwert Fth1 ist, und die Belichtungszeit oder die Verstärkung der Fahrzeugkamera können erhöht werden, wenn der Schätzwert F kleiner als der Schwellenwert Fth2 ist. Vorzugsweise beträgt der Schwellenwert Fth1 jedoch 1,1 oder mehr.
  • Wie vorstehend bezugnehmend auf 18 beschrieben, erscheinen zwei Spitzenwerte (Höchstpunkte) im Helligkeitshorizontalprofil innerhalb des fernen kleinen Bildfelds, das die beiden Lichtpunkte (die Frontscheinwerfer eines fernen Fahrzeugs) aufweist. Dementsprechend ist, wenn das Fotografieren unter der Belichtungsbedingung (Belichtungszeit oder Verstärkung) vorgenommen wird, die für eine Trennung der zwei Lichtpunkte des fernen Fahrzeugs optimiert ist (oder diese priorisiert), davon auszugehen, dass in einem Helligkeitshorizontalprofil 3100 innerhalb des fernen kleinen Bildfelds ein Breitenhöchstwert Cmax eines Spitzenwerts, der einen vorgegebenen Schwellenwert (Helligkeitsvergleichsparameter) Fref überschreitet, größer als ein vorgegebener Zielwert ist, wie in 31 dargestellt. Ist die Belichtung unzureichend (Belichtungszeit oder Verstärkung sind gering), ist davon auszugehen, dass im Helligkeitshorizontalprofil 3100 innerhalb des fernen kleinen Bildfelds der Breitenhöchstwert Cmax des Spitzenwerts, der den vorgegebenen Schwellenwert (Helligkeitsvergleichsparameter) Fref überschreitet, kleiner als der vorgegebene Zielwert ist, wie in 32 dargestellt. Daher kann die für Lichtpunkttrennung optimierte automatische Belichtungssteuerung auf Grundlage der Form des Helligkeitshorizontalprofils innerhalb des fernen kleinen Bildfelds vorgenommen werden.
  • 33 zeigt ein Ablaufdiagramm für einen Prozess zum Vornehmen einer automatischen Belichtungssteuerung der Fahrzeugkamera, die für Lichtpunkttrennung auf Grundlage der Form des Helligkeitshorizontalprofils innerhalb des fernen kleinen Bildfelds optimiert ist (oder diese priorisiert). Das Ziel der automatischen Belichtungssteuerung ist es, zu ermöglichen, dass die Form der Frontscheinwerfer den vorstehenden mathematischen Ausdruck (1) erfüllt, wenn ein nachfolgendes Fahrzeug oder ein entgegenkommendes Fahrzeug in dem Vorgang in einer dunklen Fahrumgebung von der Fahrzeugkamera fotografiert wird.
  • Die Verarbeitungseinheit 605 liest zuerst das Helligkeitshorizontalprofil, das im vorhergehenden Schritt S706 erstellt wurde (Schritt S3301).
  • Als nächstes setzt die Verarbeitungseinheit 605 die Speicher auf ihre Ausgangswerte zurück (Schritt S3302). Insbesondere ersetzt die Verarbeitungseinheit 605 eine Ausgangspunkt-Horizontalposition Ustart innerhalb des fernen kleinen Bildfelds durch einen Horizontalpositionsspeicher X. Die Verarbeitungseinheit 605 liest die Sichtwinkelposition im entfernten kleinen Bildfeld aus dem Ergebnis der Definition des fernen kleinen Bildfelds im vorhergehenden Schritt S705. Zudem setzt die Verarbeitungseinheit 605 sowohl einen Breitenzähler Cport als auch einen Spitzenwertbreite-Höchstwertspeicher Cmax auf ihre Ausgangswerte 0 zurück.
  • Als nächstes vergleicht die Verarbeitungseinheit 605 einen gewichteten Helligkeitssummenwert F(x) an einer momentanen Horizontalposition X innerhalb des fernen kleinen Bildfelds mit dem vorgegebenen Schwellenwert (Helligkeitsvergleichsparameter) Fref (Schritt S3303). Der Helligkeitsvergleichsparameter Fref wird im Speicher (ROM) 606 gespeichert. Die Verarbeitungseinheit 605 liest den Helligkeitsvergleichsparameter Fref aus dem Speicher 606 in Schritt S3303.
  • Ist der gewichtete Helligkeitssummenwert F(x) größer als der Helligkeitsvergleichsparameter Fref (Schritt S3303: Ja), entspricht die momentane Horizontalposition X einem Spitzenwertabschnitt im Helligkeitshorizontalprofil. Die Verarbeitungseinheit 605 aktualisiert den Breitenzähler Cport (Schritt S3304) (Cport = Cport + 1). Dann vergleicht die Verarbeitungseinheit 605 den Breitenzähler mit dem Breitenhöchstwert Cmax (Schritt S3305). Ist die Breite Cport des Spitzenwerts, der gezählt wird, größer als der Breitenhöchstwert Cmax (Schritt S3305: Ja), aktualisiert die Verarbeitungseinheit 605 den Breitenhöchstwert Cmax durch die Breite Cport (Schritt S3306).
  • Wenn der Prozess mit der momentanen Horizontalposition X auf diese Weise abgeschlossen wird, aktualisiert die Verarbeitungseinheit 605 X (Schritt S3307) (X = X + 1) und überprüft, ob eine Endpunkt-Horizontalposition Uend innerhalb des fernen kleinen Bildfelds erreicht wurde, das heißt, ob der Prozess über das gesamte Helligkeitshorizontalprofil abgeschlossen ist (Schritt S3308).
  • Wurde die Endpunkt-Horizontalposition Uend innerhalb des fernen kleinen Bildfelds noch nicht erreicht (Schritt S3308: Nein), kehrt die Verarbeitungseinheit 605 zu Schritt S3303 zurück, um den vorstehenden Prozess an der nächsten Waagrechtposition X innerhalb des fernen kleinen Bildfelds wiederholt vorzunehmen.
  • Wurde hingegen die Endpunkt-Horizontalposition Uend im entfernten kleinen Bildfeld erreicht (Schritt S3308: Ja), vergleicht die Verarbeitungseinheit 605 den Breitenhöchstwert Cmax des Spitzenwerts im Helligkeitshorizontalprofil mit einem vorgegebenen Zielwert Ctarget (Schritt S3309). Der Zielwert Ctarget ist im Speicher (ROM) 606 gespeichert, die Verarbeitungseinheit 605 liest den Zielwert Ctarget aus dem Speicher 606 in Schritt S3303.
  • Ist der Spitzenwertbreite-Höchstwert Cmax größer als der Zielwert Ctarget (Schritt S3309: Ja), erscheinen die zwei Lichtpunkte, die den Leuchten (Frontscheinwerfer oder Schlussleuchten) des fernen Fahrzeugs entsprechen, deutlich als Höchstwerte im Helligkeitshorizontalprofil, wie in 31 dargestellt. Dementsprechend verringert die Verarbeitungseinheit 605 die Belichtungszeit oder die Verstärkung der Fahrzeugkamera, um eine Überbelichtung zu vermeiden (Schritt S3310). Alternativ hierzu kann die Verarbeitungseinheit 605 mittels der Verwendung von Irisblende, variablem ND-Filter oder Tonwertkorrektur einige Anpassungen vornehmen.
  • Im Gegensatz hierzu ist, wenn der Spitzenwertbreite-Höchstwert Cmax nicht größer als der Zielwert Ctarget ist (Schritt S3309: Nein), der Unterschied zwischen den Höchstwerten und dem Tiefstwert im Helligkeitshorizontalprofil gering, wie in 32 dargestellt, und das Vorhandensein der Lichtpunkte ist undeutlich. Dies liegt möglicherweise daran, dass die Belichtung der Fahrzeugkamera zu gering ist, und die Lichtpunkte, die den Leuchten (Frontscheinwerfer oder Schlussleuchten) des fernen Fahrzeugs entsprechen, erscheinen dunkel. Somit erhöht die Verarbeitungseinheit 605 die Belichtungszeit oder die Verstärkung der Fahrzeugkamera (Schritt S3311).
  • Die Fahrzeugkamera, die einer Fahrunterstützung und einer fernes Sichtfeld-Unterstützung zugeordnet ist, muss ferne Fahrzeuge, die sich dem Objektfahrzeug möglicherweise nähern, genauer einfangen. In einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel sind jedoch, wenn die Leuchten mit starker Ausleuchtung (Hintergrundbeleuchtung), die Fahrzeuge umgeben, von der Fahrzeugkamera fotografiert werden, die Größenverhältnisse der Frontscheinwerfer des fernen Fahrzeugs als Lichtquellen im Sichtfeld besonders klein. Dementsprechend ist, wenn die normale automatische Belichtungssteuerung angewendet wird, um eine durchschnittliche Belichtungssteuerung für den gesamten Bildschirm vorzunehmen, das Auftreten einer Überbelichtung wahrscheinlich, um selbst für Randpixel in weiß eine Pixelsättigung zu erreichen, und es ist schwierig, die Frontscheinwerfer als zwei Lichtpunkte einzufangen.
  • Es kann behauptet werden, dass das ferne Fahrzeug, das sich dem Objektfahrzeug möglicherweise nähert, in der Richtung der Fahrstrecke des Objektfahrzeugs im Bereich hinter dem Objektfahrzeug fährt oder in der prognostizierten Fahrtrichtung des Objektfahrzeugs (der Fahrbahnoberflächenrichtung entlang der Straße, auf der das Objektfahrzeug fährt) in dem Bereich vor dem Objektfahrzeug fährt.
  • Wie vorstehend beschrieben ist die hierin offenbarte Technologie dazu vorgesehen, eine automatische Belichtungssteuerung der Fahrzeugkamera nur mit den Helligkeitsinformationen innerhalb des fernen kleinen Bildfelds, definiert bezogen auf den fernen Straßenfluchtpunkt in der Fahrtrichtung des Objektfahrzeugs, vorzunehmen. Es ist zu erwarten, dass die Fahrzeugkamera, die den Bereich hinter dem Objektfahrzeug fotografiert, ein fernes Fahrzeug, das in der Richtung der Fahrstrecke fährt, innerhalb des fernen kleinen Bildfelds einfängt, und die Fahrzeugkamera, die den Bereich vor dem Objektfahrzeug fotografiert, fängt ein fernes Fahrzeug, das in der prognostizierten Fahrtrichtung des Objektfahrzeugs fährt, innerhalb des fernen kleinen Bildfelds ein. Daher ist es durch Analysieren der Helligkeitsinformationen lediglich innerhalb des fernen kleinen Bildfelds für das Vornehmen einer Belichtungssteuerung der Fahrzeugkamera möglich, das ferne Fahrzeug mit eingeschalteten Frontscheinwerfern in einer dunklen Fahrumgebung zu fotografieren, während gleichzeitig eine Überbelichtung vermieden wird.
  • Die hierin offenbarte Technologie ist dazu vorgesehen, die Helligkeitswerte von Pixeln in jeder einzelnen Horizontalzeile innerhalb des fernen kleinen Bildfelds zu addieren, um Gewichtungen der einzelnen Horizontalzeilen festzulegen, und die Gewichtungen der Horizontalzeilen den Helligkeitswerten der Pixel in den einzelnen Vertikalzeilen hinzuzufügen, um ein Helligkeitshorizontalprofil zu erstellen und eine Belichtungssteuerung der Fahrzeugkamera auf Grundlage der Ergebnisse der Analyse des Helligkeitshorizontalprofils vorzunehmen. Daher ist es durch Erstellen des Helligkeitshorizontalprofils lediglich innerhalb des fernen kleinen Bildfelds möglich, die Ziellichtquellen auf einer Prioritätsbasis in effizienter Weise mit dem geringen Speicher zu reproduzieren. Dadurch ist es möglich, die Leuchten eines Kraftfahrzeugs (die eingeschalteten Frontscheinwerfer des fernen Fahrzeugs bei Nacht oder Ähnliches) innerhalb des fernen kleinen Bildfelds auf vorteilhafte Weise zu fotografieren, während eine Überbelichtung vermieden wird.
  • [Gewerbliche Anwendbarkeit]
  • Die hierin offenbarte Technologie ist bezugnehmend auf die spezifischen Ausführungsformen ausführlich erklärt worden. Es ist jedoch offensichtlich, dass Fachleute die Ausführungsformen abwandeln können oder dieselben durch andere ersetzen können, ohne vom Wesen der hierin offenbarten Technologie abzuweichen.
  • Die hierin offenbarte Technologie kann auf eine automatische Belichtungssteuerung der Fahrzeugkamera in einer dunklen Fahrumgebung wie bei Nacht oder in einem Tunnel angewendet werden, um Leuchten mit starker Ausleuchtung (Lichtpunkte) wie die Frontscheinwerfer oder Schlussleuchten eines fernen Fahrzeugs zu fotografieren, während eine Überbelichtung vermieden wird.
  • Die hierin offenbarte Technologie ist nicht auf Kraftfahrzeuge in Standardgröße beschränkt, sondern kann auf verschiedene Arten von Fahrzeugen, die mit Fahrzeugkameras ausgestattet sind, beispielsweise Mittelklassewagen, großräumige Fahrzeuge und Motorräder angewendet werden.
  • Kurz gesagt sind die Beschreibungen hierin nicht als einschränkend zu interpretieren, auch wenn die hierin offenbarte Technologie unter Aufführen einiger Beispiele erläutert wurde. Es ist auf die Ansprüche Bezug zu nehmen, um das Wesen der hierin offenbarten Technologie zu bestimmen.
  • Die hierin offenbarte Technologie kann die folgenden Konfigurationen aufweisen:
    1. (1) Fahrzeugkamerasystem, aufweisend:
      • eine Fahrzeugkamera, die in einem Fahrzeug montiert ist, die dazu ausgebildet ist, Umgebungen des Fahrzeugs aufzunehmen; und
      • Steuerschaltkreise, die dazu ausgebildet sind, einen Belichtungspegel eines Bildes, das von der Fahrzeugkamera aufgenommen wurde, zu steuern, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist, und dazu ausgebildet sind, das Bild mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung auszugeben.
    2. (2) Fahrzeugkamerasystem nach (1), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Belichtungspegel des Bilds, das von der Fahrzeugkamera aufgenommen wurde, so zu steuern, dass Lichtquellen eines anderen Fahrzeugs im Erkennungsbereich von der Anzeigevorrichtung innerhalb des Bildes separat angezeigt werden.
    3. (3) Fahrzeugkamerasystem nach (1)-(2), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Einstellungen des Fahrzeugkamerasystems vorgenommen werden soll.
    4. (4) Fahrzeugkamerasystem nach (1)-(3), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von einem Straßentyp, auf dem das Fahrzeug fährt, vorgenommen werden soll.
    5. (5) Fahrzeugkamerasystem nach (1)-(4), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Umweltbedingungen, die vorhanden sind, während das Fahrzeug fährt, vorgenommen werden soll.
    6. (6) Fahrzeugkamerasystem nach (1)-(5), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Erkennungsbereich bezugnehmend auf einen Fluchtpunkt im Bild festzulegen und die Belichtungssteuerung auf Grundlage der Helligkeitsinformationen innerhalb des Erkennungsbereichs vorzunehmen.
    7. (7) Fahrzeugkamerasystem nach (1)-(6), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Fluchtpunkt auf Grundlage eines Verlaufs der Fahrstrecke des Fahrzeugs in dem Bereich hinter dem Fahrzeug zu korrigieren.
    8. (8) Fahrzeugkamerasystem nach (1)-(7), wobei die Steuerschaltkreise dazu ausgebildet sind, den Erkennungsbereich auf Grundlage einer relativen Position des Fluchtpunkts zu einem Referenzpunkt in dem von der Fahrzeugkamera aufgenommenen Bild festzulegen.
    9. (9) Fahrzeugkamerasystem nach (1)-(8), wobei die Steuerschaltkreise dazu ausgebildet sind, eine Belichtungssteuerung an dem von der Fahrzeugkamera aufgenommenen Bild auf Grundlage der Helligkeitsinformationen, was ein Ergebnis eines Helligkeitshorizontalprofils, das innerhalb des Erkennungsbereichs erstellt wurde, einschließt, vorzunehmen.
    10. (10) Fahrzeugkamerasystem nach (1)-(9), wobei die Steuerschaltkreise dazu ausgebildet sind, Helligkeitswerte von Pixeln in jeder Horizontalzeile innerhalb des Erkennungsbereichs zu addieren, um Gewichtungen für die jeweiligen einzelnen Horizontalzeilen zu bestimmen und die Gewichtungen der jeweiligen einzelnen Horizontalzeilen den Helligkeitswerten von Pixeln hinzuzufügen, um das Helligkeitshorizontalprofil zu erstellen.
    11. (11) Fahrzeugkamerasystem nach (1)-(10), wobei die Steuerschaltkreise dazu ausgebildet sind, zu erkennen, ob Lichter eines anderen Fahrzeugs innerhalb des Erkennungsbereichs vorhanden sind, und wenn das Vorhandensein der Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs erkannt wurde, den Belichtungspegel des von der Fahrzeugkamera aufgenommenen Bilds zu steuern, so dass die Lichter des anderen Fahrzeugs auf der Anzeigevorrichtung separat angezeigt werden.
    12. (12) Fahrzeugkamerasystem nach (1)-(11), wobei die Steuerschaltkreise dazu ausgebildet sind, auf Grundlage von Helligkeitsinformationen eines Tiefstwerts zwischen zwei nebeneinander liegenden Höchstwerten, die im Helligkeitshorizontalprofil eingeschlossen sind, zu erkennen, ob sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
    13. (13) Fahrzeugkamerasystem nach (1)-(12), wobei, wenn ein Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und ein Durchschnitt der nebeneinander liegenden Höchstwerte um eine vorgegebene Anzahl von Vielfachen größer als der Tiefstwert ist, die Steuerschaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
    14. (14) Fahrzeugkamerasystem nach (1)-(12), wobei, wenn das Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und der Durchschnitt der nebeneinander liegenden Höchstwerte höher als ein vorgegebener Wert ist, die Schaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
    15. (15) Fahrzeugkamerasystem nach (1)-(14), das ferner eine Alarmfunktion aufweist, wobei wenn die Belichtungssteuerung vorgenommen wird, die Steuerschaltkreise dazu ausgebildet sind, einen Fahrer im Voraus mittels der Alarmfunktion zu benachrichtigen.
    16. (16) Fahrzeugkamerasystem nach (1)-(15), wobei die Steuerschaltkreise dazu ausgebildet sind, eine Belichtungssteuerung an dem von der Fahrzeugkamera aufgenommenen Bild vorzunehmen, so dass Lichter eines anderen Fahrzeugs auf der Anzeigevorrichtung separat angezeigt werden, wobei die Steuerschaltkreise die Belichtungssteuerung auf Grundlage eines Helligkeitshorizontalprofils, das innerhalb des Erkennungsbereichs erstellt wurde, vornehmen.
    17. (17) Fahrzeugkamerasystem nach (1)-(16), wobei die Steuerschaltkreise dazu ausgebildet sind, eine Belichtungssteuerung an dem von der Fahrzeugkamera aufgenommenen Bild auf Grundlage eines Schätzwerts, der bestimmt wird, indem ein Durchschnitt von zwei Höchstwerten durch einen Tiefstwert, der zwischen den Höchstwerten im Helligkeitshorizontalprofil angeordnet ist, geteilt wird, vorzunehmen.
    18. (18) Fahrzeugkamerasystem nach (1)-(16), wobei die Steuerschaltkreise dazu ausgebildet sind, eine Belichtungssteuerung an dem von der Fahrzeugkamera aufgenommenen Bild auf Grundlage einer Entfernung von Spitzen von Höchstwerten im Helligkeitshorizontalprofil vorzunehmen.
    19. (19) Fahrzeugkamerasystem nach (1)-(18), wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Belichtungspegel des Erkennungsbereichs des von der Fahrzeugkamera aufgenommenen Bilds zu steuern.
    20. (20) Bildverarbeitungsvorrichtung, aufweisend:
      • Steuerschaltkreise, die dazu ausgebildet sind, einen Belichtungspegel eines Bildes, das von einer Fahrzeugkamera aufgenommen wurde, zu steuern, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist, und dazu ausgebildet sind, das Bild mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung auszugeben.
    21. (21) Bildverarbeitungsverfahren, aufweisend:
      • Steuern, unter Verwendung von Steuerschaltkreisen, eines Belichtungspegels eines Bildes, das von einer Fahrzeugkamera aufgenommen wurde, wobei die Steuerung des Belichtungspegels auf Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb des Bildes festgelegt ist, basiert, wobei der Erkennungsbereich ein Abschnitt des aufgenommenen Bildes ist; und
      • Ausgeben des Bildes mit daran ausgeführter Belichtungssteuerung auf einer Anzeigevorrichtung.
    22. (22) Fahrzeugkamerasystem, aufweisend:
      • eine Fahrzeugkamera, die in einem Fahrzeug montiert ist, um eine Umgebung des Fahrzeugs zu fotografieren; und
      • eine Steuereinheit, die eine Belichtung des Fahrzeugs auf Grundlage von Helligkeitsinformationen eines Erkennungsbereichs, der innerhalb eines von der Fahrzeugkamera fotografierten Bilds festgelegt ist, steuert.
    23. (23) Fahrzeugkamerasystem nach (22), wobei die Steuereinheit in einen Belichtungssteuerungsmodus wechselt, der eine Trennung von anderen Lichtquellen eines Fahrzeugs als dem Fahrzeug abhängig vom Ergebnis der Erkennung der Lichtquellen innerhalb des Erkennungsbereichs priorisiert.
    24. (24) Fahrzeugkamerasystem nach (23), wobei die Steuereinheit bestimmt, ob die Erkennung der Lichtquellen abhängig von Einstellungen des Fahrzeugkamerasystems vorgenommen werden soll.
    25. (25) Fahrzeugkamerasystem nach (24), wobei die Steuereinheit bestimmt, ob die Erkennung der Lichtquellen abhängig vom Straßentyp, auf dem das Fahrzeug fährt, vorgenommen werden soll.
    26. (26) Fahrzeugkamerasystem nach (23), wobei die Steuereinheit bestimmt, ob die Erkennung der Lichtquellen abhängig von Fahrumgebungen des Fahrzeugs vorgenommen werden soll.
    27. (27) Fahrzeugkamerasystem nach (22), wobei die Steuereinheit den Erkennungsbereich bezugnehmend auf einen fernen Straßenfluchtpunkt in einer Fahrtrichtung des Fahrzeugs festlegt und eine Belichtungssteuerung der Fahrzeugkamera auf Grundlage des Ergebnisses einer Analyse von Helligkeitsinformationen innerhalb des Erkennungsbereichs vornimmt.
    28. (28) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit den fernen Straßenfluchtpunkt auf Grundlage einer Richtung einer Fahrstrecke des Fahrzeugs in dem Bereich hinter dem Fahrzeug korrigiert oder den fernen Straßenfluchtpunkt auf Grundlage einer prognostizierten Fahrtrichtung des Fahrzeugs in dem Bereich vor dem Fahrzeug korrigiert.
    29. (29) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit einen Ort in einer vorgegebenen Entfernung hinter dem Fahrzeug in der Richtung der Fahrstrecke des Fahrzeugs als ungefähren fernen Straßenfluchtpunkt bestimmt oder einen Ort in der vorgegebenen Entfernung vor dem Fahrzeug in einer Fahrbahnoberflächenrichtung entlang der Straße, auf der das Fahrzeug fährt, als ungefähren fernen Straßenfluchtpunkt bestimmt.
    30. (30) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit den Erkennungsbereich auf Grundlage einer relativen Position des fernen Straßenfluchtpunkts in der Richtung des Fahrzeugs zu einem Fernpunkt in der Unendlichkeit in dem von der Fahrzeugkamera fotografierten Bild festlegt.
    31. (31) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit eine Belichtungssteuerung der Fahrzeugkamera auf Grundlage des Ergebnisses einer Analyse eines Helligkeitshorizontalprofils, das innerhalb des Erkennungsbereichs erstellt wurde, als Helligkeitsinformationen innerhalb des Erkennungsbereichs vornimmt.
    32. (32) Fahrzeugkamerasystem nach (31), wobei die Steuereinheit Helligkeitswerte von Pixeln wenigstens in jeder einzelnen Horizontalzeile innerhalb des Erkennungsbereichs addiert, um Gewichtungen der einzelnen Horizontalzeilen festzulegen, und die Gewichtungen der Horizontalzeilen den Helligkeitswerten von Pixeln in einzelnen Vertikalzeilen hinzufügt, um das Helligkeitshorizontalprofil zu erstellen.
    33. (33) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit erkennt, ob sich die Leuchten der anderen Fahrzeuge innerhalb des Erkennungsbereichs befinden, und wenn das Vorhandensein der Leuchten der anderen Fahrzeuge innerhalb des Erkennungsbereichs erkannt wurde, eine Belichtung der Fahrzeugkamera steuert, wobei einer Trennung von Lichtpunkten der Leuchten des anderen Fahrzeugs Priorität eingeräumt wird.
    34. (34) Fahrzeugkamerasystem nach (33), wobei die Steuereinheit auf Grundlage von Helligkeitsinformationen eines Tiefstwerts zwischen zwei nebeneinander liegenden Höchstwerten, die im Helligkeitshorizontalprofil eingeschlossen sind, erkennt, ob sich die Leuchten des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
    35. (35) Fahrzeugkamerasystem nach (34), wobei, wenn das Intervall zwischen den Höchstwerten innerhalb eines vorgegebenen Umfangs liegt und der Durchschnitt der Höchstwerte um ein vorgegebenes Vielfaches oder mehr größer als der Tiefstwert ist oder der Durchschnitt der Höchstwerte gleich einem vorgegebenen Wert oder höher ist, die Steuereinheit bestimmt, dass sich die Leuchten des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
    36. (36) Fahrzeugkamerasystem nach (27), wobei die Steuereinheit einen Belichtungssteuerungsmodus für die Fahrzeugkamera auf Grundlage dessen, ob die Leuchten des anderen Fahrzeugs innerhalb des Erkennungsbereichs erkannt werden, festlegt.
    37. (37) Fahrzeugkamerasystem nach (36), das ferner eine Bildausgabeeinheit oder eine Tonausgabeeinheit aufweist, wobei beim Ändern des Belichtungssteuerungsmodus die Steuereinheit über dieses unter Verwendung von wenigstens einem von einem Bild, einem Ton oder einer Vibration im Voraus benachrichtigt.
    38. (38) Fahrzeugkamerasystem nach (22), wobei die Steuereinheit auf Grundlage eines Helligkeitshorizontalprofils, das innerhalb des Erkennungsbereichs erstellt wird, eine Belichtungssteuerung der Fahrzeugkamera vornimmt, bei der der Trennung von Lichtpunkten der Leuchten des anderen Fahrzeugs Priorität eingeräumt wird.
    39. (39) Fahrzeugkamerasystem nach (38), wobei die Steuereinheit eine Belichtungssteuerung der Fahrzeugkamera auf Grundlage eines Schätzwerts vornimmt, der bestimmt wird, indem der Durchschnitt von zwei nebeneinander liegenden Höchstwerten durch einen Tiefstwert zwischen den Höchstwerten, die im Helligkeitshorizontalprofil eingeschlossen sind, geteilt wird.
    40. (40) Fahrzeugkamerasystem nach (38), wobei die Steuereinheit eine Belichtungssteuerung der Fahrzeugkamera auf Grundlage dessen, dass ein Höchstwert einer Spitzenwertbreite einen vorgegebenen Schwellenwert im Helligkeitshorizontalprofil überschreitet, vornimmt.
    41. (41) Bildverarbeitungsvorrichtung, die eine Belichtung einer in einem Fahrzeug montierten Fahrzeugkamera auf Grundlage von Helligkeitsinformationen in einem Erkennungsbereich, der in einem Bild, das von der Fahrzeugkamera fotografiert wurde, festgelegt ist, steuert.
  • Bezugszeichenliste
  • 600
    Fahrzeugkamerasystem
    601
    Bildsensor
    602
    Gierwinkel-Erkennungseinheit
    603
    Nickwinkel-Erkennungseinheit
    604
    GPS-Sensor
    605
    Verarbeitungseinheit
    606
    Speicher
    607
    Einstellungseingabeeinheit
    608
    Bildausgabeeinheit
    609
    Tonausgabeeinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015114084 [0001]
    • JP 2005092857 A [0003]
    • JP 2010272067 A [0003]
    • JP 2004023226 A [0003]
    • JP 2013205867 A [0003]

Claims (28)

  1. Fahrzeugkamerasystem, aufweisend: einen Bildsensor, der dazu ausgebildet ist, in einem Fahrzeug montiert zu werden, um Umgebungen des Fahrzeugs aufzunehmen und ein aufgenommenes Bild bereitzustellen; und Steuerschaltkreise, die dazu ausgebildet sind, eine Belichtungssteuerung auf Grundlage eines Helligkeitshorizontalprofils, das durch Verwenden eines Abschnitts des aufgenommenen Bildes, der einem Erkennungsbereich entspricht, der innerhalb des aufgenommenen Bildes festgelegt ist, erstellt wurde, derart vorzunehmen, dass Lichter eines anderen Fahrzeugs separat, vorzugsweise als separate Punkte, auf einer Anzeigevorrichtung angezeigt werden.
  2. Fahrzeugkamerasystem nach Anspruch 1, wobei die Steuerschaltkreise dazu ausgebildet sind, den Erkennungsbereich bezogen auf einen Fluchtpunkt im aufgenommenen Bild festzulegen und die Belichtungssteuerung auf Grundlage des Helligkeitshorizontalprofils innerhalb des Erkennungsbereichs vorzunehmen.
  3. Fahrzeugkamerasystem nach Anspruch 2, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Fluchtpunkt auf Grundlage eines Verlaufs der Fahrstrecke des Fahrzeugs in einem Bereich hinter dem Fahrzeug zu korrigieren.
  4. Fahrzeugkamerasystem nach Anspruch 2 oder 3, wobei die Steuerschaltkreise dazu ausgebildet sind, den Erkennungsbereich auf Grundlage einer relativen Position des Fluchtpunkts zu einem Referenzpunkt in dem aufgenommenen Bild festzulegen.
  5. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 4 , wobei die Belichtungssteuerung wenigstens eines von Belichtungszeitsteuerung, Verstärkungssteuerung oder eine Kombination aus diesen aufweist.
  6. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 5, wobei die Steuerschaltkreise dazu ausgebildet sind, Helligkeitswerte von Pixeln in jeder Horizontalzeile innerhalb des Erkennungsbereichs zu addieren, um Gewichtungen für die jeweiligen einzelnen Horizontalzeilen zu bestimmen und die Gewichtungen der jeweiligen einzelnen Horizontalzeilen den Helligkeitswerten von Pixeln hinzuzufügen, um das Helligkeitshorizontalprofil zu erstellen.
  7. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 6, wobei die Steuerschaltkreise dazu ausgebildet sind, zu erkennen, ob sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden, und wenn das Vorhandensein der Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs erkannt wurde, die Belichtungssteuerung so vorzunehmen, dass die Lichter des anderen Fahrzeugs auf der Anzeigevorrichtung separat angezeigt werden.
  8. Fahrzeugkamerasystem nach Anspruch 7, wobei die Steuerschaltkreise dazu ausgebildet sind, auf Grundlage eines lokalen Tiefstwerts zwischen zwei nebeneinander liegenden Höchstwerten, die im Helligkeitshorizontalprofil eingeschlossen sind, zu erkennen, ob sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
  9. Fahrzeugkamerasystem nach Anspruch 8, wobei, wenn ein Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und ein Durchschnitt der nebeneinander liegenden Höchstwerte um eine vorgegebene Anzahl von Vielfachen größer als der Tiefstwert ist, die Schaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
  10. Fahrzeugkamerasystem nach Anspruch 8, wobei, wenn das Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und der Durchschnitt der nebeneinander liegenden Höchstwerte höher als ein vorgegebener Wert ist, die Schaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
  11. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 5, wobei die Steuerschaltkreise dazu ausgebildet sind, die Belichtungssteuerung an dem aufgenommenen Bild auf Grundlage eines Schätzwerts, der bestimmt wird, indem ein Durchschnitt von zwei Höchstwerten durch einen Tiefstwert, der zwischen den Höchstwerten im Helligkeitshorizontalprofil angeordnet ist, geteilt wird, vorzunehmen.
  12. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 5, wobei die Steuerschaltkreise dazu ausgebildet sind, die Belichtungssteuerung an dem aufgenommenen Bild auf Grundlage einer Entfernung von Spitzen von Höchstwerten im Helligkeitshorizontalprofil vorzunehmen.
  13. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 12, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Einstellungen des Fahrzeugkamerasystems vorgenommen werden soll.
  14. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 12, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Umweltbedingungen, die vorhanden sind, während das Fahrzeug fährt, vorgenommen werden soll.
  15. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 12 , wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von einem Straßentyp, auf dem das Fahrzeug fährt, vorgenommen werden soll.
  16. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 1 bis 15, das ferner eine Alarmfunktion aufweist, wobei, wenn die Belichtungssteuerung vorgenommen wird, die Steuerschaltkreise dazu ausgebildet sind, einen Fahrer mittels der Alarmfunktion zu benachrichtigen.
  17. Fahrzeugkamerasystem, aufweisend: einen Bildsensor, der dazu ausgebildet ist, in einem Fahrzeug montiert zu werden, um Umgebungen des Fahrzeugs aufzunehmen und ein aufgenommenes Bild bereitzustellen; und Steuerschaltkreise, die dazu ausgelegt sind, eine Belichtungssteuerung auf Grundlage eines Schätzwerts, der bestimmt wird, indem ein Durchschnitt von zwei nebeneinander liegenden Höchstwerten durch einen lokalen Tiefstwert, der zwischen den nebeneinander liegenden Höchstwerten in einem Helligkeitshorizontalprofil, das erstellt wird, indem ein Abschnitt des aufgenommenen Bilds, der einem Erkennungsbereich entspricht, der innerhalb des aufgenommenen Bilds festgelegt ist, verwendet wird, angeordnet ist, geteilt wird, so vorzunehmen, dass Lichter eines anderen Fahrzeugs separat, vorzugsweise als separate Punkte, auf einer Anzeigevorrichtung angezeigt werden, wobei die Belichtungssteuerung wenigstens eines von einer Belichtungszeitsteuerung, einer Verstärkungssteuerung oder eine Kombination aus diesen aufweist.
  18. Fahrzeugkamerasystem nach Anspruch 17, wobei die Steuerschaltkreise dazu ausgebildet sind, den Erkennungsbereich bezogen auf einen Fluchtpunkt im aufgenommenen Bild festzulegen und die Belichtungssteuerung auf Grundlage des Helligkeitshorizontalprofils innerhalb des Erkennungsbereichs vorzunehmen.
  19. Fahrzeugkamerasystem nach Anspruch 18, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, den Fluchtpunkt auf Grundlage eines Verlaufs der Fahrstrecke des Fahrzeugs in einem Bereich hinter dem Fahrzeug zu korrigieren.
  20. Fahrzeugkamerasystem nach Anspruch 17 oder 18, wobei die Steuerschaltkreise dazu ausgebildet sind, den Erkennungsbereich auf Grundlage einer relativen Position des Fluchtpunkts zu einem Referenzpunkt in dem aufgenommenen Bild festzulegen.
  21. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 20, wobei die Steuerschaltkreise dazu ausgebildet sind, Helligkeitswerte von Pixeln in jeder Horizontalzeile innerhalb des Erkennungsbereichs zu addieren, um Gewichtungen für die jeweiligen einzelnen Horizontalzeilen zu bestimmen und die Gewichtungen der jeweiligen einzelnen Horizontalzeilen den Helligkeitswerten von Pixeln hinzuzufügen, um das Helligkeitshorizontalprofil zu erstellen.
  22. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 21, wobei die Steuerschaltkreise dazu ausgebildet sind, zu erkennen, ob sich Lichter eines anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden, und wenn das Vorhandensein der Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs erkannt wurde, die Belichtungssteuerung so vorzunehmen, dass die Lichter des anderen Fahrzeugs auf der Anzeigevorrichtung separat angezeigt werden.
  23. Fahrzeugkamerasystem nach Anspruch 17, wobei, wenn ein Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und ein Durchschnitt der nebeneinander liegenden Höchstwerte um eine vorgegebene Anzahl von Vielfachen größer als der Tiefstwert ist, die Steuerschaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
  24. Fahrzeugkamerasystem nach Anspruch 23, wobei, wenn das Intervall zwischen den nebeneinander liegenden Höchstwerten in einem vorgegebenen Umfang liegt und der Durchschnitt der nebeneinander liegenden Höchstwerte höher als ein vorgegebener Wert ist, die Schaltkreise dazu ausgebildet sind, zu bestimmen, dass sich die Lichter des anderen Fahrzeugs innerhalb des Erkennungsbereichs befinden.
  25. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 24, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Einstellungen des Fahrzeugkamerasystems vorgenommen werden soll.
  26. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 24, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von Umweltbedingungen, die vorhanden sind, während das Fahrzeug fährt, vorgenommen werden soll.
  27. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 24, wobei die Steuerschaltkreise ferner dazu ausgebildet sind, zu bestimmen, ob die Belichtungssteuerung abhängig von einem Straßentyp, auf dem das Fahrzeug fährt, vorgenommen werden soll.
  28. Fahrzeugkamerasystem nach einem beliebigen der Ansprüche 17 bis 27, das ferner eine Alarmfunktion aufweist, wobei, wenn die Belichtungssteuerung vorgenommen wird, die Steuerschaltkreise dazu ausgebildet sind, einen Fahrer mittels der Alarmfunktion zu benachrichtigen.
DE202016008786.0U 2015-06-04 2016-04-26 Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung Active DE202016008786U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-114084 2015-06-04
JP2015114084 2015-06-04
JP2015-250573 2015-12-22
JP2015250573A JP6657925B2 (ja) 2015-06-04 2015-12-22 車載カメラ・システム並びに画像処理装置

Publications (1)

Publication Number Publication Date
DE202016008786U1 true DE202016008786U1 (de) 2019-08-22

Family

ID=57751931

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202016008786.0U Active DE202016008786U1 (de) 2015-06-04 2016-04-26 Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung

Country Status (4)

Country Link
US (3) US10582131B2 (de)
EP (2) EP3304886B1 (de)
JP (2) JP6657925B2 (de)
DE (1) DE202016008786U1 (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6750519B2 (ja) * 2016-05-24 2020-09-02 株式会社Jvcケンウッド 撮像装置、撮像表示方法および撮像表示プログラム
US10587818B2 (en) * 2016-08-02 2020-03-10 Magna Electronics Inc. Vehicle vision system with enhanced camera brightness control
US10585440B1 (en) * 2017-01-23 2020-03-10 Clearpath Robotics Inc. Systems and methods for using human-operated material-transport vehicles with fleet-management systems
JP6740916B2 (ja) * 2017-01-23 2020-08-19 株式会社デンソー 運転支援システム、運転支援方法
US10911694B2 (en) * 2017-03-15 2021-02-02 Gvbb Holdings S.A.R.L. System and method for creating metadata model to improve multi-camera production
JP2018164146A (ja) * 2017-03-24 2018-10-18 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP2018164199A (ja) * 2017-03-27 2018-10-18 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理方法
US10453208B2 (en) 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
JP7167022B2 (ja) 2017-07-07 2022-11-08 株式会社半導体エネルギー研究所 表示システム、および表示システムの動作方法
DE102017215347A1 (de) * 2017-09-01 2019-03-07 Conti Temic Microelectronic Gmbh Verfahren zur vorhersehbaren Belichtungssteuerung zumindest einer ersten Fahrzeugkamera
JP6944350B2 (ja) * 2017-11-13 2021-10-06 アルパイン株式会社 撮影画像表示システム、電子ミラーシステム及び撮影画像表示方法
JP7121051B2 (ja) * 2017-12-27 2022-08-17 株式会社小糸製作所 車両用灯具システム、車両用灯具の制御装置及び車両用灯具の制御方法
JP7162427B2 (ja) * 2018-01-11 2022-10-28 アルパイン株式会社 車両用後方画像表示装置
JP6991664B2 (ja) * 2018-01-22 2022-01-12 アルパイン株式会社 撮影画像表示システム及び電子ミラーシステム
US11235778B2 (en) 2018-01-24 2022-02-01 Clearpath Robotics Inc. Systems and methods for maintaining vehicle state information
CN110147698A (zh) * 2018-02-13 2019-08-20 Kpit技术有限责任公司 用于车道检测的系统和方法
EP3780578A4 (de) 2018-03-29 2021-04-21 Sony Corporation Belichtungssteuerungsvorrichtung, belichtungssteuerungsverfahren, programm, bildgebungsvorrichtung und beweglicher körper
EP3605384A1 (de) * 2018-08-03 2020-02-05 Aptiv Technologies Limited Vorrichtung und verfahren zur erkennung von fahrzeuglichtern auf einem bild
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
KR20210056336A (ko) * 2018-09-13 2021-05-18 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 이동체 장치, 그리고 컴퓨터 프로그램
JP7326018B2 (ja) * 2018-10-18 2023-08-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム
KR102060113B1 (ko) * 2019-01-30 2019-12-27 주식회사 몹티콘 캘리브레이션 시스템 및 방법
US11447931B2 (en) * 2019-05-15 2022-09-20 Caterpillar Inc. Ground engaging tool monitoring system
EP4044148A4 (de) * 2019-10-10 2022-12-07 Koito Manufacturing Co., Ltd. Lichtverteilungssteuerungsvorrichtung, fahrzeugpositionsdetektionsvorrichtung, fahrzeugleuchtensystem, lichtverteilungssteuerungsverfahren und fahrzeugpositionsdetektionsverfahren
CN112639814B (zh) * 2020-05-29 2022-02-11 华为技术有限公司 一种路况检测方法和装置
CN112862899B (zh) * 2021-02-07 2023-02-28 黑芝麻智能科技(重庆)有限公司 用于图像获取设备的外参标定方法、装置和系统
JP2022142826A (ja) * 2021-03-17 2022-10-03 本田技研工業株式会社 自車位置推定装置
US20230209206A1 (en) * 2021-12-28 2023-06-29 Rivian Ip Holdings, Llc Vehicle camera dynamics
CN118614058A (zh) * 2022-01-31 2024-09-06 本田技研工业株式会社 图像处理装置、图像处理方法及程序

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023226A (ja) 2002-06-13 2004-01-22 Sony Corp 画像処理装置、カメラ装置、及びその露光制御方法
JP2005092857A (ja) 2003-08-11 2005-04-07 Hitachi Ltd 画像処理システム及び車両制御システム
JP2010272067A (ja) 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP2013205867A (ja) 2012-03-27 2013-10-07 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2015114084A (ja) 2013-12-13 2015-06-22 株式会社竹中工務店 データセンター

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811410A (en) * 1986-12-08 1989-03-07 American Telephone And Telegraph Company Linescan inspection system for circuit boards
US5781105A (en) * 1997-04-09 1998-07-14 Ford Motor Company Light management system for a vehicle
US6674475B1 (en) * 1999-08-09 2004-01-06 Agilent Technologies, Inc. Method and circuit for electronic shutter control
WO2001033503A1 (en) * 1999-11-03 2001-05-10 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
JP2003048481A (ja) * 2001-08-08 2003-02-18 Koito Mfg Co Ltd 車両用前照灯システム
JP2004048455A (ja) * 2002-07-12 2004-02-12 Niles Co Ltd 撮像システム
JP4818609B2 (ja) * 2002-08-21 2011-11-16 ジェンテックス コーポレイション 外部車両照明の自動制御のための画像取得及び処理方法
US7982772B2 (en) * 2004-03-30 2011-07-19 Fujifilm Corporation Image correction apparatus and image correction method for correcting image blur using a mobile vector
JP2005353477A (ja) * 2004-06-11 2005-12-22 Koito Mfg Co Ltd 車両用照明システム
JP4247993B2 (ja) * 2004-11-05 2009-04-02 シャープ株式会社 画像検査装置、画像検査方法、制御プログラムおよび可読記憶媒体
JP2006222844A (ja) * 2005-02-14 2006-08-24 Fujitsu Ten Ltd 車載画像情報出力装置及び車載画像情報出力装置の制御方法
JP4603421B2 (ja) * 2005-05-27 2010-12-22 本田技研工業株式会社 車両、画像処理システム、画像処理方法、及び画像処理プログラム
JP4644550B2 (ja) * 2005-07-20 2011-03-02 株式会社オートネットワーク技術研究所 カメラシステム
EP1837803A3 (de) * 2006-03-24 2008-05-14 MobilEye Technologies, Ltd. Vorderlicht-, Schlusslicht- und Straßenbeleuchtungsdetektion
JP4853160B2 (ja) * 2006-08-02 2012-01-11 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
JP4679469B2 (ja) * 2006-08-28 2011-04-27 ダイハツ工業株式会社 車載画像処理装置
JP4258539B2 (ja) 2006-08-31 2009-04-30 株式会社日立製作所 複数画角カメラ
JP4367475B2 (ja) * 2006-10-06 2009-11-18 アイシン精機株式会社 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
DE102006055908A1 (de) * 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Verfahren zur automatischen Fernlichtsteuerung
JP4321591B2 (ja) * 2007-01-11 2009-08-26 株式会社デンソー 車載霧判定装置
JP4389999B2 (ja) 2007-12-26 2009-12-24 株式会社デンソー 露出制御装置及び露出制御プログラム
JP4433046B2 (ja) * 2007-12-26 2010-03-17 株式会社デンソー 露出制御装置及び露出制御プログラム
JP4980939B2 (ja) * 2008-01-22 2012-07-18 富士重工業株式会社 撮像手段の調整装置および物体検出装置
US8135179B2 (en) * 2008-05-05 2012-03-13 Biotronics, Inc. Systems, methods and devices for use in assessing fat and muscle depth
JP4937199B2 (ja) * 2008-06-25 2012-05-23 日立オートモティブシステムズ株式会社 オートライト装置
US8531588B2 (en) * 2009-06-25 2013-09-10 Pixart Imaging Inc. Method for adjusting exposure condition of optical sensor module and optical sensor module thereof
WO2011055418A1 (ja) * 2009-11-09 2011-05-12 トヨタ自動車株式会社 距離測定装置、及び距離測定方法
JP2011119785A (ja) * 2009-11-30 2011-06-16 Fujitsu Ltd カメラ制御装置及びカメラ制御方法
US8698015B2 (en) * 2009-12-18 2014-04-15 Intel Corporation Compensating for multi-touch signal bias drift in touch panels
KR101204556B1 (ko) * 2011-01-21 2012-11-23 삼성전기주식회사 노이즈 제거 방법 및 이를 이용한 나이트 비젼 시스템
US9834153B2 (en) * 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US20120287276A1 (en) * 2011-05-12 2012-11-15 Delphi Technologies, Inc. Vision based night-time rear collision warning system, controller, and method of operating the same
DE102011081425A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
JP5950196B2 (ja) * 2011-08-30 2016-07-13 株式会社リコー 撮像装置、並びに、これを用いる画像解析装置及び移動装置
US20130083196A1 (en) * 2011-10-01 2013-04-04 Sun Management, Llc Vehicle monitoring systems
JP5680573B2 (ja) 2012-01-18 2015-03-04 富士重工業株式会社 車両の走行環境認識装置
JP5884635B2 (ja) * 2012-05-18 2016-03-15 株式会社デンソー 走行環境検出装置、走行環境検出プログラム、およびライト制御装置
WO2014017625A1 (ja) 2012-07-27 2014-01-30 日産自動車株式会社 立体物検出装置および立体物検出方法
US9196040B2 (en) * 2013-03-12 2015-11-24 Qualcomm Incorporated Method and apparatus for movement estimation
JP5820843B2 (ja) * 2013-05-29 2015-11-24 富士重工業株式会社 周囲環境判定装置
DE102013011975B4 (de) * 2013-07-12 2015-03-05 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Bewertung von Scheinwerfern
JP6214290B2 (ja) 2013-09-09 2017-10-18 株式会社Subaru 前照灯制御装置
DE102013219095A1 (de) * 2013-09-23 2015-03-26 Hella Kgaa Hueck & Co. Verfahren zur Steuerung einer Lichtverteilung eines Scheinwerfers und Scheinwerfer hierfür
JP6310899B2 (ja) * 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
JP6200481B2 (ja) * 2015-11-25 2017-09-20 株式会社Subaru 車外環境認識装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023226A (ja) 2002-06-13 2004-01-22 Sony Corp 画像処理装置、カメラ装置、及びその露光制御方法
JP2005092857A (ja) 2003-08-11 2005-04-07 Hitachi Ltd 画像処理システム及び車両制御システム
JP2010272067A (ja) 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP2013205867A (ja) 2012-03-27 2013-10-07 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2015114084A (ja) 2013-12-13 2015-06-22 株式会社竹中工務店 データセンター

Also Published As

Publication number Publication date
EP3849172A1 (de) 2021-07-14
JP6930613B2 (ja) 2021-09-01
US20210227115A1 (en) 2021-07-22
JP2017005678A (ja) 2017-01-05
EP3304886B1 (de) 2021-06-02
EP3304886A1 (de) 2018-04-11
JP6657925B2 (ja) 2020-03-04
US20200162652A1 (en) 2020-05-21
US10582131B2 (en) 2020-03-03
US11539894B2 (en) 2022-12-27
JP2020080550A (ja) 2020-05-28
US20180139368A1 (en) 2018-05-17
US11089229B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
DE202016008786U1 (de) Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung
DE102016211939B4 (de) Kameravorrichtung und Fahrzeugbordsystem
DE102017202115B4 (de) Fahrzeugeigene vorrichtung, verfahren zum steuern einer fahrzeugeigenen vorrichtung und computerlesbares speichermedium
DE102009012917B4 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
DE102017128539A1 (de) Displayeinrichtung für ein fahrzeug
EP1565347B1 (de) Verfahren und vorrichtung zur warnung des fahrers eines kraftfahrzeuges
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE112016002268T5 (de) Bildverarbeitungsvorrichtung, elektronisches spiegelsystem und bildverarbeitungsverfahren
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102009016580A1 (de) Datenverarbeitungssystem und Verfahren zum Bereitstellen mindestens einer Fahrerassistenzfunktion
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102018120677A1 (de) Systeme und Verfahren für die Gleichmäßigkeitsanpassung der Fahrzeuggeschwindigkeitssteuerung
WO2016194296A1 (en) In-vehicle camera system and image processing apparatus
DE102011088136A1 (de) Verfahren und Vorrichtung zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
CN113256739B (zh) 车载bsd摄像头的自标定方法、设备和存储介质
DE102007000601A1 (de) Gerät zum Steuern von Schwenkwinkeln von Fahrzeugvorderlichtern
DE102017117518A1 (de) Bild-Konvertierungs-Vorrichtung
DE102008040467A1 (de) Verfahren zur Verbesserung der Sicht eines Fahrzeugführers in einem Fahrzeug und Anordnung dazu
EP3488607A1 (de) Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion
EP1028387B1 (de) Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung
DE102017128531A1 (de) Displayeinrichtung für ein Fahrzeug
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
DE102012221652B4 (de) Verfahren und Vorrichtung zum Bestimmen, ob in einer Verkehrssituation Linksverkehr oder Rechtsverkehr besteht
DE112019006155B4 (de) Informationsdarstellungseinrichtung, Informationsdarstellungssteuerverfahren, Programm und Aufzeichnungsmedium

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000