DE112015006032B4 - Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium - Google Patents

Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium Download PDF

Info

Publication number
DE112015006032B4
DE112015006032B4 DE112015006032.4T DE112015006032T DE112015006032B4 DE 112015006032 B4 DE112015006032 B4 DE 112015006032B4 DE 112015006032 T DE112015006032 T DE 112015006032T DE 112015006032 B4 DE112015006032 B4 DE 112015006032B4
Authority
DE
Germany
Prior art keywords
attention
image
information
area
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112015006032.4T
Other languages
English (en)
Other versions
DE112015006032T5 (de
Inventor
Takeo Fujita
Koichi Yamashita
Narihiro Matoba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112015006032T5 publication Critical patent/DE112015006032T5/de
Application granted granted Critical
Publication of DE112015006032B4 publication Critical patent/DE112015006032B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Bilderfassungsvorrichtung, welche aufweist:ein Bilderfassungsmittel (2), das ein Bild eines Subjekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, erfasst und hierdurch ein erfasstes Bild erzeugt;ein Erfassungsmittel (4), das ein Objekt, das in einem Erfassungsbereich, der zumindest teilweise den Abbildungsfeld-Winkelbereich überlappt, existiert, erfasst und Informationen (D4), die eine Richtung des Objekts darstellen, und Informationen (D4), die einen Abstand zu dem Objekt darstellen, ausgibt;ein Beachtungsobjekt-Auswahlmittel (5), das ein oder mehrere Objekte auf der Grundlage der Informationen (D4), die die Richtung des Objekts darstellen, und der Informationen (D4), die den Abstand darstellen, die von dem Erfassungsmittel (4) ausgegeben wurden, auswählt, und Informationen (D5), die eine Position des ausgewählten Objekts in dem erfassten Bild darstellen, und Informationen (D5), die den Abstand zu den ausgewählten Objekt darstellen, ausgibt, wobei bei der Auswahl des Beachtungsobjekts ein Beachtungsgrad jedes Objekts bewertet wird, wobei ein Objekt mit dem höchsten Beachtungsgrad ausgewählt wird;ein Beachtungsbereichs-Bestimmungsmittel (6), das einen Bereich in dem erfassten Bild, der das ausgewählte Objekt enthält, als einen Beachtungsbereich (D6) auf der Grundlage der Informationen (D5), die die Position des ausgewählten Objekts darstellen, und der Informationen (D5), die den Abstand zu dem ausgewählten Objekt darstellen, sowie den Beachtungsgrad, die von dem Beachtungsobjekt-Auswahlmittel (5) ausgegeben wurden, bestimmt;ein Helligkeits-Berechnungsmittel (7), das die Helligkeit des erfassten Bilds in dem durch das Beachtungsbereichs-Bestimmungsmittel (6) bestimmten Beachtungsbereich (D6) berechnet; undein Belichtungssteuermittel (8), das eine Belichtungssteuerung bei dem Bilderfassungsmittel (2) auf der Grundlage der durch das Helligkeits-Berechnungsmittel (7) berechneten Helligkeit durchführt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zur Bilderfassung. Die vorliegende Erfindung bezieht sich auch auf ein Programm zum Bewirken, dass ein Computer einen Prozess in der Vorrichtung und dem Verfahren zur Bilderfassung durchführt, und auf ein Aufzeichnungsmedium, das das Programm speichert.
  • STAND DER TECHNIK
  • Es ist eine herkömmliche Bilderfassungsvorrichtung bekannt, die eine arithmetische Verarbeitung auf dem Pegel eines Abbildungssignals in einem mittleren Teil eines Abbildungsschirms und dem Pegel des Abbildungssignals in einem Umfangsteil des Abbildungsschirms durchführt, beurteilt, ob ein Bild in einem Zustand des Enthaltens einer Lichtquelle oder dergleichen in seinem Umfangsteil ist oder nicht, und eine Korrektur derart durchführt, dass der mittlere Teil des Bildes einen angemessenen Signalpegel durch kontinuierliches Steuern der Verstärkung einer Verstärkungssteuereinheit in Abhängigkeit von dem Zustand hat (siehe beispielsweise Patentdokument 1).
  • Patentdokument 2 betrifft eine Frontbildaufnahmevorrichtung, die eine Laserabtastvorrichtung zum Abtasten eines Bereichs vor einem Automobil, um ein Hindernis zu erkennen, und ein Vektor verwendet, der seine Verschiebung über einen Zeitraum von einem Vollbild der Abtastung darstellt. Eine Kamerasteuerung sagt aus diesem Vektor die Position des Hindernisses zum Zeitpunkt des nächsten Bildes voraus und legt einen Bildaufnahmebereich fest. Eine Kamera erhält ein vorläufiges Bild des Bereichs, und sein Helligkeitshistogramm wird von einem Bildprozessor gewonnen. Die Kamerasteuerung stellt die Kamera entsprechend dem Histogramm so ein, dass ein Bild des Bereichs mit optimaler Helligkeit und optimalem Kontrast erhalten wird.
  • Patentdokument 3 betrifft eine Kamera und ein Kamerasystem, das dem Fahrer Informationen über ein dreidimensionales Objekt in Form eines guten Bildes liefern kann. Das Kamerasystem enthält eine Kamera, einen Monitor, um dem Fahrer ein von der Kamera aufgenommenes Bild zu präsentieren, und eine Sensoreinheit zum Erfassen eines dreidimensionalen Objekts, wobei die Kamera eine Einstelleinheit zum automatischen Einstellen von Verstärkung und Blende und eine Kriterienbestimmungseinheit umfasst.
  • DOKUMENTE DES STANDES DER TECHNIK
  • PATENTDOKUMENTE
    • Patentdokument 1: japanische Patentanmeldungsveröffentlichung Nr. 62-110369 (Seite 2, Absatz 8 - Absatz 9)
    • Patentdokument 2: US 2007/ 0 073 484 A1
    • Patentdokument 3: US 2007/ 0 242 944 A1
  • KURZFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Da die vorbeschriebene herkömmliche Bilderfassungsvorrichtung eine Hintergrundlichtkompensation durch Beurteilen durchführt, ob das Bild in dem Zustand des Enthaltens einer Lichtquelle oder dergleichen in dem Umfangsteil ist oder nicht, wenn ein Subjekt, dem Aufmerksamkeit zu schenken ist, nicht in der Mitte des Schirms ist, führt die Vorrichtung eine Belichtungssteuerung durch, während sie nicht in der Lage ist, den Hintergrundlichtzustand des zu beachtenden Subjekts zu erfassen. Demgemäß besteht das Problem, dass das zu beachtende Subjekt aufgrund von blockierten Schatten oder ausgelöschten Höhepunkten unsichtbar werden kann. Weiterhin besteht auch ein Problem dahingehend, dass die Erkennungsrate des zu beachtenden Subjekts gering ist, wenn die Erkennung unter Verwendung des erfassten Bildes durchgeführt wird.
  • Eine Aufgabe der vorliegenden Erfindung, die gemacht wurde, um die vorbeschriebenen Probleme zu lösen, besteht darin, das Auftreten der blockierten Schatten oder ausgelöschten Höhepunkte auf das beachtende Subjekt zu beschränken und hierdurch das zu beachtende Subjekt deutlich sichtbar zu machen.
  • MITTEL ZUM LÖSEN DER PROBLEME
  • Eine Bilderfassungsvorrichtung nach der vorliegenden Erfindung enthält:
    • ein Bilderfassungsmittel, das ein Bild eines Subjekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, erfasst und hierdurch ein erfasstes Bild erzeugt;
    • ein Erfassungsmittel, das ein Objekt, das in einem Erfassungsbereich, der zumindest teilweise den Bildfeld-Winkelbereich überlappt, existiert, erfasst und Informationen, die eine Richtung des Objekts darstellen, und Informationen, die den Abstand zu dem Objekt darstellen, ausgibt;
    • ein Beachtungsobjekt-Auswahlmittel, das ein oder mehrere Objekte auf der Grundlage der die Richtung des Objekts darstellenden Informationen und der den Abstand darstellenden Informationen, die von dem Erfassungsmittel ausgegeben wurden, auswählt und Informationen, die die Position des ausgewählten Objekts in dem erfassten Bild darstellen, und Informationen, die den Abstand zu dem ausgewählten Objekt darstellen, ausgibt;
    • ein Beachtungsbereich-Spezifizierungsmittel, das einen Bereich in dem erfassten Bild, der das ausgewählte Objekt enthält, als einen Beachtungsbereich spezifiziert auf der Grundlage der Informationen, die die Position des ausgewählten Objekts darstellen, und der Informationen, die den Abstand zu dem ausgewählten Objekt darstellen, die von dem Beachtungsobjekt-Auswahlmittel ausgegeben wurden;
    • ein Helligkeitsberechnungsmittel, das die Helligkeit des erfassten Bildes in dem durch das Beachtungsbereich-Spezifizierungsmittel spezifizierten Beachtungsbereich berechnet; und
    • ein Belichtungssteuermittel, das eine Belichtungssteuerung bei dem Bilderfassungsmittel auf der Grundlage der von dem Helligkeitsberechnungsmittel berechneten Helligkeit durchführt.
  • WIRKUNG DER ERFINDUNG
  • Durch die vorliegende Erfindung wird die Wirkung erhalten, dass das Auftreten der blockierten Schatten oder ausgelöschten Höhepunkte bei Bildteilen, die dem ausgewählten Objekt entsprechen, beschränkt ist und demgemäß das ausgewählte Objekt deutlich sichtbar wird.
  • Figurenliste
    • 1 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 2 ist ein Blockschaltbild, das eine schematische Konfiguration eines in 1 gezeigten Radars zeigt.
    • 3 ist ein Diagramm, das ein Beispiel einer von einem Hostfahrzeug aus betrachteten Frontszene zeigt.
    • 4 ist ein Diagramm, das einen Abbildungsfeld-Winkelbereich und einen Erfassungsbereich des Radars in der in 3 gezeigten Frontszene zeigt.
    • 5 ist ein Diagramm, das Positionen von Objekten in dem von dem Radar erfassten Erfassungsbereich in dem Erfassungsbereich von 4 zeigt.
    • 6 ist ein Diagramm, das ein Beispiel für einen Beachtungsbereich zeigt, der für ein aus den in 5 gezeigten Objekten auf der Grundlage des Abstands ausgewähltes Objekt spezifiziert ist.
    • 7 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung, die unter Verwendung des Beachtungsbereichs von 6 als eines Erfassungsrahmens durchgeführt wurde.
    • 8 ist ein Diagramm, das ein anderes Beispiel für die von dem Hostfahrzeug betrachtete Frontszene zeigt.
    • 9 ist ein Diagramm, das Positionen von Objekten in dem Erfassungsbereich, die von dem Radar in dem Erfassungsbereich von 8 erfasst wurden, zeigt.
    • 10 ist ein Diagramm, das ein Beispiel für den Beachtungsbereich zeigt, der für ein aus den in 8 gezeigten Objekten auf der Grundlage des Abstands ausgewähltes Objekt spezifiziert wurde.
    • 11 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung, die unter Verwendung des Beachtungsbereichs von 10 als des Erfassungsrahmens durchgeführt wurde.
    • 12 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 13 ist ein Diagramm, das ein Beispiel für den Erfassungsbereich zeigt, der für ein aus den in 5 gezeigten Objekten auf der Grundlage der Richtung und des Abstands ausgewähltes Objekt spezifiziert wurde.
    • 14 ist ein Diagramm, das ein Beispiel eines Bildes zeigt, das als das Ergebnis der Belichtungssteuerung, die durch Verwendung des Beachtungsbereichs in 13 als des Erfassungsrahmens durchgeführt wurde, erhalten wurde.
    • 15 ist ein Diagramm, das ein Beispiel für den Beachtungsbereich zeigt, der für ein Objekt, das aus den in 8 gezeigten Objekten auf der Grundlage der Richtung und des Abstands ausgewählt wurde, spezifiziert ist.
    • 16 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung, die durch Verwendung des Beachtungsbereichs von 15 als des Erfassungsrahmens durchgeführt wurde, erhalten wurde.
    • 17 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 18 ist ein Diagramm, das ein Beispiel für den Beachtungsbereich zeigt, der auf der Grundlage eines Objektbeurteilungsergebnisses für ein Objekt, das aus den in 5 gezeigten Objekten auf der Grundlage des Abstands ausgewählt wurde, spezifiziert ist.
    • 19 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung, die durch Verwendung des Beachtungsbereichs von 18 als des Erfassungsrahmens durchgeführt wurde, erhalten wurde.
    • 20 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 21 ist ein Diagramm, das ein Beispiel für den Beachtungsbereich zeigt, der unter Berücksichtigung eines Objektbeurteilungsergebnisses für ein Objekt, das aus den in 5 gezeigten Objekten auf der Grundlage der Richtung und des Abstands ausgewählt wurde, spezifiziert wurde.
    • 22 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung die durch Verwendung des Beachtungsbereichs von 21 als des Erfassungsrahmens durchgeführt wurde, erhalten wurde.
    • 23 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 24 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem sechsten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 25 ist ein Diagramm, das ein Beispiel für Beachtungsbereiche zeigt, die für zwei Objekte, die aus den in 5 gezeigten Objekten auf der Grundlage des Abstands ausgewählt wurden, spezifiziert sind.
    • 26 ist ein Diagramm, das ein Beispiel für ein Bild zeigt, das als das Ergebnis der Belichtungssteuerung, die durch Verwendung der Beachtungsbereiche von 25 als des Erfassungsrahmens durchgeführt wurde, erhalten wurde.
    • 27 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem siebenten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 28 ist ein Blockschaltbild, das ein Computersystem zeigt, das die Bilderfassungsvorrichtung nach dem ersten, dritten, fünften oder sechsten Ausführungsbeispiel bildet.
    • 29 ist ein Blockschaltbild, das ein Computersystem zeigt, das die Bilderfassungsvorrichtung nach dem zweiten oder vierten Ausführungsbeispiel bildet.
  • ART DES AUSFÜHRENS DER ERFINDUNG
  • Erstes Ausführungsbeispiel
  • 1 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Die in der Figur gezeigte Bilderfassungsvorrichtung ist eine in einem Fahrzeug zu installierende Bilderfassungsvorrichtung, enthaltend eine Linse 1, eine Bildaufnahmevorrichtung 2, eine Kamerasignal-Verarbeitungsschaltung 3, ein Radar 4, eine Beachtungsobjekt-Auswahlschaltung 5, eine Beachtungsbereich-Bestimmungsschaltung 6, eine Helligkeits-Berechnungsschaltung 7 und eine Belichtungssteuerschaltung 8.
  • Die Linse 1 führt Licht, das von einem Subjekt, das sich in einem Abbildungsfeld-Winkelbereich befindet, auftrifft, auf eine Abbildungsfläche der Bildaufnahmevorrichtung 2 und bildet hierdurch ein Subjektbild auf der Abbildungsfläche.
  • Die Bildaufnahmevorrichtung 2 wandelt das auf der Abbildungsfläche gebildete Subjektbild photoelektrisch um und erzeugt hierdurch ein das erfasste Bild darstellendes Abbildungssignal. Das von der Bildaufnahmevorrichtung 2 erzeugte Abbildungssignal D2 wird zu der Kamerasignal-Verarbeitungsschaltung 3 geliefert.
  • Die folgende Erläuterung wird unter der Annahme eines Falls gegeben, in welchem die Bildaufnahmevorrichtung 2 Videobilder erfasst und bei jeder Vollbildperiode das Abbildungssignal ausgibt.
  • Die Bildaufnahmevorrichtung 2 ist so angeordnet, dass sie Bilder der Szene vor dem Fahrzeugkörper des Fahrzeugs, in welchem die Bilderfassungsvorrichtung installiert ist (Hostfahrzeug) erfasst, und die Richtung einer optischen Achse der Linse 1 wird als mit der Vorwärtsrichtung des Fahrzeugkörpers des Hostfahrzeugs zusammenfallend angenommen.
  • Die Kamerasignal-Verarbeitungsschaltung 3 führt einen Farbsynchronisationsprozess, einen Signalverstärkungsprozess, einen Gradationskorrekturprozess, einen Störungsverringerungsprozess, einen Konturenkorrekturprozess, einen Weißabgleichs-Einstellprozess und Farbkorrekturprozess bei dem erfassten Bild jedes von der Bildaufnahmevorrichtung 2 ausgegebenen Vollbilds durch und gibt eine zeitliche Folge von Bildern, die als das Ergebnis dieser Prozesse (erfasste Bilder, nachdem sie der Signalverarbeitung unterzogen wurden) erhalten wurden, als ein Bildsignal D3 aus. Das Bildsignal D3 wird von einem Ausgangsanschluss 9 ausgegeben.
  • Das ausgegebene Bildsignal D3 wird für eine Objekterkennung in beispielsweise einem Fahrunterstützungsprozess ausgegeben.
  • Die Kamerasignal-Verarbeitungsschaltung 3 gibt auch ein Helligkeitssignal Y3 aus, das die Helligkeit jedes Pixels des erfassten Bildes jedes durch das Bildsignal D3 dargestellten Vollbilds darstellt. Das Helligkeitssignal Y3 wird zu der Helligkeitsberechnungsschaltung 7 ausgegeben.
  • In dem vorgenannten Farbsynchronisationsprozess werden Farbkomponenten, die an jeder Pixelposition fehlen, interpoliert. In den Fällen der Pixelanordnung des RGB-Bayer-Typs existieren Pixeldaten von nur einem von dem R-Pixel, dem G-Pixel und dem B-Pixel an jeder Pixelposition, und somit werden Pixeldaten der an jeder Pixelposition fehlenden Farben durch Verwendung von Pixeldaten der gleichen Farben von benachbarten Pixeln interpoliert. Hierdurch ist es möglich, ein vollständiges Pixelsignal, das Pixeldaten von sämtlichen Farben R, G und B enthält, für jede Pixelposition zu erzeugen.
  • In dem vorgenannten Signalverstärkungsprozess wird das Signal auf der Grundlage des Ergebnisses der Erfassung von Bildhelligkeit durch die Belichtungssteuerschaltung 8 verstärkt, wie später erläutert wird.
  • In dem vorgenannten Gradationskorrekturprozess wird eine Gradationskorrektur durch Bezugnahme auf eine Tabelle durchgeführt, um eine Gradationscharakteristik beispielsweise gemäß einer Gammacharakteristik zu erzielen.
  • In dem vorgenannten Störungsverringerungsprozess werden Störungen verringert, indem beispielsweise zumindest einer von einem räumlichen Glättungsprozess und einem zeitlichen Glättungsprozess durchgeführt wird.
  • In dem vorgenannten Konturenkorrekturprozess wird eine Korrektur durchgeführt durch Verstärken von Konturen, die beispielsweise durch den Glättungsprozess und dergleichen durch Anwendung eines Hochpassfilters abgeschwächt wurden.
  • In dem vorgenannten Weißabgleichs-Einstellprozess wird die Erfassung beispielsweise bei einem R-Signal und einem B-Signal (oder einem R-Y-Signal und einem B-Y-Signal) durchgeführt, ihre Durchschnittswerte werden erhalten, die Größen der Durchschnittswerte werden miteinander verglichen, und Verstärkungen werden so eingestellt, dass beispielsweise das R-Signal und das B-Signal (oder das R-Y-Signal und das B-Y-Signal) dem Weißabgleich unterzogen werden.
  • Bei dem vorgenannten Farbkorrekturprozess werden der Farbton und die Sättigung korrigiert, indem eine Matrixoperation bei dem R-Signal, dem G-Signal und dem B-Signal durchgeführt wird.
  • Das Radar 4 ist ein Erfassungsmittel, das die Positionen von einem oder mehreren Objekten, die in einem Erfassungsbereich existieren, erfasst. Die folgende Erläuterung wird gegeben unter der Annahme, dass der Erfassungsbereich des Radars 4 identisch mit dem Abbildungsfeld-Winkelbereich der Bildaufnahmevorrichtung 2 identisch ist.
  • Wie in 2 gezeigt ist, enthält das Radar 4 eine Sendeeinheit 41 zum Erzeugen eines Sendesignals, eine Antenne 42 mit hoher Richtwirkung zum Senden einer Sendefunkwelle entsprechend dem Sendesignal in einer bestimmten Richtung und zum Empfangen einer reflektierten Funkwelle von jedem der Objekte und eine Empfangseinheit 43 zum Herausziehen reflektierter Wellen aus den von der Antenne 42 empfangenen Funkwellen und misst hierdurch die Richtung und den Abstand jedes Objekts in dem Erfassungsbereich auf der Grundlage der Sendewelle und der reflektierten Wellen.
  • Das Radar 4 gibt Informationen D4a, die die gemessene Richtung (Richtungsinformationen D4a) darstellen, und Informationen D4b, die den gemessenen Abstand (Abstandsinformationen D4b) darstellen, als Positionsinformationen D4 über jedes Objekt aus.
  • Die durch die Richtungsinformationen D4a dargestellte Richtung ist mit einer Position in dem erfassten Bild in der Bildaufnahmevorrichtung 2 assoziiert. Die Position in dem erfassten Bild wird durch eine horizontale Richtungsposition und eine vertikale Richtungsposition beispielsweise in dem erfassten Bild dargestellt.
  • Es wird in der folgenden Erläuterung angenommen, dass die Objekterfassung durch das Radar 4 synchron mit (d.h. mit den gleichen Zyklen wie) und zu denselben Zeiten wie die Bilderfassung durch die Bildaufnahmevorrichtung 2 durchgeführt wird.
  • Die Positionsinformationen D4 werden zu der Beachtungsobjekt-Auswahlschaltung 5 geliefert.
  • Die Beachtungsobjekt-Auswahlschaltung 5 wählt ein Beachtungsobjekt auf der Grundlage der Positionsinformationen D4 über jedes Objekt, die von dem Radar 4 geliefert wurden, aus. Bei der Auswahl des Beachtungsobjekts wird ein Beachtungsgrad jedes Objekts bewertet, und ein Objekt wird auf der Grundlage des Ergebnisses der Bewertung ausgewählt. Beispielsweise wird ein Objekt mit dem höchsten Beachtungsgrad bestimmt, und das bestimmte Objekt wird ausgewählt.
  • Die Beachtungsobjekt-Auswahlschaltung 5 liefert Informationen D5, die die Position des ausgewählten Objekts darstellen, zu der Beachtungsbereich-Bestimmungsschaltung 6.
  • Die Informationen D5, die die Position des ausgewählten Objekts darstellen, enthalten Informationen D5a, die die Position des ausgewählten Objekts in dem erfassten Bild darstellen, und Informationen D5b, die den Abstand von dem Hostfahrzeug zu dem Objekt darstellen.
  • Wie vorstehend erwähnt ist, ist die durch die Richtungsinformationen D4a, die in den von dem Radar 4 ausgegebenen Positionsinformationen D4 enthalten sind, dargestellte Richtung mit einer Position in dem erfassten Bild assoziiert. Daher kann eine entsprechende Position in dem erfassten Bild anhand der von dem Radar 4 ausgegebenen Richtungsinformationen D4a über jedes Objekt bestimmt werden.
  • Die Beachtungsobjekt-Auswahlschaltung zieht auch die Informationen D5b, die den Abstand zu dem ausgewählten Objekt darstellen, aus den von dem Radar 4 ausgegebenen Abstandsinformationen D4b über jedes Objekt heraus.
  • Die Beachtungsbereich-Bestimmungsschaltung 6 bestimmt einen Beachtungsbereich in dem erfassten Bild auf der Grundlage der Position des Objekts, die durch die von der Beachtungsobjekt-Auswahlschaltung 5 ausgegebenen Informationen D5 dargestellt ist, das heißt die Position des von der Beachtungsobjekt-Auswahlschaltung 5 ausgewählten Objekts, und gibt Informationen D6, die den bestimmten Bereich darstellen (Beachtungsbereichsinformationen D6) aus. Die Beachtungsbereichsinformationen D6 werden zu der Helligkeits-Berechnungsschaltung 7 geliefert.
  • Die Helligkeits-Berechnungsschaltung 7 führt die Erfassung des von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebenen Helligkeitssignals Y3 auf der Grundlage der von der Beachtungsbereich-Bestimmungsschaltung 6 ausgegebenen Informationen D6, die den Beachtungsbereich darstellen, und durch Verwendung des Beachtungsbereichs als eines Erfassungsvollbilds durch. Beispielsweise berechnet die Helligkeits-Berechnungsschaltung 7 einen Durchschnittswert Yav von Helligkeitswerten von Pixeln, die in dem Erfassungsvollbild erhalten sind (Helligkeitsdurchschnittswert Yav), auf der Grundlage des Helligkeitssignals Y3 betreffend die in dem Erfassungsvollbild enthaltenen Pixel und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8 als die Helligkeit darstellende Informationen. Der wie vorstehend erhaltene Helligkeitsdurchschnittswert wird als ein Helligkeitsindexwert verwendet.
  • Die Belichtungssteuerschaltung 8 vergleicht den von der Helligkeits-Berechnungsschaltung 7 berechneten Helligkeitsdurchschnittswert Yav mit einem Helligkeitszielwert Yrf und führt eine Belichtungssteuerung auf der Grundlage des Ergebnisses des Vergleichs durch.
  • Die Belichtungssteuerung wird durch Steuern von Parametern von Belichtungsbedingungen durchgeführt, das heißt durch Steuern einer Belichtungszeit Te für die Bildaufnahmevorrichtung 2 und Steuern eines Signalverstärkungswerts Gs für die Kamerasignal-Verarbeitungsschaltung 3. Die Belichtungssteuerschaltung 8 liefert ein Steuersignal Ct zum Steuern der Belichtungszeit Te zu der Bildaufnahmevorrichtung 2, während sie ein Steuersignal Cg zum Steuern des Signalverstärkungswerts Gs zu der Kamerasignal-Verarbeitungsschaltung 3 liefert.
  • Die Belichtungssteuerschaltung 8 enthält einen Speicher 81. Der Speicher 81 speichert den Wert (Parameter) der Belichtungszeit Te, der für die Bilderfassung durch die Bildaufnahmevorrichtung 2 zu verwenden ist, und den Wert (Parameter) der Signalverstärkung Gs, der für die Signalverstärkung durch die Kamerasignal-Verarbeitungsschaltung 3 zu verwenden ist.
  • Wenn der Helligkeitsdurchschnittswert Yav von der Helligkeits-Berechnungsschaltung 7 eingegeben wird, führt die Belichtungssteuerschaltung 8 die Einstellung der Belichtungszeit Te und des Signalverstärkungswerts Gs durch.
  • Wenn beispielsweise der Helligkeitsdurchschnittswert Yav größer als der Helligkeitszielwert Yrf ist, erfolgt eine Einstellung zum Verkürzen der Belichtungszeit oder eine Einstellung zum Verringern des Signalverstärkungswerts.
  • Wenn umgekehrt der Helligkeitsdurchschnittswert Yav kleiner als der Helligkeitszielwert Yrf ist, erfolgt eine Einstellung zur Verlängerung der Belichtungszeit oder eine Einstellung zum Erhöhen des Signalverstärkungswerts.
  • Ob die Belichtungszeit oder der Signalverstärkungswert geändert werden sollten, wird in einer solchen Weise bestimmt, dass die Störungen geringer werden. Wenn beispielsweise das Subjekt allmählich dunkler wird, wird die Belichtungszeit zuerst lang eingestellt, und nachdem die Belichtungszeit das Maximum erreicht hat, wird der Signalverstärkungswert erhöht. Der maximale Wert der Belichtungszeit ist ein Vollbildzyklus oder eine Zeit als eine Toleranzgrenze für die Bewegungsunschärfe. Die Länge der Zeit als die Toleranzgrenze für die Bewegungsunschärfe wird kürzer, wenn die Bewegung des Subjekts schneller wird.
  • Es ist auch möglich, die Belichtungssteuerung durch Steuern der Öffnung der Linse 1 durchzuführen.
  • Wenn die Belichtungszeit Te oder der Signalverstärkungswert Gs eingestellt ist, wird der Wert der Belichtungszeit oder der Signalverstärkungswert, die in dem Speicher 81 gespeichert sind, durch den eingestellten Wert überschrieben (aktualisiert).
  • Der eingestellte Wert der Belichtungszeit Te oder der Signalverstärkungswert Gs wird zu der Bildaufnahmevorrichtung und der Kamerasignal-Verarbeitungsschaltung 3 geliefert und für die Belichtungssteuerung bei der Bilderfassung von der nächsten Vollbildperiode an verwendet.
  • Durch die Steuerung der Belichtungszeit der Bildaufnahmevorrichtung 2 und die Steuerung des Signalverstärkungswerts der Kamerasignal-Verarbeitungsschaltung 3, die von der Belichtungssteuerschaltung 8 durchgeführt wird, werden die Bilder, die durch das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebene Bildsignal dargestellt werden, so gesteuert, dass das Objekt in dem Beachtungsbereich mit angemessener Helligkeit sichtbar ist.
  • Ein Fall, in welchem die Bilderfassungsvorrichtung nach diesem Ausführungsbeispiel zum Erfassen von Bildern eines Objekts vor einem Fahrzeug angewendet und hierdurch das Objekt erkannt wird, wird nachfolgend erläutert. In diesem Fall ist die Bilderfassungsvorrichtung an dem Fahrzeug installiert und erfasst Bilder der Szene vor dem Fahrzeug.
  • 3 zeigt ein Beispiel einer Frontszene, die von dem Hostfahrzeug in diesem Ausführungsbeispiel betrachtet wird. Diese Szene ist das Ziel der Bilderfassung durch die Bildaufnahmevorrichtung 2 und das Ziel der Erfassung durch das Radar 4.
  • Das illustrierte Beispiel nimmt einen Fall an, in welchem das Hostfahrzeug (nicht gezeigt) auf einer Überholspur TFL einer Straße mit zwei Fahrspuren auf jeder Seite fährt und sich einem Tunnel TN nähert.
  • Ein kleines Fahrzeug A fährt auf der Überholspur TFL in den Tunnel TN, ein großes Fahrzeug B fährt auf einer langsamen Fahrspur TSL und vor dem Tunnel TN, und ein Motorrad D fährt hinter dem großen Fahrzeug B. Ein kleines Fahrzeug C, das aus dem Tunnel TN herauskommt, fährt auf einer langsamen Fahrspur RSL in der entgegengesetzten Richtung. Kein Fahrzeug fährt auf einer Überholspur RFL in der entgegengesetzten Richtung.
  • Beispiele für das große Fahrzeug schließen große Lastwagen und Busse ein. Beispiele für das kleine Fahrzeug schließen Personenkraftwagen ein. Es kann sich auch ein Fußgänger auf der Straße befinden. In der folgenden Beschreibung können die vorgenannten Fahrzeuge A- D als Objekte bezeichnet werden. Jeder Fußgänger wird auch als ein Typ von Objekt behandelt.
  • Die Fahrspuren in der Fahrtrichtung und die Fahrspuren in der entgegengesetzten Richtung sind durch einen Mittelstreifen MD voneinander getrennt. Eine Fahrspurmarkierung TLM ist zwischen der langsamen Fahrspur TSL und der Überholspur TFL in der Fahrtrichtung gezogen. Eine Fahrspurmarkierung RLM ist zwischen der langsamen Fahrspur RSL und der Überholspur RFL in der entgegengesetzten Richtung gezogen.
  • Es wird in der folgenden Erläuterung angenommen, dass die Zeitperiode in der Tageszeit liegt, die Sonne scheint, es außerhalb des Tunnels TN hell ist und innerhalb des Tunnels TN dunkel ist.
  • In der in 3 gezeigten Frontszene wird ein Bild von Subjekten in dem durch einen Rahmen CR aus einer gestrichelten Linie angezeigten Bereich (Abbildungsfeld-Winkelbereich) durch die Bildaufnahmevorrichtung 2 aufgenommen, und ein in 4 gezeigtes aufgenommenes Bild wird erhalten. Wie vorstehend erwähnt ist, wird angenommen, dass der Erfassungsbereich des Radars 4 identisch mit dem durch den Rahmen CR aus einer gestrichelten Linie angezeigten Bereich in 3 (Abbildungsfeld-Winkelbereich) ist.
  • Hinsichtlich des Erfassungsbereichs von 4 liefert das Radar 4 die Positionsinformationen D4 über die erfassten Objekte zu der Beachtungsobjekt-Auswahlschaltung 5. Die Positionen der mittels der Erfassung durch das Radar 4 erfassten Objekte sind in 5 durch schwarze Kreise angezeigt. 5 zeigt die Objekte, während sie mit der Hintergrundszene (dem Tunnel TN, dem Mittelstreifen MD und den Fahrspurmarkierungen TLM und RLM) überlappt sind, um die Positionsbeziehung zwischen den erfassten Objekten zu klären.
  • Bei der Erfassung durch das Radar 4 wird, wenn ein Objekt weiter als ein bestimmter Abstand entfernt ist und die Zeit, die die reflektierte Welle zum Zurückkehren benötigt, länger als eine voreingestellte Zeit ist oder die Intensität der reflektierten Welle kleiner als ein voreingestellter Wert ist, ein derartiges Objekt als nicht existierend oder nicht erfasst behandelt.
  • In dem in 5 gezeigten Beispiel hat das Radar das Objekt A, das Objekt B, das Objekt C und das Objekt D erfasst.
  • Das Radar 4 gibt die Informationen (Richtungsinformationen) D4a, die die Richtung jedes der Objekte von dem Hostfahrzeug aus betrachtet darstellen, und die Informationen (Abstandsinformationen) D4b, die den Abstand von dem Hostfahrzeug zu jedem der Objekte darstellen, beispielsweise als die Informationen (Positionsinformationen) D4, die die Position jedes der erfassten Objekte darstellen, aus.
  • Als die Positionsinformationen D4 werden Informationen, die die Position der Mitte jedes Objekts darstellen, ausgegeben.
  • In diesem Fall wird die Richtung der Mitte eines Richtungsbereichs, in welchem die reflektierte Welle von demselben Objekt empfangen wird, oder die Richtung, in der die Intensität der reflektierten Welle von demselben Objekt am stärksten ist, als die Richtung der Mitte des Objekts betrachtet.
  • Weiterhin wird ein Abstand, der auf der Grundlage der reflektierten Welle von der Richtung der Mitte des Objekts berechnet wird, als der Abstand zu der Mitte des Objekts behandelt.
  • Es wird angenommen, dass das Radar 4 ein Radar mit relativ niedrigem Leistungsvermögen ist und die Ausgangsleistung des Radars 4 nicht dazu ausreicht, die Größe und die Form jedes Objekts ausreichend zu erfahren, und somit nicht dazu ausreicht, den Typ jedes Objekts zu bestimmen.
  • Wie vorstehend erwähnt ist, bewertet die Beachtungsobjekt-Auswahlschaltung 5 den Beachtungsgrad jedes Objekts auf der Grundlage der Positionsinformationen D4 über jedes Objekt, die von dem Radar 4 geliefert werden, wählt ein Objekt mit dem höchsten Beachtungsgrad aus und gibt die Informationen D5, die die Position des ausgewählten Objekts darstellen, aus. Die Informationen D5, die die Position des Objekts darstellen, enthalten die Informationen D5a, die die Position des Objekts in dem erfassten Bild darstellen, und die Informationen D5b, die den Abstand zu dem Objekt darstellen.
  • Die Informationen D5a, die die Position des Objekts in dem erfassten Bild darstellen, sind Informationen, die beispielsweise die Position der Mitte des Objekts in dem erfassten Bild darstellen. Die Informationen D5b, die den Abstand zu dem Objekt darstellen, sind Informationen, die beispielsweise den Abstand zu der Mitte des Objekts darstellen. Die ausgegebenen Informationen D5 werden zu der Beachtungsbereichs-Bestimmungsschaltung 6 geliefert.
  • Wie vorstehend erwähnt ist, ist die Richtung, die durch die von dem Radar ausgegebenen Positionsinformationen D4 dargestellt ist, mit einer Position in dem erfassten Bild assoziiert, und es ist möglich, eine Position in dem erfassten Bild entsprechend der Position der Mitte des durch das Radar 4 erfassten Objekts zu bestimmen. Somit können anhand der von dem Radar 4 ausgegebenen Informationen D4a, die die Richtung jedes Objekts darstellen, die Informationen D5a, die die Position desselben Objekts in dem erfassten Bild darstellen, erzeugt werden.
  • Wie die Informationen D5b, die den Abstand zu jedem Objekt darstellen, können die von dem Radar 4 ausgegebenen Informationen D4b, die den Abstand zu demselben Objekt darstellen, ohne Änderung verwendet werden. Bei der Bewertung des Beachtungsgrads jedes Objekts durch die Beachtungsobjekt-Auswahlschaltung 5 wird der Beachtungsgrad beispielsweise mit der Abnahme des Abstands von dem Hostfahrzeug erhöht.
  • In dem Beispiel von 5 hat das Objekt D den kürzesten Abstand von dem Hostfahrzeug, und daher wird es so beurteilt, dass es den höchsten Beachtungsgrad hat. In diesem Fall wählt die Beachtungsobjekt-Auswahlschaltung 5 das Objekt D aus.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6 bestimmt den Beachtungsbereich in dem erfassten Bild in Bezug auf das von der Beachtungsobjekt-Auswahlschaltung 5 ausgewählte Objekt. Beispielsweise wird ein Bereich, dessen Mitte in der Mitte des durch die Beachtungsobjekt-Auswahlschaltung 5 ausgewählten Objekts liegt und der eine Größe entsprechend dem Abstand zu dem Objekt hat, als der Beachtungsbereich bestimmt. Der Beachtungsbereich ist ein rechteckiger Bereich mit einem Paar von Seiten, die sich in der horizontalen Richtung erstrecken, und einem Paar von Seiten, die sich in der vertikalen Richtung erstrecken.
  • Die Größe des Beachtungsbereichs ist eine Größe, die das Gesamte eines Teils des erfassten Bildes enthält, der als durch das Objekt besetzt geschätzt wird, d. h. eines Bildteils entsprechend dem Objekt in einem Fall, in welchem angenommen wird, dass das ausgewählte Objekt zu dem größten Typ unter den vermuteten mehreren Typen von Objekten gehört, das heißt einem großen Fahrzeug. Für die Schätzung der Größe wird der Abstand zu dem ausgewählten Objekt in Betracht gezogen. Dies hat den Grund darin, dass selbst dasselbe große Fahrzeug in dem erfassten Bild abhängig von dem Abstand in unterschiedlichen Größen erscheint.
  • Der Grund, weshalb bei der Schätzung der Größe des in dem erfassten Bild erscheinenden Objekts angenommen wird, dass das ausgewählte Objekt zu dem größten Typ unter den vermuteten mehreren Typen von Objekten gehört, das heißt einem großen Fahrzeug, liegt darin, den Beachtungsbereich so anzugeben, dass er den Teil des erfassten Bildes entsprechend dem Objekt (dem in dem erfassten Bild erscheinenden Objekt) ungeachtet des Typs des ausgewählten Objekts enthält.
  • 6 zeigt einen Fall, in welchem ein rechteckiger Bereich, der das ausgewählte Objekt D enthält, als der Beachtungsbereich Rd bestimmt ist.
  • 6 zeigt nicht nur das in dem bestimmten Beachtungsbereich Rd enthaltene Objekt D, sondern auch die Objekte A, B und C zusammen mit der Hintergrundszene (dem Tunnel TN, dem Mittelstreifen MD und den Fahrspurmarkierungen LM). Dies dient zur Klarstellung der Positionsbeziehung betreffend den Beachtungsbereich Rd.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6 erzeugt Informationen, die den in 6 gezeigten Beachtungsbereich Rd bestimmen, und liefert die Informationen zu der Helligkeits-Berechnungsschaltung 7.
  • Die Helligkeits-Berechnungsschaltung 7 berechnet den Helligkeitsdurchschnittswert Yav durch Durchführen der Erfassung des Helligkeitssignals Y3, das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegeben wurde, durch Verwendung des Beachtungsbereichs Rd als das Erfassungsvollbild und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8.
  • Die Belichtungssteuerschaltung 8 vergleicht den Helligkeitsdurchschnittswert Yav, der von der Helligkeits-Berechnungsschaltung 7 berechnet wurde, mit dem Helligkeitszielwert Yrf und führt die Belichtungssteuerung auf der Grundlage des Ergebnisses der Vergleichs durch.
  • In dem in 6 gezeigten Beispiel befindet sich der gesamte Beachtungsbereich Rd außerhalb des Tunnels TN. Zur Tageszeit mit sonnigem Wetter ist es außerhalb des Tunnels TN hell. Daher ist der Helligkeitsdurchschnittswert Yav des Teils in dem Beachtungsbereich Rd in dem erfassten Bild hoch. Wenn der Helligkeitsdurchschnittswert Yav wie vorstehend hoch ist, erfolgt die Einstellung zum Verkürzen der Belichtungszeit oder die Einstellung zum Herabsetzen des Signalverstärkungswerts.
  • Als eine Folge ändert sich die Helligkeit des durch das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebene Bildsignal D3 dargestellten Bildes, und ein Bild, in welchem die Helligkeit in dem Beachtungsbereich Rd optimal gesteuert wurde, wird erhalten. Genauer gesagt, ein Bild mit hoher Sichtbarkeit des Objekts D in dem Beachtungsbereich Rd wird ohne erloschene Höhepunkte in dem Bildteil des Beachtungsbereichs Rd erhalten. Beispielsweise wird, wie in 7 gezeigt ist, obgleich das Innere des Tunnels TN bis hin zu Schwarz blockiert ist, ein Bild mit angemessener Helligkeitssteuerung der Außenseite des Tunnels TN, insbesondere des Beachtungsbereichs Rd und demgemäß des darin enthaltenen Objekts, erhalten.
  • Die vorstehende Erläuterung wurde für einen Fall gegeben, in welchem die Szene als das Bilderfassungsziel der Bildaufnahmevorrichtung 2 und das Erfassungsziel des Radars 4 eine Szene in der Nähe des Eingangs eines Tunnels ist. Ein Fall, in welchem die Szene als das Bilderfassungsziel der Bildaufnahmevorrichtung 2 und das Erfassungsziel des Radars 4 eine Szene in der Nähe des Ausgangs eines Tunnels ist, wird nachfolgend erläutert.
  • 8 zeigt ein Beispiel für die von dem Hostfahrzeug aus betrachtete Frontszene in der Nähe des Ausgangs des Tunnels. 8 nimmt einen Fall an, in welchem das Hostfahrzeug in der gleichen Weise wie in 3 auf der Überholspur TFL fährt, die gleichen Objekte A - D wie in 3 sich in den gleichen relativen Positionen mit Bezug auf das Hostfahrzeug befinden, die Objekte B, C und D auf der nahen Seite innerhalb des Tunnels existieren und eine geringe Helligkeit haben und das Objekt A auf der fernen Seite außerhalb des Tunnels existiert und eine große Helligkeit hat.
  • In der in 8 gezeigten Frontszene wird angenommen, dass Subjekte in dem durch den Rahmen CR mit gestrichelter Linie (Abbildungsfeld-Winkelbereich) angezeigten Bereich sich in dem Abbildungsfeld-Winkelbereich der Bildaufnahmevorrichtung 2 und in dem Erfassungsbereich des Radars 4 befinden.
  • 9 zeigt die Positionen der Objekte in der durch das Radar 4 erfassten Frontszene von 8.
  • Das Ergebnis der Erfassung durch das Radar 4 ist identisch mit dem in 5 gezeigten, da die relativen Positionen der Objekte A - D mit Bezug auf das Hostfahrzeug die gleichen sind wie die in der vorbeschriebenen 3.
  • Bezüglich der Objekte in 9 wählt die Beachtungsobjekt-Auswahlschaltung 5 anhand der von dem Radar 4 ausgegebenen Positionsinformationen und Abstandsinformationen über die Objekte ein Objekt mit dem höchsten Beachtungsgrad aus, und die Beachtungsbereichs-Bestimmungsschaltung 6 bestimmt den Beachtungsbereich in dem erfassten Bild. Diese Operation ist äquivalent der Operation in dem Fall von 5, das heißt in dem Fall, in welchem sich die Zielszene in der Nähe des Eingangs des Tunnels befindet.
  • Es wird beispielsweise angenommen, dass das Objekt D, das dem Hostfahrzeug am nächsten ist, als ein Beachtungsobjekt ausgewählt wurde und der Beachtungsbereich Rd entsprechend dem Objekt D wie in 10 gezeigt bestimmt wurde.
  • Wie in 10 gezeigt ist, befindet sich der Beachtungsbereich Rd innerhalb des Tunnels TN, und der Helligkeitsdurchschnittswert des Beachtungsbereichs Rd ist niedrig, und somit erfolgt beispielsweise die Einstellung zum Verlängern der Belichtungszeit oder die Einstellung zum Erhöhen des Signa lverstärkungswerts.
  • Folglich wird, wie in 11 gezeigt ist, ein Bild mit hoher Sichtbarkeit des Objekts D erhalten, obgleich das sich außerhalb des Tunnels befindende Objekt A in Weiß ausgelöscht ist.
  • Gemäß dem vorbeschriebenen Ausführungsbeispiel kann ein Bild, in welchem die Helligkeit des zu beachtenden Objekts angemessen gesteuert wurde, durch die Kombination aus dem Radar und der Bildaufnahmevorrichtung erhalten werden.
  • In Systemen, die ein Hindernis durch Verwendung eines Radars allein ohne Verwendung einer Bildaufnahmevorrichtung erfassen, gibt es Fälle, in denen es unmöglich ist, den Typ des Hindernisses zu bestimmen, wie Fälle, in denen es so unmöglich ist, zu beurteilen, ob ein Hindernis ein Fahrzeug ist oder nicht.
  • Demgegenüber wird in dem vorbeschriebenen Ausführungsbeispiel die Belichtungssteuerung durch die Kombination aus dem Radar und der Bildaufnahmevorrichtung so durchgeführt, dass das Objekt mit dem höchsten Beachtungsgrad unter den von dem Radar erfassten Objekten optimal belichtet wird, und somit wird eine Wirkung dahingehend erzielt, dass das Objekt mit dem höchsten Beachtungsgrad gesehen werden kann, ohne bis hin zu Schwarz blockiert zu sein oder in Weiß ausgelöscht zu sein. Dies ist vorteilhaft für eine Fahrunterstützung oder eine Unfallverhinderung.
  • Weiterhin kann, da das Radar nur dazu erforderlich ist, Informationen, die die Richtung und den Abstand betreffend jedes Objekt darstellen, zu erhalten, ein Radar mit relativ niedrigem Leistungsvermögen und geringen Kosten verwendet werden, und die Bildaufnahmevorrichtung kann mit geringen Kosten implementiert werden.
  • Weiterhin nimmt, da bei dem vorstehenden Ausführungsbeispiel ein Objekt, das dem Hostfahrzeug unter den von dem Radar erfassten Objekten am nächsten ist, ausgewählt wird und ein Bereich, der das Objekt enthält, als der Beachtungsbereich bestimmt wird, die Sichtbarkeit des nahesten Objekts zu, und dies ist vorteilhaft zum Vermeiden einer unmittelbar Kollisionsgefahr.
  • Zweites Ausführungsbeispiel
  • 12 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Die Bilderfassungsvorrichtung nach 12 ist grob äquivalent der Bilderfassungsvorrichtung nach 1, aber unterscheidet sich dadurch, dass eine Beachtungsobjekt-Auswahlschaltung 5b anstelle der Beachtungsobjekt-Auswahlschaltung 5 vorgesehen ist und eine Fahrtrichtungs-Erfassungsschaltung 10 hinzugefügt ist.
  • Die Arbeitsweise der anderen Komponenten ist äquivalent derjenigen gemäß der Erläuterung von 1 bei dem ersten Ausführungsbeispiel, und somit wird eine wiederholte Erläuterung hiervon weggelassen.
  • Die Fahrtrichtungs-Erfassungsschaltung 10 erfasst die Fahrtrichtung des Hostfahrzeugs auf der Grundlage der Lenkrichtung eines Lenkrads des Hostfahrzeugs und liefert Informationen D10, die die Fahrtrichtung darstellen, zu der Beachtungsobjekt-Auswahlschaltung 5b.
  • Die Beachtungsobjekt-Auswahlschaltung 5b in 12 ist grob äquivalent der Beachtungsobjekt-Auswahlschaltung 5 in 1, aber unterscheidet sich in den folgenden Punkten:
  • Die Beachtungsobjekt-Auswahlschaltung 5b bewertet den Beachtungsgrad jedes Objekts auf der Grundlage der Informationen D10, die die Fahrtrichtung des Hostfahrzeugs darstellen und von der Fahrtrichtungs-Erfassungsschaltung 10 geliefert werden, und der Positionsinformationen D4 (der Richtungsinformationen D4a und der Abstandsinformationen D4b) über jedes Objekt, die von dem Radar 4 geliefert werden, wählt ein Objekt mit einem relativ hohen Beachtungsgrad, wie ein Objekt mit dem höchsten Beachtungsgrad, auf der Grundlage des Ergebnisses der Bewertung aus und liefert die Informationen D5, die die Position des ausgewählten Objekts darstellen, zu der Beachtungsbereichs-Bestimmungsschaltung 6.
  • Beispielsweise wird der Beachtungsgrad bestimmt durch Erhöhen eines Richtungsbewertungswerts, wenn die Richtung jedes Objekts sich der Fahrtrichtung des Hostfahrzeugs annähert, und Erhöhen eines Abstandsbewertungswerts mit der Abnahme des Abstands zu jedem Objekt und Bilden der Summe aus dem Richtungsbewertungswert und dem Abstandsbewertungswert. In diesem Fall wird der Beachtungsgrad mit der Zunahme des Richtungsbewertungswerts erhöht und mit der Zunahme des Abstandsbewertungswerts erhöht. Dann wird ein Objekt mit dem höchsten Beachtungsgrad ausgewählt.
  • Beispielsweise wird angenommen, dass das Radar die in 5 gezeigten Objekte A-D als das Ergebnis der Durchführung der Objekterfassung in der Szene von 3 als dem Ziel der Erfassung erfasst hat und die Beachtungsobjekt-Auswahlschaltung 5b beurteilt hat, dass der Beachtungsgrad des Objekts A auf derselben Fahrspur wie das Hostfahrzeug der höchste ist, als das Ergebnis der Durchführung der Beachtungsgradbewertung der erfassten Objekte A - D, während der Fahrtrichtung des Hostfahrzeugs Wichtigkeit beigemessen wird.
  • Die Beachtungsobjekt-Auswahlschaltung 5b teilt der Beachtungsbereichs-Bestimmungsschaltung 6 die Position des Objekts A, das als den höchsten Beachtungsgrad aufweisend beurteilt wurde, mit.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6 bestimmt den Beachtungsbereich in Bezug auf die Position des Objekts A, das den höchsten Beachtungsgrad hat.
  • Auch in diesem Fall wird, wie bei dem ersten Ausführungsbeispiel erläutert wurde, ein Bereich Ra, dessen Mitte in der Mitte des Objekts A, das von der Beachtungsobjekt-Auswahlschaltung 5b ausgewählt wurde, liegt und eine Größe hat, die gemäß dem Abstand zu dem Objekt A bestimmt ist, und unter der Annahme, dass das Objekt A ein großes Fahrzeug ist, bestimmt. Beispielsweise wird der in 13 gezeigte Bereich Ra bestimmt, und der Helligkeits-Berechnungsschaltung 7 wird der Bereich Ra als der Beachtungsbereich mitgeteilt.
  • Die Helligkeits-Berechnungsschaltung 7 berechnet den Helligkeitsdurchschnittswert Yav, indem die Erfassung des von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebenen Helligkeitssignals Y3 unter Verwendung des Beachtungsbereichs Ra als des Erfassungsvollbilds durchgeführt wird, und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8.
  • Die Belichtungssteuerschaltung 8 führt die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts Yav durch.
  • Das Objekt A befindet sich in dem Tunnel TN, und der Bereich Ra befindet sich in einem Teil des erfassten Bildes in dem Tunnel TN.
  • Da der Helligkeitsdurchschnittswert des Bereichs Ra in dem Tunnel TN relativ niedrig ist, erfolgt beispielsweise die Einstellung zum Verlängern der Belichtungszeit oder die Einstellung zum Erhöhen des Signalverstärkungswerts. Folglich wird ein erfasstes Bild, in welchem die Helligkeit in dem Beachtungsbereich Ra optimal gesteuert wurde, erhalten. Genauer gesagt, ein Bild mit hoher Sichtbarkeit des Objekts A in dem Beachtungsbereich Ra, ohne versperrte Schatten in dem Bildteil in dem Beachtungsbereich Ra, wird erhalten.
  • Beispielsweise wird, wie in 14 gezeigt ist, obgleich der Bereich außerhalb des Tunnels TN in Weiß gelöscht wurde, ein Bild mit angemessener Helligkeitssteuerung des Inneren des Tunnels TN erhalten. Die Fahrzeuge B, C und D sind in 14 nicht gezeigt, um das Auslöschen der Höhepunkte anzuzeigen. Der Mittelstreifen MD und die Fahrspurmarkierungen LM, die auch aufgrund der gelöschten Höhepunkte in dem Bild unsichtbar werden können, sind in 14 gezeigt, um die Positionsbeziehung des Fahrzeugs B anzuzeigen. Demgegenüber ist die Helligkeit für den in dem Tunnel TN befindlichen Beachtungsbereich und somit für das darin befindliche Objekt A angemessen gesteuert, und ein Bild mit hoher Sichtbarkeit des Objekts A wird erhalten.
  • Die vorstehende Erläuterung wurde für einen Fall gegeben, in welchem die Szene das Bilderfassungsziel der Bildaufnahmevorrichtung 2 ist und das Erfassungsziel des Radars 4 eine Szene in der Nähe des Eingangs des Tunnels ist, wie in 3 gezeigt ist. Ein Fall, in welchem die Szene das Bilderfassungsziel der Bildaufnahmevorrichtung 2 ist und das Erfassungsziel des Radars 4 eine Szene in der Nähe des Ausgangs des Tunnels ist, wie in 8 gezeigt ist, wird nachstehend erläutert.
  • In diesem Fall sind die Positionen der durch das Radar 4 erfassten Objekte wie in 9 gezeigt. Die Beachtungsobjekt-Auswahlschaltung 5b führt die Bewertung des Beachtungsgrads durch, während der Fahrtrichtung des Hostfahrzeugs Bedeutung beigemessen wird, und beurteilt folglich, dass das auf derselben Fahrspur wie das Hostfahrzeug befindliche Objekt A den höchsten Beachtungsgrad hat. Dann bestimmt die Beachtungsbereichs-Bestimmungsschaltung 6 den Beachtungsbereich Ra entsprechend dem Objekt A, wie in 15 gezeigt ist.
  • Wie in 15 gezeigt ist, befindet sich der Beachtungsbereich Ra außerhalb des Tunnels TN, und der Helligkeitsdurchschnittswert des Beachtungsbereichs ist hoch, und somit führt die Belichtungssteuerschaltung 8 beispielsweise die Einstellung zum Verkürzen der Belichtungszeit oder die Einstellung der Herabsetzen des Signalverstärkungswerts durch. Folglich wird, wie in 16 gezeigt ist, ein Bild mit hoher Sichtbarkeit des Objekts A erhalten, obgleich die Objekte B, C und D in dem Tunnel bis hin zu Schwarz blockiert sind.
  • Während in dem vorstehenden Beispiel ein Fall angenommen wird, in welchem die Abbildungsrichtung der Bildaufnahmevorrichtung 2 mit der Vorwärtsrichtung des Fahrzeugkörpers des Hostfahrzeugs übereinstimmt, kann die Fahrtrichtung des Hostfahrzeugs auf der Grundlage des Winkels berechnet werden, der durch die Abbildungsrichtung der Bildaufnahmevorrichtung 2 mit Bezug auf die Vorwärtsrichtung des Fahrzeugkörpers des Hostfahrzeugs und die Lenkrichtung des Lenkrads in Fällen, in denen die Abbildungsrichtung der Bildaufnahmevorrichtung 2 nicht mit der Vorwärtsrichtung des Fahrzeugkörpers des Hostfahrzeugs übereinstimmt, gebildet ist. Wie vorbeschrieben wird die Belichtungssteuerung so durchgeführt, dass ein Objekt unter den von dem Radar erfassten Objekten in einer Richtung, die näher an der Fahrtrichtung des Hostfahrzeugs ist, und mit einem kürzeren Abstand von dem Hostfahrzeug optimal belichtet wird, was für die Verhinderung von Heckkollisionen vorteilhaft ist.
  • Drittes Ausführungsbeispiel
  • 17 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Die Bilderfassungsvorrichtung nach 17 ist grob äquivalent der Bilderfassungsvorrichtung von 1, aber eine Beachtungsobjekt-Beurteilungsschaltung 11 ist hinzugefügt, und eine Beachtungsbereichs-Bestimmungsschaltung 6c ist anstelle der Beachtungsbereichs-Bestimmungsschaltung 6 vorgesehen.
  • Die Beachtungsobjekt-Beurteilungsschaltung 11 empfängt das Bildsignal D3 von der Kamerasignal-Verarbeitungsschaltung 3, während die Informationen D5a, die die Position des Beachtungsobjekts in dem erfassten Bild darstellen, von der Beachtungsobjekt-Auswahlschaltung 5 empfangen werden.
  • Die Beachtungsobjekt-Beurteilungsschaltung 11 beurteilt den Typ des Objekts durch Analysieren eines Bildes eines Bereichs in dem Bildsignal D3 an der Position, die durch die Informationen D5a dargestellt ist und eine voreingestellte Größe (Analysebereich) hat.
  • Die Beurteilung des Typs des Objekts wird gemacht, um zu bestimmen, welches von einem großen Fahrzeug, wie einem Lastwagen oder einem Bus, einem kleinen Fahrzeug, wie einem Personenkraftwagen, einem Zweirad-Fahrzeug, einem Fußgänger usw. das Objekt ist, das einem in dem Analysebereich enthaltenen Bildteil entspricht.
  • Informationen D11, die das Ergebnis der Beurteilung darstellen, werden zu der Beachtungsbereichs-Bestimmungsschaltung 6c geliefert.
  • Die Größe des Analysebereichs wird so bestimmt, dass er mit der Größe des Bildteils, das dem ausgewählten Objekt in dem Bild entspricht, in dem Fall übereinstimmt, in welchem das durch die Beachtungsobjekt-Auswahlschaltung 5 ausgewählte Objekt als ein großes Fahrzeug angenommen wird. Auch wird in diesem Fall der Abstand zu dem Objekt berücksichtigt.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6c empfängt die Informationen D5, die die Position des ausgewählten Objekts darstellen, von der Beachtungsobjekt-Auswahlschaltung 5, empfängt die Informationen D11, die den Typ des ausgewählten Objekts darstellen, von der Beachtungsobjekt-Beurteilungsschaltung 11 und bestimmt den Beachtungsbereich entsprechend dem ausgewählten Objekt auf der Grundlage dieser Informationsstücke.
  • Wenn das Ergebnis der Beurteilung durch die Beachtungsobjekt-Beurteilungsschaltung 11 anzeigt, dass das Beachtungsobjekt ein großes Fahrzeug ist, ist der durch die Beachtungsbereichs-Bestimmungsschaltung 6c bestimmte Beachtungsbereich der gleiche wie der Beachtungsbereich bei dem ersten Ausführungsbeispiel.
  • Wenn das Ergebnis der Beurteilung anzeigt, dass das Beachtungsobjekt ein anderes Objekt als ein großes Fahrzeug ist, ist der durch die Beachtungsbereichs-Bestimmungsschaltung 6c bestimmte Beachtungsbereich kleiner als der Beachtungsbereich bei dem ersten Ausführungsbeispiel.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6c liefert die Informationen D6, die den Beachtungsbereich darstellen, zu der Helligkeits-Berechnungsschaltung 7.
  • Die Beachtungsobjekt-Auswahlschaltung 5 wählt ein Objekt mit dem höchsten Beachtungsgrad auf der Grundlage des Abstands aus den von dem Radar 4 erfassten Objekten in gleicher Weise wie in dem Fall von 1 aus. Beispielsweise wird angenommen, dass die Positionen der Objekte wie in 5 gezeigt sind, und die Beachtungsobjekt-Auswahlschaltung 5 beurteilt das Objekt D als das Objekt mit dem höchsten Beachtungsgrad.
  • In diesem Fall empfängt die Beachtungsobjekt-Beurteilungsschaltung 11 die Informationen D5a, die die Position des Objekts D in dem erfassten Bild darstellen, von der Beachtungsobjekt-Auswahlschaltung 5, analysiert den Bildteil des Bildsignals D3, der der durch die Informationen D5a dargestellten Position entspricht, wodurch sie beurteilt, dass das Objekt D ein Zweirad-Fahrzeug ist, und liefert die Informationen D11, die das Ergebnis der Beurteilung darstellen, zu der Beachtungsbereichs-Bestimmungsschaltung 6c.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6c erkennt, dass das Objekt D ein Zweirad-Fahrzeug ist, auf der Grundlage der Informationen D11 und gibt einen Teil des erfassten Bildes, der als von dem Objekt D in dem Fall, in welchem das Objekt D ein Zweirad-Fahrzeug ist, besetzt geschätzt wird, das heißt einen Bereich Rmd (18), der den Bildteil enthält, der dem Objekt D entspricht, als den Beachtungsbereich aus. Auch in diesem Fall wird der Abstand berücksichtigt. 18 zeigt auch den Beachtungsbereich Rd gemäß dem ersten Ausführungsbeispiel zum Vergleich.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6c liefert Informationen, die den Beachtungsbereich Rmd darstellen, zu der Helligkeits-Berechnungsschaltung 7.
  • Die Helligkeits-Berechnungsschaltung 7 berechnet den Helligkeitsdurchschnittswert Yav, indem sie die Erfassung des Helligkeitssignals Y3, das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegeben wurde, auf der Grundlage der von der Beachtungsbereichs-Bestimmungsschaltung 6c gelieferten Informationen durchführt und den Beachtungsbereich Rmd als das Erfassungsvollbild verwendet, und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8.
  • Die Belichtungssteuerschaltung 8 führt die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts Yav des Beachtungsbereichs Rmd durch, der von der Helligkeits-Berechnungsschaltung 7 berechnet wurde.
  • In dem in 18 gezeigten Beispiel befindet sich der gesamte Beachtungsbereich Rmd außerhalb des Tunnels TN. Somit ist der Helligkeitsdurchschnittswert Yav des Beachtungsbereichs hoch. In solchen Fällen, in denen der Helligkeitsdurchschnittswert Yav hoch ist, erfolgt die Einstellung zur Verkürzung der Belichtungszeit oder die Einstellung zum Herabsetzen des Signalverstärkungswerts.
  • Als ein Ergebnis ändert sich die Helligkeit des durch das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebene Bildsignal D3 dargestellten Bildes, und ein erfasstes Bild, in welchem die Helligkeit in dem Beachtungsbereich Rmd optimal gesteuert wurde, wird erhalten. Genauer gesagt, ein Bild mit hoher Sichtbarkeit des Objekts D in dem Beachtungsbereich Rmd wird ohne ausgelöschte Höhepunkte in dem Bildteil in dem Beachtungsbereich Rmd erhalten.
  • Beispielsweise wird, wie in 19 gezeigt ist, obgleich das Innere des Tunnels TN bis hin zu Schwarz blockiert ist, ein Bild mit angemessener Helligkeitssteuerung außerhalb des Tunnels TN, insbesondere der Beachtungsbereich Rmd und demgemäß das darin befindliche Objekt D, und mit hoher Sichtbarkeit des Objekts D erhalten.
  • Weiterhin wird, da der Bereich Rmd in dem aufgenommenen Bild kleiner als der Bereich Rd in dem ersten Ausführungsbeispiel ist, ein Teil, der ein anderer als das Objekt ist (ein Teil, der ein anderer als der Bildteil, der dem Objekt D entspricht, ist) kleiner, und eine angemessenere Belichtungssteuerung wird für die Helligkeit des Objekts D durchgeführt.
  • Folglich nimmt die Sichtbarkeit des Objekts D weiter zu.
  • Viertes Ausführungsbeispiel
  • Während die Bilderfassungsvorrichtung von 17 eine Modifikation der Bilderfassungsvorrichtung von 1 ist, kann eine ähnliche Modifikation auch bei der Bilderfassungsvorrichtung von 12 erfolgen.
  • 20 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung nach einem vierten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Die Bilderfassungsvorrichtung von 20 ist grob äquivalent der Bilderfassungsvorrichtung von 12, aber die Beachtungsobjekt-Beurteilungsschaltung 11 ist hinzugefügt, und die Beachtungsbereichs-Bestimmungsschaltung 6c ist anstelle der Beachtungsbereichs-Bestimmungsschaltung 6 vorgesehen.
  • Die Beachtungsobjekt-Beurteilungsschaltung 11 und die Beachtungsbereichs-Bestimmungsschaltung 6c sind identisch mit denjenigen, die bei dem dritten Ausführungsbeispiel beschrieben sind.
  • Die Beachtungsobjekt-Auswahlschaltung 5b bestimmt ein Objekt mit dem höchsten Beachtungsgrad aus den von dem Radar 4 erfassten Objekten auf der Grundlage des Abstands und der Richtung in gleicher Weise wie in dem Fall von 12. Beispielsweise wird angenommen, dass die Positionen der Objekte wie in 3 gezeigt sind und die Beachtungsobjekt-Auswahlschaltung 5b das Objekt A als das Objekt mit dem höchsten Beachtungsgrad beurteilt.
  • In diesem Fall empfängt die Beachtungsobjekt-Beurteilungsschaltung 11 die Informationen D5a, die die Position des Objekts A in dem erfassten Bild darstellen, von der Beachtungsobjekt-Auswahlschaltung 5b, analysiert den Bildteil des Bildsignals D3, der der durch die Informationen D5a dargestellten Position entspricht, wodurch sie beurteilt, dass das Objekt A ein kleines Fahrzeug ist, und liefert die Informationen D11, die das Ergebnis der Beurteilung darstellen, zu der Beachtungsbereichs-Bestimmungsschaltung 6c.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6c erkennt auf der Grundlage der Informationen D11, dass das Objekt A ein kleines Fahrzeug ist, und gibt einen Teil des erfassten Bildes, das das Objekt A enthält und als durch das Objekt A in dem Fall, in welchem das Objekt A ein kleines Fahrzeug ist, besetzt geschätzt wird, das heißt einen Bereich Rma (21), der den Bildteil enthält, der dem Objekt A entspricht, als den Beachtungsbereich aus. Auch wird in diesem Fall der Abstand berücksichtigt. 21 zeigt auch den Beachtungsbereich Ra gemäß dem zweiten Ausführungsbeispiel zum Vergleich.
  • Die Beachtungsbereich-Bestimmungsschaltung 6c liefert Informationen, die den Beachtungsbereich Rma darstellen, zu der Helligkeits-Berechnungsschaltung 7.
  • Die Helligkeits-Berechnungsschaltung 7 berechnet den Helligkeitsdurchschnittswert Yav, indem die Erfassung des von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebenen Helligkeitssignals Y3 auf der Grundlage der von der Beachtungsbereichs-Bestimmungsschaltung 6c gelieferten Informationen durchgeführt wird und der Beachtungsbereich Rma als das Erfassungsvollbild verwendet wird, und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8.
  • Die Belichtungssteuerschaltung 8 führt die Belichtungssteuerung auf der Grundlage des von der Helligkeits-Berechnungsschaltung 7 berechneten Helligkeitsdurchschnittswerts Yav des Beachtungsbereichs Rma durch.
  • In dem in 21 gezeigten Beispiel befindet sich der gesamte Beachtungsbereich Rma in dem Tunnel TN. Somit ist der Helligkeitsdurchschnittswert Yav des Beachtungsbereichs niedrig. In derartigen Fällen, in denen der Helligkeitsdurchschnittswert Yav niedrig ist, erfolgt die Einstellung zum Verlängern der Belichtungszeit oder die Einstellung zum Erhöhen des Signalverstärkungswerts.
  • Als eine Folge ändert sich die Helligkeit des durch das von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebene Bildsignal D3 dargestellten Bildes, und ein erfasstes Bild, in welchem die Helligkeit in dem Beachtungsbereich Rma optimal gesteuert wurde, wird erhalten. Genauer gesagt, ein Bild mit einer hohen Sichtbarkeit des Objekts A in dem Beachtungsbereich Rma, ohne versperrte Schatten in dem Bildteil in dem Beachtungsbereich Rma, wird erhalten.
  • Beispielsweise wird, wie in 22 gezeigt ist, obgleich der Bereich außerhalb des Tunnels TN in Weiß ausgelöscht ist, ein Bild mit angemessener Helligkeitssteuerung des Inneren des Tunnels TN, insbesondere der Beachtungsbereich Rma und demgemäß das sich in diesem befindende Objekt A, und mit hoher Sichtbarkeit des Objekts A erhalten.
  • Weiterhin wird, da der Bereich Rma in dem erfassten Bild kleiner als der Bereich Ra in dem zweiten Ausführungsbeispiel ist, ein Teil, der ein anderer als das Objekt A ist (ein Teil, der ein anderer ist als der Bildteil, der dem Objekt A entspricht), kleiner, und eine angemessenere Belichtungssteuerung wird für die Helligkeit des Objekts A durchgeführt.
  • Folglich nimmt die Sichtbarkeit des Objekts A weiter zu.
  • Wie vorbeschrieben ist, wird bei dem dritten und dem vierten Ausführungsbeispiel das Erfassungsvollbild gemäß der Größe des Objekts bestimmt, und somit kann die Größe des Erfassungsvollbilds näher zu der Größe des Objekts gemacht werden, und ein Bild mit angemessener Helligkeitssteuerung des Objekt kann erhalten werden, und demgemäß nimmt die Sichtbarkeit des Objekts in dem Bild zu.
  • Fünftes Ausführungsbeispiel
  • 23 ist ein Blockschaltbild, das eine Konfiguration einer Bilderfassungsvorrichtung gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung zeigt. Die Bilderfassungsvorrichtung nach 23 ist grob äquivalent der Bilderfassungsvorrichtung von 1, aber die Beachtungsobjekt-Auswahlschaltung 5c ist anstelle der Beachtungsobjekt-Auswahlschaltung 5 vorgesehen, und eine Fahrspur-Erfassungsschaltung 12 ist neu hinzugefügt.
  • Die Fahrspur-Erfassungsschaltung 12 empfängt das erfasste Bild oder ein durch Verarbeiten des erfassten Bildes erhaltenes Bildsignal, wie das von der Kamerasignal-Verarbeitungsschaltung ausgegebene Bildsignal D3, erfasst die Positionen der Fahrspurmarkierungen und des Mittelstreifens in dem durch das Bildsignal D3 dargestellten erfassten Bild und gibt Informationen, die die erfassten Positionen der Fahrspurmarkierungen und des Mittelstreifens darstellen, aus.
  • Die Beachtungsobjekt-Auswahlschaltung 5c ist grob äquivalent der Beachtungsobjekt-Auswahlschaltung 5 in 1, aber unterscheidet sich von dieser in den folgenden Punkten:
    • Die Beachtungsobjekt-Auswahlschaltung 5c bewertet den Beachtungsgrad jedes Objekts auf der Grundlage von Informationen D12, die die Positionen der Fahrspurmarkierungen und des Mittelstreifens, die von der Fahrspur-Erfassungsschaltung 12 geliefert werden, darstellen, und der Positionsinformationen D4 (die Richtungsinformationen D4a und die Abstandsinformationen D4b) über jedes Objekt, die von dem Radar 4 geliefert wurden, wählt ein Objekt mit einem relativ hohen Beachtungsgrad, wie ein Objekt mit dem höchsten Beachtungsgrad, auf der Grundlage des Ergebnisses der Bewertung aus und liefert die Informationen D5, die die Position des ausgewählten Objekts darstellen, zu der Beachtungsbereichs-Bestimmungsschaltung 6.
  • Beispielsweise werden Objekte, die sich auf der anderen Seite des Mittelstreifens befinden, von den Zielen für die Bewertung ausgeschlossen. Unter den Objekten, die sich auf derselben Seite des Mittelstreifens befinden, erhalten Objekte auf derselben Fahrspur wie das Hostfahrzeug einen hohen Fahrspur-Bewertungswert. Weiterhin wird der Abstandsbewertungswert mit der Abnahme des Abstands zu jedem Objekt erhöht. Der Beachtungsgrad wird bestimmt durch Bilden der Summe aus dem Fahrspur-Bewertungswert und dem Abstandsbewertungswert. In diesem Fall wird der Beachtungsgrad mit der Zunahme des Fahrspur-Bewertungswerts erhöht und mit der Zunahme des Abstandsbewertungswerts erhöht. Dann wird ein Objekt mit dem höchsten Beachtungsgrad ausgewählt.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6, die Helligkeits-Berechnungsschaltung 7 und die Belichtungssteuerschaltung 8 arbeiten in einer ähnlichen Weise wie diejenigen bei dem ersten Ausführungsbeispiel.
  • Wie vorstehend beschrieben ist, erfolgt die Objektauswahl ausschließlich aus Objekten, die sich auf Fahrspuren in derselben Fahrtrichtung wie das Hostfahrzeug befinden, indem die Fahrspuren darstellenden Informationen verwendet werden, und die Belichtungssteuerung wird derart durchgeführt, dass ein Objekt auf derselben Fahrspur, das eine hohe Wahrscheinlichkeit einer Heckkollision hat, optimal belichtet wird, und somit kann verhindert werden, dass die Bilder durch den Einfluss von Scheinwerfern von Fahrzeugen, die auf entgegengesetzten Fahrspuren fahren, verdunkelt werden, was für die Verhinderung von Heckkollisionen vorteilhaft ist.
  • Sechstes Ausführungsbeispiel
  • In dem Beispiel betreffend das erste Ausführungsbeispiel, das unter Bezugnahme auf die 6 und 7 erläutert wurde, wird nur ein Objekt mit dem höchsten Beachtungsgrad ausgewählt, ein Bereich, der das ausgewählte Objekt enthält, wird als der Beachtungsbereich bestimmt, und die Belichtungssteuerung wird auf der Grundlage der Helligkeit des Beachtungsbereichs durchgeführt. Jedoch ist die Anzahl der ausgewählten Objekte nicht auf eins beschränkt. Das heißt, es ist auch möglich, mehrere Objekte auszuwählen, mehrere Bereiche, die jeweils eines der ausgewählten Objekte enthalten, als Beachtungsbereiche zu bestimmen und die Belichtungssteuerung auf der Grundlage der Helligkeit der mehreren Beachtungsbereiche durchzuführen.
  • 24 zeigt eine Konfiguration einer Bilderfassungsvorrichtung, die eine derartige Belichtungssteuerung durchführt.
  • Die Bilderfassungsvorrichtung von 24 ist grob äquivalent der Bilderfassungsvorrichtung von 1. Jedoch sind eine Beachtungsobjekt-Auswahlschaltung 5d, eine Beachtungsbereichs-Bestimmungsschaltung 6d und eine Helligkeits-Berechnungsschaltung 7b anstelle der Beachtungsobjekt-Auswahlschaltung 5, der Beachtungsbereichs-Bestimmungsschaltung 6 und der Helligkeitsberechnungsschaltung 7 vorgesehen.
  • In einer derartigen Konfiguration wählt die Beachtungsobjekt-Auswahlschaltung 5d mehrere Objekte aus und gibt Informationen, die die Positionen der ausgewählten Objekte darstellen, aus. Beispielsweise werden ein Objekt mit dem höchsten Beachtungsgrad und ein Objekt mit dem zweithöchsten Beachtungsgrad ausgewählt. In dem Fall, in welchem der Beachtungsgrad mit der Abnahme des Abstands erhöht wird, werden ein Objekt mit dem kürzesten Abstand und ein Objekt mit dem zweitkürzesten Abstand ausgewählt. In dem Beispiel von 5 werden das Objekt D und das Objekt B ausgewählt.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6d bestimmt Bereiche, deren Mitte jeweils in der Mitte eines der mehreren Objekte liegt, die von der Beachtungsobjekt-Auswahlschaltung 5d ausgewählt werden und die eine Größe haben, die gemäß dem Abstand zu dem Objekt bestimmt wird, als die Beachtungsbereiche. Beispielsweise werden ein Bereich, der das Objekt D enthält, und ein Bereich, der das Objekt B enthält, wie in 25 gezeigt bestimmt. Die Größe des Bereichs Rb, der das Objekt B enthält, ist auch die Größe des Bildteils entsprechend dem Objekt B unter der Annahme, dass ein großes Fahrzeug mit dem Abstand des Objekts B existiert. Der Bereich Rb, der das Objekt B enthält, ist kleiner als der Bereich Rd, der das Objekt D enthält. Dies ergibt sich daraus, dass der Abstand zu dem Objekt B größer als der Abstand zu dem Objekt D ist.
  • Die Helligkeits-Berechnungsschaltung 7b berechnet den Helligkeitsdurchschnittswert Yav, indem die Erfassung des von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebenen Helligkeitssignals Y3 durch Verwendung eines Bereichs, der durch Kombinieren der Beachtungsbereiche Rb und Rd miteinander erhalten wurde, als eines einzigen Erfassungsvollbilds durchgeführt wird, und liefert das Ergebnis der Berechnung zu der Belichtungssteuerschaltung 8. Mit anderen Worten, ein Helligkeitsdurchschnittswert Yav wird für die Beachtungsbereiche Rb und Rd als ein Helligkeitsindexwert bestimmt.
  • Die Belichtungssteuerschaltung 8 führt die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts Yav durch.
  • Als eine Folge wird ein Bild, in welchem die Helligkeit in den Beachtungsbereichen Rb und Rd optimal gesteuert wurde, erhalten. Genauer gesagt, ein Bild mit hoher Sichtbarkeit der Objekte B und D in den Beachtungsbereichen Rb und Rd, ohne ausgelöschte Höhepunkte in den Bildteilen in den Beachtungsbereichen Rb und Rd, wird erhalten.
  • Beispielsweise wird, wie in 26 gezeigt ist, obgleich das Innere des Tunnels TN bis hin zu Schwarz blockiert ist, ein Bild mit angemessener Helligkeitssteuerung außerhalb des Tunnels DN, insbesondere der Beachtungsbereiche Rb und Rd und demgemäß der darin befindlichen Objekte B und D, und mit hoher Sichtbarkeit der Objekte BD erhalten.
  • Das sechste Ausführungsbeispiel wurde vorstehend als eine Modifikation des ersten Ausführungsbeispiels beschrieben.
  • Eine ähnliche Modifikation kann auch bei dem zweiten bis fünften Ausführungsbeispiel erfolgen.
  • Siebentes Ausführungsbeispiel
  • Wenn mehrere Objekte ausgewählt sind und mehrere Bereiche entsprechend den ausgewählten Objekten als die Beachtungsbereiche gemäß dem sechsten Ausführungsbeispiel bestimmt sind, werden die mehreren Beachtungsbereiche in ein einziges Erfassungsvollbild integriert, der Helligkeitsdurchschnittswert betreffend das Erfassungsvollbild wird bestimmt, und die Belichtungssteuerung wird auf der Grundlage des bestimmten Helligkeitsdurchschnittswerts durchgeführt. Stattdessen ist es auch möglich, voneinander verschiedene Beachtungsbereiche in verschiedenen Vollbildperioden der Bilderfassung durch die Bildaufnahmevorrichtung 2 zu bestimmen, den Helligkeitsdurchschnittswert durch Verwendung eines bestimmten Beachtungsbereichs als das Erfassungsvollbild zu bestimmen, und eine Belichtungsbedingung, die auf der Grundlage des bestimmten Helligkeitsdurchschnittswerts bestimmt wurde, für eine spätere Bilderfassung in der Vollbildperiode, in der derselbe Beachtungsbereich bestimmt ist, zu verwenden. Die folgende Erläuterung wird unter der Annahme gegeben, dass die Anzahl der ausgewählten Objekte gleich M ist (M ist eine ganze Zahl. gleich oder größer als 2), und somit ist die Anzahl der Beachtungsbereiche gleich M. In diesem Fall arbeitet die Bilderfassungsvorrichtung durch Verwendung von M Vollbildperioden als eine Operationsperiode oder ein Operationszyklus.
  • 27 zeigt eine in diesem Fall verwendete Bilderfassungsvorrichtung. Die Bilderfassungsvorrichtung von 27 ist grob äquivalent der Bilderfassungsvorrichtung von 24, aber eine Helligkeits-Berechnungsschaltung 7d und eine Belichtungssteuerschaltung 8d sind anstelle der Helligkeits-Berechnungsschaltung 7b und der Belichtungssteuerschaltung 8 vorgesehen, und ein Zähler 14 ist hinzugefügt.
  • Der Zählwert m des Zählers 14, der einen maximalen Wert M gleich der Anzahl von eine Operationsperiode bildenden Vollbildperioden ist, wird bei jeder Vollbildperiode um 1 erhöht und kehrt zu einem Anfangswert 1 zurück, wenn der Zählwert m den vorgenannten maximalen Wert M erreicht, und wiederholt den Zählvorgang.
  • Der Zählwert m des Zählers 14 wird zu der Helligkeits-Berechnungsschaltung 7d und zu der Belichtungssteuerschaltung 8d geliefert.
  • Die Beachtungsobjekt-Auswahlschaltung 5d wählt M Objekte aus und gibt Informationen, die die Positionen der ausgewählten Objekte darstellen, aus. Beispielsweise werden Objekte von dem höchsten Beachtungsgrad bis zu dem M-ten höchsten Beachtungsgrad ausgewählt. In den Fällen, in denen M gleich 2 ist und der Beachtungsgrad mit der Abnahme des Abstands zunimmt, werden ein Objekt mit dem kürzesten Abstand und ein Objekt mit dem zweitkürzesten Abstand ausgewählt. In dem Beispiel von 6 werden das Objekt D und das Objekt B ausgewählt.
  • Die Beachtungsobjekt-Auswahlschaltung 5d liefert Informationen D5, die die Position jedes der ausgewählten M Objekte darstellen, zu der Beachtungsbereichs-Bestimmungsschaltung 6d geliefert.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6d bestimmt den Beachtungsbereich für jedes der von der Beachtungsobjekt-Auswahlschaltung 5d ausgewählten M Objekte. Beispielsweise werden in Fällen, in denen M gleich 2 ist und das Objekt D und das Objekt B, die in 5 gezeigt sind, ausgewählt wurden, ein Bereich enthaltend das Objekt D und ein Bereich enthaltend das Objekt B bestimmt, wie in 25 gezeigt ist.
  • Die Beachtungsbereichs-Bestimmungsschaltung 6d liefert die Beachtungsbereichsinformationen D6 über jeden der bestimmten M Beachtungsbereiche zu der Helligkeits-Berechnungsschaltung 7d.
  • Die Helligkeits-Berechnungsschaltung 7d bestimmt einen der M Beachtungsbereiche in jeder Vollbildperiode und berechnet den Helligkeitsdurchschnittswert Yav, indem die Erfassung des von der Kamerasignal-Verarbeitungsschaltung 3 ausgegebenen Helligkeitssignals Y3 durch Verwendung des bestimmten Beachtungsbereichs als das Erfassungsvollbild durchgeführt wird.
  • Genauer gesagt, für ein erfasstes Bild, das in der m-ten Vollbildperiode in einer Operationsperiode erhalten wird, wird der Helligkeitsdurchschnittswert Yavm durch Verwendung des m-ten Beachtungsbereichs als das Erfassungsvollbild berechnet.
  • Der Umstand, dass das erfasste Bild als das Ziel der Verarbeitung das in der m-ten Vollbildperiode in einer Operationsperiode erhaltene erfasste Bild ist, kann dadurch bestätigt werden, dass der Zählwert des Zählers 14 gleich m ist.
  • In den Fällen, in denen beispielsweise M gleich 2 ist und die Beachtungsbereiche Rb und Rd bestimmt wurden, wird der Helligkeitsdurchschnittswert Yav1 oder Yav2 des Beachtungsbereichs Rb oder Rd berechnet durch abwechselndes Verwenden der Beachtungsbereiche Rb und Rd, das heißt, durch Verwendung jedes der Beachtungsbereiche Rb und Rd bei jeder zweiten Vollbildperiode.
  • Die Helligkeits-Berechnungsschaltung 7d liefert das Ergebnis Yavm der vorgenannten Berechnung zu der Belichtungssteuerschaltung 8d.
  • Der Speicher 81 der Belichtungssteuerschaltung 8d speichert Belichtungsbedingungsparameter entsprechend den M Beachtungsbereichen R1 - RM, das heißt, Werte (Parameter) Te1 - TeM der Belichtungszeit Te und Werte (Parameter) Gs1 - GsM des Signalverstärkungswerts Gs.
  • In jeder Vollbildperiode führt die Belichtungssteuerschaltung 8d die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts, der durch Verwendung eines der M Beachtungsbereiche als das Erfassungsvollbild berechnet wurde, durch.
  • Insbesondere wird bei der Bilderfassung in der m-ten Vollbildperiode in einer Operationsperiode die Belichtungssteuerung bei der Bildaufnahmevorrichtung 2 und der Kamerasignal-Verarbeitungsschaltung 3 durch Verwendung der in dem Speicher 81 gespeicherten Belichtungsbedingungsparameter Tem und Gsm durchgeführt.
  • Für das in der m-ten Vollbildperiode in einer Operationsperiode erhaltene erfasste Bild berechnet die Helligkeits-Berechnungsschaltung 7d den Helligkeitsdurchschnittswert Yavm durch Verwendung des m-ten Beachtungsbereichs des erfassten Bilds als das Erfassungsvollbild, und somit berechnet die Belichtungssteuerschaltun 8d neue Parameter Tem und Gsm (aktualisiert die Parameter) auf der Grundlage des berechneten Helligkeitsdurchschnittswerts Yavm und der Belichtungsbedingungsparameter Tem und Gsm, die in dem Speicher 81 gespeichert sind, und speichert die berechneten neuen Parameter (aktualisierte Parameter) Tem und Gsm in dem Speicher 81.
  • Die in dem Speicher 81 gespeicherten aktualisierten Parameter Tem und Gsm werden für die Belichtungssteuerung bei der Bilderfassung in der m-ten Vollbildperiode in der nächsten Operationsperiode verwendet.
  • Der Umstand, dass das erfasste Bild als das Ziel der Verarbeitung ein erfasstes Bild ist, das in der m-ten Vollbildperiode in einer Operationsperiode erhalten wurde, kann dadurch bestätigt werden, dass der Zählwert des Zählers 14 gleich m ist.
  • Wie vorstehend beschrieben ist, werden mehrere Beachtungsbereiche jeweils für Vollbildperioden aufeinanderfolgend ausgewählt, der Helligkeitsdurchschnittswert wird durch Verwendung des ausgewählten Beachtungsbereichs als das Erfassungsvollbild bestimmt, die neuen Belichtungsbedingungsparameter entsprechend dem ausgewählten Beachtungsbereich werden auf der Grundlage des bestimmten Helligkeitsdurchschnittswerts berechnet, und die Belichtungssteuerung wird durch Verwendung der berechneten Parameter in einer Vollbildperiode, in der der gleiche Beachtungsbereich in der nächsten Operationsperiode ausgewählt ist, durchgeführt. Daher kann für das erfasste Bild jedes Vollbilds ein Bild mit hoher Sichtbarkeit des ausgewählten Beachtungsbereichs erhalten werden.
  • Beispielsweise wird in Fällen, in denen M gleich 2 ist und die Beachtungsbereiche Rb und Rd sind, ein Bild mit hoher Sichtbarkeit des Beachtungsbereichs Rb in einer Vollbildperiode erhalten, und ein Bild mit hoher Sichtbarkeit des Beachtungsbereichs Rd wird in der nächsten Vollbildperiode erhalten.
  • In dem vorbeschriebenen Beispiel sind die Anzahl von ausgewählten Objekten und die Anzahl von Vollbildperioden, die eine Operationsperiode bilden, beide gleich M, die einander gleichen, und die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts des Beachtungsbereichs entsprechend jedem Objekt wird mit der gleichen Frequenz durchgeführt. Jedoch ist die vorliegende Erfindung nicht auf dieses Beispiel beschränkt. Beispielsweise kann die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts des Beachtungsbereichs entsprechend Jedem Objekt mit verschiedenen Frequenzen durchgeführt werden.
  • Beispielsweise ist es möglich, die Anzahl (Mf) der Vollbildperioden, die eine Operationsperiode bilden, größer als die Anzahl (Mo) der ausgewählten Objekte zu setzen und die Belichtungssteuerung auf der Grundlage des Helligkeitsdurchschnittswerts des Beachtungsbereichs entsprechend einem Objekt in zwei oder mehr Vollbildperioden in einer Operationsperiode im Hinblick auf einige der ausgewählten Objekte durchzuführen. Kurz gesagt, es ist wünschenswert, wenn die Belichtungsbedingungsparameter auf der Grundlage des Helligkeitsdurchschnittswerts eines bestimmten Beachtungsbereichs in dem erfassten Bild einer bestimmten Vollbildperiode aktualisiert werden und die aktualisierten Parameter bei der Bilderfassung in einer Vollbildperiode verwendet werden, in der der Helligkeitsdurchschnittswert des gleichen Beachtungsbereichs als Nächstes bestimmt wird.
  • Das siebente Ausführungsbeispiel wurde vorstehend als eine Modifikation des ersten Ausführungsbeispiels beschrieben. Eine ähnliche Modifikation kann auch bei dem zweiten bis fünften Ausführungseispiel durchgeführt werden.
  • Während das dritte bis siebente Ausführungsbeispiel so beschrieben wurden, dass die Operation in der Nähe des Eingangs eines Tunnels als ein Beispiel verwendet wird, können ähnliche Wirkungen auch in der Nähe des Ausgangs eines Tunnels entsprechend der Erläuterung in dem ersten und dem zweiten Ausführungsbeispiel erhalten werden.
  • Während das erste bis siebente Ausführungsbeispiel unter der Annahme beschrieben wurden, dass der Erfassungsbereich des Radars 4 identisch mit dem Abbildungsfeld-Winkelbereich der Bildaufnahmevorrichtung 2 ist, ist diese Bedingung nicht wesentlich; es ist zulässig, wenn diese Bereiche einander zumindest teilweise überlappen.
  • Während bei dem ersten bis siebenten Ausführungsbeispiel die Erfassung durch das Radar 4 synchron mit der Bilderfassung durch die Bildaufnahmevorrichtung 2 durchgeführt wird, ist diese Bedingung nicht wesentlich. In Fällen, in denen die Erfassung durch das Radar 4 und die Bilderfassung durch die Bildaufnahmevorrichtung 2 nicht synchron miteinander sind, ist es möglich, entweder die als das Ergebnis der Erfassung durch das Radar 4 erhaltenen Positionsinformationen oder das durch die Bildaufnahmevorrichtung 2 erhaltene erfasste Bild in der zeitlichen Richtung zu interpolieren und hierdurch Informationen und ein Bild zur gleichen Zeit zu erzeugen. Beispielsweise ist es möglich, die durch das Radar 4 erhaltenen Positionsinformationen zu interpolieren und hierdurch Positionsinformationen zur gleichen Zeit wie der Bilderfassung durch die Bildaufnahmevorrichtung 2 zu erzeugen. Umgekehrt ist es auch möglich, das durch die Bildaufnahmevorrichtung 2 erhaltene erfasste Bild zu interpolieren und hierdurch ein Bild gleichzeitig mit der Erfassung durch das Radar 4 zu erzeugen. Die hier erwähnte Interpolation enthält eine Interpolation des Typs, der direkt die Positionsinformationen oder das erfasste Bild verwendet, die zu der den interpolierten Positionsinformationen oder dem interpolierten Bild nächstliegenden Zeit erhalten wurden.
  • Während die vorliegende Erfindung vorstehend als Bilderfassungsvorrichtungen beschrieben wurde, bilden Bilderfassungsverfahren, die von den vorbeschriebenen Bilderfassungsvorrichtungen durchgeführt werden, auch einen Teil der vorliegenden Erfindung.
  • Bei dem ersten bis siebenten vorbeschriebenen Ausführungsbeispiel wird zumindest ein Teil der Komponententeile der Bilderfassungsvorrichtung durch eine Verarbeitungsschaltung implementiert. Die Verarbeitungsschaltung kann entweder dedizierte Hardware oder eine CPU, die ein in einem Speicher gespeichertes Programm ausführt, sein.
  • Beispielsweise können die Funktionen der in 1, 17, 23, 24 oder 27 gezeigten Teile, die andere als die Linse 1, die Bildaufnahmevorrichtung 2 oder das Radar 4 sind, jeweils entweder durch separate Verarbeitungsschaltungen oder insgesamt durch eine Verarbeitungsschaltung implementiert sein. In gleicher Weise können die Funktionen der in 12 oder 20 gezeigten Teile, die andere als die Linse 1, die Bildaufnahmevorrichtung 2, das Radar 4 und die Fahrtrichtungs-Erfassungsschaltung 10 sind, jeweils entweder durch separate Verarbeitungsschaltungen oder insgesamt durch eine Verarbeitungsschaltung implementiert sein.
  • In Fällen, in denen die Verarbeitungsschaltung eine CPU ist, ist die Funktion jedes Teils der Bilderfassungsvorrichtung durch Software, Firmware oder eine Kombination aus Software und Firmware implementiert. Die Software oder Firmware wird als ein Programm beschrieben und in einem Speicher gespeichert. Die Verarbeitungsschaltung implementiert die Funktion jedes Teils durch Auslesen eines in dem Speicher gespeicherten Programms und Durchführen des Programms. Somit enthält die Bilderfassungsvorrichtung einen Speicher zum Speichern von Programmen, um folglich die Durchführung der Funktionen der in 1, 12, 17, 20, 23, 24 oder 27 gezeigten Teile, die andere als die Linse 1, die Bildaufnahmevorrichtung 2, das Radar 4 und die Fahrtrichtungs-Erfassungsschaltung 10 sind, zu bewirken, wenn die Programme durch die Verarbeitungsschaltung(en) durchgeführt werden. Diese Programme können als Programme zum Bewirken, dass ein Computer das Verfahren der Verarbeitung in dem Bilderfassungsverfahren, das von der Bilderfassungsvorrichtung ausgeführt wird, oder den zeitlichen Ablauf hiervon durchführt, beschrieben werden.
  • Es ist auch möglich, die Funktionen der Teile der Bilderfassungsvorrichtung teilweise durch dedizierte Hardware und teilweise durch Software oder Firmware zu implementieren.
  • Wie vorstehend beschrieben ist, kann/können die Verarbeitungsschaltung(en) die vorgenannten Funktionen durch Hardware, Software, Firmware oder eine Kombination einiger von diesen implementieren.
  • 28 zeigt ein Beispiel für eine Konfiguration in einem Fall, in welchem sämtliche Funktionen der in 1, 17, 23, 24 oder 27 gezeigten Bilderfassungsvorrichtung mit Ausnahme derjenigen der Linse 1, der Bildaufnahmevorrichtung 2 und des Radars 4 durch einen Computer enthaltend eine einzige CPU implementiert werden, wobei die Linse 1, die Bildaufnahmevorrichtung 2 und das Radar 4 auch zusammen mit dem Konfigurationsbeispiel gezeigt sind. Die Bilderfassungsvorrichtung wird durch den Computer 50, die Linse 1, die Bildaufnahmevorrichtung 2 und das Radar 4 gebildet.
  • Der in 28 gezeigte Computer enthält eine CPU 51, einen Speicher 52, eine erste Eingangsschnittstelle 53A, eine zweite Eingangsschnittstelle 53B, eine erste Ausgangsschnittstelle 54A und eine zweite Ausgangsschnittstelle 54B, die durch einen Bus 55 miteinander verbunden sind.
  • Die CPU 51 arbeitet gemäß einem in dem Speicher 52 gespeicherten Programm. Genauer gesagt, die CPU 51 führt die gleiche Verarbeitung wie die Kamerasignal-Verarbeitungsschaltung 3 bei dem über die erste Eingangsschnittstelle 53A eingegebenen Abbildungssignal D2 durch und gibt das als das Ergebnis der Verarbeitung erhaltene Bildsignal D3 von der zweiten Ausgangsschnittstelle 54B aus. Weiterhin führt die CPU 51 die gleiche Verarbeitung wie die Beachtungsobjekt-Auswahlschaltung 5, die Beachtungsbereichs-Bestimmungsschaltung 6, die Helligkeits-Berechnungsschaltung 7 oder 7b, und die Belichtungssteuerschaltung 8 oder 8b bei dem über die erste Eingangsschnittstelle 53A eingegebenen Abbildungssignal D2 und den über die zweite Eingangsschnittstelle 53B eingegebenen Positionsinformationen D4 von dem Radar 4 durch und liefert ein Steuersignal Ct zum Steuern der als das Ergebnis der Verarbeitung erhaltenen Belichtungszeit über die erste Ausgangsschnittstelle 54A zu der Bildaufnahmevorrichtung 2.
  • 29 zeigt ein Beispiel für eine Konfiguration in einem Fall, in welchem sämtliche Funktionen der in 12 oder 20 gezeigten Bilderfassungsvorrichtung mit Ausnahme derjenigen der Linse 2, der Bilderfassungsvorrichtung 2, des Radars 4 und der Fahrtrichtungs-Erfassungsschaltung 10 durch einen Computer enthaltend eine einzige CPU implementiert werden, wobei die Linse 1, die Bildaufnahmevorrichtung 2, das Radar 4 und die Fahrtrichtungs-Erfassungsschaltung 10 auch zusammen mit dem Konfigurationsbeispiel gezeigt sind. Die Bilderfassungsvorrichtung wird aus dem Computer 50, der Linse 1, der Bildaufnahmevorrichtung 2, dem Radar 4 und der Fahrtrichtungs-Erfassungsschaltung 10 gebildet.
  • In dem Fall des in 12 oder 20 gezeigten Ausführungsbeispiels enthält der Computer eine dritte Eingangsschnittstelle 53C, wie in 29 gezeigt ist, zusätzlich zu der Konfiguration von 28, und die Informationen D10, die die Fahrtrichtung darstellen und von der Fahrtrichtungs-Erfassungsschaltung 10 geliefert werden, werden über die dritte Eingangsschnittstelle 53C eingegeben.
  • Die CPU 51 in 29 verwendet nicht nur das über die erste Eingangsschnittstelle 53A eingegebene Abbildungssignal D2 und die über die zweite Eingangsschnittstelle 53B eingegebenen Positionsinformationen D4 von dem Radar 4, sondern auch die über die dritte Eingangsschnittstelle 53c von der Fahrtrichtungs-Erfassungsschaltung 10 eingegebenen Informationen D10, die die Fahrtrichtung darstellen, führt die gleiche Verarbeitung wie die Beachtungsobjekt-Auswahlschaltung 5, die Beachtungsbereichs-Bestimmungsschaltung 6, die Helligkeits-Berechnungsschaltung 7 oder 7b, und die Belichtungssteuerschaltung 8 oder 8b bei dem Abbildungssignal D2, den Positionsinformationen D4 und den Informationen D10 durch, und liefert das Steuersignal Ct zum Steuern der als das Ergebnis der Verarbeitung erhaltenen Belichtungszeit über die erste Ausgangsschnittstelle 54A zu der Bildaufnahmevorrichtung 2.
  • Die Fahrtrichtungs-Erfassungsschaltung 10 ist eine Schaltung zum Erfassen der Fahrtrichtung des Hostfahrzeugs auf der Grundlage der Lenkrichtung des Lenkrads des Hostfahrzeugs und zum Ausgeben der Informationen D10, die die Fahrtrichtung darstellen, und es ist auch möglich, einen Teil der Fahrtrichtungs-Erfassungsschaltung 10 durch eine Verarbeitungsschaltung zu bilden. In den Fällen, in denen die Fahrtrichtungs-Erfassungsschaltung 10 eine Schaltung zum Erfassen der Fahrtrichtung auf der Grundlage von innerhalb der CPU 51 erzeugten Informationen ist, ist es auch möglich, die gesamte Fahrtrichtungs-Erfassungsschaltung 10 durch eine Verarbeitungsschaltung zu bilden.
  • Wirkungen, die ähnlich den mit Bezug auf die Bilderfassungsvorrichtung beschriebenen sind, werden auch durch ein Programm zum Bewirken, dass ein Computer das von der Bilderfassungsvorrichtung durchgeführte Bilderfassungsverfahren, die Prozesse der Teile der Bilderfassungsvorrichtung oder die Prozesse in dem Bilderfassungsverfahren durchführt, erhalten.
  • Bezugszeichenliste
  • 1:
    Linse,
    2:
    Bilderfassungsvorrichtung,
    3:
    Kamerasignal-Verarbeitungsschaltung,
    4:
    Radar,
    5, 5b, 5c, 5d:
    Beachtungsobjekt-Auswahlschaltung,
    6, 6c, 6d:
    Beachtungsbereichs-Bestimmungsschaltung,
    7, 7b, 7d:
    Helligkeits-Berechnungsschaltung,
    8, 8d:
    Belichtungssteuerschaltung,
    9:
    Ausgangsanschluss,
    10:
    Fahrtrichtungs-Erfassungsschaltung,
    11:
    Beachtungsobjekt-Beurteilungsschaltung,
    12:
    Fahrspur-Erfassungsschaltung,
    41:
    Sendeeinheit,
    42:
    Antenne,
    43:
    Empfangseinheit,
    50:
    Computer,
    51:
    CPU,
    52:
    Speicher.

Claims (15)

  1. Bilderfassungsvorrichtung, welche aufweist: ein Bilderfassungsmittel (2), das ein Bild eines Subjekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, erfasst und hierdurch ein erfasstes Bild erzeugt; ein Erfassungsmittel (4), das ein Objekt, das in einem Erfassungsbereich, der zumindest teilweise den Abbildungsfeld-Winkelbereich überlappt, existiert, erfasst und Informationen (D4), die eine Richtung des Objekts darstellen, und Informationen (D4), die einen Abstand zu dem Objekt darstellen, ausgibt; ein Beachtungsobjekt-Auswahlmittel (5), das ein oder mehrere Objekte auf der Grundlage der Informationen (D4), die die Richtung des Objekts darstellen, und der Informationen (D4), die den Abstand darstellen, die von dem Erfassungsmittel (4) ausgegeben wurden, auswählt, und Informationen (D5), die eine Position des ausgewählten Objekts in dem erfassten Bild darstellen, und Informationen (D5), die den Abstand zu den ausgewählten Objekt darstellen, ausgibt, wobei bei der Auswahl des Beachtungsobjekts ein Beachtungsgrad jedes Objekts bewertet wird, wobei ein Objekt mit dem höchsten Beachtungsgrad ausgewählt wird; ein Beachtungsbereichs-Bestimmungsmittel (6), das einen Bereich in dem erfassten Bild, der das ausgewählte Objekt enthält, als einen Beachtungsbereich (D6) auf der Grundlage der Informationen (D5), die die Position des ausgewählten Objekts darstellen, und der Informationen (D5), die den Abstand zu dem ausgewählten Objekt darstellen, sowie den Beachtungsgrad, die von dem Beachtungsobjekt-Auswahlmittel (5) ausgegeben wurden, bestimmt; ein Helligkeits-Berechnungsmittel (7), das die Helligkeit des erfassten Bilds in dem durch das Beachtungsbereichs-Bestimmungsmittel (6) bestimmten Beachtungsbereich (D6) berechnet; und ein Belichtungssteuermittel (8), das eine Belichtungssteuerung bei dem Bilderfassungsmittel (2) auf der Grundlage der durch das Helligkeits-Berechnungsmittel (7) berechneten Helligkeit durchführt.
  2. Bilderfassungsvorrichtung nach Anspruch 1, bei der das Beachtungsobjekt-Auswahlmittel (5) den Beachtungsgrad des Objekts mit der Abnahme des Abstands zu dem Objekt, der durch die den Abstand betreffend jedes Objekt darstellenden Informationen, die von dem Erfassungsmittel (4) ausgegeben wurden, dargestellt wird, höher bewertet, und die Objektauswahl auf der Grundlage des Beachtungsgrads trifft.
  3. Bilderfassungsvorrichtung nach Anspruch 1, bei der: die Bilderfassungsvorrichtung eine Vorrichtung ist, die an einem Fahrzeug zu installieren ist; die Bilderfassungsvorrichtung weiterhin ein Fahrtrichtung-Erfassungsmittel aufweist, das eine Fahrtrichtung des Fahrzeugs anhand einer Lenkrichtung eines Lenkrads erfasst und Informationen, die die Fahrtrichtung darstellen, ausgibt, und das Beachtungsobjekt-Auswahlmittel (5) die Objektauswahl auf der Grundlage der Informationen, die die von dem Fahrtrichtungs-Erfassungsmittel ausgegebene Fahrtrichtung darstellen, und der Informationen, die die Richtung des Objekts darstellen, und der Informationen, die den Abstand zu dem Objekt darstellen, und von dem Erfassungsmittel (4) ausgegeben wurden, durchführt.
  4. Bilderfassungsvorrichtung nach Anspruch 3, bei der das Beachtungsobjekt-Auswahlmittel (5) den Beachtungsgrad des Objekts höher bewertet, wenn die Richtung des Objekts, die durch die Informationen dargestellt wird, die die Richtung betreffend das Objekt darstellen und von dem Erfassungsmittel (4) ausgegeben wurden, sich der Fahrtrichtung nähert, und die Objektauswahl auf der Grundlage des Beachtungsgrads durchführt.
  5. Bilderfassungsvorrichtung nach Anspruch 1, bei der: die Bilderfassungsvorrichtung eine Vorrichtung ist, die an einem Fahrzeug zu installieren ist, die Bilderfassungsvorrichtung weiterhin ein Fahrspur-Erfassungsmittel aufweist, das eine Position einer Fahrspurmarkierung und eines Mittelstreifens in dem erfassten Bild auf der Grundlage des erfassten Bilds erfasst, und Informationen, die die erfasste Position der Fahrspurmarkierung und des Mittelstreifens darstellen, ausgibt, und das Beachtungsobjekt-Auswahlmittel (5) die Objektauswahl auf der Grundlage der die Position der Fahrspurmarkierung und des Mittelstreifens darstellenden Informationen, die von dem Fahrspur-Erfassungsmittel ausgegeben werden, und der Informationen, die Richtung des Objekts darstellen, und der Informationen, die den Abstand darstellen, und die von dem Erfassungsmittel (4) ausgegeben werden, durchführt.
  6. Bilderfassungsvorrichtung nach einem der Ansprüche 1 bis 5, bei der das Beachtungsbereichs-Bestimmungsmittel (6) einen Bereich in dem erfassten Bild enthaltend einen Teil, der als durch das als das Beachtungsobjekt-Auswahlmittel (5) ausgewählte Objekt besetzt geschätzt wird, in einem Fall, in welchem angenommen wird, dass das Objekt der größte Typ von mehreren vermuteten Typen von Objekten ist, als den Beachtungsbereich bestimmt.
  7. Bilderfassungsvorrichtung nach einem der Ansprüche 1 bis 6, bei der: das Beachtungsobjekt-Auswahlmittel (5) mehrere Objekte auf der Grundlage der Informationen, die die Richtung des Objekts darstellen, und der Informationen, die den Abstand darstellen, auswählt, und das Beachtungsbereichs-Bestimmungsmittel (6) den Beachtungsbereich für jedes der mehreren Objekte, die von dem Beachtungsobjekt-Auswahlmittel (5) ausgewählt wurden, bestimmt.
  8. Bilderfassungsvorrichtung nach Anspruch 7, bei der das Helligkeits-Berechnungsmittel (7) die Helligkeit durch Verwendung der mehreren Beachtungsbereiche, die jeweils für die mehreren Objekte bestimmt wurden, als ein einziges Erfassungsvollbild berechnet.
  9. Bilderfassungsvorrichtung nach Anspruch 7, bei der: das Bilderfassungsmittel (2) Videobilder des Subjekts erfasst und das erfasste Bild bei jeder Vollbildperiode ausgibt, und das Helligkeits-Berechnungsmittel (7) die Helligkeit in jeder Vollbildperiode durch Verwendung eines der mehreren Beachtungsbereiche, die jeweils für die mehreren Objekte bestimmt wurden, als das Erfassungsvollbild berechnet.
  10. Bilderfassungsvorrichtung nach Anspruch 9, bei der das Belichtungssteuermittel (8) eine Belichtungsbedingung in einer bestimmten Vollbildperiode auf der Grundlage der durch Verwendung eines der mehreren Beachtungsbereiche als des Erfassungsvollbilds berechneten Helligkeit einstellt und die eingestellte Belichtungsbedingung später bei der Bilderfassung in einer Vollbildperiode, in der die Helligkeit durch Verwendung desselben Beachtungsbereichs als des Erfassungsvollbilds berechnet wird, verwendet.
  11. Bilderfassungsvorrichtung nach einem der Ansprüche 1 bis 10, weiterhin aufweisend ein Beachtungsobjekt-Beurteilungsmittel, das einen Typ des von dem Beachtungsobjekt-Auswahlmittel (5) ausgewählten Objekts auf der Grundlage des von dem Bilderfassungsmittel (2) ausgegebenen erfassten Bilds beurteilt, wobei das Beachtungsbereichs-Bestimmungsmittel (6) den Beachtungsbereich auf der Grundlage des Typs des durch das Beachtungsobjekt-Beurteilungsmittel beurteilten Objekts bestimmt.
  12. Bilderfassungsvorrichtung nach Anspruch 11, bei der das Beachtungsobjekt-Beurteilungsmittel den Typ des Objekts durch Analysieren eines Teils in dem erfassten Bild, der als durch das von dem Beachtungsobjekt-Auswahlmittel (5) ausgewählte Objekt besetzt geschätzt wird, in einem Fall, in welchem angenommen wird, dass das Objekt der größte Typ von mehreren vermuteten Typen von Objekten ist, beurteilt.
  13. Bilderfassungsverfahren in einer Bilderfassungsvorrichtung, wobei die Bilderfassungsvorrichtung enthält: ein Bilderfassungsmittel (2), das ein Bild eines Subjekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, erfasst und hierdurch ein erfasstes Bild erzeugt; und ein Erfassungsmittel (4), das jedes Objekt, das in einem Erfassungsbereich existiert, der zumindest teilweise mit dem Abbildungsfeld-Winkelbereich überlappt, erfasst und Informationen, die eine Richtung des Objekts darstellen, und Informationen, die den Abstand zu dem Objekt darstellen, ausgibt, welches Bilderfassungsverfahren aufweist: einen Erfassungsobjekt-Auswahlschritt des Auswählens eines oder mehrerer Objekte auf der Grundlage der Informationen, die die Richtung des Objekts darstellen, und der Informationen, die den Abstand darstellen, und die von dem Erfassungsmittel (4) ausgegeben wurden, und des Erzeugens von Informationen, die die Position des ausgewählten Objekts in dem erfassten Bild darstellen, und von Informationen, die den Abstand zu dem ausgewählten Objekt darstellen, wobei bei der Auswahl des Beachtungsobjekts ein Beachtungsgrad jedes Objekts bewertet wird, wobei ein Objekt mit dem höchsten Beachtungsgrad ausgewählt wird; einen Beachtungsbereichs-Bestimmungsschritt des Bestimmens eines Bereichs in dem erfassten Bild, der das ausgewählte Objekt enthält, als einen Beachtungsbereich auf der Grundlage der Informationen, die die Position des ausgewählten Objekts darstellen, und der Informationen, die den Abstand zu dem ausgewählten Objekt darstellen, und die in dem Beachtungsobjekt-Auswahlschritt erzeugt wurden; einen Helligkeits-Berechnungsschritt des Berechnens der Helligkeit des erfassten Bilds in dem Beachtungsbereich, der in dem Beachtungsbereichs-Bestimmungsschritt bestimmt wurde; und einen Belichtungssteuerschritt des Durchführens einer Belichtungssteuerung bei dem Bilderfassungsmittel (2) auf der Grundlage der in dem Helligkeits-Berechnungsschritt berechneten Helligkeit.
  14. Programm zum Bewirken, dass ein Computer einen Prozess in dem Bilderfassungsverfahren nach Anspruch 13 durchführt.
  15. Computerlesbares Aufzeichnungsmedium, das das Programm nach Anspruch 14 speichert.
DE112015006032.4T 2015-01-22 2015-11-12 Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium Active DE112015006032B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015010132 2015-01-22
JP2015-010132 2015-01-22
PCT/JP2015/081838 WO2016117213A1 (ja) 2015-01-22 2015-11-12 撮像装置及び方法、並びにプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
DE112015006032T5 DE112015006032T5 (de) 2017-10-05
DE112015006032B4 true DE112015006032B4 (de) 2021-04-01

Family

ID=56416774

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015006032.4T Active DE112015006032B4 (de) 2015-01-22 2015-11-12 Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium

Country Status (5)

Country Link
US (1) US10453214B2 (de)
JP (1) JP6289681B2 (de)
CN (1) CN107211096B (de)
DE (1) DE112015006032B4 (de)
WO (1) WO2016117213A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6861375B2 (ja) * 2017-06-30 2021-04-21 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
US11631380B2 (en) * 2018-03-14 2023-04-18 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10346693B1 (en) * 2019-01-22 2019-07-09 StradVision, Inc. Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same
US10984534B2 (en) * 2019-03-28 2021-04-20 GM Global Technology Operations LLC Identification of attention region for enhancement of sensor-based detection in a vehicle
JP2021150756A (ja) * 2020-03-18 2021-09-27 ソニーセミコンダクタソリューションズ株式会社 撮像システム、撮像制御方法および撮影制御プログラム
CN111654643B (zh) * 2020-07-22 2021-08-31 苏州臻迪智能科技有限公司 曝光参数确定方法、装置、无人机和计算机可读存储介质
RU2746614C1 (ru) * 2020-09-14 2021-04-19 Общество с ограниченной ответственностью "2И" (ООО "2И") Способ подавления встречной засветки при формировании изображений дорожного окружения перед транспортным средством и устройство для осуществления способа
JP2022086311A (ja) * 2020-11-30 2022-06-09 キヤノン株式会社 撮像装置、撮像装置の制御方法、およびプログラム
US11386650B2 (en) * 2020-12-08 2022-07-12 Here Global B.V. Method, apparatus, and system for detecting and map coding a tunnel based on probes and image data
KR20230123226A (ko) * 2022-02-16 2023-08-23 한화비전 주식회사 Ai 기반 객체인식을 통한 감시 카메라 영상의 노이즈 제거

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62110369A (ja) * 1985-11-08 1987-05-21 Matsushita Electric Ind Co Ltd 撮像装置
US20070073484A1 (en) * 2005-09-27 2007-03-29 Omron Corporation Front image taking device
US20070242944A1 (en) * 2004-09-10 2007-10-18 Kazufumi Mizusawa Camera and Camera System

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264060B2 (ja) 1993-11-04 2002-03-11 三菱自動車工業株式会社 自動車の走行制御装置の先行車検出機構
JP2001134769A (ja) 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP3685970B2 (ja) 1999-12-27 2005-08-24 本田技研工業株式会社 物体検知装置
JP2005339176A (ja) 2004-05-26 2005-12-08 Alpine Electronics Inc 車両認識装置、ナビゲーション装置および車両認識方法
JP4779355B2 (ja) 2004-12-21 2011-09-28 日産自動車株式会社 車両用運転操作補助装置用の表示装置および表示方法
US20090051794A1 (en) * 2005-03-15 2009-02-26 Omron Corporation Image processing apparatus, image processing method, image processing system, program and recording medium
US7624925B2 (en) * 2005-07-11 2009-12-01 Get Solo, Llc Membership cards
JP4214160B2 (ja) * 2006-08-31 2009-01-28 フジノン株式会社 監視カメラシステム
JP2008070999A (ja) 2006-09-13 2008-03-27 Hitachi Ltd 車両の障害物検出装置及びそれを搭載した自動車
JP4987573B2 (ja) * 2007-06-01 2012-07-25 富士重工業株式会社 車外監視装置
JP4900211B2 (ja) 2007-11-29 2012-03-21 トヨタ自動車株式会社 走行支援装置、車間距離設定方法
JP2010127717A (ja) 2008-11-26 2010-06-10 Sumitomo Electric Ind Ltd 対象物検出装置及び対象物検出システム
KR102033703B1 (ko) * 2009-01-29 2019-10-17 트랙맨 에이/에스 레이더 및 촬상 요소를 포함하는 조립체
JP2014006188A (ja) * 2012-06-26 2014-01-16 Toshiba Denpa Products Kk レーダ監視システム、映像取得方法及び映像取得プログラム
JP2014135611A (ja) * 2013-01-09 2014-07-24 Denso Corp カメラ露出設定装置及びカメラ露出設定プログラム
JP2014135612A (ja) * 2013-01-09 2014-07-24 Denso Corp カメラ露出設定装置及びカメラ露出設定プログラム
JP6471528B2 (ja) * 2014-02-24 2019-02-20 株式会社リコー 物体認識装置、物体認識方法
US10721384B2 (en) * 2014-03-27 2020-07-21 Sony Corporation Camera with radar system
JP6648411B2 (ja) * 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62110369A (ja) * 1985-11-08 1987-05-21 Matsushita Electric Ind Co Ltd 撮像装置
US20070242944A1 (en) * 2004-09-10 2007-10-18 Kazufumi Mizusawa Camera and Camera System
US20070073484A1 (en) * 2005-09-27 2007-03-29 Omron Corporation Front image taking device

Also Published As

Publication number Publication date
DE112015006032T5 (de) 2017-10-05
US10453214B2 (en) 2019-10-22
CN107211096B (zh) 2020-03-03
WO2016117213A1 (ja) 2016-07-28
CN107211096A (zh) 2017-09-26
US20180012374A1 (en) 2018-01-11
JP6289681B2 (ja) 2018-03-07
JPWO2016117213A1 (ja) 2017-06-29

Similar Documents

Publication Publication Date Title
DE112015006032B4 (de) Vorrichtung und Verfahren zur Bilderfassung eines Objekts, das sich in einem Abbildungsfeld-Winkelbereich befindet, Programm und Aufzeichnungsmedium
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
DE102008063122B4 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
DE602005004365T2 (de) Bildverarbeitungssystem für Kraftfahrzeug-Anwendungen
DE102013112171B4 (de) Außenumgebungserkennungsvorrichtung
DE102008006951B4 (de) Erfassungssystem für vorausfahrende Fahrzeuge
DE10296593B4 (de) Fahrunterstützungsvorrichtung
DE102010020867B4 (de) Strassenform-Erkennungsvorrichtung
EP3299995A1 (de) Bildanalysesystem für landwirtschaftliche arbeitsmaschinen
DE112016003546B4 (de) Vorrichtung zum Darstellen von Unterstützungsbildern für einen Fahrer und Verfahren dazu
DE102008064411B4 (de) Belichtungssteuerungsvorrichtung und Belichtungssteuerungsprogramm für eine in einem Fahrzeug installierte elektronische Kamera
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
DE102008006375A1 (de) Überwachungssystem
DE112017005447T5 (de) Objekterfassungsvorrichtung
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102009005184A1 (de) Fahrzeugabtastsystem
DE102008063121A1 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
DE102009001122B4 (de) 1 - 15Kameraanordnung und Verfahren zum Ermitteln von Bildsignalen mit Farbwerten
DE60217616T2 (de) Verfahren zum Abgleichen stereoskopischer Farbbilder
DE102019101482A1 (de) Erkennungsvorrichtung für die äussere umgebung eines fahrzeugs
DE102016121755A1 (de) Verfahren zum Bestimmen eines zusammengesetzten Bilds eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung von Helligkeit und/oder Farbe, Kamerasystem sowie Krafzfahrzeug
DE102017106152A1 (de) Ermitteln einer Winkelstellung eines Anhängers mit optimierter Vorlage
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
EP3844943B1 (de) Verfahren zur anzeige eines modells einer umgebung, steuergerät und fahrzeug
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000