DE112017002120T5 - Objekterfassungsvorrichtung und Objekterfassungsverfahren - Google Patents

Objekterfassungsvorrichtung und Objekterfassungsverfahren Download PDF

Info

Publication number
DE112017002120T5
DE112017002120T5 DE112017002120.0T DE112017002120T DE112017002120T5 DE 112017002120 T5 DE112017002120 T5 DE 112017002120T5 DE 112017002120 T DE112017002120 T DE 112017002120T DE 112017002120 T5 DE112017002120 T5 DE 112017002120T5
Authority
DE
Germany
Prior art keywords
image
area
camera sensor
search area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017002120.0T
Other languages
English (en)
Inventor
Ryo Takaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112017002120T5 publication Critical patent/DE112017002120T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V11/00Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Geophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

Eine ECU 20 erkennt ein Objekt, das von einem Radarsensor 31 erfasst wird, und ein Objekt, das von einem Kamerasensor 32 erfasst wird, als dasselbe Objekt unter der Bedingung, dass es einen Überdeckungsbereich zwischen einem Reflexionswellensuchbereich und einem Bildsuchbereich gibt. Die ECU 20 bestimmt die Helligkeit in der Richtung, in der das Objekt von dem Kamerasensor 32 erfasst wird, als Reaktion auf eine Erkennung des Objekts, das von dem Radarsensor 31 erfasst wird, und des Objekts, das von dem Kamerasensor 32 erfasst wird, als dasselbe Objekt. Die ECU 20 ändert dann die Größe des Bildsuchbereichs auf der Grundlage der bestimmten Helligkeit in der Richtung, in der das Objekt erfasst wird.

Description

  • Querverweis auf betreffende Anmeldung
  • Die vorliegende Anmeldung basiert auf der am 22. April 2016 eingereichten japanischen Patentanmeldung Nr. 2016-086408 , deren Beschreibung hiermit durch Bezugnahme darauf enthalten ist.
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Objekterfassungsvorrichtung und ein Objekterfassungsverfahren zum Erfassen eines Objekts unter Verwendung eines Reflexionswellensensors, der Sendewellen aussendet und den Abstand zu einem Objekt auf der Grundlage von reflektierten Wellen, die den Sendewellen entsprechen, erlangt, und eines Kamerasensors, der ein Aufnahmebild erlangt.
  • Stand der Technik
  • Die PTL 1 offenbart eine Objekterfassungsvorrichtung, die ein Objekt unter Verwendung eines Radarsensors und eines Kamerasensors erfasst. Die Objekterfassungsvorrichtung, die in der PTL 1 offenbart ist, stellt einen Suchbereich auf der Grundlage einer Erfassungsposition eines Objekts ein, das von dem Radarsensor erfasst wird, und stellt einen Suchbereich auf der Grundlage des Ergebnisses der Erfassung eines Objekts durch den Kamerasensor ein. Die Objekterfassungsvorrichtung erkennt dann das Objekt, das von dem Radarsensor erfasst wird, und das Objekt, das von dem Kamerasensor erfasst wird, als dasselbe Objekt, wenn es einen Überdeckungsbereich zwischen den beiden Suchbereichen gibt.
  • Zitierungsliste
  • Patentliteratur
  • PTL 1: JP 2014 - 122 873 A
  • Zusammenfassung der Erfindung
  • In dem Fall, in dem der Kamerasensor ein Objekt erfasst, kann sich die Genauigkeit beim Erfassen eines Objekts in Abhängigkeit von der Umgebungshelligkeit verschlechtern. In diesem Fall kann ein Suchbereich auf der Grundlage eines Erfassungsergebnisses, das von dem Kamerasensor bereitgestellt wird, nicht richtig eingestellt werden, und die Objekterfassungsvorrichtung kann somit ein einzelnes Objekt fälschlicherweise als unterschiedliche Objekte erkennen, wenn ein Objekt unter Verwendung von zwei Suchbereichen erkannt wird.
  • Die vorliegende Erfindung entstand im Hinblick auf die obigen Probleme, und es ist ihre Aufgabe, eine Objekterfassungsvorrichtung und ein Objekterfassungsverfahren zum Verhindern einer nicht richtigen Erkennung eines Objekts aufgrund einer Helligkeit eines Bereichs, der ein Fahrzeug umgibt, zu schaffen.
  • Die vorliegende Erfindung schafft eine Objekterfassungsvorrichtung, die ein Objekt, das in einer Umgebung eines Fahrzeugs vorhanden ist, unter Verwendung eines Reflexionswellensensors und eines Kamerasensors erfasst, wobei der Reflexionswellensensor ausgelegt ist, Sendewellen auszusenden und einen Abstand zu dem Objekt auf der Grundlage von reflektierten Wellen, die den Sendewellen entsprechen, zu erlangen, wobei der Kamerasensor ausgelegt ist, das Objekt aufzunehmen und ein Aufnahmebild zu erlangen, wobei die Objekterfassungsvorrichtung enthält: einen Reflexionsbereichseinstellabschnitt, der mit Bezug auf eine erste Position, die eine Erfassungsposition des Objekts ist, das von dem Reflexionswellensensor erfasst wird, einen Bereich als einen Reflexionswellensuchbereich einstellt, der die erste Position enthält; einen Bildbereichseinstellabschnitt, der mit Bezug auf eine zweite Position, die eine Erfassungsposition des Objekts ist, das von dem Kamerasensor erfasst wird, einen Bereich als einen Bildsuchbereich einstellt, der die zweite Position enthält; einen Objektbestimmungsabschnitt, der das Objekt, das durch den Reflexionswellensensor erfasst wird, und das Objekt, das durch den Kamerasensor erfasst wird, als dasselbe Objekt unter der Bedingung erkennt, dass es einen Überdeckungsbereich zwischen dem Reflexionswellensuchbereich und dem Bildsuchbereich gibt; und einen Helligkeitsbestimmungsabschnitt, der eine Helligkeit in einer Richtung bestimmt, in der das Objekt von dem Kamerasensor erfasst wird, wobei der Bildbereichseinstellabschnitt eine Größe des Bildsuchbereichs auf der Grundlage der bestimmten Helligkeit in der Richtung, in der das Objekt erfasst wird, ändert.
  • Es kann in Abhängigkeit von der Umgebungshelligkeit ein Fehler der zweiten Position auftreten, die eine Erfassungsposition des Objekts ist, das von dem Kamerasensor erfasst wird. Der Kamerasensor kann beispielsweise nicht in der Lage sein, in einer dunklen Umgebung richtig zwischen einem Objekt und dem Hintergrund zu unterscheiden, und kann das Objekt ohne dessen obere und untere Enden erfassen. In einem derartigen Fall wird die Position des Objekts nicht richtig erfasst, was zu einem Fehler der zweiten Position führt. Aufgrund des Fehlers der zweiten Position wird der Bildsuchbereich, der einen Bezug zu der zweiten Position aufweist, an einer nicht richtigen Position eingestellt. Als Ergebnis wird kein Überdeckungsbereich zwischen dem Bildsuchbereich und dem Reflexionswellensuchbereich geschaffen, und der Objektbestimmungsabschnitt kann ein einzelnes Objekt fälschlicherweise als unterschiedliche Objekte erkennen. Diesbezüglich enthält die vorliegende Erfindung mit der obigen Konfiguration ein Bestimmen einer Helligkeit in der Richtung, in der das Objekt erfasst wird, und ein Ändern der Größe des Bildsuchbereichs auf der Grundlage des Bestimmungsergebnisses. Wenn der Bildsuchbereich beispielsweise aufgrund einer dunklen Umgebung des Fahrzeugs nicht richtig eingestellt wird, wird die Größe des Bildsuchbereichs geändert, wodurch die Ausbildung eines Überdeckungsbereichs zwischen dem Bildsuchbereich und dem Reflexionswellensuchbereich erleichtert wird, und es kann eine der Helligkeit zugeordnete nicht richtige Bestimmung durch den Objektbestimmungsabschnitt verhindert werden.
  • Figurenliste
  • Die obige und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden anhand der folgenden detaillierten Beschreibung mit Bezug auf die zugehörigen Zeichnungen deutlich. Es zeigen:
    • 1 ein Konfigurationsdiagramm, das eine Fahrunterstützungsvorrichtung darstellt;
    • 2 ein Diagramm, das einen Radarsuchbereich und einen Bildsuchbereich darstellt;
    • 3 ein Diagramm, das einen Radarsuchbereich darstellt;
    • 4 ein Diagramm, das ein beispielhaftes Fotografiebild darstellt;
    • 5 ein Diagramm, das einen Bildsuchbereich darstellt;
    • 6 ein Flussdiagramm eines Objekterfassungsprozesses einer Objekterfassungsvorrichtung;
    • 7 ein Flussdiagramm zum Beschreiben einer Änderung eines Bildsuchbereichs Ri;
    • 8 ein Diagramm zum Beschreiben einer Änderung eines Bildsuchbereichs Ri;
    • 9 ein Diagramm zum Beschreiben einer Änderung eines Bildsuchbereichs Ri;
    • 10 ein Diagramm zum Beschreiben des Bildsuchbereichs Ri, dessen Bereichsgröße sich durch einen Änderungsprozess ändert;
    • 11 ein Flussdiagramm zum Beschreiben einer Änderung eines Bildsuchbereichs Ri;
    • 12 ein Diagramm zum Beschreiben einer Beziehung zwischen dem Typ eines Bildziels Oi und der Größe einer Änderung des Bildsuchbereichs Ri;
    • 13 ein Flussdiagramm zum Beschreiben einer Änderung eines Bildsuchbereichs Ri;
    • 14 ein Diagramm zum Beschreiben einer Beziehung zwischen dem Bildziel Oi und der Größe einer Bewegung; und
    • 15 ein Diagramm zum Beschreiben einer Beziehung zwischen Erfassungsergebnissen, die von einem Kamerasensor bereitgestellt werden, und Objekten.
  • Beschreibung der Ausführungsformen
  • Im Folgenden werden Ausführungsformen einer Objekterfassungsvorrichtung und eines Objekterfassungsverfahrens mit Bezug auf die Zeichnungen beschrieben. In der folgenden Beschreibung wird die Objekterfassungsvorrichtung als ein Teil einer Fahrunterstützungsvorrichtung verwendet, die eine Unterstützung beim Fahren eines eigenen Fahrzeugs bereitstellt. In den folgenden Ausführungsformen werden identische oder äquivalente Komponenten mit denselben Bezugszeichen in den Zeichnungen bezeichnet, und die Beschreibung einer Komponente ist durch Bezugnahme auf die Beschreibung einer anderen Komponente, die mit demselben Bezugszeichen bezeichnet wird, enthalten.
  • Erste Ausführungsform
  • 1 ist ein Konfigurationsdiagramm, das eine Fahrunterstützungsvorrichtung 10 darstellt. Die Fahrunterstützungsvorrichtung 10 ist in einem Fahrzeug montiert, um die Bewegung eines Objekts zu überwachen, das vor dem Fahrzeug angeordnet ist. In dem Fall, in dem das Fahrzeug einer Gefahr einer Kollision mit dem Objekt ausgesetzt ist, vermeidet oder mildert die Fahrunterstützungsvorrichtung 10 die Kollision unter Verwendung eines automatischen Bremsens. Wie es in 1 dargestellt ist, enthält die Fahrunterstützungsvorrichtung 10 verschiedene Sensoren, eine ECU 20 und eine Bremseinheit 25. In der in 1 dargestellten Ausführungsform dient die ECU 20 als eine Objekterfassungsvorrichtung. Im Folgenden wird ein Fahrzeug, das die Fahrunterstützungsvorrichtung 10 aufweist, als Fahrzeug CS bezeichnet. Ein Objekt, das von der Fahrunterstützungsvorrichtung 10 erkannt wird, wird als ein Ziel Ob bezeichnet.
  • Verschiedene Sensoren sind mit der ECU 20 verbunden, um Ergebnisse der Erfassung von Objekten an die ECU 20 auszugeben. In 1 enthalten die Sensoren einen Radarsensor 31, einen Kamerasensor 32 und einen Beleuchtungsstärkensensor 33. Der Radarsensor 31 dient als ein Reflexionswellensensor zum Erfassen des Ziels Ob. Der Kamerasensor 32 erfasst das Ziel Ob auf der Grundlage eines Aufnahmebildes. Der Beleuchtungsstärkensensor 33 erfasst eine Helligkeit. Wenn zwischen einem Ziel Ob, das von dem Radarsensor 31 erfasst wird, und einem Ziel Ob, das von dem Kamerasensor 32 erfasst wird, unterschieden wird, wird ein Ziel, das von dem Radarsensor 31 erfasst wird, als ein Radarziel Or bezeichnet, und ein Ziel, das von dem Kamerasensor 32 erfasst wird, wird als ein Bildziel Oi bezeichnet.
  • Der Radarsensor 31 sendet gerichtete Sendewellen wie beispielsweise Millimeterwellen oder Radarwellen aus und empfängt reflektierte Wellen, die von dem Radarziel Or als Reaktion auf die Sendewellen reflektiert werden. Der Radarsensor 31 berechnet dann beispielsweise einen Abstand zu dem, eine Peilung zu dem und eine Relativgeschwindigkeit in Bezug auf das Zielobjekt Or entsprechend den reflektierten Wellen und gibt ein Radarsignal an die ECU 20 aus.
  • Der Kamerasensor 32 ist auf der Vorderseite des Fahrzeugs CS angeordnet, um das Bildziel Oi zu erkennen, das vor dem Fahrzeug angeordnet ist. Der Kamerasensor 32 enthält eine Abbildungseinheit, eine Steuerung und eine ECU-I/F (Schnittstelle). Die Abbildungseinheit nimmt Bilder eines Bereichs in der Umgebung des Fahrzeugs auf. Die Steuerung führt bekannte Bildprozesse eines Aufnahmebildes durch, das durch die Abbildungseinheit erlangt wird. Die ECU-I/F ermöglicht es der Steuerung und der ECU 20, miteinander zu kommunizieren. Man beachte, dass der Kamerasensor 32 eine monokulare Kamera oder eine Stereo-Kamera sein kann.
  • Der Kamerasensor 32 identifiziert als Bildziel Oi ein Objekt, das durch Analyse eines Aufnahmebildes erfasst wird. Der Kamerasensor 32 führt beispielsweise einen Abgleichprozess unter Verwendung von im Voraus registrierten Wörterbüchern durch, um das Bildziel Oi zu identifizieren. Es wird ein Wörterbuch für jede Art von Bildziel Oi vorbereitet, so dass der Typ des Bildziels Oi ebenfalls spezifiziert bzw. bestimmt ist. Beispiele der Typen von Bildzielen Oi beinhalten Automobile mit vier oder mehr Rädern, Zweiradfahrzeuge, Fußgänger, Hindernisse wie beispielsweise Leitplanken und Ähnliches. Man beachte, dass Zweiradfahrzeuge Fahrräder, Motorräder und Ähnliches enthalten. Entsprechend dem erkannten Bildziel Oi gibt der Kamerasensor 32 ein Erfassungsergebnis aus, das Positionsinformationen des Bildziels Oi enthält. Die Positionsinformationen enthalten die Positionen der Mitte und von zwei Enden des Bildziels Oi in einem Aufnahmebild. Die Positionen der beiden Enden des Bildziels Oi geben beispielsweise die Koordinaten der beiden Enden eines Erfassungsbereichs an, der den Bereich des Bildziels Oi angibt, das innerhalb des Aufnahmebildes erkannt wird.
  • Der Beleuchtungsstärkensensor 33 erfasst eine Helligkeit in der Richtung der Abbildungsachse, d.h. der Erfassungsrichtung des Kamerasensors 32. Der Beleuchtungsstärkensensor 33 ist in dem Fahrzeug CS angeordnet, wobei dessen Erfassungseinheit in der Richtung der Abbildungsachse ausgerichtet ist. Der Beleuchtungsstärkensensor 33 enthält die Erfassungseinheit, die eine Helligkeit erfasst, und gibt an die ECU 20 ein Signal aus, das auf dem Erfassungsergebnis basiert, das durch die Erfassungseinheit bereitgestellt wird. Die Erfassungseinheit ist beispielsweise eine Fotodiode.
  • Die ECU 20 ist als ein bekannter Computer ausgebildet, der eine CPU, einen ROM, einen RAM und Ähnliches enthält. Die CPU führt ein Programm aus, das in dem ROM gespeichert ist, um als Radarzielerfassungsabschnitt 11, Radarbereichseinstellabschnitt 12 (Reflexionsbereichseinstellabschnitt), Bildzielerfassungsabschnitt 13, Bildbereichseinstellabschnitt 14, Objektbestimmungsabschnitt 15 und Helligkeitsbestimmungsabschnitt 16 zu dienen.
  • Der Radarzielerfassungsabschnitt 11 verwendet ein Erfassungsergebnis, das durch den Radarsensor 31 bereitgestellt wird, für die XY-Ebene, die in 2 dargestellt ist, wodurch eine Erfassungsposition (erste Position) eines Radarziels relativ zu dem Fahrzeug CS bestimmt wird. Man beachte, dass die XY-Ebene in 2 derart eingestellt ist, dass die Breitenrichtung (Querrichtung) des Fahrzeugs durch die X-Achse repräsentiert wird und die Fahrzeuglängsrichtung (Vorwärtsrichtung) des Fahrzeugs durch die Y-Achse repräsentiert wird. In der XY-Ebene ist die vordere Endposition (Position, bei der der Radarsensor 31 angeordnet ist) des Fahrzeugs CS als ein Bezugspunkt Po eingestellt, und die erste Position Pr des Radarziels Or wird als die Position relativ zu dem Bezugspunkt Po repräsentiert. Man beachte, dass das Beispiel in 2 zeigt, dass das Radarziel Or vor dem Fahrzeug CS auf der rechten Seite angeordnet ist.
  • Der Radarbereichseinstellabschnitt 12 stellt einen Radarsuchbereich Rr (Reflexionswellensuchbereich) um die erste Position Pr des Radarziels Or ein, wie es in 2 dargestellt ist. Wie es in 3 dargestellt ist, stellt der Radarbereichseinstellabschnitt 12 insbesondere unter Bezugnahme auf einen Abstand r1 zwischen dem Bezugspunkt Po und der ersten Position Pr und einen Winkel θr in der Umfangsrichtung von der Y-Achse zu der ersten Position Pr einen Bereich als Radarsuchbereich Rr ein, der eine Breite aufweist, die den Spielraum eines angenommenen Fehlers entspricht, der im Voraus auf der Grundlage der Eigenschaften des Radarsensors 31 in jeweils der Abstandsrichtung und der Umfangsrichtung eingestellt wird. Man beachte, dass die Umfangsrichtung als eine Richtung orthogonal zu der Linie definiert sein kann, die den Bezugspunkt Po und die erste Position Pr verbindet.
  • 3 stellt beispielsweise einen angenommenen Fehler von ±Er1 für die Abstandsrichtung und einen angenommenen Fehler von ±Eθr für den Winkel in der Umfangsrichtung in Bezug auf die erste Position Pr (r1, θr) ein. Daher erstreckt sich der Radarsuchbereich Rr von (r1 - Er1) bis (r1 + Er1) für die Abstandsrichtung und von (θr - Eθr) bis (θr + Eθr) für den Winkel in der Umfangsrichtung in Bezug auf die erste Position Pr (r1, θr).
  • Der Bildzielerfassungsabschnitt 13 verwendet das Ergebnis der Erfassung des Bildziels Oi mittels des Kamerasensors 32 für die XY-Ebene, die in 2 dargestellt ist, um die Erfassungsposition (zweite Position) des Bildziels Oi relativ zu dem Fahrzeug CS zu bestimmen. Man beachte, dass der Bildzielerfassungsabschnitt 13 die Position des Bildziels Oi in der XY-Ebene auf der Grundlage der vertikalen Position des Bildziels Oi in dem Aufnahmebild bestimmt.
  • In Bezug auf die Details wird auf das in 4 beispielhaft dargestellte Aufnahmebild Bezug genommen. Zunächst führt der Bildzielerfassungsabschnitt 13 einen Abgleichprozess mit Wörterbüchern durch, um einen Erfassungsbereich T1 für das Bildziel Oi aus dem Aufnahmebild zu extrahieren. Der Bildzielerfassungsabschnitt 13 bestimmt dann die Abstands-Richtungs-Position in der XY-Ebene aus der vertikalen Position (Koordinaten) des extrahierten Erfassungsbereichs T1 in dem Aufnahmebild. In diesem Beispiel bestimmt der Bildzielerfassungsabschnitt 13 die Abstands-Richtungs-Position in der XY-Ebene der 2 auf der Grundlage der Position eines Endpunkts T1a des Bildziels Oi, das in dem Erfassungsbereich T1 enthalten ist.
  • In dem Aufnahmebild ist, je näher der Endpunkt T1a des Bildziels Oi bei einem Punkt der Unendlichkeit FOE (Expansionsfokus) liegt, umso weiter das Bildziel Oi von dem Fahrzeug CS entfernt, d.h. umso größer ist der Abstand r2 zu dem Ziel in der Abstands-Richtung in der XY-Ebene. Eine derartige Korrelation wird im Voraus gespeichert, so dass der Abstand r2 in der Abstands-Richtung in der XY-Ebene der 2 anhand des Endpunkts T1a des Bildziels Oi bestimmt werden kann.
  • Der Bildzielerfassungsabschnitt 13 bestimmt außerdem einen Winkel in der Umfangsrichtung zu dem Bildziel Oi (Winkelposition in Bezug auf die Vorwärtsrichtung des Fahrzeugs) auf der Grundlage der horizontalen Position des Bildziels Oi in dem Aufnahmebild. Insbesondere besteht die Tendenz, dass sich die horizontale Abweichung des Bildziels Oi von dem Punkt der Unendlichkeit FOE des Kamerasensors 32 erhöht, wenn sich die Winkelabweichung (Neigung) des Bildziels Oi von der Vorwärtsrichtung des Fahrzeugs (insbesondere der Linie von X = 0) erhöht. Daher kann die Umfangsposition des Bildziels Oi in der XY-Ebene in 2 auf der Grundlage des Abstands von dem Punkt der Unendlichkeit FOE zu der vertikalen Linie bestimmt werden, die durch das Zentrum des Bildziels Oi in dem Aufnahmebild der 4 verläuft.
  • Der Bildbereichseinstellabschnitt 14 stellt einen Bildsuchbereich Ri um die zweite Position Pi ein, wie es in 2 dargestellt ist. Insbesondere stellt der Bildbereichseinstellabschnitt 14 einen Bereich als Bildsuchbereich Ri ein, der eine Breite aufweist, die den Spielraum eines angenommenen Fehlers für den Abstand von dem Bezugspunkt Po (Radius eines Kreises um den Bezugspunkt Po) entspricht, und eine Breite aufweist, die den Spielraum eines angenommenen Fehlers in der Umfangsrichtung des Kreises um den Bezugspunkt Po entspricht.
  • Wie es in 5 dargestellt ist, wird genauer gesagt mit Bezug auf die zweite Position Pi (r2, θi) der Bereich, der eine Breite aufweist, die den Spielraum eines angenommenen Fehlers entspricht, der im Voraus auf der Grundlage der Eigenschaften des Kamerasensors 32 in jeweils der Abstandsrichtung und der Umfangsrichtung eingestellt wird, als der Bildsuchbereich Ri eingestellt. In 5 werden ein angenommener Fehler von ±Er2 für die Abstands-Richtung und ein angenommener Fehler von ±Eθi für den Winkel in der Umfangsrichtung mit Bezug auf die zweite Position Pi (r2, θi) eingestellt. Daher erstreckt sich der Bildsuchbereich Ri von (r2 - Er2) bis (r2 + Er2) in Bezug auf die Abstandsrichtung und von (θi - Eθi) bis (θi + Eθi) in Bezug auf den Winkel in der Umfangsrichtung in Bezug auf die zweite Position Pi.
  • Im Folgenden wird in dem Bildsuchbereich Ri in Bezug auf die zweite Position Pi (r2, θi) der Bereich, der sich von (r2 - Er2) bis (r2) in der Abstandsrichtung erstreckt, als naher Bereich TRi bezeichnet, und der Bereich, der sich von (r2) bis (r2 + Er2) in der Abstandsrichtung erstreckt, wird als ein ferner Bereich BRi bezeichnet. Man beachte, dass Er2 eine Variable ist, die von den Eigenschaften des Kamerasensors 32 abhängt.
  • Wenn es einen Überdeckungsbereich OL zwischen dem Radarsuchbereich Rr und dem Bildsuchbereich Ri gibt, wie es in 2 dargestellt ist, erkennt der Objektbestimmungsabschnitt 15 das Radarziel Or und das Bildziel Oi als dasselbe Objekt. In diesem Fall kann der Objektsbestimmungsabschnitt 15 die Position des erfassten Ziels unter Verwendung der ersten Position Pr (r1, θr), die durch den Radarsensor 31 erhalten wird, und der zweiten Position Pi (r2, θi), die durch den Kamerasensor 32 erhalten wird, einstellen.
  • Der Kamerasensor 32 kann in einer dunklen Umgebung nicht in der Lage sein, zwischen dem Bildziel Oi und dem Hintergrund in der Erfassungsrichtung des Kamerasensors 32 richtig zu unterscheiden und kann das Bildziel Oi ohne dessen obere und untere Enden erfassen. In diesem Fall befindet sich der erlangte Endpunkt T1a des Erfassungsbereichs T1 oberhalb oder unterhalb der tatsächlichen unteren Endposition des Bildziels Oi. In einem derartigen Fall wird der Abstand r2 des Ergebnisses der Erfassung (r2, θi) durch den Kamerasensor 32 nicht richtig sein. Die nicht richtige Erfassung des Abstands r2 kann dazu führen, dass der Bildsuchbereich Ri nicht richtig eingestellt wird. Daher ändert der Bildbereichseinstellabschnitt 14 der vorliegenden Ausführungsform den Bildsuchbereich Ri entsprechend der Helligkeit in der Erfassungsrichtung des Kamerasensors 32, um eine in Verbindung mit der Helligkeit stehende nicht richtige Einstellung des Bildsuchbereichs Ri zu verhindern.
  • Der Helligkeitsbestimmungsabschnitt 16 bestimmt die Helligkeit in der Erfassungsrichtung des Kamerasensors 32 auf der Grundlage des Ausgangs von dem Beleuchtungsstärkensensor 33. Das Bestimmungsergebnis der Helligkeit des Bereichs, der das Fahrzeug umgibt, durch den Helligkeitsbestimmungsabschnitt 16 wird an den Bildbereichseinstellabschnitt 14 ausgegeben.
  • Die Bremseinheit 25 dient als eine Bremsvorrichtung, die die Geschwindigkeit V des Fahrzeugs CS verringert. Die Bremseinheit 25 bremst das Fahrzeug CS unter der Steuerung der ECU 20 automatisch ab. Die Bremseinheit 25 enthält beispielsweise einen Master-Zylinder, einen Radzylinder, der eine Bremskraft auf die Räder ausübt, und einen ABS-Aktuator, der eine Verteilung eines Druckes (Hydraulikdruck) von dem Master-Zylinder auf die Radzylinder einstellt. Der ABS-Aktuator ist mit der ECU 20 verbunden und stellt einen hydraulischen Druck von dem Masterzylinder für die Radzylinder unter der Steuerung der ECU 20 ein, um den Grad des Bremsens der Räder einzustellen.
  • Die ECU 20 bestimmt, ob eine Kollisionsvermeidungssteuerung in Bezug auf das Ziel Ob benötigt wird, das als dasselbe Ziel Ob erkannt wird, und betätigt die Bremseinheit 25 als Reaktion auf die Bestimmung, dass eine Kollisionsvermeidungssteuerung benötigt wird. Die ECU 20 berechnet beispielsweise eine Zeit bis zu einer Kollision TTC für das Ziel Ob, das als dasselbe Ziel erkannt wird, und das eigene Fahrzeug. Die Zeit bis zur Kollision TTC ist ein Auswertungswert, der unter der Annahme, dass das Fahrzeug seine Fahrt mit einer konstanten Geschwindigkeit beibehält, angibt, wie viele Sekunden es noch dauert, bis das Fahrzeug mit dem Ziel Ob kollidiert. Die Gefahr einer Kollision erhöht sich, wenn sich die TTC verringert, und die Gefahr einer Kollision verringert sich, wenn sich die TTC erhöht. Die Zeit bis zur Kollision TTC kann beispielsweise durch Teilen des Fahrtrichtungsabstands zwischen dem Ziel Ob und dem eigenen Fahrzeug durch die Geschwindigkeit in Bezug auf das Ziel Ob berechnet werden. Die Geschwindigkeit in Bezug auf das Ziel Ob wird durch Subtrahieren der Geschwindigkeit des eigenen Fahrzeugs von der Geschwindigkeit V eines vorausbefindlichen Fahrzeugs erhalten. Man beachte, dass die Zeit bis zur Kollision TTC unter Berücksichtigung einer Relativbeschleunigung berechnet werden kann.
  • Wenn die Zeit bis zur Kollision TTC gleich oder kleiner als die Betätigungszeit eines fahrzeugeigenen Instruments ist, wird die Bremseinheit 25 aktiviert bzw. betätigt. Die Betätigungszeit der Bremseinheit 25 wird beispielsweise entsprechend dem Typ des Ziels Ob eingestellt. Da die Gefahr einer Kollision mit einem Zweiradfahrzeug als Ziel Ob höher als diejenige mit einem Fußgänger als Ziel Ob ist, wird beispielsweise die Betätigungszeit der Bremseinheit 25 in dem Fall eines Zweiradfahrzeugs auf früher als für einen Fußgänger eingestellt. Man beachte, dass die Fahrunterstützungsvorrichtung 10 einen Lautsprecher, der einen Alarmton und einen Leitton bzw. Führungston ausgibt, einen Sitzgurt und Ähnliches ebenso wie die Bremseinheit 25 enthält und außerdem die Betätigung des Lautsprechers und des Sitzgurtes entsprechend dem Ergebnis der Bestimmung durch die ECU 20 steuert. Daher dient die ECU 20 auch als ein Kollisionsvermeidungssteuerungsabschnitt.
  • Im Folgenden wird ein Objekterfassungsprozess, der von der ECU 20 durchgeführt wird, mit Bezug auf 6 beschrieben. Der in 6 dargestellte Prozess wird von der ECU 20 in bestimmten Intervallen durchgeführt.
  • In Schritt S11 wird der Radarsuchbereich Rr auf der Grundlage der ersten Position Pr eingestellt. Anschließend wird der Bildsuchbereich Ri in Schritt S12 auf der Grundlage der zweiten Position Pi eingestellt. Schritt S11 dient als ein Reflexionsbereichseinstellschritt. Schritt S12 dient als ein Bildbereichseinstellschritt.
  • In Schritt S13 wird ein Bereichsänderungsprozess zum Ändern des Bildsuchbereichs Ri durchgeführt. Man beachte, dass Schritt S13 später im Detail beschrieben wird.
  • In Schritt S14 wird der Überdeckungsbereich OL zwischen dem Radarsuchbereich Rr und dem Bildsuchbereich Ri erfasst. In Schritt S15 wird auf der Grundlage des Radarziels Or und des Bildziels Oi bestimmt, ob dasselbe Objekt erfasst wird. Mit anderen Worten, es wird bestimmt, ob das Radarziel Or und das Bildziel Oi dasselbe Ziel sind. Wenn kein Überdeckungsbereich OL zwischen dem Radarsuchbereich Rr und dem Bildsuchbereich Ri erfasst wird, oder wenn der Überdeckungsbereich erfasst wird, aber der Abstand zu dem Radarziel größer als ein Schwellenwert ist, werden die Ziele Ob nicht als dasselbe Ziel angenommen (Schritt S15: Nein). Dann wird der in 6 dargestellte Prozess angehalten. Die Schritte S14 und S15 dienen als ein Objektbestimmungsschritt.
  • Man beachte, dass der Schwellenwert zum Bestimmen des Abstands zu dem Radarziel Or in Abhängigkeit von dem Typ des Ziels und der Umgebungshelligkeit variieren kann. Der Schwellenwert in hellen Umgebungen ist beispielsweise größer als der Schwellenwert in dunklen Umgebungen. In dunklen Umgebungen wird der aus dem Bild erfassbare Abstand verringert. Wenn daher ein Bildziel mit dem Radarziel Or, das in einem fernen Abstand angeordnet ist, verschmolzen ist, wird bestimmt, dass diese Ziele wahrscheinlich nicht dieselben sind.
  • Wenn im Gegensatz dazu der Überdeckungsbereich OL zwischen dem Radarsuchbereich Rr und dem Bildsuchbereich Ri erfasst wird, wird bestimmt, dass die Erfassung des Ziels Ob erfolgreich war (Schritt S15: Ja). In Schritt S16 wird ein Bestimmungserfolgs-Flag gespeichert. Das Bestimmungserfolgs-Flag ist ein Flag, das angibt, dass in dem derzeitigen Prozess dasselbe Ziel Ob in dem Radarsuchbereich Rr und dem Bildsuchbereich Ri erfasst wurde. Die ECU 20 hält den Prozess in 6 nach Beendigung des Schritts S16 an.
  • Im Folgenden wird der Prozess zum Ändern des Bildsuchbereichs Ri, der in Schritt S13 der 6 durchgeführt wird, mit Bezug auf 7 beschrieben. In dem Prozess zum Ändern des Bildsuchbereichs Ri, der in 7 dargestellt ist, ändert die ECU 20 die Bereichsgröße des Bildsuchbereichs Ri in Abhängigkeit von der Helligkeit eines Bereichs vor dem Fahrzeug.
  • In Schritt S20 wird bestimmt, ob der Bereich vor dem Fahrzeug in der Erfassungsrichtung des Kamerasensors 32 hell oder dunkel ist. Der Helligkeitsbestimmungsabschnitt 16 bestimmt die Helligkeit des Bereichs vor dem Fahrzeug auf der Grundlage des Ausgangs von dem Beleuchtungssensor 33.
  • Wenn der Bereich in der Erfassungsrichtung hell ist (Schritt S20: Nein), kann bestimmt werden, dass die Erfassungsgenauigkeit des Kamerasensors 32 hoch ist. Daher wird der Prozess in 7 beendet, ohne die Größe des Bildsuchbereichs Ri zu ändern.
  • Wenn im Gegensatz dazu der Bereich in der Erfassungsrichtung dunkel ist (Schritt S20: Ja), wird in Schritt S21 bestimmt, ob dasselbe Ziel erfasst wird. Wenn beispielsweise das Bestimmungserfolgs-Flag aufgezeichnet wurde, wird bestimmt, dass dasselbe Ziel erfasst wird. Wenn dasselbe Ziel erfasst wird (Schritt S21: Ja), wird das derzeitige Verfahren zum Einstellen des Bildsuchbereichs Ri in Schritt S22 beibehalten. Da in diesem Fall das Ziel Ob unter Verwendung des Bildsuchbereichs Ri erfasst wurde, der mit dem derzeitigen Einstellverfahren definiert wurde, schreitet der Prozess zum Schritt S28, ohne das Einstellverfahren zu ändern. Man beachte, dass das Einstellverfahren die Prozedur meint, die in Schritt S24, S26 oder S27 durchgeführt wird, die später beschrieben werden.
  • Wenn im Gegensatz dazu nicht dasselbe Ziel Ob erfasst wird (Schritt S21: Nein), wird in Schritt S23 bestimmt, ob Scheinwerfer des Fahrzeugs CS eingeschaltet oder ausgeschaltet sind. Wenn die Scheinwerfer ausgeschaltet sind (Schritt S23: Ja), schreitet der Prozess zum Schritt S24, und die Größe des Bildsuchbereichs Ri wird in Abhängigkeit der Helligkeit des Bereichs in der Umgebung des Fahrzeugs geändert (Bereichsausdehnungsprozess 1).
  • In dem Beispiel der 8(a) wird der Wert der Größe der Ausdehnung des Bildsuchbereichs Ri derart eingestellt, dass die Größe der Ausdehnung sich erhöht, wenn sich die Helligkeit verringert. Die ECU 20 speichert beispielsweise ein Kennlinienfeld, das eine Beziehung zwischen einer Helligkeit und der Größe der Ausdehnung angibt, wie es in 8(a) dargestellt ist. Daher nimmt der Bildbereichseinstellabschnitt 14 Bezug auf das Kennlinienfeld, um die Größe einer Ausdehnung des Bildsuchbereichs Ri einzustellen. In 8(b) werden der nahe Bereich TRi und der ferne Bereich BRi um dieselbe Größe der Ausdehnung geändert. Alternativ kann die Größe der Ausdehnung des nahen Bereichs TRi größer als die Größe der Ausdehnung des fernen Bereichs BRi sein. Im Gegensatz dazu kann die Größe der Ausdehnung des fernen Bereichs BRi größer als die Größe der Ausdehnung des nahen Bereichs TRi sein.
  • In Schritt S28 wird ein Überwachungsbereich GR für den ausgedehnten Bereich eingestellt. Der Überwachungsbereich GR ist ein Bereich, in dem in Schritt S14 der 6 nicht bestimmt wird, ob es den Überdeckungsbereich OL zwischen dem Bildsuchbereich Ri und dem Radarsuchbereich Rr gibt. In 8(b) wird der Überwachungsbereich GR beispielsweise auf der Seite des hinteren Abstands-Richtungs-Endes des ausgedehnten fernen Bereichs BRi des Bildsuchbereichs Ri eingestellt. Da die Erfassungsgenauigkeit des Kamerasensors 32 in Abhängigkeit von dem Abstand r2 zu dem Bildziel Oi ebenfalls variiert, wird, wenn der Abstand r2 gleich oder größer als ein Schwellenwert TD ist, der Überwachungsbereich GR derart eingestellt, dass eine in Verbindung mit der Ausdehnung des Bildsuchbereichs Ri stehende falsche Erkennung des Bildziels Oi nicht größer wird.
  • 8(c) stellt eine Beziehung zwischen dem Abstand r2 und dem Überwachungsbereich GR als ein Beispiel dar. Der Überwachungsbereich GR wird nicht eingestellt, wenn der Abstand r2 gleich oder kleiner als der Schwellenwert TD, d.h. einer Grenze, ist. Wenn der Abstand r2 gleich oder größer als der Schwellenwert TD ist, wird der Überwachungsbereich GR derart eingestellt, dass sich ein Verhältnis des Überwachungsbereichs GR zu dem geänderten Bereich erhöht, wenn sich der Abstand r2 erhöht. Wenn beispielsweise der Abstand r2 gleich oder größer als der Schwellenwert TD ist, dehnt sich der Überwachungsbereich GR von dem hinteren Abstands-Richtungs-Ende des geänderten fernen Bereichs BRi in Richtung des nahen Bereichs TRi aus, wenn sich der Abstand r2 erhöht.
  • Wenn in Schritt S23 die Scheinwerfer eingeschaltet sind (Schritt S23: Nein), wird in Schritt S25 bestimmt, ob ein niedriger Strahl oder ein hoher Strahl verwendet wird. Dieses kommt daher, dass eine Helligkeit in der Erfassungsrichtung des Kamerasensors 32 in Abhängigkeit davon variiert, ob ein hoher Strahl oder ein niedriger Strahl verwendet wird. Wie es in 9(a) dargestellt ist, wird ein hoher Strahl verwendet, um einen Bereich zu beleuchten, der sich von dem Fahrzeug CS weit entfernt erstreckt. Die Erfassungsgenauigkeit des Kamerasensors 32 wird daher über eine lange Strecke bzw. einen langen Abstand auf einem hohen Niveau gehalten. Wie es in 9(b) dargestellt ist, wird im Gegensatz dazu ein niedriger Strahl verwendet, um einen kürzen Bereich vor dem Fahrzeug als mit dem hohen Strahl zu beleuchten. Daher verringert sich die Erfassungsgenauigkeit des Kamerasensors 32, wenn sich der Abstand erhöht.
  • Wenn ein niedriger Strahl verwendet wird (Schritt S25: Ja), wird in Schritt S26 ein Prozess zum Ausdehnen des Bildsuchbereichs Ri für die Verwendung eines niedrigen Strahls durchgeführt (Bereichsausdehnungsprozess 2). In Schritt S26 wird die Größe der Ausdehnung des Bildsuchbereichs Ri in Abhängigkeit von dem Abstand zu dem Bildziel Oi geändert. Wenn sich der Abstand von dem Kamerasensor 32 zu dem Bildziel Oi während der Verwendung des niedrigen Strahls erhöht, verringert sich die Helligkeit des Bereichs in der Umgebung des Bildziels Oi, was zu einer Verringerung der Erfassungsgenauigkeit des Kamerasensors 32 führt. Daher wird in dem Beispiel der 9(c) der Wert der Größe der Ausdehnung des Bildsuchbereichs Ri derart eingestellt, dass sich die Größe der Ausdehnung erhöht, wenn sich der Abstand r2 von dem Kamerasensor 32 zu der zweiten Position Pi des Bildziels Oi vergrößert. In 9(c) wird, wenn der Abstand r2 einen Schwellenwert TB überschreitet, der Bereich nicht weiter ausgedehnt, da die Erfassungsgenauigkeit des Kamerasensors 32 extrem verringert wird. Man beachte, dass in der vorliegenden Ausführungsform der nahe Bereich TRi und der ferne Bereich BRi um dieselbe Größe der Ausdehnung ausgedehnt werden. Alternativ kann die Größe der Ausdehnung des fernen Bereichs BRi größer als die Größe der Ausdehnung des nahen Bereichs TRi sein.
  • Wenn im Gegensatz dazu ein hoher Strahl verwendet wird (Schritt S25: Nein), wird in Schritt S27 ein Prozess zum Ausdehnen des Bildsuchbereichs Ri für die Verwendung eines hohen Strahls durchgeführt (Bereichsausdehnungsprozess 3). In Schritt S27 wird die Größe der Ausdehnung des Bildsuchbereichs Ri in Abhängigkeit von dem Abstand zu dem Bildziel Oi geändert. In dem Fall der Verwendung eines hohen Strahls ist der Abstand r2 von dem Fahrzeug CS, bei dem die Erfassungsgenauigkeit des Kamerasensors 32 extrem verringert ist, im Vergleich zu dem Fall der Verwendung eines niedrigen Strahls groß. Daher ist der Schwellenwert TB mehr von dem Fahrzeug CS als derjenige entfernt, der in 9(c) dargestellt ist.
  • Nachdem der Überwachungsbereich in S28 eingestellt wurde, wird der Prozess in 7 beendet und der Objekterfassungsprozess schreitet zum Schritt S14 der 6.
  • Im Folgenden wird der Bildsuchbereich Ri, dessen Bereichsgröße durch den Änderungsprozess geändert wird, mit Bezug auf 10 beschrieben. Die 10(a) und 10(b) stellen beispielhafte Fälle dar, in denen die Helligkeit des Bereichs in der Umgebung des Fahrzeugs gleich Br1 ist, und die 10(c) bis 10(f) stellen beispielhafte Fälle dar, in denen die Helligkeit des Bereichs in der Umgebung des Fahrzeugs gleich Br2 ist. Man beachte, dass die 10(c) und 10(d) Vergleichsbeispiele sind, die den Bildsuchbereich Ri und den Radarsuchbereich Rr zeigen, die dem Bereichsänderungsprozess in Schritt S14 der 6 nicht unterzogen werden. Man beachte, dass die Helligkeit Br1 und die Helligkeit Br2 in 10 die Beziehung Br1 > Br2 erfüllen.
  • In dem Fall, in dem die Helligkeit des Bereichs in der Umgebung des Fahrzeugs gleich Br1 ist, wie es in 10(a) dargestellt ist, unterscheidet der Kamerasensor 32 richtig zwischen dem Bildziel Oi und dem Hintergrund in dem Aufnahmebild, und der Abstand r2 zu dem Bildziel Oi wird richtig erfasst. Wie es in 10(b) dargestellt ist, wird daher der Bildsuchbereich Ri auf der Grundlage des Erfassungsergebnisses richtig eingestellt, das von dem Kamerasensor 32 bereitgestellt wird. In diesem Beispiel wird der Überdeckungsbereich OL zwischen dem nahen Bereich TRi des Bildsuchbereichs Ri und dem Radarsuchbereich Rr ausgebildet, und es wird bestimmt, dass der Kamerasensor 32 und der Radarsensor 31 dasselbe Ziel erfassen.
  • In dem Fall, in dem die Helligkeit des Bereichs in der Umgebung des Fahrzeugs gleich Br2 ist, wie es in 10(c) dargestellt ist, kann der Kamerasensor 32 nicht richtig zwischen dem Bildziel Oi und dem Hintergrund in dem Aufnahmebild unterscheiden, und der Endpunkt T1a des Erfassungsbereichs T1 wird in der Höhenrichtung auf höher als derjenige in 10(a) eingestellt. Wie es in 10(d) dargestellt ist, wird daher die zweite Position Pi in der Fahrzeuglängsrichtung y auf höher als diejenige in 10(b) eingestellt, und der nahe Bereich TRi des Bildsuchbereichs Ri mit Bezug auf die zweite Position Pi wird in der Fahrzeuglängsrichtung y auf höher als derjenige in 10(b) eingestellt. Daher wird kein Überdeckungsbereich OL zwischen dem Bildsuchbereich Ri und dem Radarsuchbereich Rr ausgebildet, und es wird bestimmt, dass der Kamerasensor 32 und der Radarsensor 31 nicht dasselbe Bildziel Oi erfassen.
  • In 10(e) kann der Kamerasensor 32 wie in 10(c) nicht richtig zwischen dem Bildziel Oi und dem Hintergrund in dem Aufnahmebild unterscheiden, und die zweite Position Pi wird wie in 10(b) in der Fahrzeuglängsrichtung Y auf höher eingestellt. In 10(f) wird jedoch der nahe Bereich TRi in der Fahrzeuglängsrichtung y im Vergleich zu demjenigen in 10(d) in Abhängigkeit von der Helligkeit des Bereichs in der Umgebung des Fahrzeugs abwärts ausgedehnt, und es wird der Überdeckungsbereich OL zwischen dem Bildsuchbereich Ri und dem Radarsuchbereich Rr ausgebildet. Als Ergebnis wird bestimmt, dass der Kamerasensor 32 und der Radarsensor 31 dasselbe Bildziel Oi erfassen.
  • Wie es oben beschrieben wurde, erfasst die ECU 20 in der ersten Ausführungsform die Helligkeit in der Erfassungsrichtung des Kamerasensors 32 und ändert den Bildsuchbereich Ri entsprechend dem Bestimmungsergebnis. Sogar wenn der Bildsuchbereich Ri aufgrund einer dunklen Umgebung in der Erfassungsrichtung nicht richtig eingestellt wird, erleichtert beispielsweise die Änderung des Bildsuchbereichs Ri die Ausbildung des Überdeckungsbereichs OL zwischen dem Bildsuchbereich Ri und dem Radarsuchbereich Rr. Als Ergebnis kann eine in Verbindung mit der Helligkeit stehende nicht richtige Bestimmung durch den Objektbestimmungsabschnitt 15 verhindert werden.
  • Der Bildbereichseinstellabschnitt 14 stellt die Größe der Änderung zum Ändern der Größe des Bildsuchbereichs Ri auf der Grundlage des Abstands von dem Kamerasensor 32 zu der zweiten Position Pi ein.
  • Die Erfassungsgenauigkeit des Kamerasensors 32 variiert in Abhängigkeit von dem Abstand zu dem Bildziel Oi, das zu erfassen ist. Daher wird in dem Fall einer Änderung des Bildsuchbereichs Ri die Größe der Änderung auf der Grundlage des Abstands von dem Kamerasensors 32 zu der zweiten Position Pi eingestellt, wodurch eine Erhöhung einer nicht richtigen Erkennung des Bildziels Oi in Verbindung mit der Ausdehnung des Bildsuchbereichs Ri verhindert werden kann.
  • Der Bildbereichseinstellabschnitt 14 stellt die Größe der Änderung zum Ändern der Größe des Bildsuchbereichs Ri auf der Grundlage der vertikalen Orientierung der optischen Achse der Schweinwerfer des Fahrzeugs CS ein. Der Abstandsbereich, innerhalb dem Ziele beleuchtet werden, variiert in Abhängigkeit von der Orientierung der optischen Achse der Scheinwerfer. Daher wird in der obigen Konfiguration die Größe der Änderung der Größe des Bildsuchbereichs Ri auf der Grundlage der vertikalen Orientierung der optischen Achse eingestellt, wodurch eine nicht richtige Erkennung des Bildziels Oi verhindert werden kann.
  • Nachdem der Objektbestimmungsabschnitt 15 die Ziele Ob als dasselbe Ziel Ob erkannt hat, hält der Bildbereichseinstellabschnitt 14 die Größe des Bildsuchbereichs Ri sogar dann aufrecht, wenn sich das Ergebnis der Bestimmung des Helligkeitsbestimmungsabschnitts 16 ändert. Die obige Konfiguration kann eine Situation vermeiden, bei der eine Änderung einer Umgebungshelligkeit nach der Erkennung des Ziels Ob bewirkt, dass die Objekte nicht als dasselbe Ziel Ob erkannt werden können.
  • Als Reaktion auf die Erkennung der Ziele, die unter Verwendung des geänderten Bildsuchbereichs Ri und des Radarsuchbereichs Rr erfasst werden, als dasselbe Ziel führt die ECU 20 eine Kollisionsvermeidungssteuerung zum Vermeiden einer Kollision mit dem Ziel durch. Hier dehnt die ECU 20 den Bildsuchbereich Ri auf der Grundlage der Helligkeit aus, was den Überdeckungsbereich OL zwischen dem Bildsuchbereich Ri und dem Radarsuchbereich Rr vergrößert, was zu einer leichteren Aktivierung des Betriebs der Kollisionsvermeidungssteuerung führt. Daher erleichtert die ECU 20 die Aktivierung des Betriebs der Kollisionsvermeidungssteuerung durch Ausdehnen des Bildsuchbereichs Ri auf der Grundlage der Helligkeit in der Richtung, in der das erkannte Ziel Ob erfasst wird.
  • Zweite Ausführungsform
  • Die ECU 20 kann die Größe der Änderung zum Ändern des Bildsuchbereichs Ri in Abhängigkeit von dem Typ des Bildziels Oi ändern. 11 ist ein Flussdiagramm zum Beschreiben einer Änderung der Größe des Bildsuchbereichsbereichs Ri gemäß der zweiten Ausführungsform. Das in 11 dargestellte Flussdiagramm ist eine Prozedur, die von der ECU 20 in Schritt S13 der 6 durchgeführt wird.
  • In der zweiten Ausführungsform unterscheidet der Kamerasensor 32 zwischen Automobilen, die vier oder mehr Räder aufweisen, Zweiradfahrzeugen und Fußgängern, wenn die Bildziele Oi erfasst werden. Wie es in 11 dargestellt ist, ändert die ECU 20 den Bildsuchbereich Ri in Abhängigkeit von dem Abstand r2 zu dem Bildziel Oi und dem Typ (Zweiradfahrzeug, Fußgänger oder Automobil) des Bildziels Oi.
  • In Schritt S31 wird der Typ des Bildziels Oi bestimmt. In der vorliegenden Ausführungsform wird der Typ des Bildziels Oi auf der Grundlage des Typs des Bildziels Oi bestimmt, der von dem Kamerasensor 32 ausgegeben wird. Schritt S31 dient als ein Typbestimmungsabschnitt.
  • Wenn der Typ des Bildziels Oi ein Fußgänger ist (Schritt S32: Ja), wird in Schritt S33 ein Änderungsprozess für einen Fußgänger durchgeführt. In dem Änderungsprozess in Schritt S33 wird die Größe der Änderung der Größe des Bildsuchbereichs Ri auf der Grundlage einer Beziehung zwischen der Helligkeit des Bereichs in der Umgebung des Fahrzeugs und dem Typ des Bildziels Oi eingestellt.
  • Die Beziehung zwischen dem Typ des Bildziels Oi und der Größe der Änderung des Bildsuchbereichs Ri wird mit Bezug auf 12 beschrieben. Wie es in 12(a) dargestellt ist, kann der Kamerasensor 32, der einen Fußgänger erfasst, dessen unteres Ende nicht erkennen. In diesem Fall wird, wie es in 12(b) dargestellt ist, nur die Größe des nahen Bereichs TRi des Bildsuchbereichs Ri ausgedehnt, so dass das nicht erkannte untere Ende des Bildziels Oi abgedeckt wird. Die Größe der Ausdehnung der Größe des nahen Bereichs TRi wird auf der Grundlage des Ergebnisses der Bestimmung der Helligkeit eingestellt, das von dem Helligkeitsbestimmungsabschnitt 16 bereitgestellt wird.
  • Wenn der Typ des Bildziels Oi kein Fußgänger ist (Schritt S32: Nein), sondern ein Zweiradfahrzeug (Schritt S34: Ja), wird in Schritt S35 ein Änderungsprozess für ein Zweiradfahrzeug durchgeführt. In dem Änderungsprozess in Schritt S35 wird die Größe der Änderung des Bildsuchbereichs Ri auf der Grundlage der Beziehung zwischen der Helligkeit des Bereichs in der Umgebung des Fahrzeugs und dem Typ des Bildziels Oi eingestellt.
  • Wie es in 12(c) dargestellt ist, kann der Kamerasensor 32, der ein Zweiradfahrzeug erfasst, nur einen Fahrer auf der oberen Seite erkennen und kann das Fahrzeug CS auf der unteren Seite nicht erkennen. In diesem Fall wird, wie es in 12(d) dargestellt ist, die Größe der Ausdehnung des nahen Bereichs TRi auf größer als diejenige in 12(b) eingestellt, so dass der nicht erkannte untere Teil des Bildziels Oi abgedeckt wird. Die Größe der Ausdehnung der Größe des nahen Bereichs TRi wird auf der Grundlage des Ergebnisses der Bestimmung der Helligkeit eingestellt, das von dem Helligkeitsbestimmungsabschnitt 16 bereitgestellt wird.
  • Wenn in Schritt S34 das Bildziel Oi kein Zweiradfahrzeug ist (Schritt S34: Nein), sondern ein Automobil (Schritt S36: Ja), wird in Schritt S37 ein Änderungsprozess für ein Automobil durchgeführt. In dem Änderungsprozess in Schritt S37 wird die Größe der Änderung des Bildsuchbereichs Ri auf der Grundlage der Beziehung zwischen der Helligkeit des Bereichs in der Umgebung des Fahrzeugs und dem Typ des Bildziels Oi eingestellt.
  • Wenn das Bildziel Oi kein Automobil ist (Schritt 36: Nein), wird der in 11 dargestellte Prozess beendet, ohne die Größe des Bildsuchbereichs Ri zu ändern.
  • Wie es oben beschrieben wurde, bestimmt die ECU 20 der zweiten Ausführungsform den Typ des Bildziels Oi und stellt die Größe der Änderung zum Ändern der Größe des Bildsuchbereichs Ri auf der Grundlage des bestimmten Typs ein. Da unterschiedliche Typen von Bildzielen Oi unterschiedliche Eigenschaften aufweisen, werden unterschiedliche Bereiche der Bildziele Oi von dem Kamerasensor 32 fehlerhaft erfasst. Der Unterschied zwischen den nicht erfassten Bereichen der Bildziele Oi bewirkt eine Differenz der zweiten Positionen Pi und bewirkt außerdem eine Differenz in der Einstellung des Bildsuchbereichs Ri. Daher wird die Größe der Änderung der Größe des Bildsuchbereichs Ri in Abhängigkeit von dem Typ des Bildziels Oi unter Verwendung der obigen Konfiguration eingestellt, wodurch der Bildsuchbereich Ri in Abhängigkeit von dem Typ des Bildziels Oi richtig eingestellt werden kann.
  • Wenn der Bereich in der Erfassungsrichtung des Kamerasensors 32 dunkel ist, schaltet ein Automobil, das vier oder mehr Räder aufweist, die Scheinwerfer und die Rückleuchten an, um den Bereich in der Umgebung des Bildziels Oi zu beleuchten, was die Erfassungsgenauigkeit des Kamerasensors 32 erhöht. Im Gegensatz dazu erhöht ein Betrieb eines Einschaltens von Licht eines Fußgängers oder eines Zweiradfahrzeugs oder Ähnliches die Helligkeit des Bildziels Oi nur in einem geringen Ausmaß im Vergleich zu einem Automobil, das vier oder mehr Räder aufweist, und trägt nicht zur Vermeidung einer Verringerung der Erfassungsgenauigkeit bei. Daher unterscheidet die ECU 20 zwischen Automobilen, die vier oder mehr Räder aufweisen, Zweiradfahrzeugen und Fußgängern, wenn Bildziele Oi erfasst werden, und ändert die Größe des Bildsuchbereichs Ri auf der Grundlage des Typs des Bildziels Oi.
  • Dritte Ausführungsform
  • Die ECU 20 kann bestimmen, ob das Ziel Ob, das durch den Kamerasensor 32 erfasst wird, ein Zielobjekt, für das ein Ändern des Bildsuchbereichs Ri vorgesehen ist, oder ein Nicht-Zielobjekt ist, und kann die Größe der Änderung zum Ändern des Bildsuchbereichs Ri auf der Grundlage des Bestimmungsergebnisses einstellen.
  • 13 ist ein Flussdiagramm zum Beschreiben einer Änderung des Bildsuchbereichs Ri gemäß der dritten Ausführungsform. Das Flussdiagramm, das in 13 dargestellt ist, ist eine Prozedur, die von der ECU 20 in Schritt S14 der 6 durchgeführt wird. In dem in 13 dargestellten Beispiel ändert die ECU 20 den Bildsuchbereich Ri, wenn das Bildziel Oi ein Fußgänger oder ein Zweiradfahrzeug ist, und ändert den Bildsuchbereich Ri nicht, wenn das Bildziel Oi ein anderes Objekt (Nicht-Zielobjekt) ist.
  • In Schritt S41 wird die Größe der Bewegung des Bildziels Oi berechnet, während der Kamerasensor 32 das Bildziel Oi erfasst. Es wird beispielsweise ein Bewegungsvektor anhand zeitlicher Änderungen der zweiten Position Pi berechnet, und der Bewegungsvektor wird als Größe der Bewegung verwendet. Der hier verwendete Bewegungsvektor gibt die Größe der Änderung und die Richtung jedes Pixels des Bildziels Oi je Zeiteinheit an. In einem Fall, in dem das Bildziel Oi unter Verwendung eines bekannten optischen Flussverfahrens erfasst wird, kann die Größe der Bewegung unter Verwendung dieses optischen Flussverfahrens berechnet werden.
  • 14 ist ein Diagramm zum Beschreiben einer Beziehung zwischen dem Bildziel Oi und der Größe der Bewegung. Wie es in 14(a) dargestellt ist, bewegt sich das Bildziel Oi im Verlaufe der Zeit in der Fahrzeugbreitenrichtung X, wenn das Bildziel Oi ein Fußgänger oder ein Zweiradfahrzeug ist. Wenn das Bildziel Oi ein Fußgänger oder ein Zweiradfahrzeug ist, ist daher die Größe der Bewegung innerhalb einer bestimmten Zeitdauer gleich oder größer als ein vorbestimmter Wert. Wenn im Gegensatz dazu ein stationäres Objekt RO erfasst wird, wie es in 13(b) dargestellt ist, bewegt sich das stationäre Objekt RO im Verlaufe der Zeit nicht in der Fahrzeugbreitenrichtung X. Wenn daher das Bildziel Oi ein stationäres Objekt ist, ist die Größe der Bewegung innerhalb einer bestimmten Zeitdauer kleiner als ein vorbestimmter Wert. Somit wird die Größe der Bewegung des Bildziels Oi in der Fahrzeugbreitenrichtung X mit einem Schwellenwert TA verglichen, so dass die Wahrscheinlichkeit, dass der Kamerasensor 32 ein stationäres Objekt als zu erfassendes Bildziel Oi erfasst, bestimmt werden kann.
  • Wenn sich das Bildziel Oi in der Querrichtung bzw. lateralen Richtung in Bezug auf das Fahrzeug CS bewegt (Schritt S42: Ja), wird in Schritt 45 der 13 bestimmt, wie häufig das Bildziel Oi erfasst wird. In der vorliegenden Ausführungsform bestimmt der Bildbereichseinstellabschnitt 14 unter Verwendung einer kontinuierlichen Erfassungshäufigkeit N, d.h., wie häufig das Bildziel Oi kontinuierlich innerhalb einer vorbestimmten Zeitdauer erfasst wird, wie oft das Bildziel Oi erfasst wird.
  • 15 ist ein Diagramm zum Erläutern einer Beziehung zwischen Erfassungsergebnissen, die von dem Kamerasensor 32 bereitgestellt werden, und Objekten. Die 15(a), 15(b) und 15(c) stellen zeitliche Änderungen eines Objekts in Aufnahmebildern dar. Wenn das Bildziel Oi ein Fußgänger ist, erfasst der Kamerasensor 32 das Bildziel Oi häufig. Daher ist die kontinuierliche Erfassungshäufigkeit N des Kamerasensors 32 innerhalb einer vorbestimmten Zeitdauer groß.
  • Die 15(d), 15(e) und 15(f) stellen zeitliche Änderungen eines Objektes in Aufnahmebildern dar. Es wird nun angenommen, dass eine Pylone oder Ähnliches von den Scheinwerfern beleuchtet wird und der Kamerasensor 32 einen Fußgänger oder Ähnliches aus dem Licht, das durch das Muster der Pylone reflektiert wird, nicht richtig erfasst. Da in diesem Fall die Form der reflektierten Wellen von der Pylone temporär ist, wird das Bildziel Oi weniger häufig erfasst. Daher ist die kontinuierliche Erfassungshäufigkeit N des Kamerasensors 32 innerhalb einer vorbestimmten Zeitdauer klein. Somit wird die kontinuierliche Erfassungshäufigkeit N, die angibt, wie häufig das Bildziel Oi kontinuierlich durch den Kamerasensor 32 innerhalb einer vorbestimmten Zeitdauer erfasst wird, mit einem Schwellenwert TN verglichen, wodurch eine Wahrscheinlichkeit bestimmt werden kann, mit der der Kamerasensor 32 ein Nicht-Zielobjekt erfasst. Man beachte, dass der Schwellenwert TN zur Bestimmung der kontinuierlichen Erfassungshäufigkeit N ein fester Wert oder eine Variable sein kann, die von dem Typ des Bildziels Oi abhängt.
  • Wenn die kontinuierliche Erfassungshäufigkeit N gleich oder größer als der Schwellenwert TN ist (Schritt S45: Ja), wird in Schritt S47 die Größe der Änderung des Bildsuchbereichs Ri innerhalb des größten Bereichs eingestellt, und es wird der Bildsuchbereich Ri geändert. In diesem Fall bewegt sich das Bildziel Oi in der Querrichtung (Fahrzeugbreitenrichtung X), und die kontinuierliche Erfassungshäufigkeit N ist groß. Daher wird bestimmt, dass die Wahrscheinlichkeit, dass der Kamerasensor 32 ein Nicht-Zielobjekt erfasst, am Niedrigsten ist. Somit ist der Bereich der Größenänderung des Bildsuchbereichs Ri, der in Schritt S47 eingestellt wird, der Größte unter sämtlichen Bereichen in den Schritten S44, S46 und S47. Man beachte, dass in den Schritten S44, S46 und S47 unterschiedliche Bereiche der Größe der Änderung (maximale und minimale Werte) in unterschiedlichen Schritten verwendet werden, während die Größe der Änderung der Größe des Bildsuchbereichs Ri in Abhängigkeit von der Helligkeit in der Erfassungsrichtung eingestellt wird.
  • Wenn in Schritt S45 die kontinuierliche Erfassungshäufigkeit N kleiner als der Schwellenwert TA ist (Schritt S45: Nein), wird in Schritt S46 die Größe der Änderung des Bildsuchbereichs Ri innerhalb eines mittleren Bereichs eingestellt, und es wird der Bildsuchbereich Ri geändert. In diesem Fall bewegt sich das Bildziel Oi in der Querrichtung, aber die kontinuierliche Erfassungshäufigkeit N ist klein. Daher wird bestimmt, dass die Wahrscheinlichkeit, dass der Kamerasensor 32 ein Nicht-Zielobjekt erfasst, niedrig ist, aber noch höher als diejenige in Schritt S47 ist. Somit ist der Bereich der Größe der Änderung des Bildsuchbereichs Ri, der durch den Bildbereichseinstellabschnitt 14 in Schritt S46 eingestellt wird, größer als derjenige in Schritt S44 und kleiner als derjenige in Schritt 47.
  • Wenn im Gegensatz dazu in Schritt S42 die Bewegungsrichtung des Bildziels Oi nicht die Querrichtung in Bezug auf das Fahrzeug CS ist (Schritt S42: Nein), wird in Schritt S43 die kontinuierliche Erfassungshäufigkeit N des Bildziels Oi bestimmt. Wenn die Häufigkeit, mit der das Bildziel Oi erfasst wird, gleich oder größer als der Schwellenwert TN ist (Schritt S43: Ja), wird in Schritt S44 die Größe der Änderung der Größe des Bildsuchbereichs Ri innerhalb eines kleinen Bereichs eingestellt, und es wird der Bildsuchbereich Ri geändert. In diesem Fall bewegt sich das Bildziel Oi nicht in der Querrichtung, aber die kontinuierliche Erfassungshäufigkeit N ist groß. Daher wird bestimmt, dass die Wahrscheinlichkeit, dass ein Nicht-Zielobjekt erfasst wird, höher als diejenige in den Schritten S46 und S47 ist. Somit ist der Bereich der Größe der Änderung des Bildsuchbereichs Ri, der durch den Bildbereichseinstellabschnitt 14 in Schritt S44 eingestellt wird, der Kleinste unter den Bereichen in den Schritten S44, S46 und S47.
  • Wenn die Häufigkeit, mit der das Bildziel Oi erfasst wird, kleiner als der Schwellenwert TN ist (Schritt S43: Nein), wird der Prozess beendet, ohne die Größe der Änderung des Bildsuchbereichs Ri zu ändern. In diesem Fall bewegt sich das Bildziel Oi nicht in der Querrichtung, und die kontinuierliche Erfassungshäufigkeit N ist klein. Daher wird bestimmt, dass die Wahrscheinlichkeit, dass der Kamerasensor 32 ein Nicht-Zielobjekt erfasst, die Höchste ist. Somit wird der Bildsuchbereich Ri nicht ausgedehnt.
  • Gemäß der obigen Beschreibung dienen die Schritte S41 bis S43 und S45 als Wahrscheinlichkeitsbestimmungsabschnitt.
  • Wie es oben beschrieben wurde, bestimmt die ECU 20 der dritten Ausführungsform die Wahrscheinlichkeit, dass das Ziel Ob, das in einem Aufnahmebild erkannt wird, das durch den Kamerasensor 32 erlangt wird, kein Zielobjekt ist, für das eine Änderung des Bildsuchbereichs Ri vorgesehen ist, sondern ein Nicht-Zielobjekt ist, für das eine Änderung des Bildsuchbereichs Ri nicht vorgesehen ist. Die ECU 20 stellt dann die Größe der Änderung zum Ändern der Größe des Bildsuchbereichs Ri auf der Grundlage des Ergebnisses der Wahrscheinlichkeitsbestimmung ein. Mit der obigen Konfiguration wird die Größe der Änderung der Größe des Bildsuchbereichs Ri auf der Grundlage der Wahrscheinlichkeit eingestellt, dass der Kamerasensor 32 ein Nicht-Zielobjekt erfasst, was verhindern kann, dass der Bildsuchbereich Ri ausgedehnt wird, während der Kamerasensor 32 das Bildziel Oi erfasst, für das keine Änderung des Bildsuchbereichs Ri vorgesehen ist. Dementsprechend kann eine Verringerung der Bestimmungsgenauigkeit verhindert werden.
  • Ein Zielobjekt ist ein Objekt, das sich bewegt, wohingegen ein Nicht-Zielobjekt ein stationäres Objekt, das sich nicht bewegt. Die ECU 20 bestimmt die Wahrscheinlichkeit auf der Grundlage der Größe der Bewegung der zweiten Position Pi während der Zeitdauer, während der ein Objekt von dem Kamerasensor 32 erfasst wird. Mit der obigen Konfiguration wird auf der Grundlage der Größe der Bewegung der zweiten Position Pi bestimmt, ob ein Objekt ein Zielobjekt, für das eine Änderung des Bildsuchbereichs Ri vorgesehen ist, oder ein Nicht-Zielobjekt ist. Dementsprechend kann eine Verringerung der Bestimmungsgenauigkeit aufgrund der Erfassung eines stationären Nicht-Zielobjekts in Verbindung mit der Ausdehnung des Bildsuchbereichs Ri verhindert werden.
  • Die ECU 20 bestimmt, ob das Bildziel Oi ein Zielobjekt, das eine Änderung des Bildziels Oi benötigt, oder ein Nicht-Zielobjekt ist, auf der Grundlage dessen, wie häufig der Kamerasensor 32 das Bildziel Oi erfasst. Mit der obigen Konfiguration kann eine in Verbindung mit der Ausdehnung des Bildsuchbereichs Ri stehende Verringerung der Bestimmungsgenauigkeit aufgrund einer nicht richtigen Erfassung von nicht greifbaren Dingen, die zeitweilig auftreten, beispielsweise Licht, verhindert werden.
  • Weitere Ausführungsformen
  • Der Betrieb des Helligkeitsbestimmungsabschnitts 16 zum Bestimmen der Helligkeit des Bereichs in der Umgebung des Fahrzeugs auf der Grundlage des Ausgangs von dem Beleuchtungssensor 33 ist nur ein Beispiel. Alternativ kann der Helligkeitsbestimmungsabschnitt 16 die derzeitige Zeit erlangen und die Helligkeit des Bereichs in der Umgebung des Fahrzeugs auf der Grundlage der derzeitigen Zeit erlangen. Alternativ kann der Helligkeitsbestimmungsabschnitt 16 die Helligkeit des Bereichs vor dem eigenen Fahrzeug auf der Grundlage eines Beleuchtungsstärkewerts eines Aufnahmebildes bestimmen, das durch den Kamerasensor 32 erzeugt wird, der den Bereich in der Umgebung des eigenen Fahrzeugs aufnimmt.
  • Der Bildbereichseinstellabschnitt 14 kann den Bildsuchbereich Ri nicht nur durch Ausdehnen des Bildsuchbereichs Ri, sondern auch durch Verringern des Bildsuchbereichs Ri ändern. In diesem Fall wird der Bildsuchbereich Ri verkleinert, wenn in den Schritten S22 und S25 der 7 die Helligkeit des Bereichs in der Umgebung des Fahrzeugs gleich oder größer als ein vorbestimmter Schwellenwert ist, und der Bildsuchbereich Ri wird ausgedehnt, wenn die Helligkeit des Bereichs in der Umgebung des Fahrzeugs kleiner als der Schwellenwert ist.
  • Der Betrieb zum Einstellen des Überwachungsbereichs GR in dem Bildsuchbereich Ri in Abhängigkeit von dem Abstand r2 in Schritt S28 der 7 ist nur ein Beispiel. Anstelle des Einstellens des Überwachungsbereichs GR kann die Größe der Änderung der Größe des Bildsuchbereichs Ri in Abhängigkeit von dem Abstand r2 eingestellt werden, und der Bildsuchbereich Ri kann in Abhängigkeit von der Größe der Änderung geändert werden.
  • Der Reflexionswellensensor ist nicht auf einen Radarsensor beschränkt, der Millimeterwellen verwendet, sondern kann ein Lasersensor, der Laserlicht als Sendewellen verwendet, oder ein Ultraschallsensor sein, der Ultraschall als Sendewellen verwendet.
  • Die Fahrunterstützungsvorrichtung 10 kann die ECU 20 und den Kamerasensor 32 als integrierte Vorrichtung enthalten, anstatt dass sie die ECU 20 und den Kamerasensor 32 einzeln enthält. In diesem Fall ist die obige ECU 20 innerhalb des Kamerasensors 32 angeordnet.
  • Die vorliegende Erfindung wurde mit Bezug auf die obigen Beispiele beschrieben, aber es ist selbstverständlich, dass die vorliegende Erfindung nicht auf die Beispiele und deren Strukturen beschränkt ist. Die vorliegende Erfindung deckt verschiedene Modifikationen und äquivalente Variationen ab. Zusätzlich zu den verschiedenen Kombinationen und Formen sind weitere Kombinationen und Formen einschließlich einem oder mehr/weniger Elementen ebenfalls innerhalb des Bereichs der vorliegenden Erfindung möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016086408 [0001]
    • JP 2014122873 A [0004]

Claims (10)

  1. Objekterfassungsvorrichtung (20), die ein Objekt, das in einer Umgebung eines Fahrzeugs vorhanden ist, unter Verwendung eines Reflexionswellensensors (31) und eines Kamerasensors (32) erfasst, wobei der Reflexionswellensensor ausgelegt ist, Sendewellen auszusenden und einen Abstand zu dem Objekt auf der Grundlage von reflektierten Wellen, die den Sendewellen entsprechen, zu erlangen, wobei der Kamerasensor ausgelegt ist, das Objekt aufzunehmen und ein Aufnahmebild zu erlangen, wobei die Objekterfassungsvorrichtung aufweist: einen Reflexionsbereichseinstellabschnitt (12), der mit Bezug auf eine erste Position, die eine Erfassungsposition des Objekts ist, das von den Reflexionswellensensor erfasst wird, einen Bereich, der die erste Position enthält, als einen Reflexionswellensuchbereich einstellt; einen Bildbereichseinstellabschnitt (14), der mit Bezug auf eine zweite Position, die eine Erfassungsposition des Objekts ist, das von dem Kamerasensor erfasst wird, einen Bereich, der die zweite Position enthält, als einen Bildsuchbereich einstellt; einen Objektbestimmungsabschnitt (15), der das Objekt, das von dem Reflexionswellensensor erfasst wird, und das Objekt, das von dem Kamerasensor erfasst wird, als dasselbe Objekt unter der Bedingung erkennt, dass es einen Überdeckungsbereich zwischen dem Reflexionswellensuchbereich und dem Bildsuchbereich gibt; und einen Helligkeitsbestimmungsabschnitt (16), der eine Helligkeit in einer Richtung bestimmt, in der das Objekt von dem Kamerasensor erfasst wird, wobei der Bildbereichseinstellabschnitt eine Größe des Bildsuchbereichs auf der Grundlage der bestimmten Helligkeit in der Richtung, in der das Objekt erfasst wird, ändert.
  2. Objekterfassungsvorrichtung nach Anspruch 1, wobei der Bildbereichseinstellabschnitt eine Größe einer Änderung zum Ändern der Größe des Bildsuchbereichs auf der Grundlage eines Abstands von dem Kamerasensor zu der zweiten Position einstellt.
  3. Objekterfassungsvorrichtung nach Anspruch 1 oder 2, wobei der Kamerasensor einen Bereich vor dem Fahrzeug aufnimmt, und der Bildbereichseinstellabschnitt eine Größe einer Änderung zum Ändern der Größe des Bildsuchbereichs auf der Grundlage einer vertikalen Orientierung einer optischen Achse eines Schweinwerfers des Fahrzeugs einstellt.
  4. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei wenn der Objektbestimmungsabschnitt das Objekt, das von dem Reflexionswellensensor erfasst wird, und das Objekt, das von dem Kamerasensor erfasst wird, bereits als dasselbe Objekt erkannt hat, der Bildbereichseinstellabschnitt die Größe des Bildsuchbereichs sogar dann beibehält, wenn sich ein Bestimmungsergebnis des Helligkeitsbestimmungsabschnitts ändert.
  5. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 4, die einen Typbestimmungsabschnitt aufweist, der einen Typ des Objekts bestimmt, wobei der Bildbereichseinstellabschnitt eine Größe einer Änderung zum Ändern der Größe des Bildsuchbereichs auf der Grundlage des Typs, der von dem Typbestimmungsabschnitt bestimmt wird, einstellt.
  6. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 4, die einen Wahrscheinlichkeitsbestimmungsabschnitt aufweist, der eine Wahrscheinlichkeit bestimmt, dass das Objekt, das in dem Aufnahmebild erkannt wird, das von dem Kamerasensor erlangt wird, kein Zielobjekt ist, für das eine Änderung des Bildsuchbereichs vorgesehen ist, sondern ein Nicht-Zielobjekt ist, für das eine Änderung des Bildsuchbereichs nicht vorgesehen ist, wobei der Bildbereichseinstellabschnitt die Größe einer Änderung zum Ändern der Größe des Bildsuchbereichs auf der Grundlage eines Bestimmungsergebnisses einstellt, das von dem Wahrscheinlichkeitsbestimmungsabschnitt bereitgestellt wird.
  7. Objekterfassungsvorrichtung nach Anspruch 6, wobei das Zielobjekt ein Objekt ist, das sich bewegt, und das Nicht-Zielobjekt ein stationäres Objekt ist, das sich nicht bewegt, und der Wahrscheinlichkeitsbestimmungsabschnitt die Wahrscheinlichkeit auf der Grundlage einer Größe einer Bewegung der zweiten Position während einer Zeitdauer bestimmt, während der der Kamerasensor das Objekt erfasst.
  8. Objekterfassungsvorrichtung nach Anspruch 6 oder 7, wobei der Wahrscheinlichkeitsbestimmungsabschnitt die Wahrscheinlichkeit auf der Grundlage dessen bestimmt, wie häufig der Kamerasensor das Objekt erfasst.
  9. Objekterfassungsvorrichtung (20), die ein Objekt, das in einer Umgebung eines Fahrzeugs vorhanden ist, unter Verwendung eines Reflexionswellensensors (31) und eines Kamerasensors (32) erfasst, wobei der Reflexionswellensensor ausgelegt ist, Sendewellen auszusenden und einen Abstand zu dem Objekt auf der Grundlage von reflektierten Wellen, die den Sendewellen entsprechen, zu erlangen, wobei der Kamerasensor ausgelegt ist, das Objekt aufzunehmen und ein Aufnahmebild zu erlangen, wobei die Objekterfassungsvorrichtung aufweist: einen Reflexionsbereichseinstellabschnitt (12), der mit Bezug auf eine erste Position, die eine Erfassungsposition des Objekts ist, das von dem Reflexionswellensensor erfasst wird, einen Bereich, der die erste Position enthält, als einen Reflexionswellensuchbereich einstellt; einen Bildbereichseinstellabschnitt (14), der mit Bezug auf eine zweite Position, die eine Erfassungsposition des Objekts ist, das von dem Kamerasensor erfasst wird, einen Bereich, der die zweite Position enthält, als einen Bildsuchbereich einstellt; einen Objektbestimmungsabschnitt (15), der das Objekt, das von dem Reflexionswellensensor erfasst wird, und das Objekt, das von dem Kamerasensor erfasst wird, als dasselbe Objekt unter der Bedingung erkennt, dass es einen Überdeckungsbereich zwischen dem Reflexionswellensuchbereich und dem Bildsuchbereich gibt; einen Helligkeitsbestimmungsabschnitt (16), der eine Helligkeit in einer Richtung bestimmt, in der das Objekt von dem Kamerasensor erfasst wird; und einen Kollisionsvermeidungssteuerungsabschnitt, der eine Kollisionsvermeidungssteuerung zum Vermeiden einer Kollision mit dem Objekt durchführt, wenn das Objekt, das von dem Reflexionswellensensor erfasst wird, und das Objekt, das von dem Kamerasensor erfasst wird, als dasselbe Objekt erkannt werden, wobei der Kollisionsvermeidungssteuerungsabschnitt eine Aktivierung eines Betriebs der Kollisionsvermeidungssteuerung auf der Grundlage der bestimmten Helligkeit in der Richtung, in der das Objekt erfasst wird, erleichtert.
  10. Objekterfassungsverfahren zum Erfassen eines Objekts, das in einer Umgebung eines Fahrzeugs vorhanden ist, unter Verwendung eines Reflexionswellensensors (31) und eines Kamerasensors (32), wobei der Reflexionswellensensor ausgelegt ist, Sendewellen auszusenden und einen Abstand zu dem Objekt auf der Grundlage von reflektierten Wellen, die den Sendewellen entsprechen, zu erlangen, wobei der Kamerasensor ausgelegt ist, das Objekt aufzunehmen und ein Aufnahmebild zu erlangen, wobei das Objekterfassungsverfahren aufweist: einen Reflexionsbereichseinstellschritt zum Einstellen eines Bereichs, der eine erste Position enthält, als einen Reflexionswellensuchbereich mit Bezug auf die erste Position, die eine Erfassungsposition des Objekts ist, das von dem Reflexionswellensensor erfasst wird; einen Bildbereichseinstellschritt zum Einstellen eines Bereichs, der eine zweite Position enthält, als einen Bildsuchbereich unter Bezugnahme auf die zweite Position, die eine Erfassungsposition des Objekts ist, das von dem Kamerasensor erfasst wird; einen Objektbestimmungsschritt zum Erkennen des Objekts, das von dem Reflexionswellensensor erfasst wird, und des Objekts, das von dem Kamerasensor erfasst wird, als dasselbe Objekt unter der Bedingung, dass es einen Überdeckungsbereich zwischen dem Reflexionswellensuchbereich und dem Bildsuchbereich gibt; und einen Helligkeitsbestimmungsschritt zum Bestimmen einer Helligkeit in einer Richtung, in der das Objekt von dem Kamerasensor erfasst wird, wobei der Bildbereichseinstellschritt eine Größe des Bildsuchbereichs auf der Grundlage der bestimmten Helligkeit in der Richtung, in der das Objekt erfasst wird, ändert.
DE112017002120.0T 2016-04-22 2017-04-19 Objekterfassungsvorrichtung und Objekterfassungsverfahren Pending DE112017002120T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-086408 2016-04-22
JP2016086408A JP6512164B2 (ja) 2016-04-22 2016-04-22 物体検出装置、物体検出方法
PCT/JP2017/015778 WO2017183667A1 (ja) 2016-04-22 2017-04-19 物体検出装置、物体検出方法

Publications (1)

Publication Number Publication Date
DE112017002120T5 true DE112017002120T5 (de) 2019-01-03

Family

ID=60116161

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002120.0T Pending DE112017002120T5 (de) 2016-04-22 2017-04-19 Objekterfassungsvorrichtung und Objekterfassungsverfahren

Country Status (5)

Country Link
US (1) US10535264B2 (de)
JP (1) JP6512164B2 (de)
CN (1) CN109073778B (de)
DE (1) DE112017002120T5 (de)
WO (1) WO2017183667A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4331935A1 (de) * 2022-09-01 2024-03-06 Hyundai Mobis Co., Ltd. Verfahren und vorrichtung zur rückwärtsfahrunterstützung eines fahrzeugs

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649865B2 (ja) * 2016-10-27 2020-02-19 株式会社Soken 物体検知装置
JP6759995B2 (ja) * 2016-11-11 2020-09-23 株式会社デンソー 画像処理装置
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
CN108694363A (zh) * 2017-04-12 2018-10-23 日立汽车系统株式会社 对车辆周围的行人进行检测的方法和装置
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
CN109901156A (zh) * 2019-01-25 2019-06-18 中国汽车技术研究中心有限公司 一种车辆毫米波雷达和摄像头的目标融合方法和装置
KR20200095691A (ko) * 2019-02-01 2020-08-11 삼성전자주식회사 밀리미터 웨이브를 이용한 객체 인식 방법 및 이를 지원하는 전자 장치
WO2021059139A1 (en) * 2019-09-27 2021-04-01 Ricoh Company, Ltd. Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
US11847833B2 (en) 2020-02-12 2023-12-19 Strattec Security Corporation Broad coverage non-contact obstacle detection
WO2021189385A1 (zh) * 2020-03-26 2021-09-30 华为技术有限公司 一种目标检测方法以及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014122873A (ja) 2012-11-22 2014-07-03 Denso Corp 物標検出装置
JP2016086408A (ja) 2014-10-24 2016-05-19 日清紡ブレーキ株式会社 音響機器用インシュレータ

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1190952C (zh) * 2002-04-10 2005-02-23 中华电信股份有限公司 可自动调整镜头光圈及检测物体移动的数字影像监控系统
JP3918791B2 (ja) * 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
EP1887382A1 (de) * 2005-05-19 2008-02-13 Olympus Corporation Distanzmessvorrichtung, distanzmessverfahren und distanzmessprogramm
JP5177510B2 (ja) * 2008-03-27 2013-04-03 アイシン精機株式会社 超音波センサ
JP5803061B2 (ja) * 2010-06-16 2015-11-04 日産自動車株式会社 衝突回避支援装置
JP5556508B2 (ja) 2010-08-30 2014-07-23 株式会社デンソー 物体検出装置
GB201015745D0 (en) * 2010-09-21 2010-10-27 Rolls Royce Goodrich Engine Co Position sensor system
JP5716343B2 (ja) * 2010-10-01 2015-05-13 トヨタ自動車株式会社 車両の物体認識システム
JP5953655B2 (ja) * 2011-05-02 2016-07-20 マツダ株式会社 車両用運転支援装置
WO2013121911A1 (ja) * 2012-02-16 2013-08-22 日産自動車株式会社 立体物検出装置及び立体物検出方法
US8705797B2 (en) * 2012-03-07 2014-04-22 GM Global Technology Operations LLC Enhanced data association of fusion using weighted Bayesian filtering
EP2669846B1 (de) * 2012-06-01 2017-11-01 Ricoh Company, Ltd. Zielerkennungssystem, und vom Zielerkennungssystem durchgeführtes Zielerkennungsverfahren, auf dem Zielerkennungssystem ausgeführtes Zielerkennungsprogramm und Aufzeichnungsmedium mit darauf gespeichertem Zielerkennungsprogramm
JP5997276B2 (ja) * 2012-07-27 2016-09-28 日産自動車株式会社 立体物検出装置及び異物検出装置
MX343203B (es) * 2012-07-27 2016-10-28 Nissan Motor Dispositivo de deteccion de objeto tridimensional y metodo de deteccion de objeto tridimensional.
EP2879109B1 (de) * 2012-07-27 2022-02-09 Clarion Co., Ltd. Fahrzeugmontierte umgebungserkennungsvorrichtung
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
JP6413097B2 (ja) * 2014-02-05 2018-10-31 パナソニックIpマネジメント株式会社 物体検知装置
JP6413620B2 (ja) * 2014-10-22 2018-10-31 株式会社Soken 物体検出装置
JP6528690B2 (ja) * 2015-02-10 2019-06-12 株式会社デンソー 退避制御装置、退避制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014122873A (ja) 2012-11-22 2014-07-03 Denso Corp 物標検出装置
JP2016086408A (ja) 2014-10-24 2016-05-19 日清紡ブレーキ株式会社 音響機器用インシュレータ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4331935A1 (de) * 2022-09-01 2024-03-06 Hyundai Mobis Co., Ltd. Verfahren und vorrichtung zur rückwärtsfahrunterstützung eines fahrzeugs

Also Published As

Publication number Publication date
US20190130752A1 (en) 2019-05-02
JP6512164B2 (ja) 2019-05-15
CN109073778B (zh) 2020-02-28
US10535264B2 (en) 2020-01-14
CN109073778A (zh) 2018-12-21
JP2017194432A (ja) 2017-10-26
WO2017183667A1 (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
DE112017002120T5 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
EP3329462B1 (de) Verfahren zum identifizieren eines objekts in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE112016002750B4 (de) Fahrzeugsteuerungsvorrichtung und fahrzeugsteuerungsverfahren
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112017005447T5 (de) Objekterfassungsvorrichtung
EP2710573B1 (de) Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes
EP3046076B1 (de) Verfahren zum Kalibrieren einer Bilderfassungseinrichtung
WO2017103096A1 (de) Verfahren zum identifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
WO2013083384A1 (de) Verfahren und fahrzeugassistenzsystem zur aktiven warnung und/oder zur navigationshilfe zur vermeidung einer kollision eines fahrzeugkarosserieteils und/oder eines fahrzeugrades mit einem objekt
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102004046101A1 (de) Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE102005056665A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP2163429B1 (de) Verfahren zur bildgestützten Überwachung einer Fahrzeugumgebung, insbesondere einer Umgebung eines Nutzfahrzeuges
DE102013022050A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
DE102005056666B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112017005670T5 (de) Parklücken-Erkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication