DE112010002047B4 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE112010002047B4
DE112010002047B4 DE112010002047.7T DE112010002047T DE112010002047B4 DE 112010002047 B4 DE112010002047 B4 DE 112010002047B4 DE 112010002047 T DE112010002047 T DE 112010002047T DE 112010002047 B4 DE112010002047 B4 DE 112010002047B4
Authority
DE
Germany
Prior art keywords
image
detection
horizontal width
detection point
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112010002047.7T
Other languages
English (en)
Other versions
DE112010002047T5 (de
Inventor
Tatsuya Shiraishi
Takeshi Nanami
Naohide Uchida
Hiroki Goto
Masakazu Nishijima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE112010002047T5 publication Critical patent/DE112010002047T5/de
Application granted granted Critical
Publication of DE112010002047B4 publication Critical patent/DE112010002047B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Objekterfassungsvorrichtung (10), mit: einer Bilderfassungseinrichtung (3) zum Erfassen eines Objekts aus Bilddaten für ein vorbestimmtes Gebiet, das aufgenommen wurde; einer Berechnungseinrichtung (4) zum Berechnen einer horizontalen Breite des Objekts, das durch die Bilderfassungseinrichtung erfasst wurde; einer Abschätzeinrichtung (42) zum Abschätzen einer Länge in einer Bildtieferichtung des Objekts, das durch die Bilderfassungseinrichtung erfasst wurde; und einer Korrektureinrichtung (43) zum Korrigieren des Berechnungsergebnisses der durch die Berechnungseinrichtung berechneten horizontalen Breite des Objekts basierend auf der durch die Abschätzeinrichtung abgeschätzten Länge in der Bildtieferichtung; gekennzeichnet durch eine Neigungseinholeinrichtung (41) zum Einholen einer Neigung einer Objektregion, die durch das Objekt in den durch die Bilderfassungseinrichtung erfassten Bilddaten des Objekts eingenommen wird; und eine Bestimmungseinrichtung (43) zum Bestimmen, ob die Neigung der Objektregion größer als ein voreingestellter Schwellenwert ist; wobei die Neigung der Objektregion ein Winkel zwischen einer Längsrichtung der Objektregion in den Bilddaten und der horizontalen Richtung der Bilddaten ist; und die Korrektureinrichtung daran gehindert wird, die horizontale Breite zu korrigieren, wenn bestimmt wird, dass die Neigung der Objektregion kleiner oder gleich dem voreingestellten Schwellenwert ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die Erfindung betrifft eine Objekterfassungsvorrichtung, die ein Objekt basierend auf einem durch eine Abbildungsvorrichtung aufgenommenes Bild erfasst.
  • 2. Beschreibung des Standes der Technik
  • Im Stand der Technik werden Objekterfassungsvorrichtungen, welche die Position und dergleichen eines anderen Fahrzeugs, wie etwa ein vorausfahrendes Fahrzeug oder ein entgegenkommendes Fahrzeug, erfassen, in Kollisionsvermeidungssystemen und dergleichen in Fahrzeugen verwendet, um eine Kollision mit einem anderen Fahrzeug zu vermeiden. Ein Beispiel einer solchen Objekterfassungsvorrichtung ist eine Vorrichtung, die ein Objekt durch einen Sensor-Fusions- bzw. Verbindungs-Erkennungsprozess erfasst, der ein durch eine Kamera aufgenommenes Bild mit Erfassungsergebnissen einer Erfassung durch Radar kombiniert.
  • Bei einer Erfassung durch Radar ist es prinzipiell nicht möglich, die Breite eines Erfassungszielobjekts (d. h. ein zu erfassendes Objekt) zu berechnen, sondern es ist möglich, Informationen über die Distanz zu diesem Objekt zu erhalten. Andererseits ist es bei einer Erfassung durch eine Monokular-Kamera nicht möglich, die Distanz zu einem Erfassungszielobjekt zu erhalten, aber es ist möglich, die Breite und dergleichen des Objekts zu erfassen. Eine Sensorfusion bzw. Sensorverbindung ist ein Verfahren zum Erfassen eines Hindernisses durch Kombinieren dieser Arten von Funktionen einer Vielzahl von Sensoren. In der Vergangenheit wurden verschiedene Studien bezüglich einer Objekterfassung durch Sensorfusion durchgeführt.
  • Beispielsweise beschreibt die japanische Patentanmeldungsoffenlegungsschrift Nr. 2005-329779 ( JP-A-2005-329779 ) eine Hinderniserkennungsvorrichtung, die ein Hindernis vor dem eigenen Fahrzeug erkennt, ohne durch einen Versatz der Koordinaten eines Kamerabildes von den Koordinaten eines Radarsensors beeinflusst zu sein, durch eine Sensor-Fusions-Erkennungsbearbeitung, bei der kein Unterschied zwischen der Genauigkeit während des Tags und der Genauigkeit während der Nacht und dergleichen vorliegt.
  • Im Übrigen ist es bei einer Hinderniserfassung durch diese Art einer Sensorfusion nicht möglich, die Distanz zu einem Erfassungszielobjekt mit einer Monokularkamera zu erhalten, denn in Abhängigkeit auf den Blickwinkel von der Monokularkamera, es dazu führen kann, dass die horizontale Breite eines Objekts (d. h. die Breite in der Richtung der Dicke eines Objekts), das eine lange Tiefenrichtung aufweist (d. h. die sich in der Distanz erstreckt), und voraus liegt, wie etwa eine Leitplanke oder eine Wand vor dem eigenen Fahrzeug, fälschlicherweise dicker abgeschätzt wird, als dieses wirklich ist. Als eine Folge kann während der Fahrt des Fahrzeugs die Genauigkeit der Bestimmung, ob das Objekt ein Hindernis ist, welches eine operative Reaktion (d. h. Ausweichaktion) benötigt, durch das eigene Fahrzeug abnehmen kann.
  • Weiterer Stand der Technik bezüglich des technischen Gebietes ist in der Druckschrift EP 1 947 475 A1 gezeigt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Diese Erfindung stellt daher eine Objekterfassung nach Patentanspruch 1 bereit, die dazu fähig ist, die Genauigkeit einer Bestimmung zu verbessern, ob ein Objekt in der Front des eigenen Fahrzeugs eine operative Reaktion (d. h. Ausweichaktion) durch das eigene Fahrzeug benötigt, durch genaues Abschätzen der horizontalen Breite des Objekts.
  • Weitere Merkmale und vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprüchen gezeigt.
  • Gemäß diesem Aufbau gilt, dass nachdem die Vor-Korrektur-Horizontalbreite des Objekts aus den aufgenommenen Bilddaten berechnet wurde, diese anschließend basierend auf der abgeschätzten Länge in der Bildtieferichtung korrigiert werden. Daher kann die horizontale Breite eines Objekts der Umgebung eines mit der Objekterfassungsvorrichtung ausgestatteten Fahrzeugs (d. h. das eigene Fahrzeug) genauer abgeschätzt werden. Als eine Folge ist es möglich, die Genauigkeit einer Bestimmung zu verbessern, die bestimmt, ob ein Objekt ein Hindernis ist, das eine operative Antwort (d. h. Ausweichaktion) durch das eigene Fahrzeug benötigt.
  • Die vorstehend beschriebene Objekterfassungsvorrichtung kann ebenso eine Radarerfassungseinrichtung zum Abstrahlen von elektromagnetischen Wellen innerhalb des vorbestimmten Gebiets und Erhalten eines Erfassungspunkts eines Objekts in der Richtung, in der die elektromagnetischen Wellen abgestrahlt wurden, umfassen. Die Bilderfassungseinrichtung kann das Objekt aus den Bilddaten basierend auf dem durch die Radarerfassungseinrichtung erhaltenen Erfassungspunkt erfassen. Gemäß diesem Aufbau wird der Erfassungspunkt durch Verwenden der elektromagnetischen Wellen von der Radarerfassung erhalten, und ein Objekt wird aus den Bilddaten basierend auf dem erhaltenen Erfassungspunkt erfasst. Als ein Ergebnis kann ein Objekt genauer erfasst werden.
  • Ebenso kann in der Objekterfassungsvorrichtung mit diesem Aufbau eine Vielzahl der Erfassungspunkte durch die Radarerfassungseinrichtung erhalten werden. Ebenso kann die Abschätzeinrichtung die Länge in der Bildtieferichtung des Objekts basierend auf einer Differenz zwischen einer ersten Distanz zu einem ersten Erfassungspunkt und einer zweiten Distanz zu einem zweiten Erfassungspunkt, die durch die Radarerfassungseinrichtungen erhalten werden, abschätzen, und der erste Erfassungspunkt und der zweite Erfassungspunkt können innerhalb des Bereichs der horizontalen Breite des Objekts liegen. Gemäß diesem Aufbau kann die Länge in der Bildtieferichtung genau erfasst werden.
  • Ebenso kann die Objektserfassungseinrichtung mit diesen Aufbau ebenso eine Bestimmungseinrichtung zum Bestimmen, ob das durch die Bilderfassungseinrichtung erfasste Objekt ein Fahrzeug ist, umfassen. Die Korrigiereinrichtung kann unterdrückt werden, die horizontale Breite zu korrigieren, wenn durch die Bestimmungseinrichtung bestimmt wird, dass das Objekt ein Fahrzeug ist. Gemäß diesem Aufbau gilt, dass wenn bestimmt wird, dass das erfasste Objekt ein Fahrzeug ist, die horizontale Breite nicht korrigiert wird, so dass die horizontale Breite bezüglich eines Objekts mit im Wesentlichen keiner Tiefe, wie etwa der hintere Oberflächenabschnitt eines Fahrzeugkörpers eines Fahrzeugs, bei dem die horizontale Breite nicht korrigiert werden muss, genauer erfasst werden kann. Ebenso kann in der Objekterfassungsvorrichtung mit diesem Aufbau die Erfassungseinrichtung bestimmen, ob die Differenz größer oder gleich einer festgelegten Differenz ist, und die Korrigiereinrichtung kann unterdrückt werden, die horizontale Breite zu korrigieren, wenn durch die Bestimmungseinrichtung bestimmt wird, dass das Objekt ein Fahrzeug ist, und nicht bestimmt wurde, dass die Distanz größer oder gleich einer festgelegten Differenz ist.
  • In der Objekterfassungsvorrichtung mit dem vorstehend beschriebenen Aufbau kann das vorbestimmte Gebiet basierend auf dem durch die Radarerfassungseinrichtung erhaltenen Erfassungspunkt eingestellt sein.
  • In der Objekterfassungsvorrichtung mit dem vorstehend beschriebenen Aufbau kann die Bildtieferichtung eine Richtung von der Bilderfassungseinrichtung zu dem Objekt sein, und die horizontale Richtung kann eine Richtung orthogonal zu der Richtung von der Bilderfassungseinrichtung zu dem Objekt sein.
  • Weiterhin kann die Objekterfassungsvorrichtung mit dem vorstehend beschriebenen Aufbau ebenso eine Neigungseinholeinrichtung zum Einholen bzw. Erfassen der Neigung eines Objektbereichs, der durch das Objekt in den durch die Bilderfassungseinrichtung erfassten Bilddaten des Objekts eingenommen wird, umfassen, und die Abschätzeinrichtung kann die Länge in der Bildtieferichtung des Objekts basierend auf der Neigung der durch die Einholeinrichtung eingeholten bzw. erfassten Objektregion abschätzen. Gemäß diesem Aufbau gilt, dass wenn die Neigung der Objektregion in den Bilddaten größer ist, als wenn das Objekt ein Fahrzeug ist, wie dies bei einem Objekt der Fall ist, dass eine lange Tieferichtung aufweist (d. h. das sich in der Distanz erstreckt), und sich voraus befindet, wie etwa eine Leitplanke oder eine Wand vor dem eigenen Fahrzeug, wird die Länge in der Bildtieferichtung entsprechend abgeschätzt. Als eine Folge kann die Länge in der Bildtieferichtung genau erfasst werden.
  • In der Objekterfassungsvorrichtung mit diesem Aufbau kann die Neigung der Objektregion der Winkel zwischen der Längsrichtung der Objektregion und der Horizontalrichtung der Bilddaten sein. Ebenso kann die Bestimmungseinrichtung bestimmen, ob die Neigung der Objektregion größer als ein vorbestimmter Wert ist, und die Korrigiereinrichtung kann unterbunden bzw. unterdrückt werden, die horizontale Breite zu korrigieren, wenn bestimmt wird, dass die Neigung der Objektregion kleiner oder gleich dem vorbestimmten Wert ist.
  • In der Objekterfassungsvorrichtung mit dem vorstehend beschriebenen Aufbau kann das Objekt innerhalb des vorbestimmten Gebiets liegen.
  • Demzufolge ermöglicht diese Erfindung, die Bestimmungsgenauigkeit bei einem Bestimmen zu verbessern, ob ein Objekt vor dem eigenen Fahrzeug eine operative Antwort (d. h. Ausweichaktion) durch das eigene Fahrzeug erfordert, durch genaues Abschätzen der horizontalen Breite des Objekts.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorstehenden und weitere Aufgaben, Merkmale und Vorteile der Erfindung werden anhand der nachfolgenden Beschreibung von beispielhaften Ausführungsbeispielen mit Bezugnahme auf die anhängenden Zeichnungen ersichtlich, wobei gleiche Bezugszeichen verwendet werden, um gleiche Elemente zu bezeichnen, und in denen gilt:
  • 1 ist ein Blockdiagramm, das eine Objekterfassungsvorrichtung gemäß einem ersten beispielhaften Ausführungsbeispiel der Erfindung zeigt;
  • 2 ist eine Ansicht, die eine Vor-Korrektur-Horizontalbreite als die horizontale Breite veranschaulicht, die temporär durch Verwenden einer Monokular-Kamera und einer Kamera-ECU berechnet wird;
  • 3 ist eine Ansicht, die ein Verfahren zum Berechnen der horizontalen Breite und der Länge in der Bildtieferichtung veranschaulicht;
  • 4 ist eine Ansicht eines Beispiels von Bilddaten, die durch Verwenden der Monokular-Kamera und der Kamera-ECU erhalten werden, wenn ein vorausfahrendes Fahrzeug und ein Fahrzeug vor dem vorausfahrenden Fahrzeug vorhanden sind;
  • 5 ist eine Ansicht eines Verfahrens zum Berechnen der horizontalen Breite, wenn ein vorausfahrendes Fahrzeug und ein Fahrzeug vor dem vorausfahrenden Fahrzeug vorhanden ist;
  • 6 ist ein Flussdiagramm, das eine in der Objekterfassungsvorrichtung ausgeführte Routine veranschaulicht;
  • 7A bis 7D sind Ansichten, die ein Verfahren zum Einholen bzw. Erfassen der Neigung einer Objektregion in Bilddaten einer Leitplanke in einer Objekterfassungsvorrichtung gemäß einem zweiten beispielhaften Ausführungsbeispiel der Erfindung veranschaulichen;
  • 8A bis 8D sind Ansichten, die ein Verfahren zum Einholen bzw. Erfassen der Neigung einer Objektregion in Bilddaten eines vorausfahrenden Fahrzeugs veranschaulichen; und
  • 9 ist ein Flussdiagramm, das eine in der Objekterfassungsvorrichtung ausgeführte Routine veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Nachstehend werden beispielhafte Ausführungsbeispiele der vorliegenden Erfindung detailliert mit Bezugnahme auf die anhängenden Zeichnungen beschrieben.
  • Zunächst wird der Aufbau einer Objekterfassungsvorrichtung gemäß einem ersten beispielhaften Ausführungsbeispiel der Erfindung mit Bezugnahme auf 1 beschrieben, die ein Blockdiagramm der Objekterfassungsvorrichtung 10 gemäß dem ersten beispielhaften Ausführungsbeispiel der Erfindung darstellt. Die Objekterfassungsvorrichtung 10 gemäß diesem beispielhaften Ausführungsbeispiel ist eine Fahrzeugumgebungsüberwachungsvorrichtung, die in einem Fahrzeug (nachstehend als das ”eigene Fahrzeug” bezeichnet), wie etwa ein Automobil, angebracht ist, und die Bestimmungsgenauigkeit einer Bestimmung, ob ein Objekt vor dem eigenen Fahrzeug ein Hindernis ist, das eine operative Antwort (d. h. Ausweichaktion) durch das eigene Fahrzeug benötigt, durch genaueres Abschätzen der horizontalen Breite (d. h. die Breite in der Dickerichtung) des Objekts verbessert. Beispiele eines vorbestimmten Erfassungszielobjekts, das als ein Objekt vor dem eigenen Fahrzeug zu erfassen ist, umfasst Objekte, die sich lange in der Tieferichtung erstrecken, und sich in die Distanz hinweg erstrecken, wie etwa eine Leitplanke oder eine Wand vor dem Fahrzeug, und Hindernisse, wie etwa herab gefallene Objekte oder andere Fahrzeuge, wie etwa ein vorausfahrendes Fahrzeug oder ein Fahrzeug vor einem vorausfahrenden Fahrzeug.
  • Wie in 1 gezeigt ist, umfasst die Objekterfassungsvorrichtung 10 eine Monokular-Kamera 1 (die ein Beispiel einer Bilderfassungseinrichtung ist), ein Millimeterwellenradar 2 (was ein Beispiel einer Radarerfassungseinrichtung ist), eine Kamera-ECU 3 (die ein Beispiel einer Bilderfassungseinrichtung ist), und eine DSS-(Fahrerunterstützungssystem)-ECU 4 (die ein Beispiel einer Berechnungseinrichtung ist). Indessen sind die Kamera-ECU 3 und die DSS-ECU 4 jeweils mit einem elektronischen Steuereinheit-Computer ausgebildet, der eine CPU, ein ROM und einen RAM und dergleichen als Hauptkomponenten umfasst.
  • Die Monokular-Kamera 1 ist ein Bildaufnahmeabschnitt, der an einem Frontabschnitt des eigenen Fahrzeugs angebracht ist, und ein Bild eines Gebiets vor dem eigenen Fahrzeug aufnimmt. Die Monokular-Kamera 1 erfasst ein vorbestimmtes Gebiet vor dem Fahrzeug zu vorbestimmten Zeitintervallen, erzeugt Bilddaten für dieses Gebiet, und gibt anschließend nacheinander diese erzeugten Bilddaten an die Kamera-ECU 3 aus.
  • Das Millimeterwellenradar 2 ist ein Radarerfassungsabschnitt, der nahe der Monokular-Kamera 1 an einem Frontabschnitt des eigenen Fahrzeugs angebracht ist, und ein Objekt vor dem eigenen Fahrzeug erfasst. Das Millimeterwellenradar 2 tastet horizontal und vertikal Radiowellen in dem Millimeterwellenband in dem gleichen Gebiet wie das vorbestimmte Gebiet vor dem eigenen Fahrzeug ab, das durch die Monokular-Kamera 1 aufgenommen wird, und erhält Erfassungspunktdaten, die Distanzdaten zu einem Objekt in diesem Gebiet umfasst, durch Erfassen der reflektierten Wellen.
  • Das heißt, dass das Millimeterwellenradar 2 Funkwellen in dem Millimeterwellenband in einer Vielzahl von unterschiedlichen Richtungen innerhalb eines vorbestimmten Gebiets ausstrahlt, und Erfassungspunktdaten erhält, die Distanzdaten zu Objekten in den Richtungen enthält, in denen die Funkwellen abgestrahlt wurden. Das Millimeterwellenradar 2 erhält die Erfassungspunktdaten zu vorbestimmten Zeitintervallen, und gibt die erhaltenen Erfassungspunktdaten nacheinander an die Kamera-ECU 3 und die DSS-ECU 4 aus.
  • Die Kamera-ECU 3 ist ein Bildverarbeitungsabschnitt, der, wenn ein Objekt vor dem eigenen Fahrzeug durch das Millimeterwellenradar 2 erfasst wird, eine Bildverarbeitungsregion einstellt, die ein vorbestimmtes Erfassungszielobjekt aus den Bilddaten umfasst, basierend auf den Erfassungspunktdaten bezüglich des erfassten Objekts, und sucht und erfasst (d. h. tastet ab) das Objekt durch Durchführen einer Bildverarbeitung für diese Bildverarbeitungsregion. Die Kamera-ECU 3 ist mit der Monokular-Kamera 1 verbunden, und erhält die Bilddatenausgabe von der Monokular-Kamera 1. Die Kamera-ECU 3 stellt anschießend die Bildverarbeitungsregion von den Bilddaten basierend auf den Erfassungspunktdaten bezüglich des durch das Millimeterwellenradar 2 erfassten Objekts ein, und erfasst einen Bildabschnitt des Erfassungszielobjekts, der sich vor dem eigenen Fahrzeug befindet, durch eine Bildverarbeitung (wie etwa eine Kantenanalyseverarbeitung, Luminanzanalyseverarbeitung oder optische Durchsatzverarbeitung) für diese Bildverarbeitungsregion durch, und extrahiert die Eigenschaften bzw. Charakteristiken sowie den charakteristischen Betrag. Die Kamera-ECU 3 kann eine beliebige von verschiedenen bekannten Bildverarbeitungsverfahren anwenden, um die Bildabschnitte des vorbestimmten Erfassungszielobjekts zu erfassen. Sobald der Bildabschnitt des Erfassungszielobjekts erfasst ist, gibt die Kamera-ECU 3 die Bilddaten an die DSS-ECU 4 aus, die den erfassten Bildabschnitt erfassen.
  • In diesem beispielhaften Ausführungsbeispiel ist die Kamera-ECU 3 mit dem Millimeterwellenradar 2 verbunden, und erhält eine Vielzahl von Erfassungspunktdaten, die von dem Millimeterwellenradar 2 ausgegeben werden. Die Kamera-ECU 3 extrahiert die Erfassungspunktdaten entsprechend des Erfassungszielobjekts aus dieser Vielzahl von Erfassungspunktdaten, die von dem Millimeterwellenradar 2 erhalten werden, stellt die Bildverarbeitungsregion ein, und erfasst das Erfassungszielobjekt aus dem Bild durch Referenzieren der extrahierten Erfassungspunktdaten. Auf diese Weise werden die Objekterfassungsergebnisse von dem Millimeterwellenradar 2 und die Objekterfassungsergebnisse aus dem Bild kombiniert. Sobald das Erfassungszielobjekt erfasst wird, gibt die Kamera-ECU 3 die Erfassungspunktdaten, die das erfasste Erfassungszielobjekt identifizieren, an die DSS-ECU 4 aus.
  • Die DSS-ECU 4 ist ein Sensor-Fusions- bzw. Zusammenschluss-Verarbeitungsabschnitt, der eine finale Abtastung durch Berechnen von Informationen, wie etwa die Position des Erfassungszielobjekts und die Breite in der horizontalen Richtung, sowie die Richtung orthogonal zu der Richtung von der Monokular-Kamera zu dem erfassten Objekts (vereinfacht als die ”horizontale Richtung” in dieser Beschreibung bezeichnet) durch Verwenden der Fusionsdaten, d. h. der Daten, die aus der Fusion bzw. dem Zusammenschluss der Erfassungspunktdaten und den Bilddaten entstehen, durchführt. Die DSS-ECU 4 ist mit dem Millimeterwellenradar 2 und der Kamera-ECU 3 verbunden, und erhält die Erfassungspunktdatenausgabe aus dem Millimeterwellenradar 2, und erhält Bilddaten, die die erfasste Bildabschnittsausgabe von der Kamera-ECU 3 enthalten.
  • Hier berechnet die DSS-ECU 4 Informationen des charakteristischen Betrags, wie etwa die horizontale Breite und die Position des vorbestimmten Erfassungszielobjekts, das sich vor dem eigenen Fahrzeug befindet, durch Verarbeiten der Erfassungspunktdaten und der Bilddaten, und korrigiert diese Informationen wenn notwendig. Anschließend, basierend auf dem Berechnungsergebnis, bestimmt die DSS-ECU 4 die Wahrscheinlichkeit einer Kollision zwischen dem eigenen Fahrzeug und den Erfassungszielobjekt, und gibt das Erfassungsergebnis an einen nicht gezeigten Bremsabschnitt aus, der eine Bremssteuerung zum Steuern einer nicht gezeigten Bremse durchführt, um eine Bremskraft bei dem eigenen Fahrzeug anzuwenden.
  • Ebenso umfasst die DSS-ECU 4 einen Fusionsverarbeitungsabschnitt 41 (d. h. eine Berechnungseinrichtung, eine Neigungseinholeinrichtung), einen Berechnungsabschnitt eines numerischen Werts 42 (d. h. Abschätzeinrichtung), und einen Kollisionsbestimmungsabschnitt 43 (d. h. Korrigiereinrichtung, Bestimmungseinrichtung).
  • Der Fusionsverarbeitungsabschnitt 41 ist ein Abschnitt, der einen Berechnungsprozess des Berechnens und Speicherns der Position und der horizontalen Breite (d. h. die Breite in der Dickerichtung) des Erfassungszielobjekts, das durch die Monokular-Kamera 1 und die Kamera-ECU 3 erfasst wird, durchführt. Das bestimmte Verfahren zum Berechnen der horizontalen Breite wird später beschrieben.
  • Ebenso ist der Fusionsverarbeitungsabschnitt 41 dazu fähig, die Neigung der Objektregion in den Bilddaten für das durch die Monokular-Kamera 1 und die Kamera-ECU 3 erfassten Erfassungszielobjekts einzuholen bzw. zu erfassen und zu speichern. Die Neigung der Objektregion in den Bilddaten kann ebenso durch Durchführen einer Luminanzanalyseverarbeitung zum Erhalten von Luminanzinformationen, oder durch Durchführen einer optischen Durchsatzverarbeitung extrahiert werden. Das spezifische Verfahren zum Berechnen der Neigung der Objektregion der Bilddaten wird später beschrieben.
  • Der Berechnungsabschnitt eines numerischen Werts 42 ist ein Abschnitt, der einen Berechnungsprozess durchführt, der einen physikalischen Wert, wie etwa die Länge in der Bildtieferichtung des durch die Monokular-Kamera 1 und die Kamera-ECU 3 erfassten Objekts berechnet und abschätzt. Hier bezieht sich die Länge in der Bildtieferichtung auf die Länge, die angibt, wie weit sich der Umriss des Erfassungszielobjekts mit dieser horizontalen Breite in der Längsrichtung des eigenen Fahrzeugs erstreckt. Das spezifische Verfahren zum Berechnen der Länge in der Bildtieferichtung wird später beschrieben.
  • Ebenso ist der Berechnungsabschnitt eines numerischen Werts 43 dazu fähig, eine Berechnungsverarbeitung durchzuführen, die eine Länge D in der Bildtieferichtung, die später beschrieben wird, basierend auf der Differenz zwischen einer ersten Distanz zu einem Erfassungspunkt P1, der später beschrieben wird, der durch die ersten Erfassungspunktdaten eines Objekts in den durch den Millimeterwellenradar 2 erhaltenen Bilddaten angegeben ist, und einer zweiten Distanz zu einem Erfassungspunkt P3, der später beschrieben wird, der durch die zweiten Erfassungspunktdaten des Objekts angegeben ist, abschätzt und speichert. Indessen sind der Erfassungspunkt P1 und der Erfassungspunkt P3 Erfassungspunkte, die in dem Bereich der horizontalen Breite enthalten sind, die durch den Fusionsverarbeitungsabschnitt 41 berechnet wurde.
  • Darüber hinaus ist der Berechnungsabschnitt eines numerischen Werts 42 dazu fähig, die Länge in der Bildtieferichtung basierend auf der Neigung der Objektregion in den durch die Fusionsverarbeitungsabschnitt 41 erhaltenen Bilddaten abzuschätzen und zu speichern.
  • Der Kollisionsbestimmungsabschnitt 43 ist ein Abschnitt, der einen Berechnungsprozess durchführt, welcher die durch den Fusionsverarbeitungsabschnitt 41 durch Verwenden der Erfassungspunktdaten und der Bilddaten berechnet wurde, basierend auf der Länge der durch den Berechnungsabschnitt eines numerischen Werts 42 abgeschätzten Bildtieferichtung korrigiert, und diese korrigierte horizontale Breite speichert, und anschließend bestimmt, ob das eigene Fahrzeug C mit einem Hindernis kollidieren wird, wenn nicht das eigene Fahrzeug C angemessen reagiert, d. h. eine Ausweichaktion durchführt (d. h. der Kollisionsbestimmungsabschnitt 43 führt eine Kollisionsbestimmung durch). Das spezifische Verfahren zum Korrigieren der horizontalen Breite wird später beschrieben.
  • Ebenso ist der Kollisionsbestimmungsabschnitt 43 dazu fähig, um zu bestimmen, ob das durch die Monokular-Kamera 1 und die Kamera-ECU 3 erfasste Erfassungszielobjekt ein Fahrzeug ist, durch Durchführen eines Musterabgleichs. Wenn bestimmt wird, dass das Erfassungsobjekt ein Fahrzeug ist, wird der Kollisionsbestimmungsabschnitt 43 unterbunden, um die horizontale Breite zu korrigieren (d. h. oder wenn die horizontale Breite bereits korrigiert wurde, dass der Kollisionsbestimmungsabschnitt 43 zu der horizontalen Breite der Vor-Korrektur-Horizontalbreite zurückkehrt).
  • Als nächstes werden das Verfahren zum Berechnen (und Korrigieren) der horizontalen Breite sowie das Verfahren zum Berechnen der Länge in der Bildtieferichtung bezüglich dieser horizontalen Breite mit Bezugnahme auf die 2 und 3 beschrieben. 2 ist eine Ansicht, welche die Vor-Korrektur-Horizontalbreite W als die temporär durch Verwenden der Monokular-Kamera 1 und der Kamera-ECU 3 berechneten temporären horizontalen Breite zeigt. 3 ist eine Ansicht, die ein Verfahren zum Berechnen der horizontalen Breite und der Länge in der Bildtieferichtung veranschaulicht. Hier wird ein Fall angenommen, in dem das eigene Fahrzeug C auf einer Straße R fährt, die voraus nach links abbiegt, und eine Leitplanke G, die sich in der Tieferichtung erstreckt (d. h. die sich in der Distanz erstreckt) und vorwärts nach links abknickt, auf der rechten Seite der Straße R an der Kurve bereitgestellt ist.
  • Zunächst berechnet der Fusionsverarbeitungsabschnitt 41 die Position und die horizontale Breite (d. h. die Länge eines Objekts in der Breitenrichtung des eigenen Fahrzeugs) einer Leitplanke G als das Erfassungszielobjekt, das durch verwenden der Monokular-Kamera 1 und der Kamera-ECU 3 erfasst wurde, wie in 2 gezeigt ist. Die Leitplanke G befindet sich innerhalb einer Bilderfassungsergebnisregion S, die eine Region ist, die durch das als das Erfassungszielobjekt erfasste Ergebnis durch die Monokular-Kamera 1 und die Kamera-ECU 3 angegeben ist. Die Vor-Korrektur-Horizontalbreite W wird als eine temporär berechnete horizontale Breite basierend auf der Differenz zwischen dem Erfassungspunkt P1, der das Ende der Leitplanke G ist, das sich am weitesten in 2 rechts befindet, und dem Erfassungspunkt P3 der das Ende der Leitplanke G ist, das sich am weitesten in 2 links befindet, berechnet, die durch die Monokular-Kamera 1 und die Kamera-ECU 3 erhalten werden, die nicht dazu fähig sind, die Distanz zu der Leitplanke G zu erhalten.
  • Als nächstes schätzt der Berechnungsabschnitt eines numerischen Werts 42 die Länge D in der Bildtieferichtung der Leitplanke G ab, die durch die Monokular-Kamera 1 und die Kamera-ECU 3, wie in 3 gezeigt wird, erfasst wurde. Hier ist die Länge D in der Bildtieferichtung der Leitplanke G die Länge, die angibt, wie weit sich der Umriss der Leitplanke G der Längsrichtung des eigenen Fahrzeugs C erstreckt (d. h. die Richtung von der Monokular-Kamera 1 zu der Leitplanke G). Insbesondere schätzt der Berechnungsabschnitt eines numerischen Werts 42 die Länge D in der Bildtieferichtung basierend auf der Differenz zwischen einer ersten Distanz von dem eigenen Fahrzeug C zu dem durch die ersten Erfassungspunktdaten angegeben Erfassungspunkt P1 und einer zweiten Distanz von dem eigenen Fahrzeug C zu dem durch die zweiten Erfassungspunktdaten angegebenen Erfassungspunkts P3, die durch das Millimeterwellenradar 2 erhalten werden, ab. Hier gilt, dass wenn die Länge D in der Bildtieferichtung abgeschätzt wird, diese durch zusätzliches verwenden einer dritten Distanz von dem eigenen Fahrzeug C zu einem durch dritte Erfassungspunktdaten angegebenen Erfassungspunkt P2 noch genauer abgeschätzt werden kann. Indessen gilt, dass diese Erfassungspunkte P1, P2 und P3 Erfassungspunkte sind, die in der horizontalen Breite W, die durch den Fusionsverarbeitungsabschnitt 41 berechnet wurden, enthalten sind.
  • Als nächstes verwendet der Kollisionsbestimmungsabschnitt 43 die erste Distanz zu dem durch die ersten Erfassungspunktdaten angegebenen Erfassungspunkt P1, die zweite Distanz zu dem durch die zweiten Erfassungspunktdaten angegebenen Erfassungspunkt P3, und die dritte Distanz zu dem durch die dritten Erfassungspunktdaten angegebenen Erfassungspunkt P, um die Vor-Korrektur-Horizontalbreite W, die durch den Fusionsverarbeitungsabschnitt 41 berechnet wurde, basierend auf der Länge D in der Bildtieferichtung, die durch den Berechnungsabschnitt eines numerischen Werts 42 abgeschätzt wurde, zu korrigieren.
  • Genauer gesagt gilt, dass der Kollisionsbestimmungsabschnitt 43 zunächst bestimmt, ob ein Erfassungspunkt (wie etwa der Erfassungspunkt P2) innerhalb der Vor-Korrektor-Horizontalbreite W liegt. Wenn ein solcher Erfassungspunkt (in diesem Fall der Erfassungspunkt P2) vorliegt, bestimmt der Kollisionsbestimmungsabschnitt 43, ob dieser Erfassungspunkt (in diesem Fall der Erfassungspunkt P2) um eine vorbestimmte Distanz oder weiter von einem Erfassungspunkt (in diesem Fall der Erfassungspunkt P3) entfernt ist, der sich weiter weg als der Erfassungspunkt (d. h. in diesem Fall der Erfassungspunkt P2) aus den Erfassungspunkten (wie etwa der Erfassungspunkt P1 und der Erfassungspunkt P3) weg liegt, die die Vor-Korrektur-Horizontalbreite W bilden. Wenn diese Bestimmungspunkte (hier der Bestimmungspunkt P2 und der Bestimmungspunkt P3) um eine vorbestimmte Distanz oder weiter entfernt sind, führt der Kollisionsbestimmungsabschnitt 43 eine Verarbeitung durch, um die Vor-Korrektur-Horizontalbreite W, die aus dem Bild erhalten wurde, zu korrigieren (d. h. führt eine Korrektur durch, um den Effekt aus der Bildregion entsprechend den Erfassungspunkt P2 und dem Erfassungspunkt P3 in der Vor-Korrektur-Horizontalbreite W zu eliminieren). Die durch den Fusionsverarbeitungsabschnitt 41 berechnete Vor-Korrektur-Horizontalbreite W wird letztlich auf eine Nach-Korrektur-Horizontalbreite T durch Wiederholen dieser Verarbeitung basierend auf einer Vielzahl von Erfassungspunkten, wie etwa die Erfassungspunkte P1 bis P3, korrigiert.
  • Indessen gilt, dass der Kollisionsbestimmungsabschnitt 43 ebenso strukturiert sein kann, um zu bestimmen, ob das durch das Millimeterwellenradar 2 erfasste Objekt ein Objekt ist, das eine Tiefe größer oder gleich einer vorbestimmten Distanz in der Tieferichtung aufweist (wie etwa eine Leitplanke oder eine Grenzwand), und führt eine Korrekturverarbeitung an der Vor-Korrektur-Horizontalbreite W durch, wenn bestimmt wird, dass das durch Millimeterwellen erfasste Objekt ein Objekt mit einer solchen Tiefe ist. Wenn der Kollisionsbestimmungsabschnitt 43 auf diese Weise strukturiert ist, kann der Kollisionsbestimmungsabschnitt 43 ebenso bestimmen, dass das durch die Millimeterwellen erfasste Objekt die vorstehend beschriebene Tiefe aufweist, wenn eine Erfassungspunktgruppe, die aus einer Vielzahl von Erfassungspunkten gebildet ist, die um eine vorbestimmte Distanz oder weiter entfernt ist, für eine vorbestimmte Zeitperiode oder länger für ein vorgegebenes Objekt bestehen.
  • Als nächstes wird das Verfahren zum Berechnen (und Korrigieren) der horizontalen Breite mit Bezugnahme auf die 4 und 5 beschrieben, wenn ein vorausfahrendes Fahrzeug und ein Fahrzeug vor einem voraus fahrendem Fahrzeug vor dem eigenen Fahrzeug C vorliegen. 4 ist eine Ansicht eines Beispiels von durch Verwenden der Monokularkamera 1 und der Kamera-ECU 3 erhaltenen Bilddaten, wenn ein vorausfahrendes Fahrzeug A1 und ein Fahrzeug A2 vor dem vorausfahrenden Fahrzeug A1 vorhanden sind, und 5 ist eine Ansicht eines Verfahrens zum Berechnen der horizontalen Breite, wenn ein vorausfahrendes Fahrzeug A1 und ein Fahrzeug A2 vor dem vorausfahrenden Fahrzeug A1 vorhanden sind. Hier wird ein Fall angenommen, in dem das eigene Fahrzeug C entlang einer geraden Straße R fährt, und ein vorausfahrendes Fahrzeug A1 und ein Fahrzeug A2 vor dem vorausfahrenden Fahrzeug A1 sich vor dem eigenen Fahrzeug C befinden.
  • Zunächst bestimmt der Kollisionsbestimmungsabschnitt 43, ob ein Erfassungszielobjekt (d. h. das vorausfahrende Fahrzeug A1 oder das Fahrzeug A2 vor dem vorausfahrenden Fahrzeug A1) innerhalb der vorstehend beschriebenen Bilderfassungsergebnisregion S ein Fahrzeug ist, durch Durchführen eines Musterabgleichs, wie in 4 gezeigt ist. Wenn bestimmt wird, dass das sich innerhalb der Bilderfassungsergebnisregion S befindliche Erfassungszielobjekt ein Fahrzeug ist, wird der Kollisionsbestimmungsabschnitt 43 daran gehindert, die Vor-Korrektur-Horizontalbreite W bezüglich des vorausfahrenden Fahrzeugs A1 innerhalb des überwachten Gebiets C am nächsten zu dem eigenen Fahrzeug C innerhalb eines Erfassungszielgebiets T des Millimeterwellenradars 2 zu korrigieren, sondern setzt diese als die Nach-Korrektur-Horizontalbreite T, wie in 5 gezeigt ist.
  • Wenn andererseits bestimmt wird, dass das sich innerhalb der Bilderfassungsergebnisregion S befindliche Erfassungszielobjekt kein Fahrzeug ist, schätzt der Berechnungsabschnitt eines numerischen Werts 42 eine Millimeterwellen-Ziel-zu-Ziel Distanz ab, d. h. die Differenz zwischen einer ersten Distanz zu einem durch erste Erfassungspunktdaten angegebenen Erfassungspunkt Q1 und einer zweiten Distanz zu einem durch zweite durch das Millimeterwellenradar 2 erhaltene Erfassungspunktdaten angegebenen Erfassungspunkt Q2 ab, wie in 5 gezeigt ist. Der Kollisionsbestimmungsabschnitt 43 bestimmt anschließend, ob die durch den Berechnungsabschnitt eines numerischen Werts 42 abgeschätzte Millimeterwellen-Ziel-zu-Ziel-Distanz größer oder gleich einer festgelegten Distanz (wie etwa 5 Meter) ist. Wenn bestimmt wird, das die Millimeterwellen-Ziel-zu-Ziel-Distanz größer oder gleich der festgelegten Distanz ist, wird der Kollisionsbestimmungsabschnitt 43 daran gehindert, die Vor-Korrektur-Horizontalbreite W bezüglich des vorausfahrenden Fahrzeugs A1 innerhalb des überwachten Gebiets Z am nächsten zu dem eigenen Fahrzeug C innerhalb des Erfassungszielgebiets T des Millimeterradars 2 zu korrigieren, sondern setzt diese stattdessen als die Nach-Korrektur-Horizontalbreite T, wie in 5 gezeigt ist.
  • Als nächstes wird die Operation der Objekterfassungsvorrichtung 10 mit Bezugnahme auf 6 beschrieben, die ein Flussdiagramm ist, welche eine in der Objekterfassungsvorrichtung 10 ausgeführte Routine veranschaulicht. Diese Routine wird wiederholt ab dem Zeitpunkt ausgeführt, wenn die Maschine gestartet wird, bis zu dem Zeitpunkt, bei dem die Maschine abgeschaltet wird.
  • Zunächst, in Schritt S01, liest und bezieht die Kamera-ECU 3 die Erfassungspunkdatenausgabe von dem Millimeterwellenradar 2 und die Bilddatenausgabe von der Monokular-Kamera 1.
  • Als nächstes, in Schritt S02, bestimmt die Kamera-ECU 3, ob Bilddaten vorliegen, die mit einer Vielzahl von Erfassungspunktdaten, die von dem Millimeterwellenradar 2 erhalten werden, verknüpft werden können. Wenn nicht bestimmt wird, dass Bilddaten vorliegen, die mit der Vielzahl von Erfassungspunktdaten verknüpft werden können, endet dieser Zyklus der Routine. Wenn andererseits bestimmt wird, dass Bilddaten vorliegen, die mit der Vielzahl von Erfassungspunktdaten verknüpft werden können, extrahiert anschließend die Kamera-ECU 3 die Erfassungspunktdaten entsprechend einem Erfassungszielobjekt aus der Vielzahl von Erfassungspunktdaten, und erfasst das Erfassungszielobjekt durch Referenzieren der extrahierten Erfassungspunktdaten. Anschließend berechnet der Fusionsverarbeitungsabschnitt 41 die Vor-Korrektur-Horizontalbreite W bezüglich dieses Erfassungszielobjekts, und der Berechnungsabschnitt eines numerischen Werts 42 schätzt die Länge D in der Bildtieferichtung dieses Erfassungszielobjekts ab.
  • Als nächstes, in Schritt S03, bestimmt der Kollisionsbestimmungsabschnitt 43, ob eine hohe Wahrscheinlichkeit vorliegt, dass das Erfassungszielobjekt ein Fahrzeug ist, durch Durchführen eines Musterabgleichs. Wenn bestimmt wird, dass eine hohe Wahrscheinlichkeit vorliegt, dass das Erfassungszielobjekt ein Fahrzeug ist, fährt der Prozess mit Schritt S07 fort, der später beschrieben wird. Wenn andererseits nicht bestimmt wird, dass eine hohe Wahrscheinlichkeit vorliegt, dass das Erfassungszielobjekt ein Fahrzeug ist, fährt der Prozess mit Schritt S04 fort, der als nächstes beschrieben wird.
  • In Schritt S04 bestimmt der Fusionsverarbeitungsabschnitt 41, ob ein Erfassungszielobjekt innerhalb der Bilderfassungsergebnisregion S vorliegt, das sich von dem Erfassungszielobjekt unterscheidet, für den die Bestimmung in Schritt S03 durchgeführt wurde. Wenn nicht bestimmt wird, dass ein sich von den Erfassungszielobjekt, für das die Bestimmung Schritt S03 getroffen wurde, unterscheidendes Erfassungszielobjekt vorliegt, fährt der Prozess mit Schritt S07 fort, der später beschrieben wird. Wenn andererseits bestimmt wird, dass ein Erfassungszielobjekt vorliegt, das ein sich von dem Erfassungszielobjekt, für das die Bestimmung in Schritt S03 durchgeführt wurde, unterscheidendes Objekt ist, fährt der Prozess mit Schritt S05 fort, der als nächstes beschrieben wird.
  • In Schritt S05 bestimmt der Berechnungsabschnitt eines numerischen Werts 42, ob eine Millimeterwellen-Ziel-zu-Ziel-Distanz, welche die Differenz zwischen der ersten Distanz zu einem Erfassungspunkt (wie etwa dem Erfassungspunkt Q1), der durch die ersten Erfassungspunktdaten angegeben wird, und einer zweiten Distanz zu einem Erfassungspunkt (wie etwa der Erfassungspunkt Q2), der durch die zweiten Erfassungspunktdaten angegeben ist, größer oder gleich einer festgelegten Distanz (wie etwa 5 Meter) ist. Wenn nicht bestimmt wird, dass die Millimeterwellen-Ziel-zu-Ziel-Distanz größer oder gleich der festgelegten Distanz ist, fährt der Prozess mit Schritt S07 fort, der später beschrieben wird. Wenn andererseits bestimmt wird, dass die Millimeterwellen-Ziel-zu-Ziel-Distanz größer oder gleich der festgelegten Distanz ist, fährt der Prozess mit Schritt S06 fort der als nächstes beschrieben wird.
  • In Schritt S06 verwendet der Kollisionsbestimmungsabschnitt 43 die erste Distanz zu dem durch die ersten Erfassungspunktdaten angegebenen Erfassungspunkt, die zweite Distanz zu den durch die zweiten Erfassungspunkdaten angegebenen Erfassungspunkt, eine dritte Distanz zu einem durch dritte Erfassungspunktdaten angegebenen Erfassungspunkt, und Bilddaten, die später beschrieben werden, um die Vor-Korrektur-Horizontalbreite W zu korrigieren, die durch den Fusionsverarbeitungsabschnitt 41 berechnet wurde, basierend auf der Länge D in der Bildtieferichtung, die durch den Berechnungsabschnitt eines numerischen Werts 42 abgeschätzt wurde. Das heißt, dass der Kollisionsbestimmungsabschnitt 43 eine Korrekturrestriktion durchführt, die die Vor-Korrektur-Horizontalbreite W, die durch den Fusionsbearbeitungsabschnitt 41 berechnet wurde, auf die Nach-Korrektur-Horizontalbreite T basierend auf den erfassten Erfassungspunkten korrigiert.
  • In Schritt S07 wird der Kollisionsbestimmungsabschnitt 43 daran gehindert, die Vor-Korrektur-Horizontalbreite W, die durch den Fusionsbearbeitungsabschnitt 41 berechnet wurde, zu korrigieren (d. h. führt nicht eine Korrekturrestriktion durch), sondern setzt diese stattdessen als die Nach-Korrektur-Horizontalbreite T.
  • Als nächstes wird ein Verfahren zum Einholen bzw. Erfassen der Neigung einer Objektregion in Bilddaten in einer Objekterfassungsvorrichtung gemäß einem zweiten beispielhaften Ausführungsbeispiel der Erfindung mit Bezugnahme auf 7A bis 7D sowie 8A bis 8D beschrieben. Die 7A bis 7D sind Ansichten, die ein Verfahren zum Einholen bzw. Erfassen der Neigung einer Objektregion in Bilddaten einer Leitplanke G in einer Objekterfassungsvorrichtung gemäß dem zweiten beispielhaften Ausführungsbeispiel der Erfindung veranschaulichen, und die 8A bis 8D sind Ansichten, die ein Verfahren zum Einholen bzw. Erfassen der Neigung einer Objektregion in Bilddaten eines vorausfahrenden Fahrzeugs A1 in der Objekterfassungsvorrichtung gemäß dem zweiten beispielhaften Ausführungsbeispiel der Erfindung veranschaulichen. Die Objekterfassungsvorrichtung 10 in diesem beispielhaften Ausführungsbeispiel weist den gleichen Aufbau wie die in 1 gezeigte auf, und führt eine Verarbeitung durch, die sich von der Verarbeitung im ersten beispielhaften Ausführungsbeispiel nur bezüglich des Abschätzens der Länge D in der Tieferichtung unterscheidet.
  • Zunächst wird das Verfahren zum Einholen der Neigung der Objektregion in den Bilddaten der Leitplanke G mit Bezugnahme auf die 7A bis 7D beschrieben. Zunächst erzeugt die Monokular-Kamera 1 Bilddaten, wie in 7A gezeigt ist. Anschließend extrahiert die Kamera-ECU 3 den charakteristischen Betrag in diesen Bilddaten durch Durchführen eines Kantenanalyseprozesses, einer Luminanzanalyseverarbeitung, oder einer optischen Durchsatzverarbeitung, oder dergleichen, an diesen Bilddaten, wie durch die gestachelten Linien in 7B gezeigt ist.
  • Als nächstes führt die Kamera-ECU 3 eine Kennzeichnung durch, welche ein Kennzeichen F einer Region zuweist, die gekennzeichnet werden kann (d. h., ein Prozess, der bestimmt, dass ein vorgegebenes Objekt ein vorgegebenes Objekt ist, wie in 7C gezeigt ist, basierend auf dem extrahierten charakteristischen Betrag. Anschließend führt die Kamera-ECU 3 einen Linearangleichungsprozess an dem Abschnitt der gekennzeichneten Region durch, wo gerade Linien, wie etwa eine gerade Linie L1 und eine gerade Linie L2 angepasst, d. h. angewendet werden kann, wie in 7D gezeigt ist. Als ein Ergebnis wird eine Objektregion, d. h. die durch die geraden Linien umgebene Region, spezifiziert. Die Kamera-ECU 3 berechnet anschließend die Neigung in dem Bild, was die Neigung der Objektregion in diesen Bilddaten ist, durch Durchführen einer Annäherung gerader Linien durch das Verfahren der kleinsten Quadrate oder dergleichen an den Bildpunkten in dieser Objektregion. Anschließend vergleicht die Kamera-ECU 3 die Größe dieser berechneten Neigung in dem Bild mit einem voreingestellten Schwellenwert (d. h. ein empirisch erhaltener Winkel, wie etwa einige zehn Grad bezüglich der Neigung, wenn die Objektregion eine Länge von größer oder gleich einen vorbestimmten Wert aufweist). Hier ist die Neigung in dem Bild ein Winkel, der durch die Längsrichtung der Objektregion und die Horizontalrichtung (d. h. die Seitwärts-Richtung) in dem Bild, oder die Längsrichtung der Objektregion und die Vertikalrichtung (d. h. die Länge-Richtung) in dem Bild, erzeugt wird. Diese Neigung in dem Bild kann ebenso beispielsweise ein Winkel sein, der durch die gerade Linie L2 und die Horizontalrichtung in 7D erzeugt wird, oder ein Winkel sein, der durch die gerade Linie L2 und die Horizontalrichtung in 7D erzeugt wird. Hier wird die Größe der berechneten Neigung in dem Bild bestimmt, um größer als der voreingestellte Schwellenwert zu sein (oder größer oder gleich dem Schwellenwert zu sein), so dass abgeschätzt wird, dass das Objekt eine Länge aufweist, die größer oder gleich als ein vorbestimmter Wert in der Bildtieferichtung ist (d. h. die horizontale Breite in dem Bild wird abgeschätzt, um länger als die Ist-Breite des Objekts zu sein), und daher wird die vorstehend beschriebene Korrektur durchgeführt.
  • Anschließend wird das Verfahren zum Einholen bzw. Erfassen der Neigung in dem Bild der Objektregion in den Bilddaten des vorausfahrenden Fahrzeugs A1 mit Bezugnahme auf die 8A bis 8D beschrieben. Zunächst erzeugt die Monokular-Kamera 1 Bilddaten, wie in 8A gezeigt ist. Anschließend extrahiert die Kamera-ECU 3 eine Charakteristik dieser Bilddaten durch Durchführen einer Kantenanalyseverarbeitung, Luminanzanalyseverarbeitung, oder optischen Durchsatzverarbeitung, oder dergleichen, an diesen Bilddaten, wie durch die gestrichelten Linien in 8B gezeigt ist.
  • Als nächstes führt die Kamera-ECU 3 eine Kennzeichnung durch, welche ein Kennzeichen einer Region zuweist, die gekennzeichnet werden kann (d. h. ein Prozess, der bestimmt, dass ein vorgegebenes Objekt ein vorgegebenes Objekt ist), wie in 8C gezeigt ist, basierend auf der extrahierten Charakteristik. Anschließend führt die Kamera-ECU 3 einen Linear-Anpassungsprozess an dem Abschnitt der gekennzeichneten Region durch, wo gerade Linien, wie etwa eine gerade Linie L1, eine gerade Linie L2, eine gerade Linie L3 und eine gerade Linie L4 angepasst (d. h. angewendet) werden können, wie in 8D gezeigt ist. Als ein Ergebnis wird die Objektregion, d. h., die durch die geraden Linien gegebene Region, spezifiziert. Die Kamera-ECU 3 berechnet anschließend die Neigung in dem Bild, was die Neigung der Objektregion in diesen Bilddaten ist, durch Durchführen einer Annäherung von geraden Linien durch das Verfahren der kleinsten Quadrate oder dergleichen, an den Bildpunkten in dieser Objektregion. Anschließend vergleicht die Kamera-ECU 3 die Größe dieser berechneten Neigung in dem Bild mit einem voreingestellten Schwellenwert (d. h. ein empirisch erhaltener Winkel, wie etwa mehrere zehn Grad, bezüglich der Neigung, wenn die Objektregion eine Länge von größer oder gleich einem vorbestimmten Wert aufweist). Hier wird die Größe der berechneten Neigung in dem Bild bestimmt, um kleiner als der voreingestellte Schwellenwert zu sein (oder kleiner oder gleich dem Schwellenwert), so dass abgeschätzt wird, dass die Länge in der Bildtieferichtung des Objekts kleiner als ein vorbestimmter Wert ist (d. h. die horizontale Breite in dem Bild wird abgeschätzt, um angemessen zu sein), und daher wird die vorstehend beschriebene Korrektur nicht durchgeführt.
  • Als nächstes wird die Operation der Objekterfassungsvorrichtung 10 bezüglich 9 beschrieben, die ein Flussdiagramm ist, welche eine in der Objekterfassungsvorrichtung 10 ausgeführte Routine veranschaulicht. Diese Routine wird wiederholt von dem Zeitpunkt, bei dem die Maschine gestartet wird, bis zu dem Zeitpunkt, bei dem die Maschine abgeschaltet wird, ausgeführt.
  • Zunächst, in Schritt S11, erfasst die Kamera-ECU 3 ein Hindernis durch Auslesen und Erhalten einer Erfassungspunktdatenausgabe von dem Millimeterwellenradar 2 und der Bilddatenausgabe von der Monokular-Kamera 1.
  • Anschließend, in Schritt S12, extrahiert die Kamera-ECU 3 den charakteristischen Betrag in den Bilddaten durch Durchführen einer Kantenanalyseverarbeitung, Luminanzanalyseverarbeitung, oder optischen Durchsatzverarbeitung, oder dergleichen an den Bilddaten.
  • Als nächstes, in Schritt S13, kennzeichnet die Kamera-ECU 3 eine Region, die gekennzeichnet werden kann (d. h. ein Prozess, der bestimmt, dass ein vorgegebenes Objekt ein vorgegebenes Objekt ist), basierend auf den extrahierten charakteristischen Betrag.
  • Anschließend, in Schritt S14, führt die Kamera-ECU 3 eine lineare Anpassung an dem Abschnitt der gekennzeichneten Region durch, wo gerade Linien, wie etwa die gerade Linie L1 und die gerade Linie L2, angepasst (d. h. angewendet) werden können. Als ein Ergebnis wird die Objektregion, d. h. die durch die geraden Linien umgebene Region, spezifiziert. Anschließend erhält der Fusionsverarbeitungsabschnitt 41 durch Berechnen und Messen die Neigung in dem Bild, d. h. die Neigung in dem Bild in den Bilddaten für diese Objektregion.
  • Als nächstes, in Schritt S15, bestimmt der Kollisionsbestimmungsabschnitt 43 ob der Winkel der Neigung in dem Bild, die durch den Fusionsverarbeitungsabschnitt 41 erhalten wird, größer als ein Schwellenwert ist (d. h. der empirisch erhaltene Winkel von mehreren zehn Grad als Beispiel). Wenn nicht bestimmt wird, dass der erhaltene Winkel einer Neigung in dem Bild größer als der Schwellenwert ist (d. h. wenn bestimmt wird, dass der erhaltene Winkel der Neigung in dem Bild kleiner oder gleich dem Schwellenwert ist), endet dieser Zyklus der Routine.
  • Wenn andererseits bestimmt wird, dass der erhaltene Winkel einer Neigung in dem Bild größer als der Schwellenwert ist, fährt der Prozess mit Schritt S16 fort, der als nächstes beschrieben wird.
  • In Schritt S16 berechnet der Fusionsverarbeitungsabschnitt 41 die Vor-Korrektur-Horizontalbreite W bezüglich der Objektregion, und anschließend schätzt der Berechnungsabschnitt eines numerischen Werts 42 die Länge D in der Bildtieferichtung bezüglich der Objektregion basierend auf der durch den Fusionsverarbeitungsabschnitt 41 erhaltenen Neigung in den Bild ab. Anschließend korrigiert der Kollisionsbestimmungsabschnitt 43 die Vor-Korrektur-Horizontalbreite W, die durch den Fusionsverarbeitungsabschnitt 41 berechnet wurde, auf die Nach-Korrektur-Horizontalbreite T, durch Reduzieren dieser basierend auf der Länge D in der Bildtieferichtung, die durch den Berechnungsabschnitt eines numerischen Werts 42 abgeschätzt wurde.
  • Indessen gilt, dass die Abschätzung der Länge D in der Bildtieferichtung des Objekts in dem ersten beispielhaften Ausführungsbeispiel in Kombination mit der Abschätzung der Länge D in der Bildtieferichtung des Objekts in dem zweiten beispielhaften Ausführungsbeispiel durchgeführt werden kann. Das heißt, dass der Berechnungsabschnitt eines numerischen Werts 42 ebenso die Länge D in der Bildtieferichtung basierend auf der Differenz zwischen der ersten Distanz zu dem ersten Erfassungspunkt und der zweiten Distanz zu dem zweiten Erfassungspunkt in dem ersten beispielhaften Ausführungsbeispiel, und die durch den Fusionsverarbeitungsabschnitt 41 erhaltene Neigung in dem Bild in dem zweiten beispielhaften Ausführungsbeispiel abschätzen kann.
  • Als nächstes werden die Operation und der Effekt der Objekterfassungsvorrichtung 10 beschrieben. Wie mit Bezugnahme auf 3 beschrieben wurde, wird ein Objekt durch eine Bildverarbeitung aus Bilddaten für ein vorbestimmtes aufgenommenes Gebiet erfasst, und die Vor-Korrektur-Horizontalbreite W des erfassten Objekts (d. h. die Breite, bei der das erfasste Objekt in die Straße R hinausragt) durch eine Bildverarbeitung berechnet. Anschließend wird die Länge D in der Bildtieferichtung der berechneten Vor-Korrektur-Horizontalbreite W durch eine Bildverarbeitung abgeschätzt, und diese berechnete Vor-Korrektur-Horizontalbreite W wird auf die Nach-Korrektur-Horizontalbreite T korrigiert (d. h. eine Breite, bei der das erfasste Objekt nicht in die Straße R hinausragt), basierend auf der abgeschätzten Länge D in der Bildtieferichtung.
  • Auf diese Weise gilt, dass nachdem die Vor-Korrektur-Horizontalbreite W aus den Bilddaten berechnet wurde, diese anschließend basierend auf der abgeschätzten Länge D in der Bildtieferichtung korrigiert wird. Daher kann die horizontale Breite bzw. Horizontalbreite eines Objekts vor dem eigenen Fahrzeug C genauer abgeschätzt werden. Demzufolge ist es möglich, die Bestimmungsgenauigkeit einer Bestimmung zu verbessern, um angemessen und korrekt zu bestimmen, ob ein Objekt ein Hindernis ist, das eine operative Reaktion (d. h. Ausweichaktion) durch das eigene Fahrzeug C benötigt (wie etwa eine Antwort durch ein PCS (Vor-Kollisions-System), d. h. eine Reaktion auf die Aktivierung eines Systems, um eine aus einer Kollision resultierende Beschädigung zu reduzieren). Als Folge können unnötige Warnungen oder Steuerungen basierend auf der Reaktion reduziert werden
  • Ebenso werden Millimeterwellen, die elektromagnetische Wellen sind, innerhalb eines vorbestimmten Gebiets abgestrahlt, und der Erfassungspunkt eines Objekts in der Richtung, in der diese Millimeterwellen abgestrahlt werden, kann zusammen mit den Distanzdaten erhalten werden. Dabei wird die Bildverarbeitungsregion, die das vorbestimmte Erfassungszielobjekt umfasst, aus den Bilddaten basierend auf dem erhaltenen Erfassungspunkt und den Distanzdaten eingestellt, und das Objekt wird durch Durchführen einer Bildverarbeitung auf dieser Bildverarbeitungsregion erfasst. Auf diese Weise wird der Erfassungspunkt zusammen mit den Distanzdaten durch Verwenden der Millimeterwellen von dem Millimeterwellenradar erhalten, und ein Objekt wird aus den Bilddaten basierend auf dem erhaltenen Erfassungspunkt und den Distanzdaten erfasst (d. h. eine Sensorfusion wird durchgeführt). Als ein Ergebnis kann ein Objekt, das schwierig nur durch Verwenden der Monokular-Kamera 1 zu erfassen ist, genauer erfasst werden, und Informationen bezüglich der Distanz dieses Objekts können genauer erhalten werden.
  • Weiterhin wird die Länge D in der Bildtieferichtung basierend auf der Differenz zwischen der ersten Distanz von dem eigenen Fahrzeug C zu dem ersten Erfassungspunkt des Objekts in den Bilddaten, und der zweiten Distanz von dem eigenen Fahrzeug C zu dem zweiten Erfassungspunkt dieses Objekts, das durch das Millimeterwellenradar 2 erhalten wird, abgeschätzt, so dass die Länge D in der Bildtieferichtung genauer erfasst werden kann.
  • Ebenso gilt, dass wenn bestimmt wird, dass das erfasste Objekt ein Fahrzeug ist, die Vor-Korrektur-Horizontalbreite W nicht korrigiert wird, so dass die horizontale Breite bezüglich eines Objekts mit relativ wenig Tiefe, wie etwa der hintere Flächenabschnitt eines Fahrzeugkörpers des erfassten Fahrzeugs, bei der eine horizontale Breite nicht korrigiert werden muss, genauer erfasst werden kann.
  • Ebenso wird die Länge D in der Bildtieferichtung basierend auf der Neigung des Bildes der Objektregion in den erhaltenen Bilddaten des Objekts abgeschätzt. Daher gilt, dass wenn die Neigung in dem Bild der Objektregion in den Bilddaten größer ist, als diese wäre, wenn das erfasste Objekt ein Fahrzeug ist, wenn ein Objekt mit großer Länge in der Tieferichtung (d. h. das sich in der Distanz erstreckt) und voraus liegt, wie etwa eine Leitplanke G oder eine Wand vor dem eigenen Fahrzeug C, die Länge D in der Bildtieferichtung entsprechend abgeschätzt wird. Wenn andererseits die Neigung in dem Bild der Objektregion in den Bilddaten kleiner ist, als diese wäre, wenn ein Objekt eine lange Ausdehnung in der Tieferichtung hätte (d. h. sich in der Distanz erstreckt) und voraus liegt, wie dies bei einem Fahrzeug vor dem eigenen Fahrzeug C der Fall ist, die Länge in der horizontalen Richtung (d. h. der Breiterichtung) entsprechend abgeschätzt wird, um länger als die Länge D in der Bildtieferichtung zu sein.
  • In dem ersten und zweiten beispielhaften Ausführungsbeispielen der Erfindung wird das Millimeterwellenradar 2 als die Radarerfassungseinrichtung verwendet. Jedoch kann in einem modifizierten Beispiel die Radarerfassungseinrichtung elektromagnetische Wellen einer anderen Wellenlänge abstrahlen. Beispielsweise kann ein Laserradar als die Radarerfassungseinrichtung verwendet werden.
  • Demzufolge ermöglicht die Erfindung, eine Objekterfassungsvorrichtung bereitzustellen, die dazu fähig ist, die Bestimmungsfähigkeit einer Bestimmung, ob ein Objekt vor dem eigenen Fahrzeug ein Objekt ist, das eine operative Antwort (d. h. Ausweichaktion) durch das eigene Fahrzeug benötigt, durch genaueres Abschätzen der horizontalen Breite dieses Objekts zu verbessern. Während einige Ausführungsbeispiele der Erfindung vorstehend veranschaulicht wurden, sollte verstanden sein, dass die Erfindung nicht auf die Details der veranschaulichten Ausführungsbeispiele beschränkt ist, sondern mit verschiedenen Änderungen, Modifikationen oder Verbesserungen ausgestaltet sein kann, die dem Fachmann ersichtlich sind, ohne von dem Umfang der Erfindung abzuweichen.
  • Eine Objekterfassungsvorrichtung (10) umfasst eine Kamera-ECU (3), die ein Objekt aus Bilddaten für ein vorbestimmtes Gebiet, die durch eine Monokular-Kamera (1) aufgenommen wurden, erfasst, einen Fusionsverarbeitungsabschnitt (41), der die Vor-Korrektur-Horizontalbreite (W) des erfassten Objekts berechnet, einen Berechnungsabschnitt eines numerischen Werts (42), der die Länge (D) in der Bildtieferichtung der berechneten Vor-Korrektur-Horizontalbreite (W) abschätzt, und einen Kollisionsbestimmungsabschnitt (43), der die Vor-Korrektur-Horizontalbreite (W), die durch den Fusionsverarbeitungsabschnitt (41) berechnet wurde, basierend auf der abgeschätzten Länge (D) in der Bildtieferichtung korrigiert.

Claims (8)

  1. Objekterfassungsvorrichtung (10), mit: einer Bilderfassungseinrichtung (3) zum Erfassen eines Objekts aus Bilddaten für ein vorbestimmtes Gebiet, das aufgenommen wurde; einer Berechnungseinrichtung (4) zum Berechnen einer horizontalen Breite des Objekts, das durch die Bilderfassungseinrichtung erfasst wurde; einer Abschätzeinrichtung (42) zum Abschätzen einer Länge in einer Bildtieferichtung des Objekts, das durch die Bilderfassungseinrichtung erfasst wurde; und einer Korrektureinrichtung (43) zum Korrigieren des Berechnungsergebnisses der durch die Berechnungseinrichtung berechneten horizontalen Breite des Objekts basierend auf der durch die Abschätzeinrichtung abgeschätzten Länge in der Bildtieferichtung; gekennzeichnet durch eine Neigungseinholeinrichtung (41) zum Einholen einer Neigung einer Objektregion, die durch das Objekt in den durch die Bilderfassungseinrichtung erfassten Bilddaten des Objekts eingenommen wird; und eine Bestimmungseinrichtung (43) zum Bestimmen, ob die Neigung der Objektregion größer als ein voreingestellter Schwellenwert ist; wobei die Neigung der Objektregion ein Winkel zwischen einer Längsrichtung der Objektregion in den Bilddaten und der horizontalen Richtung der Bilddaten ist; und die Korrektureinrichtung daran gehindert wird, die horizontale Breite zu korrigieren, wenn bestimmt wird, dass die Neigung der Objektregion kleiner oder gleich dem voreingestellten Schwellenwert ist.
  2. Objekterfassungsvorrichtung gemäß Anspruch 1, weiterhin mit einer Radarerfassungseinrichtung (2) zum Abstrahlen von elektromagnetischen Wellen innerhalb des vorbestimmten Gebiets, und zum Erhalten eines Erfassungspunkts eines Objekts in einer Richtung, in der die elektromagnetischen Wellen abgestrahlt werden, wobei die Bilderfassungseinrichtung das Objekt aus den Bilddaten basierend auf dem durch die Radarerfassungseinrichtung erhaltenen Erfassungspunkt erfasst.
  3. Objekterfassungsvorrichtung gemäß Anspruch 2, wobei eine Vielzahl der Erfassungspunkte durch die Radarerfassungseinrichtung erhalten werden; die Abschätzeinrichtung die Länge in der Bildtieferichtung des Objekts basierend auf einer Differenz zwischen einer ersten Distanz zu einem Erfassungspunkt und einer zweiten Distanz zu einem zweiten Erfassungspunkt, die durch die Radarerfassungseinrichtung erhalten wurden, abschätzt; und der erste Erfassungspunkt und der zweite Erfassungspunkt innerhalb des Bereichs der horizontalen Breite des Objekts liegen.
  4. Objekterfassungsvorrichtung gemäß Anspruch 3, wobei die Bestimmungseinrichtung eingerichtet ist zu bestimmen, ob das durch die Bilderfassungseinrichtung erfasste Objekt ein Fahrzeug ist, wobei die Korrektureinrichtung daran gehindert wird, das Berechnungsergebnis der horizontalen Breite zu korrigieren, wenn durch die Bestimmungseinrichtung bestimmt wird, dass das Objekt ein Fahrzeug ist.
  5. Objekterfassungsvorrichtung gemäß einem der Ansprüche 2 bis 4, wobei das vorbestimmte Gebiet basierend auf dem durch die Radarerfassungseinrichtung erhaltenen Erfassungspunkt eingestellt wird.
  6. Objekterfassungsvorrichtung gemäß einem der Ansprüche 1 bis 5, wobei die Bildtieferichtung eine Richtung von der Bilderfassungseinrichtung zu dem Objekt ist.
  7. Objekterfassungsvorrichtung gemäß Anspruch 6, wobei die horizontale Richtung eine Richtung orthogonal zu der Richtung von der Bilderfassungseinrichtung zu dem Objekt ist.
  8. Objekterfassungsvorrichtung gemäß einem der Ansprüche 1 bis 7, wobei das Objekt innerhalb des vorbestimmten Gebiets liegt.
DE112010002047.7T 2009-05-19 2010-05-18 Objekterfassungsvorrichtung Active DE112010002047B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009121265A JP4858574B2 (ja) 2009-05-19 2009-05-19 物体検出装置
JP2009-121265 2009-05-19
PCT/IB2010/001160 WO2010133946A1 (en) 2009-05-19 2010-05-18 Object detecting device

Publications (2)

Publication Number Publication Date
DE112010002047T5 DE112010002047T5 (de) 2012-06-21
DE112010002047B4 true DE112010002047B4 (de) 2016-01-07

Family

ID=42562451

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010002047.7T Active DE112010002047B4 (de) 2009-05-19 2010-05-18 Objekterfassungsvorrichtung

Country Status (5)

Country Link
US (1) US8897497B2 (de)
JP (1) JP4858574B2 (de)
CN (1) CN102428385B (de)
DE (1) DE112010002047B4 (de)
WO (1) WO2010133946A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5276140B2 (ja) * 2011-05-19 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
JP5740241B2 (ja) * 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
DE102011112150A1 (de) * 2011-09-01 2013-03-07 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bestimmung eines Ausmaßes eines Objekts in einer Umgebung eines Fahrzeugs sowie eine entsprechende Vorrichtung und ein Fahrzeug mit einer derartigen Vorrichtung.
JP5863105B2 (ja) * 2011-12-13 2016-02-16 アルパイン株式会社 車両移動量推定装置および障害物検出装置
US9558667B2 (en) 2012-07-09 2017-01-31 Elwha Llc Systems and methods for cooperative collision detection
US9165469B2 (en) 2012-07-09 2015-10-20 Elwha Llc Systems and methods for coordinating sensor operation for collision detection
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
US9269268B2 (en) * 2013-07-31 2016-02-23 Elwha Llc Systems and methods for adaptive vehicle sensing systems
US9776632B2 (en) 2013-07-31 2017-10-03 Elwha Llc Systems and methods for adaptive vehicle sensing systems
US9230442B2 (en) 2013-07-31 2016-01-05 Elwha Llc Systems and methods for adaptive vehicle sensing systems
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
JP5949721B2 (ja) * 2013-10-10 2016-07-13 株式会社デンソー 先行車選択装置
KR101545478B1 (ko) * 2014-01-10 2015-08-19 현대모비스(주) 차량용 전방관측시스템 및 방법
EP3108264A2 (de) 2014-02-20 2016-12-28 Mobileye Vision Technologies Ltd. Verbessertes fahrerassistenzsystem basierend auf radargestützter visueller abbildung
WO2016153224A1 (ko) * 2015-03-20 2016-09-29 엘지전자 주식회사 차량용 자율 캘리브레이션 장치 및 이를 구비한 차량
US9778353B2 (en) * 2015-06-24 2017-10-03 Htc Corporation Handheld device, object positioning method and computer-readable recording medium
JP6543117B2 (ja) * 2015-07-07 2019-07-10 株式会社Subaru 車両の運転支援装置
US10317522B2 (en) * 2016-03-01 2019-06-11 GM Global Technology Operations LLC Detecting long objects by sensor fusion
JP6520783B2 (ja) 2016-03-22 2019-05-29 株式会社デンソー 車両検知装置
JP2017194926A (ja) * 2016-04-22 2017-10-26 株式会社デンソー 車両制御装置、車両制御方法
JP6547785B2 (ja) * 2016-07-29 2019-07-24 株式会社デンソー 物標検出装置
US10852418B2 (en) * 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
US10444342B2 (en) * 2017-03-08 2019-10-15 Gm Global Technology Operations Llc. Control of host device using three-dimensional position and velocity
CN107031629B (zh) * 2017-03-10 2019-11-19 上海大学 一种3d机器视觉叉车行驶辅助安全系统及方法
JP2018197059A (ja) * 2017-05-24 2018-12-13 トヨタ自動車株式会社 衝突回避制御装置
JP2018200267A (ja) * 2017-05-29 2018-12-20 トヨタ自動車株式会社 上方構造物判定装置及び運転支援システム
JP6930394B2 (ja) * 2017-11-24 2021-09-01 トヨタ自動車株式会社 物体認識装置
US10752218B2 (en) * 2018-02-22 2020-08-25 Ford Global Technologies, Llc Camera with cleaning system
US10852420B2 (en) 2018-05-18 2020-12-01 Industrial Technology Research Institute Object detection system, autonomous vehicle using the same, and object detection method thereof
CN109581358B (zh) * 2018-12-20 2021-08-31 奇瑞汽车股份有限公司 障碍物的识别方法、装置及存储介质
JP7135908B2 (ja) * 2019-02-04 2022-09-13 トヨタ自動車株式会社 衝突前制御装置
CN112902911B (zh) * 2019-12-03 2023-06-20 上海高德威智能交通系统有限公司 基于单目相机的测距方法、装置、设备及存储介质
CN113758426A (zh) * 2021-08-17 2021-12-07 深圳新视智科技术有限公司 布匹幅宽的确定方法及装置、电子设备和可读存储介质
DE102022104354A1 (de) 2022-02-24 2023-08-24 Valeo Schalter Und Sensoren Gmbh Längenschätzung eines Fahrzeugs
KR102576677B1 (ko) * 2022-12-12 2023-09-08 (주)투비시스템 증강 현실 기반의 작업 검증 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947475A1 (de) * 2005-11-09 2008-07-23 Toyota Jidosha Kabushiki Kaisha Vorrichtung zur detektion eines objekts

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3556014B2 (ja) * 1995-06-19 2004-08-18 富士重工業株式会社 車両用前方監視装置
JP3619628B2 (ja) * 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
US6813371B2 (en) * 1999-12-24 2004-11-02 Aisin Seiki Kabushiki Kaisha On-vehicle camera calibration device
US7027615B2 (en) * 2001-06-20 2006-04-11 Hrl Laboratories, Llc Vision-based highway overhead structure detection system
GB0115433D0 (en) 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
JP4070448B2 (ja) 2001-11-27 2008-04-02 ダイハツ工業株式会社 移動物体の認識装置及び認識方法
JP3904988B2 (ja) * 2002-06-27 2007-04-11 株式会社東芝 画像処理装置およびその方法
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
US6927699B2 (en) * 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
JP3736520B2 (ja) * 2002-12-19 2006-01-18 株式会社デンソー 車両用障害物認識装置
JP4433887B2 (ja) * 2003-07-01 2010-03-17 日産自動車株式会社 車両用外界認識装置
JP3915746B2 (ja) * 2003-07-01 2007-05-16 日産自動車株式会社 車両用外界認識装置
JP3835438B2 (ja) * 2003-07-11 2006-10-18 トヨタ自動車株式会社 衝突対応車両制御システム
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP4052650B2 (ja) * 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
JP4407920B2 (ja) 2004-05-19 2010-02-03 ダイハツ工業株式会社 障害物認識方法及び障害物認識装置
JP2006048568A (ja) * 2004-08-09 2006-02-16 Daihatsu Motor Co Ltd 物体認識方法及び物体認識装置
JP4428208B2 (ja) * 2004-11-16 2010-03-10 株式会社デンソー 車両用物体認識装置
JP4130435B2 (ja) * 2004-11-30 2008-08-06 本田技研工業株式会社 撮像装置の異常検知装置
US7483549B2 (en) * 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4130434B2 (ja) * 2004-11-30 2008-08-06 本田技研工業株式会社 撮像装置の異常検知装置
JP4518978B2 (ja) * 2005-03-02 2010-08-04 ダイハツ工業株式会社 車両の物体認識装置及び物体認識方法
JP4517972B2 (ja) * 2005-08-02 2010-08-04 日産自動車株式会社 障害物判断装置及び方法
US7545956B2 (en) * 2005-08-12 2009-06-09 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP2007310741A (ja) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
JP4558758B2 (ja) * 2007-05-07 2010-10-06 三菱電機株式会社 車両用障害物認識装置
JP5249525B2 (ja) * 2007-05-28 2013-07-31 本田技研工業株式会社 車両操作支援装置
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP4856656B2 (ja) * 2008-01-22 2012-01-18 富士重工業株式会社 車両検出装置
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
DE112008003729T5 (de) * 2008-02-26 2011-01-13 FUJITSU LIMITED, Kawasaki-shi Bildprozessor, Bildverfahren, Bildprogramm sowie Fahrzeugterminal hierfür
JP5180641B2 (ja) * 2008-03-25 2013-04-10 富士重工業株式会社 車両用運転支援装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947475A1 (de) * 2005-11-09 2008-07-23 Toyota Jidosha Kabushiki Kaisha Vorrichtung zur detektion eines objekts

Also Published As

Publication number Publication date
CN102428385A (zh) 2012-04-25
US20120106786A1 (en) 2012-05-03
CN102428385B (zh) 2014-09-24
DE112010002047T5 (de) 2012-06-21
JP2010271788A (ja) 2010-12-02
WO2010133946A1 (en) 2010-11-25
JP4858574B2 (ja) 2012-01-18
US8897497B2 (en) 2014-11-25

Similar Documents

Publication Publication Date Title
DE112010002047B4 (de) Objekterfassungsvorrichtung
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE102007020791B4 (de) Fahrspurmarkierungs-Erkennungsvorrichtung
DE102005016288B4 (de) Vorrichtung zur Erfassung eines Objekts vor einem Fahrzeug
DE102010020867B4 (de) Strassenform-Erkennungsvorrichtung
DE102011007133B4 (de) Vorrichtung und verfahren zum erkennen des vorhandenseins von objekten
DE102014206704B4 (de) Aktualisierung der kalibrierung einer verkehrskamera unter verwendung einer szenenanalyse
DE102006026724B4 (de) Bildverarbeitungsvorrichtung für ein Fahrzeug und Verfahren zur Bildverarbeitung für ein Fahrzeug
DE102008001363B4 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE112016000906B4 (de) Montagewinkelfehlererfassungsverfahren und –vorrichtung für eine bordeigene radarvorrichtung und bordeigene radarvorrichtung
DE112009001686T5 (de) Objekterfassungsvorrichtung
DE102008064411B4 (de) Belichtungssteuerungsvorrichtung und Belichtungssteuerungsprogramm für eine in einem Fahrzeug installierte elektronische Kamera
DE112015003605B4 (de) Mehrere Objekterfassungseinrichtungen verwendende Objekterkennungsvorrichtung
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112017005447T5 (de) Objekterfassungsvorrichtung
DE112009005424T5 (de) Objektdetektionsvorrichtung u nd Objektdetektionsverfahren
DE102016117710A1 (de) Radar-sicht-fusion zur abschätzung der geschwindigkeit eines zielobjektes
DE10353348A1 (de) Verfahren zur Verfolgung von Objekten
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
DE102011005727A1 (de) Verfahren und Vorrichtung zur Erfassung von Straßenrändern
DE102013205854A1 (de) Temporäre Koherenz bei Detektion eines freien Pfads
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE102021121661A1 (de) Vorrichtung und verfahren zur anpassung des vertrauensniveaus einer ausgabe eines sensors
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence