DE112014001118T5 - Zielerkennungsvorrichtung - Google Patents

Zielerkennungsvorrichtung Download PDF

Info

Publication number
DE112014001118T5
DE112014001118T5 DE112014001118.5T DE112014001118T DE112014001118T5 DE 112014001118 T5 DE112014001118 T5 DE 112014001118T5 DE 112014001118 T DE112014001118 T DE 112014001118T DE 112014001118 T5 DE112014001118 T5 DE 112014001118T5
Authority
DE
Germany
Prior art keywords
target
interest
vehicle
image
target recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112014001118.5T
Other languages
English (en)
Inventor
Katsuhiko Hibino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112014001118T5 publication Critical patent/DE112014001118T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/345Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using triangular modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Zielerkennungsvorrichtung einer Ausführungsform ist in ein Fahrzeug eingebaut und umfasst eine Datenerfassungseinrichtung, die empfangene Daten von einem Sende-/Empfangsgerät erhält, das mehrere Sende- und Empfangskanäle hat, die Radarwellen senden und empfangen; eine Bilderfassungseinrichtung, die Bilddaten von einem Bildsensor erhält, der ein Bild eines Zustands um ein eigenes Fahrzeug herum aufnimmt; und eine Erfassungseinrichtung, die auf Grundlage der empfangenen Daten und der Bilddaten ein Zielobjekt erfasst, das die Radarwellen reflektiert hat.

Description

  • [Technisches Gebiet]
  • Die vorliegende Erfindung bezieht sich auf eine Zielerkennungsvorrichtung, die ein um ein Fahrzeug herum vorhandenes Zielobjekt erkennt, indem Informationen von einem Radarsensor und einem Bildsensor verwendet werden.
  • [Stand der Technik]
  • Herkömmlicherweise ist eine Technik bekannt, die der Erkennung eines um ein Fahrzeug herum vorhandenen Zielobjekts mittels Sensorfusion dient, bei der Informationen von einem Radarsensor und einem Bildsensor verwendet werden, um das erkannte Zielobjekt zur Fahrunterstützung für das Fahrzeug zu verwenden. Gemäß einer derartigen Technik werden von einem Radarsensor und einem Kamerasensor einzeln erfasste Erfassungsergebnisse zusammengeführt, um die Genauigkeit bei der Erfassung eines Objekts zu verbessern (siehe zum Beispiel Patentschrift 1).
  • [Anführungsliste]
  • [Patentschrift]
    • [Patentschrift 1] JP-A-2009-19914
  • [Zusammenfassung der Erfindung]
  • [Technisches Problem]
  • Dabei ist es für ein Millimeterwellenradar, bei dem es sich um eine Art eines Radarsensors handelt, schwierig, mehrere nahe beieinanderliegende Zielobjekte einzeln und separat zu erfassen, was auf die Streuung der Funkwellen (Millimeterwellen) zurückzuführen ist. Es besteht ein Problem dahingehend, dass die mehreren Zielobjekte als ein Zielobjekt erfasst werden. Folglich besteht ein Problem, dass die Genauigkeit bei der Erkennung eines Zielobjekts mittels Sensorfusion abnimmt, wenn die Erfassungsergebnisse des Millimeterwellenradars verwendet werden.
  • [Lösung für das Problem]
  • Bei einer Ausführungsform wird die Genauigkeit bei der Erfassung eines Zielobjekts in einer Zielerkennungsvorrichtung verbessert, in die ein elektromagnetische Wellen verwendender Sensor und ein Bildsensor eingebaut sind.
  • Eine Zielerkennungsvorrichtung einer Ausführungsform ist in ein Fahrzeug eingebaut und umfasst eine Datenerfassungseinrichtung, die empfangene Daten von einem Sende-/Empfangsgerät erhält, das mehrere Sende- und Empfangskanäle hat, die Radarwellen senden und empfangen; eine Bilderfassungseinrichtung, die Bilddaten von einem Bildsensor erhält, der ein Bild eines Zustands um ein eigenes Fahrzeug herum aufnimmt; und eine Erfassungseinrichtung, die auf Grundlage der empfangenen Daten und der Bilddaten ein Zielobjekt erfasst, das die Radarwellen reflektiert hat.
  • [Kurze Beschreibung der Zeichnungen]
  • 1 ist ein Blockschaltbild, das eine Auslegung einer Zielerkennungsvorrichtung einer ersten Ausführungsform zeigt;
  • 2 ist eine erläuternde Abbildung, die Erfassungsbereiche eines Radarsensors und eines Bildsensors zeigt;
  • 3 ist ein Ablaufplan, der einen Vorgang einer Zielerkennung zeigt;
  • 4 ist ein Ablaufplan, der einen Normalerfassungsprozess zeigt;
  • 5 ist ein Ablaufplan, der einen in eine spezifische Richtung gehenden Erfassungsprozess zeigt;
  • 6(a) ist eine erläuternde Abbildung, die zeigt, dass ein Gesamterfassungsprozess und ein in eine spezifische Richtung gehender Erfassungsprozess durch Timesharing oder einen Zeitmultiplexbetrieb in einem Zyklus ausgeführt werden; 6(b) ist eine erläuternde Abbildung, die zeigt, dass mehrere in eine spezifische Richtung gehende Erfassungsprozesse durchgeführt werden, wenn der Durchsatz einer CPU höher ist als im Falle von (a);
  • 7(a) ist eine erläuternde Abbildung, die eine Situation zeigt, bei der auf einer Autostraße ein vorne befindliches Fahrzeug und ein Motorrad vor dem eigenen Fahrzeug vorhanden sind und das vorne befindliche Fahrzeug nahe am Motorrad und nahe einer Leitplanke fährt; 7(b) ist eine erläuternde Abbildung, die Verarbeitungsergebnisse einer DBF zeigt; 7(c) ist eine erläuternde Abbildung, die Prioritäten von interessierenden Richtungen zeigt;
  • 8(a) ist eine erläuternde Abbildung, die eine Situation zeigt, bei der in einem städtischen Raum ein Motorrad, ein vorne befindliches Fahrzeug und ein Fußgänger mit engem Abstand zueinander vor dem eigenen Fahrzeug vorhanden sind; 8(b) ist eine erläuternde Abbildung, die Verarbeitungsergebnisse einer DBF zeigt; 8(c) ist eine erläuternde Abbildung, die Prioritäten von interessierenden Richtungen zeigt;
  • 9(a) ist eine erläuternde Abbildung, die eine Situation zeigt, bei der, zusätzlich zu der in 8(a) gezeigten Situation, ein Verkehrsschild und ein Kanalisationseinstieg nahe beieinander vorhanden sind; 9(b) ist eine erläuternde Abbildung, die Prioritäten von interessierenden Richtungen zeigt;
  • 10 ist ein Blockschaubild, das eine Auslegung einer Zielerkennungsvorrichtung einer zweiten Ausführungsform zeigt;
  • 11 ist ein Ablaufplan, der einen Normalerfassungsprozess der zweiten Ausführungsform zeigt.
  • [Beschreibung der Ausführungsformen]
  • Nachstehend werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
  • <Erste Ausführungsform>
  • <Allgemeine Auslegung>
  • Wie in 1 gezeigt, ist in einem Fahrunterstützungssystem 1, auf das eine Zielerkennungsvorrichtung 10 der vorliegenden Erfindung angewendet wird, die Zielerkennungsvorrichtung 10 jeweils an einen Radarsensor 20, einen Bildsensor 30 und eine Fahrunterstützungs-Ausführungsvorrichtung 40 angeschlossen, sodass die Zielerkennungsvorrichtung 10 mit diesen Daten austauschen kann. Der Radarsensor 20 strahlt Radarwellen zu einem vor dem eigenen Fahrzeug eingerichteten Abtastbereich ab und empfängt reflektierte Wellen von diesem. Der Bildsensor 30 nimmt ein Bild des Abtastbereichs auf. Die Zielerkennungsvorrichtung 10 erkennt gemäß den Erfassungsergebnissen des Radarsensors 20 und Bildsensors 30 verschiedene Zielobjekte, die im Abtastbereich vorhanden sind. Die Fahrunterstützungs-Ausführungsvorrichtung 40 steuert verschiedene bordeigene Einheiten gemäß Verarbeitungsergebnissen (Zielobjektinformationen) der Zielerkennungsvorrichtung 10, um eine vorbestimmte Fahrunterstützung auszuführen.
  • <Radarsensor>
  • Der Radarsensor 20 ist am Frontbereich des eigenen Fahrzeugs eingebaut. Der Radarsensor 20 bildet ein bekanntes FMCW-Radar (Frequency Modulated Continuous Wave = frequenzmodulierter Dauerstrich), das unter Verwendung von Millimeterwellen ein in einem vorbestimmten Abtastbereich vorhandenes Zielobjekt erfasst, zusammen mit einer nachfolgend beschriebenen Zielerfassungsvorrichtung 10 (insbesondere ein Normalerfassungsprozess).
  • Im Einzelnen ist der Radarsensor 20 an einem vorderen Endabschnitt des Fahrzeugs angeordnet. Der Radarsensor 20 sendet zum Abtastbereich Sendewellen aus, bei denen bezüglich der Zeit die Frequenz linear erhöht (Aufwärtsmodulation) und erniedrigt (Abwärtsmodulation) wird, und empfängt Funkwellen, die von einem vorne befindlichen Zielobjekt reflektiert werden. Der Radarsensor 20 mischt die Sendewellen und die empfangenen Wellen, um ein Überlagerungssignal mit einer Überlagerungsfrequenz zu extrahieren, die einem Abstandstand R und einer Relativgeschwindigkeit V zwischen dem Radarsensor 20 und dem Zielobjekt entspricht.
  • Es ist anzumerken, dass im Radarsensor 20 eine Sendeantenne und/oder eine Empfangsantenne durch eine Antennengruppe gebildet ist. Die Kombination aus Sendeantenne und Empfangsantenne wird als Kanal bezeichnet. Der Radarsensor 20 extrahiert ein Überlagerungssignal aus jedem der Kanäle. Der Radarsensor 20 führt mittels eines AD-Wandlers eine AD-Umwandlung des Überlagerungssignals durch und gibt das umgewandelte Überlagerungssignal aus. Das ausgegebene Überlagerungssignal wird in die Zielerkennungsvorrichtung 10 eingegeben.
  • <Bildsensor>
  • Der Bildsensor 30 ist durch eine CCD-Kamera gebildet, die im Nahbereich der Mitte der Vorderseite des eigenen Fahrzeugs angeordnet ist. Diese CCD-Kamera hat einen Erfassungsbereich mit einem Winkelbereich, der breiter ist als der Erfassungsbereich des Radarsensors 20 (siehe 2). Der Bildsensor 30 führt eine bekannte Bildverarbeitung wie zum Beispiel einen Vorlagenabgleich für von der CCD-Kamera aufgenommene Bilddaten durch, um ein vorbestimmtes Zielobjekt (Fahrzeug, Fußgänger oder dergleichen) zu erfassen, das sich in einem Abbildungsbereich befindet.
  • Dann überträgt der Bildsensor 30 Informationen über ein durch diese Verarbeitung erfasstes Zielobjekt (nachstehend als Bildzielobjekt bezeichnet) als Bildzielobjektinformationen an die Zielerkennungsvorrichtung 10. Es ist festzuhalten, dass die Bildzielobjektinformationen Informationen über die Art, Größe und Position (Abstand, Richtung) des erfassten Bildzielobjekts beinhalten.
  • <Fahrunterstützungs-Ausführungsvorrichtung>
  • Die Fahrunterstützungs-Ausführungsvorrichtung 40 umfasst als zu steuernde, bordeigene Einheiten einen Monitor, der verschiedene Bilder anzeigt, und einen Lautsprecher, der akustische Warnungen und akustische Anleitungen ausgibt. Die Fahrunterstützungs-Ausführungsvorrichtung 40 kann als zu steuernde bordeigene Einheiten darüber hinaus verschiedene Steuereinheiten aufweisen, die einen Verbrennungsmotor, einen Antriebsstrangmechanismus und einen Bremsmechanismus und dergleichen steuern, die im eigenen Fahrzeug eingebaut sind.
  • Zielerkennungsvorrichtung
  • Die Zielerkennungsvorrichtung 10 ist in erster Linie durch einen Mikrocomputer gebildet, der eine CPU, einen ROM und einen RAM umfasst, und darüber hinaus einen digitalen Signalprozessor (DSP) zur Ausführung einer Signalverarbeitung wie zum Beispiel einer schnellen Fourier-Transformation (FFT) und dergleichen aufweist. Die Zielerkennungsvorrichtung 10 führt einen Zielerkennungsprozess durch, der Zielobjektinformationen erzeugt, die der Fahrunterstützungs-Ausführungsvorrichtung 40 bereitzustellen sind, und zwar gemäß vom Bildsensor 30 erfassten Bildzielobjektinformationen und einem vom Radarsensor 20 erfassten Überlagerungssignal. In der Zielerkennungsvorrichtung 10 führt die CPU ein im ROM gesteuertes Programm aus, um den Zielerkennungsprozess durchzuführen.
  • <Zielerkennungsprozess>
  • Der Zielerkennungsprozess wird gemäß einem in 3 gezeigten Ablaufplan beschrieben. Wenn der Motor gestartet ist, wird der vorliegende Prozess mit vorbestimmten Messzyklen wiederholt durchgeführt.
  • Zuerst erfasst in S10 die Zielerkennungsvorrichtung 10 ein Überlagerungssignal, das von jedem der Kanäle vom Radarsensor 20 erzeugt wird. Als Nächstes führt in S20 die Zielerkennungsvorrichtung 10 einen Normalerfassungsprozess aus. Beim Normalerfassungsprozess werden unter Verwendung eines bekannten Verfahrens mittels eines FMCW-Radars ein Abstand und eine Relativgeschwindigkeit zwischen jedem Zielobjekt und dem eigenen Fahrzeug erfasst. Als Nächstes erfasst in S30 die Zielerkennungsvorrichtung 10 Bildzielobjektinformationen, die vom Bildsensor 30 erzeugt werden. Im nächsten Schritt S40 führt die Zielerkennungsvorrichtung 10 einen in eine spezifische Richtung gehenden Erfassungsprozess aus, und zwar unter Verwendung von interessierenden Richtungen, die nachfolgend beschrieben und aus den Bildzielobjektinformationen extrahiert werden, und vervollständigt den vorliegenden Prozess.
  • <Normalerfassungsprozess>
  • Als Nächstes wird der in S20 des Zielerkennungsprozesses ausgeführte Normalerfassungsprozess gemäß einem in 4 gezeigten Ablaufplan beschrieben.
  • Zuerst erfasst die Zielerkennungsvorrichtung 10 in S110 einen Abstand zu einem Zielobjekt durch Ausführung einer Abstands-FFT. Das heißt, dass die Zielerkennungsvorrichtung 10 für das erhaltene Überlagerungssignal für jeden der Kanäle und für jede Modulationsphase (Aufwärtsmodulation/Abwärtsmodulation) eine schnelle Fourier-Transformation (FFT) in Zeitreihenrichtung ausführt. Dann extrahiert die Zielerkennungsvorrichtung 10 eine Frequenz (Spitzenfrequenz) als Verarbeitungsergebnis der FFT, deren Signalstärke einen vorbestimmten Schwellenwert übersteigt und die den Spitzenwert auf der Frequenzachse einnimmt.
  • Im nächsten Schritt S120 extrahiert die Zielerkennungsvorrichtung 10 für jede in S110 extrahierte Spitzenfrequenz Signalkomponenten (Amplitude, Phase) in jedem Kanal bei der Spitzenfrequenz. Die Zielerkennungsvorrichtung 10 verwendet die extrahierten Signalkomponenten, um die Richtung eines Zielobjekts mittels eines bekannten digitalen Beamforming (DBF) abzuschätzen.
  • Als Nächstes führt in S130 die Zielerkennungsvorrichtung 10 einen Paarabgleichprozess durch, bei dem für eine Frequenzgruppe der in S110 extrahierten Spitzenfrequenzen die Spitzenfrequenzen zwischen beiden Modulationsphasen (Aufwärtsmodulationsphase/Abwärtsmodulationsphase) ermittelt werden, die als Paar angesehen werden (nachstehend als Spitzenwertpaar bezeichnet), die auf Grundlage von reflektierten Wellen von demselben Zielobjekt erzeugt werden, und zwar beruhend auf Spitzenwertsignalstärke, Ergebnissen der Richtungserfassung in S120 und Verlaufsinformationen.
  • Dann berechnet die Zielerkennungsvorrichtung 10 beruhend auf den Ausdrücken (1) und (2) für jedes in dem Paarabgleichprozess ermittelte Spitzenwertpaar einen Abstand R und eine Relativgeschwindigkeit V zwischen der Zielerkennungsvorrichtung 10 und jedem Zielobjekt aus der Spitzenfrequenz (nachstehend als Überlagerungsfrequenz bezeichnet) fbu (Überlagerungsfrequenz bei der Aufwärtsmodulation) und fbd (Überlagerungsfrequenz bei der Abwärtsmodulation).
  • [Ausdruck 1]
    • Abstand R = (|fbu| + |fbd|)/2 (1)
  • [Ausdruck 2]
    • Relativgeschwindigkeit V = (|fbu| – |fbd|)/2 (2)
  • Schließlich gibt in S140 die Zielerkennungsvorrichtung 10 die Berechnungsergebnisse (Abstand, Relativgeschwindigkeit, Richtung) als Normalzielerfassungsinformationen aus.
  • <Erfassungsprozess, der in eine spezifische Richtung geht>
  • Als Nächstes wird ein in eine spezifische Richtung gehender Erfassungsprozess gemäß einem in 5 gezeigten Ablaufplan beschrieben.
  • Zuerst extrahiert die Zielerkennungsvorrichtung 10 in S210 eine oder mehrere interessierende Richtungen, die vorbestimmte interessierte Informationen erfüllen, indem die vom Bildsensor 30 erfassten Bildzielobjektinformationen (Art, Abstand, Richtung) verwendet werden, um Prioritäten der interessierenden Richtungen anzusetzen.
  • Bei der interessierenden Richtung handelt es sich um eine Richtung, in der Informationen über ein Zielobjekt genau erfasst werden müssen. Die interessierende Richtung kann zum Beispiel eine Richtung sein, in der ein Zielobjekt vorhanden ist, das zu einem Hindernis wird, wenn das Fahrzeug fährt, oder es kann sich um eine Richtung handeln, in der ein fahrbahnseitiges Objekt vorhanden ist, das zur Erkennung einer Fahrspur verwendet wird, auf der das eigene Fahrzeug fährt.
  • Im Einzelnen extrahiert die Zielerkennungsvorrichtung 10 als interessierende Richtung eine Richtung, in der eine Person (ein Fußgänger), ein Fahrzeug und dergleichen vorhanden sind, die durch Ausführung einer Bildverarbeitung wie zum Beispiel einer bekannten Vorlagenabgleichverarbeitung, Randextraktionsverarbeitung oder dergleichen durch den Bildsensor 30 erfasst werden, eine Richtung, in der ein fahrbahnseitiges Objekt wie zum Beispiel ein Kanalisationseinstieg, ein Verkehrsschild oder dergleichen vorhanden sind, oder eine Richtung, die einer gewissen Aufmerksamkeit bedarf und ausgehend von einer Richtung abgeschätzt wird, in der eine weiße Linie und eine Leitplanke vorhanden sind.
  • Zusätzlich können die Prioritäten von interessierenden Richtungen die Eigenschaft haben, dass die Prioritäten z. B. höher sind in der Reihenfolge einer Richtung, in der ein Fußgänger vorhanden ist, einer Richtung, in der ein Zweirad (Motorrad) vorhanden ist, einer Richtung, in der ein Fahrzeug vorhanden ist, und einer Richtung, in der ein fahrbahnseitiges Objekt vorhanden ist.
  • Des Weiteren können die Prioritäten von interessierenden Richtungen die Eigenschaft haben, dass die Prioritäten in einer Richtung höher sind, in der ein Zielobjekt vorhanden ist, das sich nahe dem eigenen Fahrzeug befindet. Des Weiteren können die Prioritäten interessierender Richtungen die Eigenschaft haben, dass die Priorität in einer Richtung höher ist, in der ein Zielobjekt vorhanden ist, das sich nahe der Frontrichtung des eigenen Fahrzeugs befindet. Zusätzlich können die Prioritäten interessierender Richtungen die Eigenschaft haben, dass die Prioritäten in einer Richtung höher sind, in der ein Zielobjekt vorhanden ist, das sich dem eigenen Fahrzeug nähert.
  • Als Nächstes setzt die Zielerkennungsvorrichtung 10 in S220 die interessierende Richtung mit der höchsten Priorität, die sich unter den interessierenden Richtungen befindet, die nicht einer später noch zu beschreibenden Abarbeitung einer hochgenauen Wiederherstellung in S230 bis S260 unterworfen wurden, als spezifische Richtung an. Im nächsten Schritt S230 führt die Zielerkennungsvorrichtung 10 die DBF aus, bei der die spezifische Richtung als Azimutwinkel verwendet wird, indem das in S10 erhaltene Überlagerungssignal verwendet wird. Als Nächstes führt in S240 die Zielerkennungsvorrichtung 10 die Abstands-FFT für Datenreihenerfassungen als Ergebnis der DBF in S230 durch, um Spitzenfrequenzen zu extrahieren.
  • Im nächsten Schritt S250 führt die Zielerkennungsvorrichtung 10 für eine Frequenzgruppe der in S240 extrahierten Frequenzen einen Paarabgleichprozess aus, der dem Prozess ähnlich ist, der in S130 des Normalerfassungsprozesses durchgeführt wird, um den Abstand R und die Relativgeschwindigkeit V zu berechnen. Als Nächstes gibt in S260 die Zielerkennungsvorrichtung 10 die Berechnungsergebnisse (Abstand, Relativgeschwindigkeit, Richtung) als hochgenaue Zielerfassungsinformationen aus.
  • Wenn hierbei die Verarbeitungszeit ausreichend ist (S270: Ja) und eine interessierende Richtung übrig bleibt, die der hochgenauen Erfassungsverarbeitung noch nicht unterworfen wurde (S280: Ja), schreitet der vorliegende Prozess zu S220 fort. Als Nächstes setzt die Zielerkennungsvorrichtung 10 die interessierende Richtung mit höherer Priorität als spezifische Richtung an, um eine Reihe der hochgenauen Erfassungsverarbeitungen durchzuführen. Hier wird die Höchstdauer, die zur einmaligen Ausführung einer hochgenauen Erfassungsverarbeitung benötigt wird, als Höchstdauer einer hochgenauen Erfassung definiert. Wenn die verbleibende Verarbeitungszeit, die in einem Zyklus einer Verarbeitungszeit enthalten ist, größer oder gleich der Höchstdauer der hochgenauen Erfassung ist, stellt die Zielerkennungsvorrichtung 10 in S270 fest, dass die Verarbeitungszeit ausreichend ist.
  • Dabei wird der vorliegende Prozess abgeschlossen, wenn die Verarbeitungszeit nicht ausreichend ist (S270: Nein) oder die interessierende Richtung nicht vorliegt, für die die hochgenaue Erfassungsverarbeitung nicht ausgeführt wurde (S280: Nein).
  • Das heißt, dass, wie in 6(a) gezeigt, der Zielerkennungsprozess mit vorbestimmten Zyklen wiederholt wird. In einem Zyklus einer Verarbeitungszeit werden der Normalerfassungsprozess und die hochgenaue Erfassungsverarbeitung für möglichst viele der interessierenden Richtungen ausgeführt. Zum Beispiel wird, wie in 6(b) gezeigt ist, wenn der Durchsatz der CPU höher wird, die hochgenaue Erfassungsverarbeitung für viel mehr interessierende Richtungen durchgeführt.
  • <Einsatzbeispiel>
  • Mit Bezug auf die 7 bis 9 werden ein Berechnungsbeispiel des Ergebnisses der Zielerfassung des Normalerfassungsprozesses und ein Berechnungsbeispiel des Ergebnisses der hochgenauen Zielerfassung des in eine spezifische Richtung gehenden Erfassungsprozesses beschrieben.
  • <Einsatzbeispiel 1>
  • 7(a) zeigt eine Situation, bei der auf einer Autostraße ein (vorne befindliches) Fahrzeug und ein Zweirad (Motorrad) vor dem eigenen Fahrzeug vorhanden sind und das vorne befindliche Fahrzeug nahe dem Motorrad und nahe einer Leitplanke fährt. In einer solchen Situation werden im Normalerfassungsprozess das vorne befindliche Fahrzeug und das Motorrad, die nahe beieinanderliegen, als integriertes Zielobjekt erfasst (siehe die dicke Linie in 7(b)).
  • Es ist festzuhalten, dass bei dieser Situation beim Normalerfassungsprozess ein Zielobjekt (nachstehend als Phantomobjekt bezeichnet), das erkannt wird, als würde sich das Zielobjekt mit einer Relativgeschwindigkeit in Bezug auf das eigene Fahrzeug bewegen, fälschlicherweise an einer Position erfasst werden kann, an der reflektierte Wellen erzeugt werden, und zwar über die reflektierten Wellen von der Leitplanke nahe dem Fahrzeug (siehe die doppelstrichpunktierte Linie in 7(b)).
  • Im Gegensatz dazu kann bei dem in eine spezifische Richtung gehenden Erfassungsprozess aus den erfassten Bildzielobjektinformationen die Richtung erkannt werden, in der ein vorne befindliches Fahrzeug, ein Motorrad und eine Leitplanke vorhanden sind. Somit kann durch Ausführung der hochgenauen Erfassungsverarbeitung am vorne befindlichen Fahrzeug und Motorrad (wobei die Leitplanke ausgenommen wird), die als interessierende Richtungen erachtet werden, jeweils verhindert werden, dass das vorne befindliche Fahrzeug und das Motorrad von anderen Zielobjekten beeinflusst werden, und das vorne befindliche Fahrzeug und das Motorrad werden einzeln wie in 7(b) gezeigt erfasst.
  • Es ist festzuhalten, dass in dieser wie in 7(c) gezeigten Situation die Richtung, in der das Motorrad vorhanden ist, als interessierende Richtung 1 mit der höchsten Priorität angesetzt wird, und die Richtung, in der das vorne befindliche Fahrzeug vorhanden ist, als interessierende Richtung 2 mit der zweithöchsten Priorität angesetzt wird. In diesem Fall wird das Motorrad zeitlich vor dem vorne befindlichen Fahrzeug erfasst.
  • <Einsatzbeispiel 2>
  • 8(a) zeigt eine Situation, bei der in einem städtischen Raum ein Motorrad, ein vorne befindliches Fahrzeug und ein Fußgänger, die eng voneinander beabstandet sind, vor dem eigenen Fahrzeug vorhanden sind. In so einer Situation werden bei einem Normalerfassungsprozess das Motorrad, das vorne befindliche Fahrzeug und der Fußgänger als integriertes Zielobjekt erfasst (siehe dicke Linie in 8(b)).
  • Im Gegensatz dazu werden bei einem in eine spezifische Richtung gehenden Erfassungsprozess durch Ausführung der hochgenauen Erfassungsverarbeitung jeweils am Motorrad, am vorne befindlichen Fahrzeug und am Fußgänger, die als interessierende Richtungen aufgefasst werden, wie in 8(b) gezeigt, das Motorrad, das vorne befindliche Fahrzeug und der Fußgänger einzeln und separat erfasst. Man beachte, dass in dieser Situation das vorne befindliche Fahrzeug sich näher am eigenen Fahrzeug befindet als das Motorrad. Deswegen wird, wie in 8(c) gezeigt ist, die Richtung, in der das vorne befindliche Fahrzeug vorhanden ist, als interessierende Richtung 2 mit der zweithöchsten Priorität angesetzt, und die Richtung, in der das Motorrad vorhanden ist, wird als interessierende Richtung 3 mit der dritthöchsten Priorität angesetzt. In diesem Fall wird, nachdem der Fußgänger zuerst erfasst worden ist, das vorne befindliche Fahrzeug zeitlich vor dem Motorrad erfasst.
  • 9(a) zeigt eine Situation, bei der zusätzlich zur in 8(a) gezeigten Situation ein Verkehrsschild und ein Kanalisationseinstieg nahe dem Motorrad und dem vorne befindlichen Fahrzeug vorhanden sind. In so einer Situation werden bei dem in eine spezifische Richtung gehenden Erfassungsprozess, wie in 9(b) gezeigt ist, der dem eigenen Fahrzeug nahe liegende Kanalisationseinstieg als interessierende Richtung 4 mit der vierthöchsten Priorität angesetzt, und das Verkehrsschild wird als interessierende Richtung 5 mit der fünfthöchsten Priorität angesetzt. In diesem Fall wird das Verkehrsschild erfasst, nachdem der Kanalisationseinstieg erfasst wurde.
  • <Vorteile>
  • Wie vorstehend beschrieben ist, führt die Zielerkennungsvorrichtung 10 zuerst den Normalerfassungsprozess aus, bei dem es sich um einen Zielerkennungsprozess in Form eines bekannten FMCW-Radars handelt, um ein Zielobjekt über den gesamten Suchbereich zu erfassen.
  • Darüber hinaus führt die Zielerkennungsvorrichtung 10, wenn der Normalerfassungsprozess durchgeführt ist, den in eine spezifische Richtung gehenden Erfassungsprozess durch, indem beruhend auf den Bildzielobjektinformationen die interessierende Richtung verwendet wird, um das in der interessierenden Richtung vorhandene Zielobjekt mit einer Genauigkeit zu erfassen, die höher ist als die, die erhalten wird, wenn der Normalerfassungsprozess durchgeführt wird.
  • Dadurch kann bei Ausführung des Normalerfassungsprozesses die Zielerkennungsvorrichtung 10 Erfassungsergebnisse des Zielobjekts erhalten (Normalzielerfassungsinformationen), die den gesamten Suchbereich berücksichtigen. Des Weiteren führt bei Durchführung eines in eine spezifische Richtung gehenden Erfassungsprozesses für das in einem Bereich vorhandene Zielobjekt, der einer besonders genauen Erfassung bedarf, die Zielerkennungsvorrichtung 10 den in eine spezifische Richtung gehenden Erfassungsprozess durch, um Erfassungsergebnisse mit höherer Genauigkeit (hochgenaue Zielerfassungsinformationen) zu erhalten.
  • Zusätzlich kann durch Ausführung des in eine spezifische Richtung gehenden Erfassungsprozesses die Zielerkennungsvorrichtung 10 auch ein Zielobjekt erfassen, dessen Signalstärke der Spitzenfrequenz den vorbestimmten Schwellenwert in der im Normalerfassungsprozess durchgeführten Abstands-FFT nicht überschritten hat.
  • Konkret kann es der Fall sein, wie in 7 bis 9 gezeigt ist, wenn mehrere nahe beieinanderliegende Zielobjekte vor dem eigenen Fahrzeug vorhanden sind, dass das Zielobjekt (z. B. ein Fußgänger, ein Motorrad oder dergleichen im Nahbereich des eigenen Fahrzeugs), das Gegenstand einer Ausweichsteuerung ist, genau erfasst werden muss. Die Zielerkennungsvorrichtung 10 der vorliegenden Ausführungsform kann für eine solche Anwendung zweckmäßig verwendet werden.
  • Zusätzlich führt in einer Situation, bei der sich das vorne befindliche Fahrzeug nahe einem fahrbahnseitigen Objekt befindet, wie zum Beispiel einer Leitplanke, die durchgehend entlang einer Fahrstraße vorhanden ist, die Zielerkennungsvorrichtung 10 den in eine spezifische Richtung gehenden Erfassungsprozess nur an der Richtung durch, in der das vorne befindliche Fahrzeug vorhanden ist, das als die interessierende Richtung erachtet wird. Deshalb können für das vorne befindliche Fahrzeug Zielerfassungsergebnisse mit hoher Genauigkeit erhalten werden, bei denen der Einfluss eines Phantomobjekts aufgrund von durch die Leitplanke reflektierten Wellen unterdrückt ist.
  • Die Zielerkennungsvorrichtung 10 ist des Weiteren so konfiguriert, dass sie nach Erlangung der Normalzielerfassungsinformationen hochgenaue Zielerfassungsinformationen erfasst, die möglichst viele interessierende Richtungen berücksichtigen. Deshalb kann die Fahrunterstützungs-Ausführungsvorrichtung 40, die verschiedene bordeigene Einheiten gemäß den Zielobjektinformationen steuert, bei denen es sich um die Verarbeitungsergebnisse der Zielerkennungsvorrichtung 10 handelt, eine vorbestimmte Fahrunterstützung mit höherer Genauigkeit ausführen.
  • Der in 3 gezeigte Schritt S10 entspricht einer Datenerfassungseinrichtung. S30 korrespondiert mit einer Bilderfassungseinrichtung. S40 entspricht einer Erfassungseinrichtung. Zusätzlich korrespondiert der in 5 gezeigte Schritt S210 mit einer Einrichtung zur Extrahierung von interessierenden Richtungen und einer Reihenfolgeneinstelleinrichtung. S230 bis S260 entsprechen einer Zielerfassungs-Ausführungseinrichtung. Des Weiteren entsprechen die in 4 gezeigten Schritte S110 und S130 einer Abstandsberechnungseinrichtung. S120 und S130 korrespondieren mit einer Richtungsberechnungseinrichtung.
  • Des Weiteren entspricht der Radarsensor 20 einem Sende-/Empfangsgerät. Das Überlagerungssignal entspricht empfangenen Daten. Zusätzlich entspricht der Kanal, bei dem es sich um eine Kombination aus der Sendeantenne und der Empfangsantenne des Radarsensors 20 handelt, einer Sende- und Empfangsantenne.
  • <Zweite Ausführungsform>
  • Es wird nun die zweite Ausführungsform beschrieben.
  • Ein in 10 gezeigtes Fahrunterstützungssystem 2 unterscheidet sich von der ersten Ausführungsform darin, dass die Normalzielerfassungsinformationen von der Zielerkennungsvorrichtung 10 an den Bildsensor 30 ausgegeben werden. Zusätzlich unterscheidet sich in diesem Zusammenhang, wie in 11 gezeigt ist, das Fahrunterstützungssystem 2 von der ersten Ausführungsform dahingehend, dass zu dem in 4 gezeigten Normalerfassungsprozess ein Schritt S150 hinzukommt.
  • Das heißt, dass gemäß dem Normalerfassungsprozess der vorliegenden Ausführungsform, wie in 11 gezeigt, nach den bis S140 ausgeführten Schritten die Normalzielerfassungsinformationen (Abstand, Richtung) in S150 an den Bildsensor 30 ausgegeben werden. Dann wird der vorliegende Prozess abgeschlossen.
  • Gemäß dem wie vorstehend beschrieben ausgelegten Fahrunterstützungssystem 2 schätzt der Bildsensor 30 beruhend auf den Normalzielerfassungsinformationen den Bereich im Bildschirm ab, in dem ein infrage kommendes Zielobjekt vorhanden ist, und führt einen Bilderkennungsprozess wie zum Beispiel einen Musterabgleich nur für diesen abgeschätzten Einstellbereich durch. Das heißt, dass in einem vom Bildsensor 30 erfassten, aufgenommenen Bild der Bereich, aus dem die interessierende Richtung extrahiert wird, auf diesen Einstellbereich beschränkt wird. Somit kann der Durchsatz der Bildverarbeitung reduziert werden.
  • <Andere Ausführungsformen>
  • Vorstehend sind Ausführungsformen der vorliegenden Erfindung beschrieben. Die vorliegende Erfindung ist jedoch nicht auf die obigen Ausführungsformen beschränkt, sondern kann innerhalb des Umfangs, der vom Gegenstand der vorliegenden Erfindung nicht abweicht, in verschiedenen Aspekten umgesetzt werden.
    • (1) In den obigen Ausführungsformen wird die DBF in dem in 4 gezeigten Schritt S120 durchgeführt. Stattdessen kann in S120 eine andere bekannte Richtungsberechnung (z. B. Richtungs-FET) ausgeführt werden.
    • (2) In den obigen Ausführungsformen ist die Zielerkennungsvorrichtung 10 so ausgelegt, dass sie den Normalerfassungsprozess und den in eine spezifische Richtung gehenden Erfassungsprozess durch Timesharing bzw. im Zeitmultiplexbetrieb durchführt. Dies stellt jedoch keine Einschränkung dar. Die Zielerkennungsvorrichtung 10 kann so ausgelegt sein, dass sie den Normalerfassungsprozess und den in eine spezifische Richtung gehenden Erfassungsprozess parallel ausführt.
    • (3) In den obigen Ausführungsformen wird als Beispiel für eine interessierende Richtung eine Richtung bereitgestellt, in der ein Fußgänger, ein Fahrzeug, ein Motorrad, ein fahrbahnseitiges Objekt oder dergleichen vorhanden ist. Dies stellt jedoch keine Einschränkung dar. Als interessierende Richtung kann auch eine Richtung angesehen werden, in der eine andere Person oder ein anderer Gegenstand vorhanden ist. Zusätzlich können die Prioritäten interessierender Richtungen Eigenschaften haben, die von Inhalten der Verarbeitung abhängen, die von der Fahrunterstützungs-Ausführungsvorrichtung 40 durchgeführt wird.
    • (4) In den obigen Ausführungsformen sind die Suchbereiche des Radarsensors 20 und des Bildsensors 30 in einem Bereich vor dem eigenen Fahrzeug angesetzt. Dies stellt jedoch keine Einschränkung dar. Bei dem Suchbereich kann es sich um das Umfeld des eigenen Fahrzeugs handeln, zum Beispiel um den hinteren, seitlichen Bereich des eigenen Fahrzeugs oder dergleichen.
    • (5) In den obigen Ausführungsformen ist ein Beispiel erläutert, bei dem die Zielerkennungsvorrichtung 10 auf eine in einem Kraftfahrzeug eingebaute Vorrichtung angewendet wird. Dies stellt jedoch keine Einschränkung dar. Die Zielerkennungsvorrichtung 10 kann in ein Motorrad, einen Elektrozug oder einen anderen Wagen oder dergleichen eingebaut sein.
    • (6) Die Komponenten der Zielerkennungsvorrichtung 10, die in den obigen Ausführungsformen beispielhaft dargestellt sind, können mittels Hardware, Software oder durch eine Kombination aus Hardware und Software realisiert werden. So kann zum Beispiel eine Computereinheit (z. B. ein Mikrocomputer), die den vorstehend beschriebenen Prozess (das Programm) ausführt, zumindest einen Teil der Zielerkennungsvorrichtung 10 bilden. Zusätzlich handelt es sich bei diesen Komponenten um funktionelle und konzeptionelle Teile, und ein Teil oder die Gesamtheit der Komponenten können funktionsmäßig oder physikalisch getrennt oder aber verbunden sein.
    • (7) Die obigen Ausführungsformen stellen nur Beispiele von Ausführungsformen dar, auf die die vorliegende Erfindung angewendet wird. Die vorliegende Erfindung kann in verschiedenen Aspekten wie zum Beispiel als Zielerkennungsvorrichtung, Zielerkennungsverfahren, als Programm, um es einem Computer zu ermöglichen, als die Zielerkennungsvorrichtung zu fungieren, und als Aufzeichnungsmedium realisiert sein, auf dem das Programm gespeichert ist.
  • Die obige Zielerkennungsvorrichtung ist in ein Fahrzeug eingebaut. Die Datenerfassungseinrichtung erfasst empfangene Daten vom Sende-/Empfangsgerät mit mehreren Sende- und Empfangskanälen, die Radarwellen aussenden und empfangen.
  • Zusätzlich erfasst die Bilderfassungseinrichtung Bilddaten vom Bildsensor, der ein Bild eines Zustands um das eigene Fahrzeug herum aufnimmt. Des Weiteren erfasst die Erfassungseinrichtung beruhend auf den empfangenen Daten und den Bilddaten ein Zielobjekt, das Radarwellen reflektiert hat.
  • In der Erfassungseinrichtung werden von der Einrichtung zur Extrahierung von interessierenden Richtungen aus den von der Bilderfassungseinrichtung erfassten Bilddaten eine oder mehrere interessierende Richtungen extrahiert, in der bzw. in denen Informationen über ein Zielobjekt exakt erfasst werden müssen. Die Zielerfassungs-Ausführungseinrichtung führt das Beamforming für jede der interessierenden Richtungen unter Verwendung der von der Datenerfassungseinrichtung erfassten, empfangenen Daten durch, um eine Zielerfassung mittels der Datenreihe durchzuführen, die durch die Ausführung des Beamforming erhalten wurde.
  • Gemäß der Zielerkennungsvorrichtung wird die Richtung des Zielobjekts als eine aus den Bilddaten extrahierte interessierende Richtung erfasst, und der Abstand zum Zielobjekt wird durch Ausführung des Beamforming für jede interessierende Richtung erfasst. Deshalb kann unter Verwendung der Informationen des Radarsensors und des Bildsensors das um das eigene Fahrzeug herum vorhandene Zielobjekt genau erfasst werden.
  • Bezugszeichenliste
  • 1, 2
    Fahrunterstützungssystem
    10
    Zielerkennungsvorrichtung
    20
    Radarsensor
    30
    Bildsensor
    40
    Fahrunterstützungs-Ausführungsvorrichtung

Claims (8)

  1. Zielerkennungsvorrichtung, die in ein Fahrzeug eingebaut ist, dadurch gekennzeichnet, dass die Vorrichtung aufweist: eine Datenerfassungseinrichtung (S10), die empfangene Daten von einem Sende-/Empfangsgerät erhält, das mehrere Sende- und Empfangskanäle hat, die Radarwellen senden und empfangen; eine Bilderfassungseinrichtung (S30), die Bilddaten von einem Bildsensor erhält, der ein Bild eines Zustands um ein eigenes Fahrzeug herum aufnimmt; und eine Erfassungseinrichtung (S40), die auf Grundlage der empfangenen Daten und der Bilddaten ein Zielobjekt erfasst, das die Radarwellen reflektiert hat.
  2. Zielerkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Erfassungseinrichtung aufweist: eine Einrichtung (S210) zur Extrahierung von interessierenden Richtungen, die aus den durch die Bilderfassungseinrichtung erfassten Bilddaten eine oder mehrere interessierende Richtungen extrahiert, in der bzw. denen Informationen über das Zielobjekt exakt erfasst werden müssen, und eine Zielerfassungs-Ausführungseinrichtung (S230 bis S260), die unter Verwendung der von der Datenerfassungseinrichtung erfassten, empfangenen Daten für jede der interessierenden Richtungen ein Beamforming durchführt, um eine Zielerfassung unter Verwendung einer Datenreihe auszuführen, die durch Ausführen von Beamforming erhalten wurde.
  3. Zielerkennungsvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Zielerfassungs-Ausführungseinrichtung eine Abstands-FFT für die Datenreihe durchführt, die durch Ausführung von Beamforming erhalten wurde.
  4. Zielerkennungsvorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Vorrichtung aufweist: eine Abstandsberechnungseinrichtung (S110, S130), die eine Abstands-FFT für die empfangenen Daten durchführt, die von der Datenerfassungseinrichtung für jeden der Sende- und Empfangskanäle erhalten wurden, um Spitzenfrequenzen zu erfassen, und die eine Richtungsberechnung durchführt; und eine Richtungsberechnungseinrichtung (S120, S130), die für jede von der Abstandsberechnungseinrichtung erfassten Spitzenfrequenz eine Richtungsberechnung durchführt.
  5. Zielerkennungsvorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass in den von der Bilderfassungseinrichtung erfassten Bilddaten ein Bereich, aus dem durch die Einrichtung zur Extrahierung von interessierenden Richtungen die interessierende Richtung extrahiert wird, auf einen Einstellbereich begrenzt wird, der unter Verwendung des durch die Abstandsberechnungseinrichtung berechneten Abstands und der durch die Richtungsberechnungseinrichtung berechneten Richtung eingestellt wird.
  6. Zielerkennungsvorrichtung nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die Einrichtung zur Extrahierung von interessierenden Richtungen eine Reihenfolgeneinstelleinrichtung (S210) umfasst, die für mehrere, aus den Bilddaten extrahierte interessierende Richtungen Prioritäten ansetzt; und die Zielerfassungs-Ausführungseinrichtung die Strahlformung gemäß den von der Reihenfolgeneinstelleinrichtung angesetzten Prioritäten ausführt.
  7. Zielerkennungsvorrichtung nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die Einrichtung zur Extrahierung von interessierenden Richtungen als interessierende Richtung eine Richtung verwendet, in der das ein Hindernis darstellende Zielobjekt vorhanden ist, wenn das Fahrzeug fährt.
  8. Zielerkennungsvorrichtung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass die Einrichtung zur Extrahierung von interessierenden Richtungen als interessierende Richtung eine Richtung verwendet, in der ein fahrbahnseitiges Objekt vorhanden ist, das zur Erkennung einer Fahrspur verwendet wird, auf dem das eigene Fahrzeug fährt.
DE112014001118.5T 2013-03-04 2014-03-03 Zielerkennungsvorrichtung Pending DE112014001118T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-041878 2013-03-04
JP2013041878A JP6212880B2 (ja) 2013-03-04 2013-03-04 物標認識装置
PCT/JP2014/055268 WO2014136718A1 (ja) 2013-03-04 2014-03-03 物標認識装置

Publications (1)

Publication Number Publication Date
DE112014001118T5 true DE112014001118T5 (de) 2015-12-31

Family

ID=51491235

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014001118.5T Pending DE112014001118T5 (de) 2013-03-04 2014-03-03 Zielerkennungsvorrichtung

Country Status (4)

Country Link
US (1) US10061017B2 (de)
JP (1) JP6212880B2 (de)
DE (1) DE112014001118T5 (de)
WO (1) WO2014136718A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6212880B2 (ja) * 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
US9939525B2 (en) * 2013-11-29 2018-04-10 L.H. Kosowsky & Associates, Inc. Imaging system for obscured environments
DE112014006876T5 (de) * 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
US9586585B2 (en) * 2014-11-20 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to traffic officer presence
KR20160112537A (ko) 2015-03-19 2016-09-28 현대자동차주식회사 차량, 및 차량의 제어방법
JP2016197018A (ja) 2015-04-02 2016-11-24 株式会社デンソー 衝突回避支援装置
JP6531903B2 (ja) * 2015-06-01 2019-06-19 パナソニックIpマネジメント株式会社 物体検出装置
JP6150950B1 (ja) 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
WO2017111931A1 (en) * 2015-12-22 2017-06-29 Intel Corporation Rfid location detection
KR101907875B1 (ko) * 2017-03-16 2018-10-15 주식회사 만도 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법
JPWO2018180245A1 (ja) * 2017-03-28 2020-05-14 パイオニア株式会社 出力装置、制御方法、プログラム及び記憶媒体
WO2019008640A1 (ja) * 2017-07-03 2019-01-10 三菱電機株式会社 信号処理装置、信号処理方法、信号処理プログラム及びレーダシステム
US20200241549A1 (en) 2017-10-12 2020-07-30 Sony Corporation Information processing apparatus, moving apparatus, and method, and program
DE102017123904A1 (de) * 2017-10-13 2019-04-18 Conti Temic Microelectronic Gmbh Verfahren zur Rechenzeitreduzierung bei der Berechnung von Radarinformationen
KR102428110B1 (ko) * 2017-11-27 2022-08-02 현대모비스 주식회사 레이더 신호 처리 장치 및 방법
DE102018200814B3 (de) 2018-01-18 2019-07-18 Audi Ag Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug
JP6687289B2 (ja) * 2018-07-05 2020-04-22 三菱電機株式会社 レーダ装置及びレーダ装置の制御方法
JP7374098B2 (ja) * 2018-08-09 2023-11-06 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
JP6735801B2 (ja) * 2018-10-16 2020-08-05 三菱電機株式会社 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法
JP2023078488A (ja) * 2020-04-13 2023-06-07 ソニーセミコンダクタソリューションズ株式会社 物体検出装置、情報処理装置および物体検出方法
CN113879312B (zh) * 2021-11-01 2023-02-28 无锡威孚高科技集团股份有限公司 基于多传感器融合的前向目标选择方法、装置和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123303B2 (ja) * 1992-07-21 2001-01-09 日産自動車株式会社 車両用画像処理装置
JP3766909B2 (ja) * 2001-11-30 2006-04-19 株式会社日立製作所 走行環境認識方法および装置
DE102004038494A1 (de) * 2004-08-07 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
JP4530827B2 (ja) * 2004-12-08 2010-08-25 ダイハツ工業株式会社 画像処理方法及び画像処理装置
WO2006067857A1 (ja) 2004-12-24 2006-06-29 Fujitsu Limited 到来方向推定装置及びプログラム
JP2006234513A (ja) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc 障害物検出装置
JP4211809B2 (ja) 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
JP5012270B2 (ja) 2007-07-10 2012-08-29 トヨタ自動車株式会社 物体検出装置
JP2009229374A (ja) * 2008-03-25 2009-10-08 Fujitsu Ten Ltd レーダ装置、及び方位角検出方法
JP5062032B2 (ja) * 2008-05-20 2012-10-31 株式会社デンソー レーダ装置、補償量算出方法
JP5470762B2 (ja) 2008-07-08 2014-04-16 富士通株式会社 物体検出装置、物体検出プログラム、および物体検出方法
JP4434296B1 (ja) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 物体検出装置
JP5407898B2 (ja) * 2010-01-25 2014-02-05 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP5304804B2 (ja) * 2011-01-12 2013-10-02 株式会社デンソー 境界検出装置、および境界検出プログラム
DE102011006554A1 (de) * 2011-03-31 2012-10-04 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bereitstellung eines Signals für eine Lichtsteuerungseinheit
TWI468647B (zh) * 2011-10-13 2015-01-11 Altek Autotronics Corp 障礙物偵測系統及其障礙物偵測方法
US9618605B2 (en) * 2011-12-30 2017-04-11 Flir Systems, Inc. Radar system providing multiple waveforms for long range and short range target detection
JP5863481B2 (ja) * 2012-01-30 2016-02-16 日立マクセル株式会社 車両用衝突危険予測装置
US8994581B1 (en) * 2012-09-25 2015-03-31 Adam Brown Direction of arrival (DOA) estimation using multiple offset receive channels
US9423498B1 (en) * 2012-09-25 2016-08-23 Google Inc. Use of motion data in the processing of automotive radar image processing
JP6212880B2 (ja) * 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
JP6314666B2 (ja) * 2014-06-02 2018-04-25 株式会社デンソー 前照灯制御装置

Also Published As

Publication number Publication date
JP2014169922A (ja) 2014-09-18
US20160003936A1 (en) 2016-01-07
WO2014136718A1 (ja) 2014-09-12
JP6212880B2 (ja) 2017-10-18
US10061017B2 (en) 2018-08-28

Similar Documents

Publication Publication Date Title
DE112014001118T5 (de) Zielerkennungsvorrichtung
EP3485290B1 (de) Verfahren und system zur abtastung eines objekts
DE112015000715B4 (de) Vorrichtung zum Erfassen einer Achsenfehlausrichtung eines Strahlensensors
EP3540457A1 (de) Identifikation von objekten mittels radardaten
DE102011082203B4 (de) Radarvorrichtung zur Verwendung in einem Fahrzeug
DE102014205024B4 (de) Radareinrichtung und signalverarbeitungsverfahren
DE102016223779B4 (de) FMCW-Radarvorrichtung
DE112017002651T5 (de) Zielerfassungsvorrichtung
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
DE112012006868B4 (de) Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsverfahren
DE102014101400B4 (de) Zielerkennungsvorrichtung
DE112014000682B4 (de) Vorrichtung zur erfassung eines ziels in der umgebung eines fahrzeugs
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE102015206651A1 (de) Fahrzeugfahrunterstützungsvorrichtung zum ausführen von kollisionsvermeidungsbetrieben auf der grundlage einer position und einer bewegungsbedingung eines zielobjekts
DE112017004333B4 (de) Umgebungsüberwachvorrichtung und Umgebungsüberwachverfahren
DE102015109759A1 (de) Fahrzeugradarsteuerung
DE112016001530T5 (de) Fahrzeugsteuerungsvorrichtung und Fahrzeugsteuerungsverfahren
DE102007020791A1 (de) Fahrspurmarkierungs-Erkennungsvorrichtung
DE102014110667A1 (de) Vefahren zum Klassifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE112016001529T5 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
EP2799901A2 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
DE102014009648A1 (de) Verfahren und Vorrichtung zum Abtasten einer Straßenumgebung basierend auf einem frequenzmodulierten Dauerstrichradar
DE102017102506A1 (de) Fahrzeugerfassung und -verfolgung basierend auf rädern unter verwendung von radar und sicht
DE112016004739T5 (de) Fahrzeugsteuervorrichtung und Fahrzeugsteuerverfahren
DE102015208599A1 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication