DE112017008157T5 - Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren - Google Patents

Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren Download PDF

Info

Publication number
DE112017008157T5
DE112017008157T5 DE112017008157.2T DE112017008157T DE112017008157T5 DE 112017008157 T5 DE112017008157 T5 DE 112017008157T5 DE 112017008157 T DE112017008157 T DE 112017008157T DE 112017008157 T5 DE112017008157 T5 DE 112017008157T5
Authority
DE
Germany
Prior art keywords
sensor
detection data
data
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017008157.2T
Other languages
English (en)
Inventor
Koji Iida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017008157T5 publication Critical patent/DE112017008157T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bereitgestellt wird eine Hinderniserkennungsvorrichtung umfassend: einen ersten Sensor und einen zweiten Sensor, die konfiguriert sind, ein Objekt in der Nähe eines Fahrzeugs zu detektieren; eine Berechnungseinheit, die konfiguriert ist, basierend auf ersten Detektionsdaten über ein erstes Objekt, das von dem ersten Sensor detektiert wird, und zweiten Detektionsdaten über ein zweites Objekt, das von dem zweiten Sensor detektiert wird, einen Indexwert zu berechnen, um zu identifizieren, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind; eine Bestimmungseinheit, die konfiguriert ist, zu bestimmen, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, indem sie den Indexwert mit einem im Voraus festgelegten Schwellenwert vergleicht; und eine Korrektureinheit, die konfiguriert ist, wenn die Bestimmungseinheit bestimmt hat, dass das erste Objekt und das zweite Objekt dasselbe Objekt sind, einen Detektionsfehler zwischen dem ersten Sensor und dem zweiten Sensor basierend auf den ersten Detektionsdaten und den zweiten Detektionsdaten zu berechnen und korrigierte Detektionsdaten zu erzeugen, um den Detektionsfehler zu entfernen. Wenn dasselbe Objekt tatsächlich erkannt wurde, ist es daher möglich, dasselbe Objekt genau zu identifizieren, ohne dass dasselbe Objekt fälschlicherweise als separate Objekte erkannt wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Hinderniserkennungsvorrichtung und ein Hinderniserkennungsverfahren zum Erkennen eines Hindernisses mit Hilfe eines fahrzeuginternen Sensors.
  • Stand der Technik
  • Bisher wurde eine Hinderniserkennungsvorrichtung vorgeschlagen, die so konfiguriert ist, dass sie ein Hindernis in der Nähe eines Fahrzeugs erkennt, indem sie eine Vielzahl von Sensorinformationen in Kombination verwendet (siehe z.B. Patentliteratur 1).
  • Die Hinderniserkennungsvorrichtung aus Patentliteratur 1 umfasst eine Frontkamera und ein Millimeterwellenradar als Sensoren. Die Frontkamera erfasst erste Parameterinformationen über ein Hindernis, und das Millimeterwellen-Radar erfasst zweite Parameterinformationen über das Hindernis. Die Hinderniserkennungsvorrichtung von Patentliteratur 1 berechnet auf der Grundlage der ersten Parameterinformation und der zweiten Parameterinformation einen Betrag der axialen Abweichung eines Azimutwinkels der Frontkamera oder des Millimeterwellen-Radars und verwendet den berechneten Betrag der axialen Abweichung, um die axiale Abweichung des Azimutwinkels der Frontkamera oder des Millimeterwellen-Radars zu korrigieren.
  • Zitatliste
  • Patentliteratur
  • [PTL 1] JP 2010-249613 A
  • Zusammenfassung der Erfindung
  • Technische Aufgabe
  • Die verwandte Technik hat jedoch das folgende Problem.
  • Die an einem Fahrzeug montierten Sensoren sind z.B. eine Kamera, ein Millimeterwellenradar, ein Laserradar, ein Ultraschallsensor und ein Infrarotsensor. Wenn mehrere Sensoren dasselbe Objekt detektieren, tritt je nach Art dieser Sensoren ein Detektionsfehler (im Folgenden als „Bias-Fehler“ bezeichnet) unter den mehreren Sensoren auf. Der Bias-Fehler ändert sich manchmal vorübergehend aufgrund der Fahrumgebung des Fahrzeugs, und daher ist es schwierig, den Bias-Fehler abzuschätzen.
  • Die Hinderniserkennungsvorrichtung der verwandten Technik nimmt das Vorhandensein dieses Bias-Fehlers nicht an. Infolgedessen hat die Hinderniserkennungsvorrichtung der verwandten Technik das Problem, dass selbst dann, wenn die mehreren Sensoren tatsächlich dasselbe Objekt erkannt haben, die mehreren Sensoren dasselbe Objekt fälschlicherweise als getrennte Objekte erkennen, und zwar aufgrund des Bias-Fehlers unter diesen Sensoren.
  • Die vorliegende Erfindung ist gemacht worden, um das oben erwähnte Problem zu lösen, und hat eine Aufgabe, eine Hinderniserkennungsvorrichtung und ein Hinderniserkennungsverfahren bereitzustellen, die in der Lage sind, genau zu identifizieren, wenn eine Vielzahl von Sensoren tatsächlich dasselbe Objekt erkannt hat, ohne fälschlicherweise dasselbe Objekt als separate Objekte zu erkennen.
  • Lösung der Aufgabe
  • Nach einer Ausführungsform der vorliegenden Erfindung ist eine Vorrichtung zur Hinderniserkennung bereitgestellt, umfassend: einen ersten Sensor und einen zweiten Sensor, die konfiguriert sind, ein Objekt in der Nähe eines Fahrzeugs zu erkennen; eine Berechnungseinheit, die konfiguriert ist, basierend auf ersten Detektionsdaten über ein erstes Objekt, das von dem ersten Sensor detektiert wird, und zweiten Detektionsdaten über ein zweites Objekt, das von dem zweiten Sensor detektiert wird, einen Indexwert zu berechnen, um zu identifizieren, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind; eine Bestimmungseinheit, die konfiguriert ist, zu bestimmen, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und eine Korrektureinheit, die konfiguriert ist, wenn die Bestimmungseinheit festgestellt hat, dass das erste Objekt und das zweite Objekt dasselbe Objekt sind, einen Detektionsfehler zwischen dem ersten Sensor und dem zweiten Sensor auf der Grundlage der ersten Detektionsdaten und der zweiten Detektionsdaten zu berechnen und korrigierte Detektionsdaten zu erzeugen, um den Detektionsfehler zu beseitigen.
  • Ferner ist gemäß einer Ausführungsform der vorliegenden Erfindung eine Hinderniserkennungsvorrichtung bereitgestellt, umfassend: einen ersten Sensor, der konfiguriert ist, ein Objekt in der Nähe eines Fahrzeugs zu erkennen; eine Vorhersageeinheit, die konfiguriert ist, die Bewegung des Objekts auf der Grundlage der zuvor von dem ersten Sensor detektierten Detektionsdaten vorherzusagen, um einen Vorhersagewert zu einer aktuellen Zeit als dritte Detektionsdaten für ein drittes Objekt zu erzeugen; eine Berechnungseinheit, die konfiguriert ist, basierend auf ersten Detektionsdaten über ein erstes Objekt, das durch den ersten Sensor detektiert wird, und den dritten Detektionsdaten über das dritte Objekt, das durch die Vorhersageeinheit detektiert wird, einen Indexwert zu berechnen, zum Identifizieren, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind; und eine Bestimmungseinheit, die konfiguriert ist, zu bestimmen, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und eine Korrektureinheit, die konfiguriert ist, wenn die Bestimmungseinheit festgestellt hat, dass das erste Objekt und das dritte Objekt dasselbe Objekt sind, einen Bias-Fehler zwischen einem Ergebnis der Detektion durch den ersten Sensor und einem Ergebnis der Erzeugung durch die Vorhersageeinheit auf der Grundlage der ersten Detektionsdaten und der dritten Detektionsdaten zu berechnen und korrigierte Detektionsdaten zu erzeugen, so dass der Bias-Fehler beseitigt wird.
  • Ferner ist gemäß einer Ausführungsform der vorliegenden Erfindung ein Hinderniserkennungsverfahren bereitgestellt, das von einer Steuerung auszuführen ist, die konfiguriert ist, Funktionen der Berechnungseinheit, der Bestimmungseinheit und der Korrektureinheit umzusetzen, wobei das Hinderniserkennungsverfahren die folgenden Schritte umfasst: Berechnen des Indexwerts zum Identifizieren, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, auf der Grundlage der ersten Detektionsdaten über das erste Objekt, die von dem ersten Sensor detektiert werden, und der zweiten Detektionsdaten über das zweite Objekt, die von dem zweiten Sensor detektiert werden; Bestimmen, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, durch Vergleichen des Indexwertes mit einem im Voraus festgelegten Schwellenwert; und Berechnen, wenn im Bestimmungsschritt festgestellt wird, dass das erste Objekt und das zweite Objekt dasselbe Objekt sind, des Detektionsfehlers zwischen dem ersten Sensor und dem zweiten Sensor auf der Grundlage der ersten Detektionsdaten und der zweiten Detektionsdaten, und Erzeugen korrigierter Detektionsdaten, um den Detektionsfehler zu beseitigen.
  • Ferner ist gemäß einer Ausführungsform der vorliegenden Erfindung eine Hinderniserkennungsverfahren vorgesehen, das von einer Steuerung auszuführen ist, die konfiguriert ist, Funktionen der Vorhersageeinheit, der Berechnungseinheit, der Bestimmungseinheit und der Korrektureinheit umzusetzen, wobei das Hinderniserkennungsverfahren die folgenden Schritte umfasst: Vorhersagen der Bewegung des Objekts auf der Grundlage von Detektionsdaten, die zuvor von dem ersten Sensor detektiert wurden, und Erzeugen eines Vorhersagewerts zu einer aktuellen Zeit als dritte Detektionsdaten für das dritte Objekt; Berechnen des Indexwertes zur Identifizierung, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, basierend auf den ersten Detektionsdaten über das erste Objekt, die von dem ersten Sensor detektiert wurden, und den dritten Detektionsdaten über das dritte Objekt, die in dem Vorhersageschritt erzeugt wurden; Bestimmen, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und Berechnung, wenn im Bestimmungsschritt festgestellt wird, dass das erste Objekt und das dritte Objekt dasselbe Objekt sind, des Bias-Fehlers zwischen einem Ergebnis der Detektion durch den ersten Sensor und einem Ergebnis der Erzeugung im Vorhersageschritt auf der Grundlage der ersten Detektionsdaten und der dritten Detektionsdaten, und Erzeugung korrigierter Detektionsdaten, um den Detektionsfehler zu beseitigen.
  • Vorteilhafte Effekte der Erfindung
  • Die Hinderniserkennungsvorrichtung gemäß der vorliegenden Erfindung ist so konfiguriert, dass sie den Bias-Fehler unter einer Vielzahl von Sensoren korrigiert, wenn Informationen aus der Vielzahl von Sensoren in Kombination verwendet werden, um ein Hindernis zu erkennen. Infolgedessen ist es möglich, die Hinderniserkennungsvorrichtung und das Hinderniserkennungsverfahren zu erhalten, die in der Lage sind, genau zu identifizieren, wenn die mehreren Sensoren tatsächlich dasselbe Objekt detektiert haben, ohne fälschlicherweise dasselbe Objekt als getrennte Objekte zu erkennen.
  • Figurenliste
    • 1 ist ein Blockdiagramm zur Veranschaulichung einer Konfiguration einer Hinderniserkennungsvorrichtung gemäß jeder der ersten, zweiten und dritten Ausführungsformen der vorliegenden Erfindung.
    • 2 ist ein Flussdiagramm zur Veranschaulichung der Verarbeitung, die von der Hinderniserkennungsvorrichtung gemäß der ersten, zweiten und dritten Ausführungsform der vorliegenden Erfindung ausgeführt werden soll.
    • 3 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der ersten Ausführungsform der vorliegenden Erfindung.
    • 4 ist ein Diagramm zur Veranschaulichung eines Fehlerberechnungsverfahrens in der ersten Ausführungsform der vorliegenden Erfindung.
    • 5 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der zweiten Ausführungsform der vorliegenden Erfindung.
    • 6 ist ein erläuterndes Diagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der zweiten Ausführungsform der vorliegenden Erfindung.
    • 7 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der dritten Ausführungsform der vorliegenden Erfindung.
    • 8A ist ein erläuterndes Diagramm der Fehlerkorrekturverarbeitung in der dritten Ausführungsform der vorliegenden Erfindung.
    • 8B ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten der vertikalen Positionen in der dritten Ausführungsform der vorliegenden Erfindung.
    • 8C ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten horizontaler Positionen in der dritten Verkörperung der vorliegenden Erfindung.
    • 9 ist ein Blockdiagramm zur Veranschaulichung einer Konfiguration einer Vorrichtung zur Hinderniserkennung gemäß der vierten, fünften und sechsten Ausführungsform der vorliegenden Erfindung.
    • 10 ist ein Flussdiagramm zur Veranschaulichung der Verarbeitung, die von der Hinderniserkennungsvorrichtung gemäß jeder der vierten, fünften und sechsten Ausführungsformen der vorliegenden Erfindung auszuführen ist.
    • 11 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der vierten Ausführungsform der vorliegenden Erfindung.
    • 12 ist ein Diagramm zur Veranschaulichung eines Fehlerberechnungsverfahrens in der vierten Ausführungsform der vorliegenden Erfindung.
    • 13 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der fünften Ausführungsform der vorliegenden Erfindung.
    • 14 ist ein erläuterndes Diagramm zur Darstellung der Fehlerkorrekturverarbeitung in der fünften Ausführungsform der vorliegenden Erfindung.
    • 15 ist ein Flussdiagramm zur Veranschaulichung der Fehlerkorrekturverarbeitung in der sechsten Ausführungsform der vorliegenden Erfindung.
    • 16A ist ein erläuterndes Diagramm der Fehlerkorrekturverarbeitung in der sechsten Ausführungsform der vorliegenden Erfindung.
    • 16B ist ein Diagramm zur Veranschaulichung eines Korrelationskoeffizienten der vertikalen Positionen in der sechsten Ausführungsform der vorliegenden Erfindung.
    • 16C ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten der horizontalen Positionen in der sechsten Ausführungsform der vorliegenden Erfindung.
    • 17A ist ein Diagramm zur Darstellung der Korrektur der Detektionszeit in der sechsten Ausführungsform der vorliegenden Erfindung.
    • 17B ist ein Diagramm zur Darstellung eines Betrags der Detektionszeitkorrektur und eines Korrelationskoeffizienten in einer siebten Ausführungsform der vorliegenden Erfindung.
  • Beschreibung der Ausführungsformen
  • Eine Hinderniserkennungsvorrichtung und ein Hinderniserkennungsverfahren nach bevorzugten Ausführungsformen der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Erste Ausführungsform
  • 1 ist ein Blockdiagramm zur Veranschaulichung einer Konfiguration einer Hinderniserkennungsvorrichtung 1 gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
  • Die Hinderniserkennungsvorrichtung 1 gemäß der ersten Ausführungsform umfasst eine Steuereinheit 10, eine Zeitmesseinheit 11, eine Datenempfangseinheit 12, eine Korrelationsverarbeitungseinheit 13, eine Aktualisierungsverarbeitungseinheit 14, einen ersten Sensor 100, einen zweiten Sensor 200 und einen Fahrzeuginformationssensor 300. In der folgenden Beschreibung werden diese Komponenten manchmal als jeweilige „Blöcke“ der Hinderniserkennungsvorrichtung 1 bezeichnet.
  • Der erste Sensor 100 und der zweite Sensor 200 sind Sensoren, die so konfiguriert sind, dass sie Licht und elektromagnetische Wellen empfangen, die von einem Objekt ausgesendet oder reflektiert werden, und eine Signal- und Bildverarbeitung auf das Licht und die elektromagnetischen Wellen anwenden, um z.B. einen Abstand zum Objekt, einen Azimuthwinkel und eine Relativgeschwindigkeit zu messen. Konkret können ein Millimeterwellenradar, ein Laserradar, ein Ultraschallsensor, ein Infrarotsensor, eine optische Kamera und dergleichen allein oder in Kombination als erster Sensor 100 und als zweiter Sensor 200 verwendet werden.
  • In der folgenden Beschreibung werden Informationen über ein Objekt, die vom ersten Sensor 100 und vom zweiten Sensor 200 gemessen werden, als „Detektionsdaten“ bezeichnet.
  • Der Fahrzeuginformationssensor 300 ist ein Sensor, der so konfiguriert ist, dass er den Zustand des eigenen Fahrzeugs misst. Konkret misst der Fahrzeuginformationssensor 300 z.B. eine Geschwindigkeit, eine Radgeschwindigkeit, einen Lenkwinkel oder eine Gierrate des eigenen Fahrzeugs. Informationen, die den durch den Fahrzeuginformationssensor 300 gemessenen Zustand des eigenen Fahrzeugs anzeigen, werden im Folgenden als „eigene Fahrzeugdaten“ bezeichnet.
  • Die Steuereinheit 10 ist eine elektronische Steuereinheit (ECU), die so konfiguriert ist, dass sie Funktionen der Hinderniserkennungsvorrichtung 1 auf integrierte Weise steuert. Ferner enthält die Steuereinheit 10 eine Recheneinheit 10a, eine Bestimmungseinheit 10b, eine Korrektureinheit 10c und eine Speichereinheit 10d.
  • Die Zeitmesseinheit 11 hat die Funktion, die Zeit zu messen und die gemessene Zeit an jeden Block auszugeben, der in der Hinderniserkennungseinrichtung 1 enthalten ist.
  • Die Datenempfangseinheit 12 ist so konfiguriert, dass sie die Erkennungsdaten und die eigenen Fahrzeugdaten empfängt, die vom ersten Sensor 100, vom zweiten Sensor 200 und vom Fahrzeuginformationssensor 300 übertragen werden. Die Datenempfangseinheit 12 gibt die empfangenen Erkennungsdaten in Verbindung mit der von der Zeitmesseinheit 11 gemessenen Zeit an die Steuereinheit 10 aus.
  • Im Folgenden werden der Einfachheit halber die Daten, die durch Hinzufügen von Zeitinformationen zu den Detektionsdaten auf diese Weise erhalten werden, als „Beobachtungsdaten“ bezeichnet.
  • Die Berechnungseinheit 10a, die Bestimmungseinheit 10b und die Korrektureinheit 10c der Steuereinheit 10 sind so konfiguriert, dass sie bei der später beschriebenen Bias-Fehlerkorrekturverarbeitung eine voreingestellte Verarbeitung ausführen.
  • Die Berechnungseinheit 10a ist so konfiguriert, dass sie beispielsweise einen berechneten Wert und einen Indexwert in der Bias-Fehlerkorrekturverarbeitung ausführt.
  • Die Bestimmungseinheit 10b ist so konfiguriert, dass sie den von der Berechnungseinheit 10a berechneten Indexwert mit einer im Voraus festgelegten Schwellenwertbedingung vergleicht, um dadurch festzustellen, ob es sich bei einem ausgewählten Objektpaar um dasselbe Objekt handelt.
  • Die Korrektureinheit 10c ist so konfiguriert, dass sie Beobachtungsdaten, bei denen es sich um Erkennungsdaten handelt, die Zeitinformationen enthalten, unter Verwendung des berechneten Bias-Fehlerwertes korrigiert.
  • Die Speichereinheit 10d ist z. B. aus einem flüchtigen oder einem nichtflüchtigen Speicher aufgebaut. Die Speichereinheit 10d speichert z.B. Beobachtungsdaten, einen berechneten Wert, einen Indexwert, eigene Fahrzeugdaten und Flugbahndaten. Darüber hinaus erstellt und speichert die Speichereinheit 10d eine Beobachtungsdatenhistorie, die Beobachtungsdaten in chronologischer Reihenfolge speichert. Weiterhin speichert die Speichereinheit 10d Programmdaten zur Steuerung der Funktionen der Hinderniserkennungsvorrichtung 1.
  • Die Korrelationsverarbeitungseinheit 13 ist so konfiguriert, dass sie eine Korrelationsverarbeitung ausführt, bei der Objekte, die vom ersten Sensor 100 und vom zweiten Sensor 200 detektiert werden, auf der Grundlage der korrigierten Beobachtungsdaten, die von der Steuereinheit 10 übertragen werden, einander zugeordnet werden, um dadurch Korrelationsdaten zu erzeugen. Die Korrelationsverarbeitungseinheit 13 gibt die korrigierten Beobachtungsdaten und die Korrelationsdaten an die Aktualisierungsverarbeitungseinheit 14 aus.
  • Die Aktualisierungsverarbeitungseinheit 14 ist so konfiguriert, dass sie Objektinformationen der korrigierten Beobachtungsdaten auf der Grundlage der Korrelationsdaten aktualisiert. Die „Objektinformation“ bezieht sich hier auf Informationen wie Position, Geschwindigkeit, Beschleunigung oder Typ eines Objekts, das vom ersten Sensor 100 oder vom zweiten Sensor 200 detektiert wird. Die Objektinformationen können z.B. mit Hilfe eines Kalman-Filters oder eines Partikelfilters aktualisiert werden.
  • Die aktualisierten Objektinformationen werden von der Aktualisierungsverarbeitungseinheit 14 an eine Anzeigeeinheit 500 als „Trajektorie-Daten“ ausgegeben. Ferner speichert die Speichereinheit 10d die Trajektorie-Daten in Verbindung mit der von der Zeitmesseinheit 11 gemessenen Zeit zu einer Zeit, zu der die Aktualisierungsverarbeitungseinheit 14 die Objektinformationen aktualisiert.
  • Die außerhalb der Hinderniserkennungsvorrichtung 1 installierte Anzeigeeinheit 500 verarbeitet und zeigt die von der Aktualisierungsverarbeitungseinheit 14 ausgegebenen Trajektorie-Daten als Bild, Zeicheninformationen oder andere Informationen an. Die Anzeigeeinheit 500 kann innerhalb der Hinderniserkennungsvorrichtung 1 installiert werden.
  • Jeder in der Hinderniserkennungseinrichtung 1 enthaltene Block und jeder in der Steuereinheit 10 enthaltene Block kann so konstruiert sein, dass er auf unabhängigen Steuergeräten montiert werden kann, oder ein Teil oder alle Blöcke können so konstruiert sein, dass sie auf einem Steuergerät montiert werden können.
  • Anschließend wird unter Bezugnahme auf ein Flussdiagramm von 2 eine Beschreibung eines Verarbeitungsablaufs gegeben, der von der Hinderniserkennungseinrichtung 1 gemäß der ersten Ausführungsform auszuführen ist.
  • Zunächst führt die Datenempfangseinheit 12 die Detektionsdatenerfassungsverarbeitung auf der Grundlage eines Befehls von der Steuereinheit 10 aus (Schritt S100). Bei der Detektionsdatenerfassungsverarbeitung erfasst die Datenempfangseinheit 12 Detektionsdaten von dem ersten Sensor 100 und dem zweiten Sensor 200 und erfasst eigene Fahrzeugdaten von dem Fahrzeuginformationssensor 300. Als nächstes erzeugt die Datenempfangseinheit 12 Beobachtungsdaten, die durch Zuordnung der erfassten Detektionsdaten zu der von der Zeitmesseinheit 11 gemessenen Zeit gewonnen werden. Die Beobachtungsdaten werden von der Datenempfangseinheit 12 an die Steuereinheit 10 ausgegeben.
  • Als nächstes führt die Steuereinheit 10 die Bias-Fehlerkorrekturverarbeitung (Schritt S200) aus. Bei der Bias-Fehlerkorrekturverarbeitung berechnet zunächst die Recheneinheit 10a der Steuereinheit 10 einen Wert der Differenz der physikalischen Größen eines vom ersten Sensor 100 und vom zweiten Sensor 200 detektierten Objektpaares auf der Grundlage der von der Datenempfangseinheit 12 ausgegebenen Beobachtungsdaten. Die „physikalische Größe“ bezieht sich hier auf Informationen wie Position, Geschwindigkeit, Beschleunigung oder Art eines Hindernisses und wird in der folgenden Beschreibung manchmal als „Objektinformation“ bezeichnet.
  • Als nächstes bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 auf der Grundlage einer voreingestellten Bedingung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Wenn festgestellt wird, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, setzt oder berechnet die Steuereinheit 10 einen Bias-Fehler des ausgewählten Objektpaares.
  • Anschließend verwendet die Korrektureinheit 10c der Steuereinheit 10 den Bias-Fehlerwert zur Korrektur von Beobachtungsdaten, bei denen es sich um Detektionsdaten handelt, die Zeitinformationen enthalten, und beendet die Bias-Fehlerkorrekturverarbeitung. Die korrigierten Beobachtungsdaten werden von der Steuereinheit 10 an die Korrelationsverarbeitungseinheit 13 ausgegeben.
  • Anschließend führt die Korrelationsverarbeitungseinheit 13 die Korrelationsverarbeitung (Schritt S300) aus. Bei der Korrelationsverarbeitung verwendet die Korrelationsverarbeitungseinheit 13 die korrigierten Beobachtungsdaten, um die vom ersten Sensor 100 und vom zweiten Sensor 200 detektierten Objekte einander zuzuordnen und dadurch Korrelationsdaten zu erzeugen. Die Korrelationsverarbeitungseinheit 13 gibt die korrigierten Beobachtungsdaten und die Korrelationsdaten an die Aktualisierungsverarbeitungseinheit 14 aus.
  • Anschließend führt die Aktualisierungsverarbeitungseinheit 14 die Verarbeitung der Aktualisierung der Objektinformationen aus (Schritt S400). Die Aktualisierungsverarbeitungseinheit 14 aktualisiert Teile der Objektinformationen der korrigierten Beobachtungsdaten des ersten Sensors und des zweiten Sensors, die durch die Korrelationsdaten miteinander verbunden sind, z. B. durch Verwendung eines Kalman-Filters.
  • Danach schließt die Hinderniserkennungsvorrichtung 1 die Verarbeitung ab. Die in 2 dargestellte Verarbeitung wird in einer vorgegebenen Betriebszeit wiederholt ausgeführt.
  • Als nächstes werden die Einzelheiten der Bias-Fehlerkorrekturverarbeitung, die von der Hinderniserkennungsvorrichtung 1 gemäß der ersten Ausführungsform auszuführen ist, unter Bezugnahme auf 3 und 4 beschrieben.
  • 3 ist ein Flussdiagramm zur Veranschaulichung der von der Hinderniserkennungsvorrichtung 1 gemäß der ersten Ausführungsform der vorliegenden Erfindung auszuführenden Bias-Fehlerkorrekturverarbeitung.
  • In Schritt S10 von 3 löscht die Steuereinheit 10 der Hinderniserkennungsvorrichtung 1 die ältesten Beobachtungsdaten aus einer in der Speichereinheit 10d gespeicherten Beobachtungsdatenhistorie.
  • Als nächstes speichert die Steuereinheit 10 in Schritt S11 die neuesten Beobachtungsdaten, die in der aktuellen Periode erfasst wurden, in die Beobachtungsdatenhistorie der Speichereinheit 10d. Bei den Beobachtungsdaten handelt es sich um Detektionsdaten, die Zeitinformationen enthalten. Weiterhin sind die Detektionsdaten numerische Daten wie die Position, Geschwindigkeit oder Beschleunigung, die eine physikalische Größe des detektierten Objekts darstellen. Die Beobachtungsdaten werden in der Speichereinheit 10d in Verbindung mit einer Nummer und einem Symbol (im Folgenden als „Sensor-ID“ bezeichnet) zur Identifizierung des erkannten Sensors und einer Nummer und einem Symbol (im Folgenden als „Objekt-ID“ bezeichnet) zur Identifizierung des erkannten Objekts in der Speichereinheit 10d gespeichert.
  • Als nächstes wählt die Steuereinheit 10 in Schritt S12 auf der Grundlage der in der Speichereinheit 10d gespeicherten Beobachtungsdaten jeweils ein Objekt für den ersten Sensor 100 und den zweiten Sensor 200 aus einer Vielzahl von Objekten aus, die jeweils von dem ersten Sensor 100 und dem zweiten Sensor 200 detektiert wurden. Das ausgewählte Objektpaar wird im Folgenden als „ausgewähltes Objektpaar“ bezeichnet.
  • Als nächstes berechnet die Recheneinheit 10a der Speichereinheit 10 in Schritt S13 einen Wert für einen Fehler zwischen den Beobachtungsdaten des ersten Sensors 100 und den Beobachtungsdaten des zweiten Sensors 200. Konkret wird ein Wert einer Differenz der physikalischen Größe der Beobachtungsdaten zwischen dem ausgewählten Objektpaar als Fehlerwert berechnet ΔX. Ein Verfahren zur Berechnung von ΔX wird unter Bezugnahme auf 4 beschrieben.
  • 4 ist ein Diagramm zur Darstellung der Methode zur Berechnung des Fehlers ΔX zwischen Beobachtungsdaten in der ersten Ausführungsform der vorliegenden Erfindung. Die horizontale Achse von 4 zeigt die Zeit an, und die vertikale Achse von 4 zeigt die physikalische Menge der Beobachtungsdaten an. Die physikalische Größe der Beobachtungsdaten sind numerische Daten wie die Position, Geschwindigkeit oder Beschleunigung von Objekten, die vom ersten Sensor 100 und vom zweiten Sensor 200 detektiert werden.
  • Das vom ersten Sensor 100 detektierte Objekt wird so eingestellt, dass es im ausgewählten Objektpaar eine Objekt-ID=idsns1 hat. Die Beobachtungsdaten zu einer Zeit k des Objekts ID=idsns1 werden auf Xksns1 gesetzt. In ähnlicher Weise wird das vom zweiten Sensor 200 erkannte Objekt im ausgewählten Objektpaar auf eine Objekt-ID=idsns2 eingestellt. Die Beobachtungsdaten zu einer Zeit k des Objekts ID=idsns2 werden auf Xksns2 gesetzt.
  • Die Recheneinheit 10a der Steuereinheit 10 berechnet einen absoluten Wert einer Differenz zwischen Xksns1 und Xksns2 als Inter-Sensor-Fehler ΔXk der Beobachtungsdaten zur Zeit k.
  • In Schritt S13 von BILD 3, wie in 4 gezeigt, berechnet die Recheneinheit 10a Inter-Sensor-Fehler ΔX1 bis ΔXn der Beobachtungsdaten, die mit den Zeiten t1 bis tn verbunden sind.
  • Als nächstes fährt die Recheneinheit 10 mit der Verarbeitung zu Schritt 14 fort. In Schritt S14 bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, ob das in Schritt S12 eingestellte ausgewählte Objektpaar dasselbe Objekt ist, basierend auf einer im Voraus festgelegten Bedingung (1). Da ein Wert einer Differenz in der physikalischen Größe zwischen dem ausgewählten Objektpaar kleiner wird, ist es wahrscheinlicher, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Daher kann die Bestimmung auf der Grundlage der Bedingung (1) beispielsweise auf folgende Weise durchgeführt werden.
  • Die Bedingung (1) legt fest, dass der Bereich der Abweichungen der Inter-Sensor-Fehler ΔX1 bis ΔXn kleiner ist als ein im Voraus festgelegter Schwellenwert. Als Abweichungsbereich kann ein Wert, der durch Subtraktion des Minimalwertes vom Maximalwert von ΔX1 bis ΔXn erhalten wird, ein Durchschnittswert von ΔX1 bis ΔXn, ein Median von ΔX1 bis ΔXn oder andere Werte verwendet werden.
  • Wenn in Schritt S14 der Abweichungsbereich der Inter-Sensor-Fehler ΔX1 bis ΔXn kleiner als ein vorab eingestellter Schwellenwert ist (Schritt S14: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt (Schritt S15).
  • Im Gegensatz dazu bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 in Schritt S14, wenn der Abweichungsbereich der Inter-Sensorfehler ΔX1 bis ΔXn gleich oder größer als der vorab eingestellte Schwellenwert ist (Schritt S14: Nein), dass es sich bei dem ausgewählten Objektpaar nicht um dasselbe Objekt handelt (Schritt S21), wenn der Abweichungsbereich der Inter-Sensorfehler ΔX1 bis ΔXn gleich oder größer als der vorab eingestellte Schwellenwert ist (Schritt S14: Nein).
  • Nach Schritt S15 fährt die Steuereinheit 10 die Verarbeitung zu Schritt S16 fort.
  • In Schritt S16 stellt die Steuereinheit 10 einen Bias-Fehlerwert des ausgewählten Objektpaares ein oder berechnet ihn. Der jüngste ΔXn kann als Bias-Fehlerwert unter den Inter-Sensor-Fehlern ΔX1 bis ΔXn von Beobachtungsdatenstücken, die z.B. den Zeiten t1 bis tn entsprechen, eingestellt werden. Alternativ können der Mittelwert, der Median oder andere Werte von ΔX1 bis ΔXn berechnet und als Bias-Fehlerwert verwendet werden.
  • In der Zwischenzeit, nach Schritt S21, fährt die Steuereinheit 10 die Verarbeitung zu Schritt S22 fort.
  • In Schritt S22 setzt die Steuereinheit 10 den Bias-Fehlerwert des ausgewählten Objektpaares auf einen ungültigen Wert.
  • Nach Schritt S16 oder Schritt S22 fährt die Steuereinheit 10 die Verarbeitung mit Schritt S17 fort.
  • In Schritt S17, wenn alle Objektpaare bereits aus den in den Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 enthaltenen Objekten ausgewählt sind (Schritt S17: Ja), fährt die Steuereinheit 10 die Verarbeitung mit Schritt S18 fort.
  • Im Gegenteil, wenn noch nicht alle Objektpaare ausgewählt sind (Schritt S17: Nein), kehrt die Steuereinheit 10 zu Schritt S12 zurück, um ein ausgewähltes Objektpaar neu einzustellen.
  • In Schritt S18 bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, ob der in Schritt S16 eingestellte Bias-Fehlerwert für alle ausgewählten Objektpaare ein ungültiger Wert ist. Wenn der Bias-Fehlerwert für alle ausgewählten Objektpaare nicht auf einen ungültigen Wert eingestellt ist (Schritt S18: Nein), fährt die Steuereinheit 10 die Verarbeitung mit Schritt S19 fort.
  • Im Gegenteil, wenn der Bias-Fehlerwert für mindestens eines der ausgewählten Objektpaare auf einen ungültigen Wert eingestellt ist (Schritt S18: Ja), fährt die Steuereinheit 10 die Verarbeitung mit Schritt S23 fort.
  • In Schritt S18 bestimmt die Steuereinheit 10 als dasselbe Objekt ein ausgewähltes Objektpaar mit dem kleinsten Bias-Fehlerwert unter allen ausgewählten Objektpaaren. Anschließend fährt die Steuereinheit 10 die Verarbeitung mit Schritt S20 fort.
  • Währenddessen stellt die Steuereinheit 10 in Schritt S23 fest, dass es unter allen ausgewählten Objektpaaren kein gleiches Objekt gibt. Das heißt, die Steuereinheit 10 stellt fest, dass in den Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 kein gleiches Objekt vorhanden ist, und beendet die Bias-Fehlerkorrekturverarbeitung.
  • In Schritt S20 verwendet die Korrektureinheit 10c der Steuereinheit 10 den Bias-Fehlerwert für das ausgewählte Objektpaar, das als dasselbe Objekt bestimmt wurde, um die Verarbeitung der Korrektur der Beobachtungsdaten auszuführen. Die Korrekturverarbeitung kann z.B. darin bestehen, zur Beseitigung eines Bias-Fehlers, d.h. eines Detektionsfehlers unter den Sensoren, den Bias-Fehlerwert von den Beobachtungsdaten des ersten Sensors 100 zu subtrahieren. Nachdem die Korrekturverarbeitung von Schritt S20 abgeschlossen ist, beendet die Steuereinheit 10 die Bias-Fehlerkorrekturverarbeitung.
  • Eine zusätzliche Beschreibung der Bestimmung von Schritt S15 und der Bestimmung von Schritt S19 ist vorstehend beschrieben.
  • Im Ablauf der Bias-Fehlerkorrekturverarbeitung, wenn es nur ein erkanntes Objekt in den Beobachtungsdaten des ersten Sensors 100 und in den Beobachtungsdaten des zweiten Sensors 200 gibt, gibt es nur eine Kombination aus einem ausgewählten Objektpaar. Wenn dann in Schritt S15 festgestellt wird, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, wird die Verarbeitung in der Reihenfolge von Schritt S16, „Ja“ in Schritt S17 und „Nein“ in Schritt S18 eindeutig vorangetrieben. Dann wird in Schritt S19 festgestellt, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt.
  • Im Gegenteil, wenn in den Beobachtungsdaten des ersten Sensors 100 und in den Beobachtungsdaten des zweiten Sensors 200 mehrere detektierte Objekte vorhanden sind, gibt es auch mehrere Kombinationen von ausgewählten Objektpaaren. Daher kann es selbst dann, wenn in Schritt S15 festgestellt wird, dass es sich bei dem zuerst ausgewählten Objektpaar um dasselbe Objekt handelt, ein weiteres ausgewähltes Objektpaar mit einem kleineren Bias-Fehler geben. Daher führt die Steuereinheit 10 wiederholt die Verarbeitung von Schritt S12 bis Schritt S17 aus, bis die Berechnung des Bias-Fehlerwertes für alle ausgewählten Objektpaare abgeschlossen ist. Dann, in Schritt S19, bestimmt die Steuereinheit 10 als dasselbe Objekt ein ausgewähltes Objektpaar mit dem kleinsten Bias-Fehlerwert.
  • Wie vorstehend beschrieben, ist es nach der Hinderniserkennungsvorrichtung der ersten Ausführungsform möglich, ein Objekt genau zu erkennen, indem bestimmt wird, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, indem ein berechneter Wert einer Differenz in der physikalischen Größe als Bestimmungsindexwert verwendet wird.
  • Zweite Ausführungsform
  • Als nächstes wird unter Bezugnahme auf 5 und 6 ein Ablauf der Kontrollverarbeitung beschrieben, die von der Hinderniserkennungsvorrichtung 1 gemäß einer zweiten Ausführungsform der vorliegenden Erfindung auszuführen ist.
  • Die zweite Ausführungsform und die erste Ausführungsform unterscheiden sich voneinander in der Konfiguration eines Indexwertes zur Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Die Konfiguration der Hinderniserkennungsvorrichtung 1 nach der zweiten Ausführungsform ähnelt der des in 1 dargestellten Blockdiagramms der ersten Ausführungsform, so dass hier auf eine Beschreibung verzichtet wird.
  • Die Bias-Fehlerkorrekturverarbeitung in der ersten Ausführungsform berechnet einen Wert einer Differenz der physikalischen Größe zwischen dem ausgewählten Objektpaar auf der Grundlage von Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200. Ferner wurde ein Beispiel für die Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, anhand des berechneten Wertes einer Differenz in der physikalischen Größe beschrieben. Im Gegensatz dazu werden in der zweiten Ausführungsform die Bewegungstrajektorien des ausgewählten Objektpaares durch Polynome annähernd bestimmt, und die Werte einer Differenz der Koeffizienten der angenäherten Polynome werden berechnet, um zu bestimmen, ob das ausgewählte Objektpaar dasselbe Objekt ist.
  • 5 ist ein Flussdiagramm zur Veranschaulichung eines Verarbeitungsablaufs, der von der Hinderniserkennungsvorrichtung 1 gemäß der zweiten Ausführungsform der vorliegenden Erfindung auszuführen ist. Die gleichen Komponenten wie die der ersten Ausführungsform werden durch die gleichen Bezugszeichen bezeichnet, und eine Beschreibung derselben wird hier weggelassen.
  • Die Verarbeitung der Löschung der ältesten Beobachtungsdaten in Schritt S10 von 5 und die Verarbeitung der Hinzufügung der neuesten Beobachtungsdaten in Schritt S11 von 5 ähneln denen von 3, die in der ersten Ausführungsform beschrieben sind, und daher wird eine Beschreibung davon hier weggelassen.
  • Als nächstes verwendet die Steuereinheit 10 in Schritt S30 die eigenen Fahrzeugdaten, um die Umwandlung der Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 in ein Bodenkoordinatensystem durchzuführen. Die auf diese Weise in das Bodenkoordinatensystem umgewandelten Beobachtungsdaten werden im folgenden als „koordinatenkonvertierte Daten“ bezeichnet. Die koordinatenkonvertierten Daten werden in der Speichereinheit 10d gespeichert.
  • Im nächsten Schritt S31 verwendet die Recheneinheit 10a der Steuereinheit 10 die koordinatenkonvertierten Daten zur Berechnung von Bewegungstrajektorien von Objekten, die vom ersten Sensor 100 und vom zweiten Sensor 200 detektiert werden.
  • 6 ist ein Diagramm zur Veranschaulichung eines Verfahrens zur Berechnung der Bewegungstrajektorien von detektierten Objekten in der zweiten Ausführungsform der vorliegenden Erfindung. In 6 werden die koordinatenkonvertierten Daten eines vom ersten Sensor 100 und eines vom zweiten Sensor 200 jeweils detektierten Objekts dargestellt. In 6 werden Teile der koordinatenkonvertierten Daten zu sieben Zeiten, zu denen ein Objekt detektiert wird, auf dem Bodenkoordinatensystem xy dargestellt.
  • Die Bewegungstrajektorie eines Objekts kann durch ein Polynom von y=C0+Cl*X+C2*X^2+C3*X^3 näherungsweise bestimmt werden. Wie in 6 dargestellt, ist die Bewegungstrajektorie eines Objekts, das vom ersten Sensor 100 detektiert wird, ein Polynom von ysnsl=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3. In ähnlicher Weise ist die Bewegungstrajektorie eines vom zweiten Sensor 200 detektierten Objekts ein Polynom von ysns2=C0sns2+C1snsns2*X+C2snsns2*X^2+C3sns2*X^3.
  • Die Berechnungseinheit 10a verwendet die koordinatenkonvertierten Daten, um Koeffizienten von C0, C1, C2 und C3 des Polynoms von y=C0+C1*X+C2*X^2+C3*X^3 zu berechnen, die die Bewegungstrajektorie approximieren, um dadurch die Bewegungstrajektorie zu berechnen.
  • Insbesondere berechnet die Berechnungseinheit 10a Koeffizienten von C0sns1, C1sns1, C2sns1 und C3sns1 des Polynoms von ysns1=C0sns1+C1sns1*X+C2sns1*X2+C3sns1*X3 des vom ersten Sensor 100 detektierten Objekts. In ähnlicher Weise berechnet die Recheneinheit 10a Koeffizienten von C0sns2, C1sns2, C2sns2 und C3sns2 des Polynoms von ysns2=C0sns2+C1sns2*X+C2sns2*X^2+C3sns2*X^3 des vom zweiten Sensor 200 detektierten Objekts.
  • Als nächstes wählt die Steuereinheit 10 in Schritt S32 jeweils ein Objekt für den ersten Sensor 100 und den zweiten Sensor 200 aus einer Vielzahl von Objekten aus, die in den koordinatenkonvertierten Daten des ersten Sensors 100 und des zweiten Sensors 200 enthalten sind, die in der Speichereinheit 10d gespeichert sind, um dadurch ein ausgewähltes Objektpaar einzustellen.
  • Als nächstes berechnet die Recheneinheit 10a der Steuereinheit 10 im Schritt S33 Absolutwerte einer Differenz der Koeffizienten des oben erwähnten Polynoms, um Bewegungstrajektorien des ausgewählten Objektpaares miteinander zu vergleichen.
  • Die Absolutwerte einer Differenz der Koeffizienten C0, C1, C2 und C3 werden durch ΔCO, ΔC1, ΔC2 bzw. ΔC3 dargestellt. Im Falle von zwei Bewegungstrajektorien, die in 6 dargestellt sind, berechnet die Berechnungseinheit 10a ΔC0=abs(C0sns1-C0sns2), ΔC1=abs(C1sns1-C1sns2), ΔC2=abs(C2sns1-C2sns2), ΔC3=abs(C3sns1-C3sns2).
  • Als nächstes bestimmt in Schritt S34 die Bestimmungseinheit 10b der Steuereinheit 10, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, basierend auf einer im Voraus festgelegten Bedingung (2). Je höher der Grad der Ähnlichkeit zwischen den Bewegungstrajektorien des ausgewählten Objektpaares wird, desto höher ist die Wahrscheinlichkeit, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Daher kann die Bestimmung auf der Grundlage der Bedingung (2) beispielsweise auf folgende Weise durchgeführt werden.
  • Zunächst stellt die Steuereinheit 10 im Voraus entsprechende Schwellenwerte ein, die den absoluten Werten ΔC0, ΔC1, ΔC2 und ΔC3 der Werte einer Differenz der Koeffizienten entsprechen. Dann, in Schritt S34, wenn alle ΔC0, ΔC1, ΔC2 und ΔC3 kleiner als die jeweiligen im Voraus festgelegten Schwellenwerte sind (Schritt S34: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt (Schritt S15).
  • Im Gegensatz dazu bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 in Schritt S34, wenn einer von ΔC0, ΔC1, ΔC2 und ΔC3 gleich oder größer als der entsprechende im Voraus festgelegte Schwellenwert ist (Schritt S34: Nein), dass das ausgewählte Objektpaar nicht dasselbe Objekt ist (Schritt S21).
  • Die Verarbeitung von Schritt S15 und Schritt S21 im Anschluss an Schritt S34 und die nachfolgenden Schritte sind ähnlich wie die in 3 in der ersten Ausführungsform beschriebene, und daher wird hier auf eine Beschreibung derselben verzichtet.
  • Wie oben beschrieben, ist es nach der Hinderniserkennungseinrichtung der zweiten Ausführungsform möglich, ein Objekt genau zu erkennen, indem man anhand eines Ähnlichkeitsgrades der Bewegungstrajektorien des ausgewählten Objektpaares im Bodenkoordinatensystem als Bestimmungsindexwert bestimmt, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt.
  • Dritte Ausführungsform
  • Als nächstes wird unter Bezugnahme auf 7 und 8A bis 8C eine Beschreibung eines Steuerungsablaufs gegeben, der von der Hinderniserkennungsvorrichtung 1 gemäß einer dritten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
  • Die dritte Ausführungsform sowie die erste und die zweite Ausführungsform unterscheiden sich voneinander in der Konfiguration des berechneten Wertes zur Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Die Konfiguration der Hinderniserkennungseinrichtung 1 nach der dritten Ausführungsform ähnelt der des in 1 dargestellten Blockdiagramms der ersten Ausführungsform, so dass hier auf eine Beschreibung verzichtet wird.
  • Bei der Bias-Fehlerkorrekturverarbeitung in der ersten Ausführungsform wurde ein Beispiel für die Berechnung des Wertes einer Differenz in der physikalischen Größe zwischen dem ausgewählten Objektpaar und die Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, beschrieben. Ferner wurde in der zweiten Ausführungsform ein Beispiel für die Annäherung der Bewegungstrajektorien des ausgewählten Objektpaares durch entsprechende Polynome, die Berechnung der Werte einer Differenz der Koeffizienten der angenäherten Polynome und die Bestimmung, ob das ausgewählte Objektpaar dasselbe Objekt ist, beschrieben.
  • Im Gegensatz dazu wird in der dritten Ausführungsform ein Korrelationskoeffizient auf der Grundlage von Zeitreihendaten über Bodenkoordinatenpositionen eines ausgewählten Objektpaares berechnet, und es wird auf der Grundlage des berechneten Korrelationskoeffizienten bestimmt, ob das ausgewählte Objektpaar dasselbe Objekt ist.
  • Als nächstes wird unter Bezugnahme auf 7 und 8A bis 8C eine detaillierte Beschreibung der Bias-Fehlerkorrekturverarbeitung gegeben, die von der Hinderniserkennungsvorrichtung 1 gemäß der dritten Ausführungsform auszuführen ist.
  • 7 ist ein Flussdiagramm zur Veranschaulichung eines Verarbeitungsablaufs, der von der Hinderniserkennungsvorrichtung 1 gemäß der dritten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Ferner ist 8A ein erläuterndes Diagramm der Fehlerkorrekturverarbeitung, die von der Hinderniserkennungsvorrichtung 1 gemäß der dritten Ausführungsform der vorliegenden Erfindung ausgeführt wird, 8B ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten von vertikalen Positionen und 8C ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten von horizontalen Positionen. Die gleichen Komponenten wie die der ersten oder der zweiten Ausführungsform werden durch die gleichen Bezugszeichen bezeichnet, und eine Beschreibung derselben kann weggelassen werden.
  • Die Verarbeitung des Löschens der ältesten Beobachtungsdaten in Schritt S10 von 7 und die Verarbeitung des Hinzufügens der neuesten Beobachtungsdaten in Schritt S11 von 7 ähneln denen von 3, die in der ersten Ausführungsform beschrieben sind, und daher wird eine Beschreibung davon hier weggelassen.
  • Als nächstes, ähnlich wie in der zweiten Ausführungsform, verwendet die Steuereinheit 10 in Schritt S30 die eigenen Fahrzeugdaten, um die Umwandlung der Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 in ein Bodenkoordinatensystem durchzuführen.
  • Als nächstes wählt die Steuereinheit 10 ähnlich wie bei der zweiten Ausführungsform in Schritt S32 ein Objekt für den ersten Sensor 100 und den zweiten Sensor 200 aus einer Vielzahl von Objekten aus, die jeweils von dem ersten Sensor 100 und dem zweiten Sensor 200 erfasst werden, und zwar auf der Grundlage der in der Speichereinheit 10d gespeicherten koordinatenkonvertierten Daten. Ein Paar von koordinatenkonvertierten Daten über die ausgewählten Objekte wird ausgewählt.
  • Als nächstes verwendet die Berechnungseinheit 10a der Steuereinheit 10 in Schritt S40 die koordinatenkonvertierten Daten, um einen Korrelationskoeffizienten des ausgewählten Objektpaares zu berechnen.
  • 8A bis 8C sind Diagramme zur Veranschaulichung eines Verfahrens zur Berechnung eines Korrelationskoeffizienten r des ausgewählten Objektpaares in der dritten Ausführungsform der vorliegenden Erfindung.
  • In 8A werden eine vertikale Position posX und eine horizontale Position posY eines Objekts zu den Zeiten t1 bis tn im Bodenkoordinatensystem xy festgelegt. Weiterhin zeigt jedes Diagramm in 8A Teile der koordinatenkonvertierten Daten X1_sns1 bis Xn_sns1 für das vom ersten Sensor 100 detektierte Objekt und Teile der koordinatenkonvertierten Daten X1_sns2 bis Xn sns2 für das vom zweiten Sensor 200 detektierte Objekt zu den Zeiten t1 bis tn.
  • Das heißt, X1_sns1 bis Xn_sns1, dargestellt in 8A, zeigen vertikale Positionen (PosXsns1) zu den Zeiten t1 bis tn des vom ersten Sensor 100 detektierten Objekts an. In ähnlicher Weise zeigen X1_sns2 bis Xn_sns2 vertikale Positionen (PosXsns2) zu den Zeiten t1 bis tn des vom zweiten Sensor 200 detektierten Objekts an.
  • Weiterhin zeigen Y1_sns1 (nicht gezeigt) bis Yn_sns1 (nicht gezeigt) horizontale Positionen (PosYsns1) zu den Zeiten t1 bis tn des vom ersten Sensor 100 detektierten Objekts an. In ähnlicher Weise zeigen Y1_sns2 (nicht gezeigt) bis Yn sns2 (nicht gezeigt) vertikale Positionen (PosYsns2) zu den Zeiten t1 bis tn des vom zweiten Sensor 200 detektierten Objekts an.
  • Im Schritt S40 berechnet die Recheneinheit 10a der Steuereinheit 10 für das ausgewählte Objektpaar die vertikalen Positionen PosXsns1 und PosXsns2 und die horizontalen Positionen PosYsnsns1 und PosYsns2 zu den Zeiten t1 bis tn.
  • Als nächstes berechnet die Recheneinheit 10a einen Korrelationskoeffizienten rposX der vertikalen Positionen (PosXsns1, PosXsns2) und einen Korrelationskoeffizienten rposY der horizontalen Positionen (PosYsns1, PosYsns2).
  • 8B ist ein Diagramm zur Darstellung eines Beispiels für ein Verfahren zur Berechnung des Korrelationskoeffizienten rposX der vertikalen Positionen (PosXsns1, PosXsns2). Die horizontale Achse von 8B gibt die vertikale Position (PosXsns2) des vom zweiten Sensor 200 detektierten Objekts an, und die vertikale Achse von 8B gibt die vertikale Position (PosXsns1) des vom ersten Sensor 100 detektierten Objekts an.
  • Wie in 8B dargestellt, wird der Korrelationskoeffizient rposX unter Verwendung einer Kombination von Datensequenzen {(PosXsns1_ti, PosXsns2_ti)} von PosXsns1_ti und PosXsns2_ti (i=1, 2, -n) berechnet, die die vertikalen Positionen zu den Zeiten t1 bis tn als Variablen angeben.
  • 8C ist ein Diagramm zur Darstellung eines Beispiels für ein Verfahren zur Berechnung des Korrelationskoeffizienten rposY der horizontalen Positionen (PosXsns1, PosXsns2). Die horizontale Achse von 8C zeigt die horizontale Position (PosYsns2) des vom zweiten Sensor 200 detektierten Objekts an, und die vertikale Achse von 8C zeigt die horizontale Position (PosYsns1) des vom ersten Sensor 100 detektierten Objekts an.
  • Wie in 8C dargestellt, berechnet die Recheneinheit 10a den Korrelationskoeffizienten rposY unter Verwendung einer Kombination von Datensequenzen {(PosYsns1_ti, PosYsns2_ti)} von PosYsns1_ti und PosYsns2_ti (i=1, 2, -n), die die horizontalen Positionen zu den Zeiten t1 bis tn als Variablen angeben.
  • Als nächstes bestimmt in Schritt S41 die Bestimmungseinheit 10b der Steuereinheit 10 auf der Grundlage einer im Voraus festgelegten Bedingung (3), ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Da der auf die oben erwähnte Weise berechnete Korrelationskoeffizient größer wird, ist es wahrscheinlicher, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Daher kann die Bestimmung auf der Grundlage der Bedingung (3) beispielsweise auf folgende Weise durchgeführt werden.
  • Zunächst stellt die Steuereinheit 10 im Voraus Schwellenwerte ein, die den Korrelationskoeffizienten rposX und rposY entsprechen. Wenn in Schritt S41 die beiden Korrelationskoeffizienten rposX und rposY gleich oder größer als die jeweils im Voraus eingestellten Schwellenwerte sind (Schritt S41: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Dann schreitet die Steuereinheit 10 die Verarbeitung zu Schritt S15 fort.
  • Ist dagegen in Schritt S41 einer der Korrelationskoeffizienten rposX und rposY kleiner als der entsprechende vorab eingestellte Schwellenwert (Schritt S41: Nein), stellt die Bestimmungseinheit 10b der Steuereinheit 10 fest, dass es sich bei dem ausgewählten Objektpaar nicht um dasselbe Objekt handelt. Dann schreitet die Steuereinheit 10 die Verarbeitung zu Schritt S21 fort.
  • Die Verarbeitung von Schritt S15 und Schritt S21 nach Schritt S41 und die nachfolgenden Schritte sind ähnlich wie die in 3 in der ersten Ausführungsform beschriebene, so dass hier auf eine Beschreibung verzichtet wird.
  • Wie oben beschrieben, ist es nach dem Hinderniserkennungsgerät der dritten Ausführungsform möglich, ein Objekt genau zu erkennen, indem mit Hilfe des Korrelationskoeffizienten, der unter Verwendung von Zeitreihendaten über die Bodenkoordinatenpositionen des ausgewählten Objektpaares als Bestimmungsindexwert berechnet wird, festgestellt wird, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt.
  • Vierte Ausführungsform
  • Als nächstes wird unter Bezugnahme auf 9 bis 12 eine Beschreibung einer Hinderniserkennungsvorrichtung 2 gemäß einer vierten Ausführungsform der vorliegenden Erfindung gegeben.
  • Bei der Bias-Fehlerkorrekturverarbeitung in der ersten bis dritten Ausführungsform wurde ein Beispiel beschrieben, wie anhand der Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 festgestellt werden kann, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt.
  • Inzwischen enthält die Hinderniserkennungsvorrichtung 2 gemäß der vierten Ausführungsform der vorliegenden Erfindung zusätzlich zu den Komponenten der Hinderniserkennungsvorrichtung 1 gemäß jeder der ersten bis dritten Ausführungsformen eine Vorhersageverarbeitungseinheit. In der vierten Ausführungsform wird anhand der Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und der von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten ein Beispiel für die Feststellung beschrieben, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. In der folgenden Beschreibung werden die gleichen Komponenten wie die der ersten bis dritten Ausführungsform durch die gleichen Bezugszeichen bezeichnet, und eine Beschreibung derselben kann entfallen.
  • Ferner wird in der folgenden Beschreibung ein Fall beschrieben, in dem die Beobachtungsdaten des ersten Sensors 100 und die Prädiktionsdaten verwendet werden. Es können jedoch auch die Beobachtungsdaten des zweiten Sensors 200 anstelle der Beobachtungsdaten des ersten Sensors 100 verwendet werden.
  • 9 ist ein Blockdiagramm zur Veranschaulichung einer Konfiguration der Hinderniserkennungsvorrichtung 2 gemäß der vierten Ausführungsform der vorliegenden Erfindung. Die Hinderniserkennungsvorrichtung 2 gemäß der vierten Ausführungsform enthält zusätzlich zu den Komponenten der Hinderniserkennungsvorrichtung 1 gemäß jeder der in 1 dargestellten ersten bis dritten Ausführungsformen eine Vorhersageeinheit 10e.
  • Als nächstes wird unter Bezugnahme auf ein Flussdiagramm von 10 eine Beschreibung eines Verarbeitungsablaufs gegeben, der von der Hinderniserkennungsvorrichtung 2 gemäß der vierten Ausführungsform auszuführen ist.
  • In dem in 10 dargestellten Flussdiagramm der vierten Ausführungsform wird im Gegensatz zu dem in 2 dargestellten Flussdiagramm der ersten Ausführungsform zuerst die Vorhersageverarbeitung (Schritt S500) ausgeführt.
  • Konkret führt die Vorhersageeinheit 10e die Vorhersageverarbeitung (Schritt S500) zur Berechnung von Vorhersagedaten in einem Zustand der Trajektorie des Objekts zur aktuellen Zeit aus, basierend auf Trajektorie-Daten, bei denen es sich um Objektinformationen handelt, die in einer Aktualisierungsverarbeitung (Schritt S400) in einer früheren Periode aktualisiert wurden. Der „Zustand der Trajektorie des Objekts“ bezieht sich hier z.B. auf die Position, Geschwindigkeit, Beschleunigung oder Attributinformationen des erkannten Objekts.
  • Die berechneten Vorhersagedaten werden von der Vorhersageeinheit 10e an die Speichereinheit 10d übertragen. Die Speichereinheit 10d erstellt und speichert einen Vorhersagedatenverlauf, in dem die Vorhersagedaten in einer chronologischen Reihenfolge gespeichert werden.
  • Als nächstes führt die Datenempfangseinheit 12 die Detektionsdatenerfassungsverarbeitung (Schritt S100) aus. Die Detektionsdatenerfassungsverarbeitung ist in der ersten bis dritten Ausführungsform ähnlich wie in Schritt S100. Wie unten beschrieben, müssen, wenn die Beobachtungsdaten des ersten Sensors 100 für die Bias-Fehlerkorrekturverarbeitung verwendet werden, die Beobachtungsdaten des zweiten Sensors 200 nicht erfasst werden.
  • Als nächstes führt die Steuereinheit 10 die Bias-Fehlerkorrekturverarbeitung (Schritt S200) aus. Bei der Bias-Fehlerkorrekturverarbeitung berechnet zunächst die Berechnungseinheit 10a der Steuereinheit 10 auf der Grundlage der von der Datenempfangseinheit 12 ausgegebenen Beobachtungsdaten und der von der Vorhersageeinheit 10e ausgegebenen Vorhersagedaten einen Wert einer Differenz in der physikalischen Größe zwischen dem vom ersten Sensor 100 detektierten Objekt und einem Objekt in den Vorhersagedaten.
  • Als nächstes bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, ob das Objektpaar, das aus den Beobachtungsdaten des ersten Sensors 100 und den Vorhersagedaten ausgewählt wird, auf der Grundlage einer voreingestellten Bedingung dasselbe Objekt ist. Wenn festgestellt wird, dass es sich bei dem Objektpaar um dasselbe Objekt handelt, setzt oder berechnet die Steuereinheit 10 einen Fehler (im Folgenden als „Bias-Fehler“ bezeichnet, ähnlich wie bei der ersten bis dritten Ausführungsform) zwischen den Beobachtungsdaten des ersten Sensors 100 und den Vorhersagedaten des ausgewählten Objektpaares.
  • Als nächstes verwendet die Korrektureinheit 10c der Steuereinheit 10 den Bias-Fehlerwert zur Korrektur der Beobachtungsdaten und beendet die Bias-Fehlerkorrekturverarbeitung. Die korrigierten Beobachtungsdaten werden von der Steuereinheit 10 an die Korrelationsverarbeitungseinheit 13 ausgegeben.
  • Anschließend führt die Korrelationsverarbeitungseinheit 13 die Korrelationsverarbeitung (Schritt S300) aus. Bei der Korrelationsverarbeitung verwendet die Korrelationsverarbeitungseinheit 13 die korrigierten Beobachtungsdaten, um die korrigierten Beobachtungsdaten des ersten Sensors 100 mit den Vorhersagedaten zu verknüpfen und dadurch Korrelationsdaten zu erzeugen. Die Korrelationsverarbeitungseinheit 13 gibt die korrigierten Beobachtungsdaten und die Korrelationsdaten an die Aktualisierungsverarbeitungseinheit 14 aus.
  • Als nächstes führt die Aktualisierungsverarbeitungseinheit 14 die Verarbeitung der Aktualisierung der Objektinformationen aus (Schritt S400). Die Aktualisierungsverarbeitungseinheit 14 verwendet die Korrelationsdaten, um die korrigierten Beobachtungsdaten des ersten Sensors 100 und die Objektinformationen der Vorhersagedaten zu aktualisieren, indem sie z. B. eine Sensorfusion ausführt.
  • Danach beendet die Hinderniserkennungsvorrichtung 2 die Verarbeitung. Die in 10 dargestellte Verarbeitung wird wiederholt in einer voreingestellten Betriebszeit ausgeführt.
  • Als nächstes werden Einzelheiten der durch die Hinderniserkennungsvorrichtung 2 auszuführenden Bias-Fehlerkorrekturverarbeitung gemäß der vierten Ausführungsform unter Bezugnahme auf 11 und 12 beschrieben.
  • 11 ist ein Flussdiagramm zur Veranschaulichung der von der Hinderniserkennungseinrichtung 2 gemäß der vierten Ausführungsform der vorliegenden Erfindung auszuführenden Bias-Fehlerkorrekturverarbeitung.
  • Die Bias-Fehlerkorrekturverarbeitung in der vierten Ausführungsform ähnelt der Verarbeitung, die auszuführen ist, wenn die Beobachtungsdaten des zweiten Sensors 200 durch die Vorhersagedaten in der ersten Ausführungsform ersetzt werden. Daher werden in der folgenden Beschreibung die gleichen Komponenten wie in der ersten Ausführungsform durch die Bezugszeichen bezeichnet, und eine Beschreibung derselben kann entfallen.
  • In Schritt S50 von 11 löscht die Steuereinheit 10 der Hinderniserkennungseinrichtung 2 die ältesten Beobachtungsdaten unter den in der Speichereinheit 10d gespeicherten Beobachtungsdaten. Weiterhin löscht die Steuereinheit 10 die ältesten Vorhersagedaten unter den in der Speichereinheit 10d gespeicherten Vorhersagedaten.
  • Als nächstes speichert die Steuereinheit 10 in Schritt S51 die neuesten in der aktuellen Periode erfassten Beobachtungsdaten in dem Beobachtungsdatenverlauf der Speichereinheit 10d. Weiterhin speichert die Steuereinheit 10 die Vorhersagedaten der aktuellen Periode in dem Beobachtungsdatenverlauf der Speichereinheit 10d.
  • Als nächstes wählt die Steuereinheit 10 in Schritt S52 ein Objekt aus einer Vielzahl von Objekten aus, die in den Beobachtungsdaten des ersten Sensors 100 enthalten sind, die in der Speichereinheit 10d gespeichert sind, und ein Objekt aus einer Vielzahl von Objekten, die in den in der Speichereinheit 10d gespeicherten Vorhersagedaten enthalten sind, um dadurch ein ausgewähltes Paar von Objekten einzustellen.
  • Als nächstes berechnet die Recheneinheit 10a der Steuereinheit 10 in Schritt S53 als Fehlerwert ΔX einen Wert einer Differenz der physikalischen Größe zwischen den Beobachtungsdaten des ersten Sensors 100 und den Vorhersagedaten in dem ausgewählten Objektpaar. Die Verarbeitung von Schritt S53 ist eine Verarbeitung, bei der die Beobachtungsdaten des zweiten Sensors 200 in Schritt S13 der ersten Ausführungsform durch die Vorhersagedaten ersetzt werden. Die Methode zur Berechnung von ΔX wird unter Bezugnahme auf 11 beschrieben.
  • 12 ist ein Diagramm zur Darstellung des Verfahrens zur Berechnung des Fehlers ΔX zwischen den Beobachtungsdaten und den Vorhersagedaten in der vierten Ausführungsform der vorliegenden Erfindung.
  • Das vom ersten Sensor 100 detektierte Objekt wird so eingestellt, dass es im ausgewählten Objektpaar eine Objekt-ID=idsns1 hat. Die Beobachtungsdaten zu einer Zeit k des Objekts ID=idsns1 werden auf Xksns1 gesetzt. In ähnlicher Weise wird das in den Vorhersagedaten enthaltene Objekt so eingestellt, dass es eine Objekt-ID=idsred in dem ausgewählten Paar hat. Die Beobachtungsdaten des Objekts ID=idsred zur Zeit k werden auf Xksred gesetzt.
  • Ein Fehler ΔXk zwischen den Beobachtungsdaten zur Zeit k und den Vorhersagedaten kann als absoluter Wert einer Differenz zwischen Xksns1 und Xksred gesetzt werden. Im Schritt S53 von 11, wie in 12 dargestellt, berechnet die Recheneinheit 10a der Steuereinheit 10 die Fehler ΔX1 bis ΔXn entsprechend den Zeiten t1 bis tn.
  • Um zu 11 zurückzukehren, fährt die Steuereinheit 10 mit der Verarbeitung in Schritt S54 fort. In Schritt S54 bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 auf der Grundlage einer im Voraus festgelegten Bedingung (1)' , ob das in Schritt S52 eingestellte ausgewählte Objektpaar dasselbe Objekt ist.
  • Die auf der Bedingung (1)' basierende Bestimmung kann z.B. auf folgende Weise durchgeführt werden.
  • Wenn in Schritt S54 der Abweichungsbereich der Fehler ΔX1 bis ΔXn kleiner als ein vorab eingestellter Schwellenwert ist (Schritt S54: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt (Schritt S15).
  • Im Gegensatz dazu bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 in Schritt S54, wenn der Abweichungsbereich der Intersensorfehler ΔX1 bis ΔXn gleich oder größer als der vorab eingestellte Schwellenwert ist (Schritt S54: Nein), dass es sich bei dem ausgewählten Objektpaar nicht um dasselbe Objekt handelt (Schritt S21), wenn der Abweichungsbereich der Intersensorfehler ΔX1 bis ΔXn gleich oder größer als der vorab eingestellte Schwellenwert ist (Schritt S54: Nein). Ein Wert, der durch Subtraktion des Minimalwertes vom Maximalwert von ΔX1 bis ΔXn, ein Mittelwert von ΔX1 bis ΔXn, ein Median von ΔX1 bis ΔXn oder andere Werte erhalten wird, kann als Abweichungsbereich verwendet werden.
  • Nach Schritt S15 schreitet die Steuereinheit 10 die Verarbeitung zu Schritt S16 fort.
  • In Schritt S16 stellt die Steuereinheit 10 einen Bias-Fehlerwert für das ausgewählte Objektpaar ein. Der jüngste ΔXn kann als Bias-Fehlerwert unter den Inter-Sensor-Fehlern ΔX1 bis ΔXn von Beobachtungsdaten verwendet werden, die z.B. den Zeiten t1 bis tn entsprechen. Alternativ können der Mittelwert, der Median oder andere Werte von ΔX1 bis ΔXn als Bias-Fehlerwert verwendet werden.
  • In der Zwischenzeit, nach Schritt S21, fährt die Steuereinheit 10 die Verarbeitung zu Schritt S22 fort.
  • In Schritt S22 setzt die Steuereinheit 10 den Bias-Fehlerwert des ausgewählten Objektpaares auf einen ungültigen Wert.
  • Nach Schritt S16 oder Schritt S22 fährt die Steuereinheit 10 die Verarbeitung mit Schritt S57 fort.
  • In Schritt S57, wenn alle Objektpaare bereits für Objekte ausgewählt sind, die in den Beobachtungsdaten des ersten Sensors 100 und den Vorhersagedaten enthalten sind (Schritt S57: Ja), fährt die Steuereinheit 10 die Verarbeitung mit Schritt S18 fort.
  • Wenn dagegen nicht alle Objektpaare ausgewählt sind (Schritt S57: Nein), kehrt die Steuereinheit 10 zu Schritt S52 zurück, um ein ausgewähltes Objektpaar neu einzustellen.
  • In Schritt S18 bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, ob der in Schritt S16 eingestellte Bias-Fehlerwert für alle ausgewählten Objektpaare ein ungültiger Wert ist. Wenn der Bias-Fehlerwert für alle ausgewählten Objektpaare nicht auf einen ungültigen Wert eingestellt ist (Schritt S18: Nein), fährt die Steuereinheit 10 die Verarbeitung mit Schritt S19 fort. Im Gegenteil, wenn der Bias-Fehlerwert für keines der ausgewählten Objektpaare auf einen ungültigen Wert eingestellt ist (Schritt S18: Ja), schiebt die Steuereinheit 10 die Verarbeitung auf Schritt S23 vor.
  • In Schritt S18 bestimmt die Steuereinheit 10 als dasselbe Objekt ein ausgewähltes Objektpaar mit dem kleinsten Bias-Fehlerwert unter allen ausgewählten Objektpaaren. Anschließend fährt die Steuereinheit 10 die Verarbeitung mit Schritt S20 fort.
  • In Schritt S23 stellt die Steuereinheit 10 fest, dass unter allen ausgewählten Objektpaaren kein gleiches Objekt vorhanden ist, und beendet die Bias-Fehlerkorrekturverarbeitung.
  • In Schritt S20 verwendet die Korrektureinheit 10c der Steuereinheit 10 den Bias-Fehlerwert für das ausgewählte Objektpaar, bei dem festgestellt wurde, dass es sich um dasselbe Objekt handelt, um die Verarbeitung der Korrektur der Beobachtungsdaten des ersten Sensors 100 auszuführen. Die Korrekturverarbeitung kann z.B. darin bestehen, zur Beseitigung eines Bias-Fehlers den Bias-Fehlerwert von den Beobachtungsdaten des ersten Sensors 100 zu subtrahieren. Nachdem die Korrekturverarbeitung von Schritt S20 abgeschlossen ist, schließt die Steuereinheit 10 die Bias-Fehlerkorrekturverarbeitung ab.
  • Bei der oben erwähnten Bias-Fehlerkorrekturverarbeitung darf nur einer der beiden Sensoren 100 und 200 für die Beobachtungsdaten verwendet werden. Daher kann in der Hinderniserkennungsvorrichtung 2 auf den ersten Sensor 100 oder den zweiten Sensor 200 verzichtet werden. Alternativ kann auch nur einer von dem ersten Sensor 100 und dem zweiten Sensor 200 bevorzugt zur Verwendung ausgewählt werden.
  • Wie oben beschrieben, wird gemäß der Hinderniserkennungsvorrichtung der vierten Ausführungsform in der Bias-Fehlerkorrekturverarbeitung eine physikalische Größe aus den Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und den von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten berechnet. Dann wird bestimmt, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, wobei der berechnete Wert einer Differenz der physikalischen Größe als Bestimmungsindexwert verwendet wird. Auf diese Weise ist es möglich, ein Objekt genau zu erkennen.
  • Fünfte Ausführungsform
  • Als nächstes wird unter Bezugnahme auf 13 und 14 eine Beschreibung der Hinderniserkennungsvorrichtung 2 gemäß einer fünften Ausführungsform der vorliegenden Erfindung gegeben.
  • Die fünfte Ausführungsform und die vierte Ausführungsform unterscheiden sich voneinander in der Konfiguration eines Indexwertes zur Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Die Konfiguration der Hinderniserkennungsvorrichtung 2 nach der fünften Ausführungsform ähnelt der des in 9 der vierten Ausführungsform dargestellten Blockschaltbildes, so dass auf eine Beschreibung derselben hier verzichtet wird.
  • Bei der Bias-Fehlerkorrekturverarbeitung in der vierten Ausführungsform wird der Wert einer Differenz der physikalischen Größe zwischen dem ausgewählten Objektpaar auf der Grundlage der Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und auf der Grundlage der von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten berechnet. Ferner wurde ein Beispiel für die Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, anhand des berechneten Wertes einer Differenz in der physikalischen Größe beschrieben.
  • Im Gegensatz dazu wird in der fünften Ausführungsform ein Beispiel beschrieben, wie in der Konfiguration zur Verwendung von Vorhersagedaten ähnlich wie in der vierten Ausführungsform die Bewegungstrajektorien des ausgewählten Objektpaares durch Polynome angenähert werden, Werte einer Differenz der Koeffizienten der angenäherten Polynome berechnet werden und bestimmt wird, ob das ausgewählte Objektpaar dasselbe Objekt ist.
  • Das heißt, die Bias-Fehlerkorrekturverarbeitung in der fünften Ausführungsform ähnelt der Verarbeitung, die ausgeführt wird, wenn irgendeines der Beobachtungsdaten des ersten Sensors 100 und der Beobachtungsdaten des zweiten Sensors 200 in der zweiten Ausführungsform durch die Vorhersagedaten ersetzt wird. Daher werden in der folgenden Beschreibung die gleichen Komponenten wie die der ersten bis vierten Ausführungsform durch die gleichen Bezugszeichen bezeichnet, und eine Beschreibung derselben kann entfallen.
  • In der folgenden Beschreibung wird ein Fall beschrieben, in dem die Beobachtungsdaten des ersten Sensors 100 und die Vorhersagedaten verwendet werden. Es können jedoch auch die Beobachtungsdaten des zweiten Sensors 200 anstelle der Beobachtungsdaten des ersten Sensors 100 verwendet werden.
  • Als nächstes werden Einzelheiten der Bias-Fehlerkorrekturverarbeitung, die von der Hinderniserkennungsvorrichtung 2 gemäß der fünften Ausführungsform auszuführen ist, unter Bezugnahme auf 13 und 14 beschrieben.
  • 13 ist ein Flussdiagramm zur Veranschaulichung der von der Hinderniserkennungsvorrichtung 2 gemäß der fünften Ausführungsform der vorliegenden Erfindung auszuführenden Bias-Fehlerkorrekturverarbeitung.
  • In Schritt S50 von 13 löscht die Steuereinheit 10 der Hinderniserkennungsvorrichtung 2 die ältesten Beobachtungsdaten aus den in der Speichereinheit 10d gespeicherten Stücken des Beobachtungsdatenverlaufs. Ferner löscht die Steuereinheit 10 die ältesten Vorhersagedaten aus den in der Speichereinheit 10d gespeicherten Vorhersagedaten.
  • Als nächstes speichert die Steuereinheit 10 in Schritt S51 die neuesten Beobachtungsdaten, die in der aktuellen Periode erfasst wurden, in dem Beobachtungsdatenverlauf der Speichereinheit 10d. Ferner speichert die Steuereinheit 10 die Vorhersagedaten in der aktuellen Periode in dem Beobachtungsdatenverlauf der Speichereinheit 10d.
  • Als nächstes führt die Steuereinheit 10 in Schritt S60 die Verarbeitung der Konvertierung der Beobachtungsdaten des ersten Sensors 100 und der Vorhersagedaten in das Bodenkoordinatensystem unter Verwendung der eigenen Fahrzeugdaten durch. Die koordinatenkonvertierten Daten werden in der Speichereinheit 10d gespeichert.
  • Im nächsten Schritt S61 verwendet die Recheneinheit 10a der Steuereinheit 10 die koordinatenkonvertierten Daten, um die Bewegungstrajektorien von Objekten zu berechnen, die in den Beobachtungsdaten des ersten Sensors 100 und den Vorhersagedaten enthalten sind. Das Polynom, das die Bewegungsbahn annähert, ist ähnlich dem der zweiten Ausführungsform.
  • 14 ist ein Diagramm zur Veranschaulichung eines Verfahrens zur Berechnung der Bewegungstrajektorie des detektierten Objekts in der fünften Ausführungsform der vorliegenden Erfindung. In 14 werden die koordinatenkonvertierten Daten über das vom zweiten Sensor 200 in 6 der zweiten Ausführungsform detektierte Objekt durch die in den Vorhersagedaten enthaltenen koordinatenkonvertierten Daten über das Objekt ersetzt.
  • Die Berechnungseinheit 10a berechnet Koeffizienten von C0sns1, C1sns1, C2sns1 und C3sns1 des Polynoms von ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3 der Bewegungsbahn des vom ersten Sensor 100 detektierten Objekts. In ähnlicher Weise berechnet die Berechnungseinheit 10a die Koeffizienten C0pred, C1pred, C2pred und C3pred eines Polynoms ypred=C0pred+C1pred*X+C2pred*X^2+C3pred*X^3 der in den Vorhersagedaten enthaltenen Bewegungstrajektorie des Objekts.
  • Als nächstes wählt die Steuereinheit 10 in Schritt S62 ein Objekt aus einer Vielzahl von Objekten, die in den in der Speichereinheit 10d gespeicherten Beobachtungsdaten des ersten Sensors 100 enthalten sind, und ein Objekt aus einer Vielzahl von Objekten, die in den in der Speichereinheit 10d gespeicherten Vorhersagedaten enthalten sind, aus, um dadurch ein ausgewähltes Objektpaar einzustellen.
  • Als nächstes berechnet die Recheneinheit 10a der Steuereinheit 10 in Schritt S63 die Absolutwerte ΔC0, ΔC1, ΔC2 und ΔC3 einer Differenz der Koeffizienten der Polynome, die die Bewegungstrajektorien des ausgewählten Objektpaares näherungsweise beschreiben. Im Falle von zwei in 14 dargestellten Bewegungstrajektorien werden ΔC0=abs(C0sns1-C0pred), ΔC1=abs(C1sns1-C1pred), ΔC2=abs(C2sns1-C2pred) und ΔC3=abs(C3sns1-C3pred) berechnet.
  • Als nächstes wird in Schritt S64 mit der Bestimmungseinheit 10b der Steuereinheit 10 bestimmt, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, basierend auf einer im Voraus festgelegten Bedingung (2)'. Die Bestimmung auf der Grundlage der Bedingung (2)' kann z.B. auf folgende Weise durchgeführt werden.
  • Zunächst stellt die Steuereinheit 10 im Voraus Schwellenwerte ein, die den absoluten Werten ΔC0, ΔC1, ΔC2 und ΔC3 der Werte einer Differenz der Koeffizienten entsprechen. Dann, in Schritt S64, wenn alle ACO, ΔC1, ΔC2 und ΔC3 kleiner als die jeweiligen im Voraus festgelegten Schwellenwerte sind (Schritt S64: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt (die Verarbeitung geht weiter zu Schritt S15).
  • Im Gegensatz dazu bestimmt die Bestimmungseinheit 10b der Steuereinheit 10 in Schritt S64, wenn einer von ACO, ΔC1, ΔC2 und ΔC3 gleich oder größer als der entsprechende im Voraus eingestellte Schwellenwert ist (Schritt S64: Nein), dass das ausgewählte Objektpaar nicht dasselbe Objekt ist (Schritt S21).
  • Die Verarbeitung von Schritt S15 und Schritt S21 im Anschluss an Schritt S64 und die nachfolgenden Schritte sind ähnlich wie die in der vierten Ausführungsform beschriebene von 11, daher wird hier auf eine Beschreibung derselben verzichtet.
  • Wie oben beschrieben, werden nach der Hinderniserkennung der fünften Ausführungsform die Bewegungstrajektorien des ausgewählten Objektpaares im Bodenkoordinatensystem aus den Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und aus den von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten berechnet. Dann wird bestimmt, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, wobei der berechnete Grad der Ähnlichkeit zwischen den Bewegungstrajektorien des ausgewählten Objektpaares als Bestimmungsindexwert verwendet wird. Auf diese Weise ist es möglich, ein Objekt genau zu erkennen.
  • Sechste Ausführungsform Als nächstes wird unter Bezugnahme auf 15 und 16A bis 16C eine Beschreibung der Hinderniserkennungsvorrichtung 2 gemäß einer sechsten Ausführungsform der vorliegenden Erfindung gegeben.
  • Die sechste Ausführungsform und die vierte und fünfte Ausführungsform unterscheiden sich voneinander in der Konfiguration eines Indexwertes zur Bestimmung, ob es sich bei dem ausgewählten Objektpaar um ein und dasselbe Objekt handelt. Die Konfiguration der Hinderniserkennungsvorrichtung 2 nach der sechsten Ausführungsform ähnelt der des in 9 der vierten Ausführungsform dargestellten Blockschaltbildes, so dass hier auf eine Beschreibung verzichtet wird.
  • Bei der Bias-Fehlerkorrekturverarbeitung in der vierten Ausführungsform wird der Wert einer Differenz der physikalischen Größe zwischen dem ausgewählten Objektpaar auf der Grundlage der Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und auf der Grundlage der von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten berechnet. Ferner wurde ein Beispiel für die Bestimmung, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt, anhand des berechneten Wertes einer Differenz in der physikalischen Größe beschrieben. Ferner wurde in der fünften Ausführungsform ein Beispiel beschrieben, wie in der Konfiguration zur Verwendung von Vorhersagedaten ähnlich wie in der vierten Ausführungsform die jeweiligen Bewegungstrajektorien des ausgewählten Objektpaares durch Polynome angenähert werden, Werte einer Differenz der Koeffizienten der angenäherten Polynome berechnet werden und bestimmt wird, ob das ausgewählte Objektpaar dasselbe Objekt ist.
  • Im Gegensatz dazu wird in der sechsten Ausführungsform in der Konfiguration der Verwendung von Vorhersagedaten ähnlich wie in der vierten Ausführungsform ein Korrelationskoeffizient auf der Grundlage von Zeitreihendaten über die Bodenkoordinatenpositionen eines ausgewählten Objektpaares berechnet und auf der Grundlage des berechneten Korrelationskoeffizienten bestimmt, ob das ausgewählte Objektpaar dasselbe Objekt ist.
  • Das heißt, die Bias-Fehlerkorrekturverarbeitung in der sechsten Ausführungsform ähnelt der Verarbeitung, die ausgeführt wird, wenn irgendeines der Beobachtungsdaten des ersten Sensors 100 und der Beobachtungsdaten des zweiten Sensors 200 in der dritten Ausführungsform durch die Vorhersagedaten ersetzt wird. Daher werden in der folgenden Beschreibung die gleichen Komponenten wie die der ersten bis fünften Ausführungsform durch die gleichen Bezugszeichen bezeichnet, und eine Beschreibung derselben kann entfallen.
  • In der folgenden Beschreibung wird ein Fall beschrieben, in dem die Beobachtungsdaten des ersten Sensors 100 und die Vorhersagedaten verwendet werden. Es können jedoch auch die Beobachtungsdaten des zweiten Sensors 200 anstelle der Beobachtungsdaten des ersten Sensors 100 verwendet werden.
  • Als nächstes wird unter Bezugnahme auf 15 und 16A bis 16C eine detaillierte Beschreibung der Bias-Fehlerkorrekturverarbeitung gegeben, die von der Hinderniserkennungsvorrichtung 2 gemäß der sechsten Ausführungsform auszuführen ist.
  • 15 ist ein Flussdiagramm zur Veranschaulichung eines Verarbeitungsablaufs, der von der Hinderniserkennungsvorrichtung 2 gemäß der sechsten Ausführungsform der vorliegenden Erfindung auszuführen ist. 16A ist ein erläuterndes Diagramm der Fehlerkorrekturverarbeitung, die von der Hinderniserkennungsvorrichtung 2 gemäß der sechsten Ausführungsform der vorliegenden Erfindung ausgeführt wird, 16B ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten von vertikalen Positionen und 16C ist ein Diagramm zur Darstellung eines Korrelationskoeffizienten von horizontalen Positionen.
  • Die Verarbeitung des Löschens der ältesten Beobachtungsdaten und der ältesten Vorhersagedaten in Schritt S50 von 15 und die Verarbeitung des Hinzufügens der neuesten Beobachtungsdaten und der neuesten Vorhersagedaten in Schritt S51 ähneln denen von 13, die in der fünften Ausführungsform beschrieben sind, und daher wird hier eine Beschreibung davon weggelassen.
  • Als nächstes führt die Steuereinheit 10, ähnlich wie in der fünften Ausführungsform, in Schritt S60 die Verarbeitung der Konvertierung der Beobachtungsdaten des ersten Sensors 100 und der Vorhersagedaten in das Bodenkoordinatensystem unter Verwendung der eigenen Fahrzeugdaten durch.
  • Als nächstes wählt die Steuereinheit 10, ähnlich wie bei der vierten Ausführungsform, in Schritt S52 ein Objekt aus einer Vielzahl von Objekten aus, die in den in der Speichereinheit 10d gespeicherten Beobachtungsdaten des ersten Sensors 100 enthalten sind, und ein Objekt aus einer Vielzahl von Objekten, die in den in der Speichereinheit 10d gespeicherten Vorhersagedaten enthalten sind, um dadurch ein ausgewähltes Objektpaar einzustellen.
  • Als nächstes, ähnlich wie bei der dritten Ausführungsform, in Schritt S40, verwendet die Berechnungseinheit 10a der Steuereinheit 10 die koordinatenkonvertierten Daten, um einen Korrelationskoeffizienten des ausgewählten Objektpaares zu berechnen.
  • 16A bis 16C sind Diagramme zur Veranschaulichung eines Verfahrens zur Berechnung eines Korrelationskoeffizienten r des ausgewählten Objektpaares in der sechsten Ausführungsform der vorliegenden Erfindung.
  • Das heißt, die in 16A dargestellten X1_sns1 bis Xn_sns1 zeigen vertikale Positionen (PosXsns1) zu den Zeiten t1 bis tn des vom ersten Sensor 100 detektierten Objekts an. In ähnlicher Weise zeigen X1_pred bis Xn_pred vertikale Positionen (PosXpred) zu den Zeiten t1 bis tn der Vorhersagedaten an.
  • Weiterhin zeigen Y1_sns1 (nicht gezeigt) bis Yn_sns1 (nicht gezeigt) horizontale Positionen (PosYsns1) zu den Zeiten t1 bis tn des vom ersten Sensor 100 detektierten Objekts an. In ähnlicher Weise zeigen Y1_pred (nicht gezeigt) bis Yn pred (nicht gezeigt) vertikale Positionen (PosYpred) zu den Zeiten t1 bis tn der Vorhersagedaten an.
  • In Schritt S70 berechnet die Recheneinheit 10a der Steuereinheit 10 für das ausgewählte Objektpaar die vertikalen Positionen PosXsns1 und PosXpred und die horizontalen Positionen PosYsns1 und PosYpred zu den Zeiten t1 bis tn.
  • Als nächstes berechnet die Recheneinheit 10a einen Korrelationskoeffizienten rposX für die vertikalen Positionen (PosXsns1, PosXpred) und einen Korrelationskoeffizienten rposY für die horizontalen Positionen (PosYsns1, PosYpred).
  • 16B ist ein Diagramm zur Darstellung eines Beispiels für ein Verfahren zur Berechnung des Korrelationskoeffizienten rposX der vertikalen Positionen (PosXsns1, PosXpred).
  • Wie in 16B dargestellt, berechnet die Berechnungseinheit 10a den Korrelationskoeffizienten rposX unter Verwendung einer Kombination von Datensequenzen {(PosXsns1_ti, PosXpred_ti)} von PosXsns1_ti und PosXpred_ti (i=1, 2, -n), die die vertikalen Positionen zu den Zeiten t1 bis tn als Variablen angeben.
  • 16C ist ein Diagramm zur Darstellung eines Beispiels für ein Verfahren zur Berechnung des Korrelationskoeffizienten rposY der horizontalen Positionen (PosXsns1, PosXpred).
  • Wie in 16C dargestellt, wird der Korrelationskoeffizient rposY unter Verwendung einer Kombination von Datensequenzen {(PosYsns1_ti, PosY pred_ti)} von PosYsns1_ti und PosY pred_ti (i=1, 2, -n) berechnet, die die horizontalen Positionen zu den Zeiten t1 bis tn als Variablen angeben.
  • Als nächstes bestimmt in Schritt S71 die Bestimmungseinheit 10b der Steuereinheit 10 auf der Grundlage einer im Voraus festgelegten Bedingung (3)' , ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Die Bestimmung auf der Grundlage der Bedingung (3)' kann z.B. auf folgende Weise durchgeführt werden.
  • Zunächst stellt die Steuereinheit 10 im Voraus Schwellenwerte ein, die den Korrelationskoeffizienten rposX und rposY entsprechen. Wenn in Schritt S41 die beiden Korrelationskoeffizienten rposX und rposY gleich oder größer als die jeweils im Voraus eingestellten Schwellenwerte sind (Schritt S71: Ja), bestimmt die Bestimmungseinheit 10b der Steuereinheit 10, dass es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Dann schreitet die Steuereinheit 10 die Verarbeitung zu Schritt S15 fort.
  • Ist dagegen in Schritt S71 einer der Korrelationskoeffizienten rposX und rposY kleiner als der entsprechende, vorab eingestellte Schwellenwert (Schritt S71: Nein), stellt die Bestimmungseinheit 10b der Steuereinheit 10 fest, dass das ausgewählte Objektpaar nicht dasselbe Objekt ist. Dann leitet die Steuereinheit 10 die Verarbeitung zu Schritt S21 weiter.
  • Die Verarbeitung von Schritt S15 und Schritt S21 nach Schritt S71 und die nachfolgenden Schritte sind ähnlich wie die in 9, beschrieben in der vierten Ausführungsform, und daher wird hier auf eine Beschreibung verzichtet.
  • Wie oben beschrieben, wird gemäß der Hinderniserkennungsvorrichtung der sechsten Ausführungsform bei der Bias-Fehlerkorrekturverarbeitung der Korrelationskoeffizient der Positionen eines ausgewählten Objektpaares im Bodenkoordinatensystem aus den Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und aus den von der Vorhersageverarbeitungseinheit berechneten Vorhersagedaten berechnet. Dann wird unter Verwendung des berechneten Korrelationskoeffizienten als Bestimmungsindexwert bestimmt, ob es sich bei dem ausgewählten Objektpaar um dasselbe Objekt handelt. Auf diese Weise ist es möglich, ein Objekt genau zu erkennen.
  • Siebte Ausführungsform
  • In einer siebten Ausführungsform der vorliegenden Erfindung sind die Hinderniserkennungsvorrichtung 1 und die Hinderniserkennungsvorrichtung 2 entsprechend der ersten bis sechsten Ausführungsform so konfiguriert, dass sie eine auf der Verzögerungszeit eines Sensors basierende Detektionszeit der Detektionsdaten korrigieren. Die Verarbeitung der Korrektur der Detektionszeit der auf der Verzögerungszeit eines Sensors basierenden Detektionsdaten wird im Folgenden als „Verarbeitung der korrigierenden Detektionszeit“ bezeichnet.
  • Ein Sensor hat eine Verzögerungszeit, die z.B. dem Typ des Sensors entspricht. Die Verzögerungszeit eines Sensors ist z.B. eine Zeitspanne vom Eintritt des detektierten Objekts in einen Detektionsbereich des Sensors bis zur Ausführung der Ausgabe durch den Sensor und wird auch als „Ansprechzeit“ eines Sensors bezeichnet. Wenn also die Verzögerungszeit eines Sensors nicht berücksichtigt wird, kann eine zeitliche Abweichung in den Detektionsdaten auftreten.
  • Nun wird eine Beschreibung der Verarbeitung der Korrektur der Detektionszeit in der siebten Ausführungsform der vorliegenden Erfindung gegeben.
  • Zuerst wird eine Beschreibung einer Zeit für die Ausführung der Verarbeitung der Korrektur der Detektionszeit gegeben.
  • Wie unter Bezugnahme auf 2 (Hinderniserkennungsvorrichtung 1) der ersten Ausführungsform und 10 (Hinderniserkennungsvorrichtung 2) der vierten Ausführungsform beschrieben, erfasst die Datenempfangseinheit 12 bei der Detektionsdatenerfassungsverarbeitung (Schritt S100) Detektionsdaten von einem Sensor. Als nächstes erzeugt die Datenempfangseinheit 12 Beobachtungsdaten, die durch Verknüpfung der erfassten Detektionsdaten mit der von der Zeitmesseinheit 11 gemessenen Zeit gewonnen werden.
  • Wenn der Sensor keine Verzögerungszeit hat, misst die Zeitmesseinheit 11 eine Zeit, zu der die Datenempfangseinheit 12 die Detektionsdaten vom Sensor empfangen hat, und die Detektionsdaten zur gemessenen Zeit können so wie sie sind als Beobachtungsdaten verwendet werden. Wenn der Sensor jedoch eine Verzögerungszeit hat, kann eine Abweichung zwischen der Zeit, zu der die Datenempfangseinheit 12 die Detektionsdaten vom Sensor empfangen hat, und der Zeit, zu der der Sensor tatsächlich ein Objekt detektiert hat, auftreten.
  • Im Besonderen ist die Verarbeitung der Korrektur der Detektionszeit die Verarbeitung der in den Beobachtungsdaten enthaltenen Zeitinformationen. Daher ist es wünschenswert, die Verarbeitung der Korrektur der Detektionszeit in einer Zeitspanne auszuführen, die seit der Erfassung der Detektionsdaten durch die Datenempfangseinheit 12 verstrichen ist, bis die Steuereinheit 10 die Beobachtungsdaten verwendet, um die Bias-Fehlerkorrekturverarbeitung auszuführen.
  • Die Verarbeitung zur Korrektur der Detektionszeit kann so eingestellt werden, dass sie ausgeführt wird, wenn die Datenempfangseinheit 12 die Beobachtungsdaten erzeugt.
  • Alternativ kann die Datenempfangseinheit 12 die Detektionsdaten erfassen und ausgeben, und die Recheneinheit 10a der Steuereinheit 10 kann die Verarbeitung zur Korrektur der Detektionszeit ausführen. In diesem Fall kann die Datenempfangseinheit 12 die Detektionsdaten an die Steuereinheit 10 ausgeben, und dann kann die Recheneinheit 10a der Steuereinheit 10 die Verarbeitung zur Korrektur der Detektionszeit ausführen.
  • Nachfolgend wird ein Fall beschrieben, in dem die Recheneinheit 10a der Steuereinheit 10 die Verarbeitung zur Korrektur der Detektionszeit ausführt.
  • Nachfolgend wird eine Beschreibung der Details der Verarbeitung zur Korrektur der Detektionszeit gegeben.
  • In der Hinderniserkennungsvorrichtung 1, wenn die Verzögerungszeiten des ersten Sensors 100 und des zweiten Sensors 200 bekannt sind, addiert die Recheneinheit 10a der Steuereinheit 10 die jeweils bekannten Verzögerungszeiten zu den Detektionsdaten des ersten Sensors 100 und des zweiten Sensors 200, um dadurch die Verarbeitung der Korrektur der Detektionszeit auszuführen.
  • Als nächstes wird unter Bezugnahme auf 17A und 17B ein Verfahren zur Korrektur der Detektionszeit unter Verwendung der Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 in der Hinderniserkennungsvorrichtung 1 beschrieben.
  • 17A ist ein Diagramm zur Darstellung von Zeitreihen von Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200. Weiterhin stellt 17B eine Beziehung zwischen dem Betrag (im Folgenden als „Verschiebungszeit“ bezeichnet) der Korrektur der Detektionszeit und einem Korrelationskoeffizienten r der Zeitreihendaten dar. Die Steuereinheit 10 schätzt die Verzögerungszeit auf der Grundlage der in 17B dargestellten Beziehung zwischen der Verschiebungszeit und dem Korrelationskoeffizienten r.
  • Zunächst verwendet die Steuereinheit 10 die Zeitreihen-Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200, um einen Korrelationskoeffizienten r0 der Zeitreihendaten zu berechnen.
  • Als nächstes verschiebt die Steuereinheit 10, wie in 17A gezeigt, die Zeitreihen-Beobachtungsdaten des ersten Sensors 100 um eine Verschiebungszeit Δt, die einer Periode entspricht, in eine Richtung der Zeitzunahme. Als nächstes berechnet die Steuereinheit 10 den Korrelationskoeffizienten r(Δt) der Zeitreihendaten basierend auf den Zeitreihen-Beobachtungsdaten des ersten Sensors 100, die um Δt verschoben wurden, und den Zeitreihen-Beobachtungsdaten des zweiten Sensors 200.
  • Als nächstes verschiebt die Steuereinheit 10, wie in 17A gezeigt, die Zeitreihen-Beobachtungsdaten des ersten Sensors 100 um eine Verschiebungszeit 2*Δt, die zwei Perioden in Richtung der Zeitzunahme entspricht. Als nächstes berechnet die Steuereinheit 10 den Korrelationskoeffizienten r(2*Δt) der Zeitreihendaten auf der Grundlage der Zeitreihen-Beobachtungsdaten des ersten Sensors 100, der um 2*Δt verschoben wurde, und der Zeitreihen-Beobachtungsdaten des zweiten Sensors 200.
  • In ähnlicher Weise verschiebt die Steuereinheit 10 die Zeitreihen-Beobachtungsdaten des ersten Sensors 100 um 3*Δt, 4*Δt, 5*Δt, -1*Δt und -2*Δt, um jeden Korrelationskoeffizienten zu berechnen.
  • 17B ist ein Diagramm, das durch Auftragen des Korrelationskoeffizienten r der wie oben beschrieben berechneten Zeitreihendaten erhalten wird, wobei die Verschiebungszeit als horizontale Achse festgelegt wird. Im Beispiel von 17B ist der Korrelationskoeffizient r der Zeitseriendaten maximal, wenn die Verschiebungszeit 2*Δt beträgt.
  • Die Steuereinheit 10 stellt die Verschiebungszeit (2*Δt in BILD 17A), bei der der Korrelationskoeffizient r der Zeitreihendaten maximal ist, als Schätzwert für die Verzögerungszeit ein. Anschließend verwendet die Recheneinheit 10a der Steuereinheit 10 den eingestellten Schätzwert der Verzögerungszeit, um die Zeitreihen-Beobachtungsdaten des ersten Sensors 100 zu korrigieren.
  • Nachdem die Verarbeitung der Korrektur der Detektionszeit abgeschlossen ist, verwendet die Steuereinheit 10 die durch die Korrektur der Detektionszeit erhaltenen Beobachtungsdaten, um die in der ersten bis dritten Ausführungsform beschriebene Bias-Fehlerkorrekturverarbeitung auszuführen. Bei der Verarbeitung zur Bias-Fehlerkorrektur verwendet die Berechnungseinheit 10a die Beobachtungsdaten, die durch die Korrektur der Detektionszeit erhalten wurden, um einen Indexwert zu berechnen.
  • Die Berechnung des Korrelationskoeffizienten r und die Schätzung der Verzögerungszeit werden möglicherweise nicht von der Steuereinheit 10, sondern von einer innerhalb der Hinderniserkennungsvorrichtung vorgesehenen Schätzungseinheit ausgeführt.
  • In der folgenden Beschreibung ist als Verarbeitung, die zu der in der ersten bis dritten Ausführungsform (Hinderniserkennungsvorrichtung 1) beschriebenen Verarbeitung hinzuzufügen ist, ein Fall der Ausführung der Verarbeitung zur Korrektur der Detektionszeit unter Verwendung der Zeitreihen-Beobachtungsdaten des ersten Sensors 100 und des zweiten Sensors 200 beschrieben worden. Die oben beschriebene Verarbeitung zur Korrektur der Detektionszeit kann auch zu der in der vierten bis sechsten Ausführungsform (Hinderniserkennungsvorrichtung 2) beschriebenen Verarbeitung hinzugefügt werden.
  • Wenn in der Hinderniserkennungsvorrichtung 2 die Verzögerungszeit mindestens eines der beiden Sensoren, des ersten Sensors 100 und des zweiten Sensors 200, bereits bekannt ist, addiert die Recheneinheit 10a die bekannte Verzögerungszeit zu den Detektionsdaten des ersten Sensors 100 oder des zweiten Sensors 200, um dadurch die Verarbeitung der Korrektur der Detektionszeit auszuführen.
  • Ferner kann die Hinderniserkennungsvorrichtung 2 so konfiguriert werden, dass, wenn die Detektionszeit unter Verwendung der Beobachtungsdaten des ersten Sensors 100 oder des zweiten Sensors 200 und der Vorhersagedaten korrigiert wird, die Zeitreihen-Beobachtungsdaten des zweiten Sensors 200 durch die Zeitreihen-Vorhersagedaten in der obigen Beschreibung mit Bezug auf 17A und 17B ersetzt werden. Nachdem die Verarbeitung der Korrektur der Detektionszeit abgeschlossen ist, verwendet die Steuereinheit 10 die Beobachtungsdaten, die durch die Korrektur der Detektionszeit erhalten wurden, um die in der vierten bis sechsten Ausführungsform beschriebene Bias-Fehlerkorrekturverarbeitung auszuführen. Bei der Verarbeitung zur Bias-Fehlerkorrektur berechnet die Recheneinheit 10a einen Indexwert unter Verwendung der Beobachtungsdaten, die durch die Korrektur der Detektionszeit erhalten wurden.
  • Wie oben beschrieben, ist es gemäß der Hinderniserkennungsvorrichtung der siebten Ausführungsform möglich, die Bias-Fehlerkorrekturverarbeitung in einem Zustand auszuführen, in dem eine Abweichung der Objektdetektionszeit aufgrund der Verzögerungszeit eines Sensors verhindert wird.
  • Bezugszeichenliste
  • 1, 2
    Hinderniserkennungsvorrichtung,
    10
    Steuereinheit,
    11
    Zeitmesseinheit,
    12
    Datenempfangseinheit,
    13
    Korrelationsverarbeitungseinheit,
    14
    Aktualisierungsverarbeitungseinheit,
    100
    erster Sensor,
    200
    zweiter Sensor,
    300
    Fahrzeuginformationssensor,
    500
    Anzeigeeinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010249613 A [0004]

Claims (15)

  1. Hinderniserkennungsvorrichtung, umfassend: einen ersten Sensor und einen zweiten Sensor, die konfiguriert sind, ein Objekt in der Nähe eines Fahrzeugs zu erkennen; eine Berechnungseinheit, die konfiguriert ist, basierend auf ersten Detektionsdaten über ein erstes Objekt, das von dem ersten Sensor detektiert wird, und zweiten Detektionsdaten über ein zweites Objekt, das von dem zweiten Sensor detektiert wird, einen Indexwert zu berechnen, um zu identifizieren, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind; eine Bestimmungseinheit, die konfiguriert ist, zu bestimmen, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und eine Korrektureinheit, die konfiguriert ist, wenn die Bestimmungseinheit festgestellt hat, dass das erste Objekt und das zweite Objekt dasselbe Objekt sind, einen Detektionsfehler zwischen dem ersten Sensor und dem zweiten Sensor auf der Grundlage der ersten Detektionsdaten und der zweiten Detektionsdaten zu berechnen und korrigierte Detektionsdaten zu erzeugen, um den Detektionsfehler zu beseitigen.
  2. Hinderniserkennungsvorrichtung nach Anspruch 1, wobei der erste Sensor konfiguriert ist, als die ersten Detektionsdaten eine physikalische Größe mindestens Eines aus der Gruppe einer Position, einer Geschwindigkeit und einer Beschleunigung des ersten Objekts zu detektieren, wobei der zweite Sensor konfiguriert ist, als die zweiten Detektionsdaten eine physikalische Größe mindestens Eines aus der Gruppe einer Position, einer Geschwindigkeit und einer Beschleunigung des zweiten Objekts zu detektieren, das die die gleiche physikalische Größe wie die physikalische Größe des ersten Sensors ist, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert eine Differenz zwischen den ersten Detektionsdaten und den zweiten Detektionsdaten zu berechnen.
  3. Hinderniserkennungsvorrichtung nach Anspruch 1, wobei der erste Sensor konfiguriert ist eine Position des ersten Objekts als die ersten Detektionsdaten zu detektieren, wobei der zweite Sensor konfiguriert ist, eine Position des zweiten Objekts als die zweiten Detektionsdaten zu detektieren, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert einen Ähnlichkeitsgrad zwischen einer aus Zeitseriendaten der ersten Detektionsdaten berechneten Bewegungstrajektorie des ersten Objekts und einer aus Zeitseriendaten der zweiten Detektionsdaten berechneten Bewegungstrajektorie des zweiten Objekts zu berechnen.
  4. Hinderniserkennungsvorrichtung nach Anspruch 3, wobei die Berechnungseinheit konfiguriert ist: die Bewegungstrajektorie des ersten Objekts durch ein erstes Polynom angenähert zu bestimmen; die Bewegungstrajektorie des zweiten Objekts durch ein zweites Polynom angenähert zu bestimmen; und als Grad der Ähnlichkeit den Absolutwert einer Differenz zwischen Koeffizienten entsprechender Terme des ersten Polynoms und des zweiten Polynoms zu berechnen.
  5. Hinderniserkennungsvorrichtung nach Anspruch 1, wobei der erste Sensor konfiguriert ist, eine Position des ersten Objekts als die ersten Detektionsdaten zu detektieren, wobei der zweite Sensor konfiguriert ist, eine Position des zweiten Objekts als die zweiten Detektionsdaten zu detektieren, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert einen Korrelationskoeffizienten von Zeitreihendaten der ersten Detektionsdaten und Zeitreihendaten der zweiten Detektionsdaten zu berechnen.
  6. Hinderniserkennungsvorrichtung nach einem der Ansprüche 1 bis 5, weiterhin umfassend eine Speichereinheit, die konfiguriert ist, eine Verzögerungszeit als bekannte Daten zu speichern, wobei die Verzögerungszeit als eine Zeitdifferenz zwischen einer ersten Zeitperiode und einer zweiten Zeitperiode in einem Fall definiert ist, in dem die erste Zeitperiode länger als die zweite Zeitperiode ist, wobei die erste Zeitperiode eine erforderliche Zeitperiode seit der Detektion des ersten Objekts durch den ersten Sensor bis zur Ausgabe der ersten Detektionsdaten durch den ersten Sensor ist, und wobei die zweite Zeitperiode eine erforderliche Zeitperiode seit der Detektion des zweiten Objekts durch den zweiten Sensor bis zur Ausgabe der zweiten Detektionsdaten durch den zweiten Sensor ist, wobei die Berechnungseinheit konfiguriert ist: eine Verzögerungsverarbeitung auszuführen, indem angenommen wird, dass die ersten Detektionsdaten zu einer Zeit empfangen werden, die durch Verzögern einer Zeit der Erfassung der durch den ersten Sensor detektierten ersten Detektionsdaten um die Verzögerungszeit erhalten wird; und den Indexwert auf der Grundlage der ersten Detektionsdaten, die der Verzögerungsverarbeitung unterzogen wurden, und der zweiten Detektionsdaten, die nicht der Verzögerungsverarbeitung unterzogen wurden, zu berechnen.
  7. Hinderniserkennungsvorrichtung nach einem der Ansprüche 1 bis 5, die ferner eine Schätzungseinheit umfasst, die konfiguriert ist, eine Verzögerungszeit auf der Grundlage von Zeitreihendaten der ersten Detektionsdaten und Zeitreihendaten der zweiten Detektionsdaten zu schätzen, wenn es sich bei der Verzögerungszeit um unbekannte Daten handelt, wobei die Verzögerungszeit als eine Zeitdifferenz zwischen einer ersten Zeitperiode und einer zweiten Zeitperiode in einem Fall definiert ist, in dem die erste Zeitperiode länger als die zweite Zeitperiode ist, wobei die erste Zeitperiode eine erforderliche Zeitperiode seit der Detektion des ersten Objekts durch den ersten Sensor bis zur Ausgabe der ersten Detektionsdaten durch den ersten Sensor ist, wobei die zweite Zeitperiode eine erforderliche Zeitperiode seit der Detektion des zweiten Objekts durch den zweiten Sensor bis zur Ausgabe der zweiten Detektionsdaten durch den zweiten Sensor ist, wobei die Berechnungseinheit konfiguriert ist: eine Verzögerungsverarbeitung auszuführen, indem angenommen wird, dass die ersten Detektionsdaten zu einer Zeit empfangen werden, die durch Verzögern einer Zeit der Erfassung der durch den ersten Sensor detektierten ersten Detektionsdaten um die Verzögerungszeit erhalten wird; und den Indexwert auf der Grundlage der ersten Detektionsdaten, die der Verzögerungsverarbeitung unterzogen wurden, und der zweiten Detektionsdaten, die nicht der Verzögerungsverarbeitung unterzogen wurden, zu berechnen.
  8. Hinderniserkennungsvorrichtung nach Anspruch 7, wobei die Schätzungseinheit konfiguriert ist: Zeitseriendaten der ersten Detektionsdaten zeitlich in der Reihenfolge zu verschieben; einen Korrelationskoeffizienten der Zeitreihendaten der ersten Detektionsdaten und der Zeitreihendaten der zweiten Detektionsdaten zu berechnen; und einen Betrag der zeitlichen Verschiebung zu schätzen, der den maximalen Korrelationskoeffizienten als Verzögerungszeit hat.
  9. Hinderniserkennungsvorrichtung, umfassend: einen ersten Sensor, der konfiguriert ist, ein Objekt in der Nähe eines Fahrzeugs zu erkennen; eine Vorhersageeinheit, die konfiguriert ist, die Bewegung des Objekts auf der Grundlage der zuvor von dem ersten Sensor detektierten Detektionsdaten vorherzusagen, um einen Vorhersagewert zu einer aktuellen Zeit als dritte Detektionsdaten für ein drittes Objekt zu erzeugen; eine Berechnungseinheit, die konfiguriert ist, basierend auf ersten Detektionsdaten über ein erstes Objekt, das durch den ersten Sensor detektiert wird, und den dritten Detektionsdaten über das dritte Objekt, das durch die Vorhersageeinheit detektiert wird, einen Indexwert zu berechnen, zum Identifizieren, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind; und eine Bestimmungseinheit, die konfiguriert ist, zu bestimmen, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und eine Korrektureinheit, die konfiguriert ist, wenn die Bestimmungseinheit festgestellt hat, dass das erste Objekt und das dritte Objekt dasselbe Objekt sind, einen Bias-Fehler zwischen einem Ergebnis der Detektion durch den ersten Sensor und einem Ergebnis der Erzeugung durch die Vorhersageeinheit auf der Grundlage der ersten Detektionsdaten und der dritten Detektionsdaten zu berechnen und korrigierte Detektionsdaten zu erzeugen, so dass der Bias-Fehler beseitigt wird.
  10. Hinderniserkennungsvorrichtung nach Anspruch 9, wobei der erste Sensor konfiguriert ist, als die ersten Detektionsdaten eine physikalische Größe mindestens Eines aus der Gruppe einer Position, einer Geschwindigkeit und einer Beschleunigung des ersten Objekts zu detektieren, wobei die Vorhersageeinheit konfiguriert ist, als die dritten Detektionsdaten eine physikalische Größe mindestens Eines aus der Gruppe einer Position, einer Geschwindigkeit und einer Beschleunigung des dritten Objekts vorherzusagen, das die die gleiche physikalische Größe wie die physikalische Größe des ersten Sensors ist, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert eine Differenz zwischen den ersten Detektionsdaten und den dritten Detektionsdaten zu berechnen.
  11. Hinderniserkennungsvorrichtung nach Anspruch 9, wobei der erste Sensor konfiguriert ist, eine Position des ersten Objekts als die ersten Detektionsdaten zu detektieren, wobei die Vorhersageeinheit konfiguriert ist, eine Position des dritten Objekts als die dritten Detektionsdaten vorherzusagen, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert einen Ähnlichkeitsgrad zwischen einer aus Zeitreihendaten der ersten Detektionsdaten berechneten Bewegungstrajektorie des ersten Objekts und einer aus Zeitreihendaten der dritten Detektionsdaten berechneten Bewegungstrajektorie des dritten Objekts zu berechnen.
  12. Hinderniserkennungsvorrichtung nach Anspruch 11, wobei die Berechnungseinheit konfiguriert ist: die Bewegungstrajektorie des ersten Objekts durch ein erstes Polynom annähernd zu bestimmen; die Bewegungstrajektorie des dritten Objekts durch ein drittes Polynom annähernd zu bestimmen; und als Grad der Ähnlichkeit den Absolutwert einer Differenz zwischen Koeffizienten entsprechender Terme des ersten Polynoms und des dritten Polynoms berechnen.
  13. Hinderniserkennungsvorrichtung nach Anspruch 9, wobei der erste Sensor konfiguriert ist, eine Position des ersten Objekts als die ersten Detektionsdaten zu detektieren, wobei die Vorhersageeinheit konfiguriert ist, eine Position des dritten Objekts als die dritten Detektionsdaten vorherzusagen, und wobei die Berechnungseinheit konfiguriert ist, als Indexwert einen Korrelationskoeffizienten von Zeitreihendaten der ersten Detektionsdaten und Zeitreihendaten der dritten Detektionsdaten zu berechnen.
  14. Hinderniserkennungsverfahren, das in der Hinderniserkennungsvorrichtung von Anspruch 1 durch eine Steuerung auszuführen ist, die konfiguriert ist, Funktionen der Berechnungseinheit, der Bestimmungseinheit und der Korrektureinheit umzusetzen, wobei das Hinderniserkennungsverfahren die folgenden Schritte umfasst: Berechnen des Indexwerts zum Identifizieren, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, auf der Grundlage der ersten Detektionsdaten über das erste Objekt, die von dem ersten Sensor detektiert werden, und der zweiten Detektionsdaten über das zweite Objekt, die von dem zweiten Sensor detektiert werden; Bestimmen, ob das erste Objekt und das zweite Objekt dasselbe Objekt sind, durch Vergleichen des Indexwertes mit einem im Voraus festgelegten Schwellenwert; und Berechnen, wenn im Bestimmungsschritt festgestellt wird, dass das erste Objekt und das zweite Objekt dasselbe Objekt sind, des Detektionsfehlers zwischen dem ersten Sensor und dem zweiten Sensor auf der Grundlage der ersten Detektionsdaten und der zweiten Detektionsdaten, und Erzeugen korrigierter Detektionsdaten, um den Detektionsfehler zu beseitigen.
  15. Hinderniserkennungsverfahren, das in der Hinderniserkennungsvorrichtung nach Anspruch 9 durch eine Steuerung auszuführen ist, die konfiguriert ist, Funktionen der Vorhersageeinheit, der Berechnungseinheit, der Bestimmungseinheit und der Korrektureinheit umzusetzen, wobei das Hinderniserkennungsverfahren die folgenden Schritte umfasst: Vorhersagen der Bewegung des Objekts auf der Grundlage von Detektionsdaten, die zuvor von dem ersten Sensor detektiert wurden, und Erzeugen eines Vorhersagewerts zu einer aktuellen Zeit als dritte Detektionsdaten für das dritte Objekt; Berechnen des Indexwertes zur Identifizierung, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, basierend auf den ersten Detektionsdaten über das erste Objekt, die von dem ersten Sensor detektiert wurden, und den dritten Detektionsdaten über das dritte Objekt, die in dem Vorhersageschritt erzeugt wurden; Bestimmen, ob das erste Objekt und das dritte Objekt dasselbe Objekt sind, indem der Indexwert mit einem im Voraus festgelegten Schwellenwert verglichen wird; und Berechnung, wenn im Bestimmungsschritt festgestellt wird, dass das erste Objekt und das dritte Objekt dasselbe Objekt sind, des Bias-Fehlers zwischen einem Ergebnis der Detektion durch den ersten Sensor und einem Ergebnis der Erzeugung im Vorhersageschritt auf der Grundlage der ersten Detektionsdaten und der dritten Detektionsdaten, und Erzeugung korrigierter Detektionsdaten, um den Detektionsfehler zu beseitigen.
DE112017008157.2T 2017-11-20 2017-11-20 Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren Pending DE112017008157T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041720 WO2019097731A1 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法

Publications (1)

Publication Number Publication Date
DE112017008157T5 true DE112017008157T5 (de) 2020-09-10

Family

ID=66538596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017008157.2T Pending DE112017008157T5 (de) 2017-11-20 2017-11-20 Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren

Country Status (5)

Country Link
US (1) US11465643B2 (de)
JP (1) JP6818907B2 (de)
CN (1) CN111417869B (de)
DE (1) DE112017008157T5 (de)
WO (1) WO2019097731A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3901652A4 (de) * 2018-12-17 2022-06-22 Sony Semiconductor Solutions Corporation Kalibrierungsvorrichtung, kalibrierungsverfahren, programm, kalibrierungssystem und kalibrierungsziel
JP7285923B2 (ja) * 2019-05-13 2023-06-02 日立Astemo株式会社 車両制御システム
US20210033722A1 (en) * 2019-07-29 2021-02-04 Trackman A/S System and method for inter-sensor calibration
WO2021024712A1 (ja) * 2019-08-02 2021-02-11 日立オートモティブシステムズ株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
JP7412254B2 (ja) * 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法
US11656328B2 (en) * 2020-06-02 2023-05-23 Blue White Robotics Ltd Validating object detection hardware and algorithms
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
CN112733907B (zh) * 2020-12-31 2024-09-17 上海商汤临港智能科技有限公司 数据融合方法、装置、电子设备以及存储介质
DE102021201512A1 (de) 2021-02-17 2022-08-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Modellierung der Umgebung eines automatisierten Fahrzeugs
JP7528824B2 (ja) 2021-03-11 2024-08-06 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム
CN113296088A (zh) * 2021-05-11 2021-08-24 雄狮汽车科技(南京)有限公司 车辆的动态目标跟踪方法、装置、及车辆
WO2024121995A1 (ja) * 2022-12-07 2024-06-13 日立Astemo株式会社 車両制御装置
CN117235545B (zh) * 2023-11-14 2024-02-02 亿海蓝(北京)数据技术股份公司 判断空间对象分布相似性的方法、装置和可读存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP4434296B1 (ja) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 物体検出装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011064484A (ja) * 2009-09-15 2011-03-31 Mitsubishi Electric Corp センサバイアス推定装置
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
US9255989B2 (en) 2012-07-24 2016-02-09 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking on-road vehicles with sensors of different modalities
US9152526B2 (en) * 2012-11-16 2015-10-06 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
WO2015005001A1 (ja) * 2013-07-08 2015-01-15 本田技研工業株式会社 物体認識装置
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10578713B2 (en) 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method
JP6557896B2 (ja) * 2015-06-24 2019-08-14 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
JP6541590B2 (ja) * 2016-02-03 2019-07-10 クラリオン株式会社 カメラキャリブレーション装置

Also Published As

Publication number Publication date
WO2019097731A1 (ja) 2019-05-23
CN111417869A (zh) 2020-07-14
JPWO2019097731A1 (ja) 2020-04-02
JP6818907B2 (ja) 2021-01-27
US20200276983A1 (en) 2020-09-03
CN111417869B (zh) 2024-08-20
US11465643B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
DE112017008157T5 (de) Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren
DE69331407T2 (de) Bildprozessor zur Detektion und Verfolgung von Zielen
DE102008037014A1 (de) Vorrichtung zum Schätzen eines Fahrzeugzustands, das sich in einem vorderen Feld befindet
EP3156820A1 (de) Verfahren zum erfassen eines dynamischen objekts in einem umgebungsbereich eines kraftfahrzeugs auf basis von informationen einer kraftfahrzeugseitigen ultraschall-detektionseinrichtung, fahrerassistenzsystem und kraftfahrzeug
DE102018205065A1 (de) Verfahren zur Kalibrierung eines Positionssensors in einem Fahrzeug, Computerprogramm, Speichermittel, Steuergerät und Kalibrierstrecke
DE102016218080B3 (de) Verfahren und Vorrichtung zum Bestimmen einer Kollisionswahrscheinlichkeit eines Fahrzeugs mit einem Objekt
DE102019200612A1 (de) Vorrichtung und Verfahren zum Kalibrieren eines Multiple-Input-Multiple-Output-Radarsensors
EP3746850A1 (de) Verfahren zum ermitteln eines zeitlichen verlaufs einer messgrösse, prognosesystem, aktorsteuerungssystem, verfahren zum trainieren des aktorsteuerungssystems, trainingssystem, computerprogramm und maschinenlesbares speichermedium
DE102018103474A1 (de) Ein system und verfahren zur objektabstandserkennung und positionierung
EP3663881A1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102007007266A1 (de) Verfahren zum Auswerten von Sensormesswerten
EP3811336B1 (de) Verfahren zur bestimmung von zueinander korrespondierenden bildpunkten, soc zur durchführung des verfahrens, kamerasystem mit dem soc, steuergerät und fahrzeug
DE102008005316A1 (de) Fahrerassistenzsystem mit Schätzmodul für Kursversatz
DE102005004568A1 (de) Verfahren zur Berücksichtigung von Messwerten von kalibrierten Sensoren in einme Kalmanfilter
DE102017123902A1 (de) Verfahren zur Schätzung von Lagedaten basierend auf Radarinformationen
DE102018201801A1 (de) Vorrichtung zur Wahrnehmung eines Bereichs, Verfahren zum Betreiben einer Vorrichtung und Computerprogrammprodukt
DE112017008095T5 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE102021111114A1 (de) Fahrspurunbestimmtheitsmodellierung und -verfolgung in einem Fahrzeug
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102020210080A1 (de) Verfahren zum Ermitteln mindestens eines Systemzustands mittels eines Kalman-Filters
DE102016105023B4 (de) Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem
DE102019107390A1 (de) Verfahren und Vorrichtung zum Betreiben eines Systems zur Parameterschätzung für eine ein technisches System beschreibende Differentialgleichung
EP3663800A1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
DE102014210767A1 (de) Verfahren zur Offsetkorrektur eines Sensorsignals eines Inertialsensors, insbesondere Beschleunigungs- und/oder Drehratensensors für ein Kraftfahrzeug
DE102018217014A1 (de) Dynamische Qualifizierung von Nutzdaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0013930000

Ipc: G01S0007400000